Una nueva investigación sugiere que usar una herramienta de inteligencia artificial para escribir un mensaje a un amigo puede no ser la mejor opción, especialmente si el amigo se entera de que hay inteligencia artificial involucrada. Las investigaciones muestran que los participantes calificaron a los amigos imaginarios que usaron IA para escribir mensajes como menos genuinos que los amigos que escribieron mensajes manualmente.
Bingjie Liu, autora principal del estudio y profesora asistente de comunicación en la Universidad Estatal de Ohio, dijo que esta opinión puede ser comprensible, pero su impacto no se limita al contenido del mensaje.
Liu Bingjie dijo: "Después de recibir información asistida por IA, las personas se sentirán menos satisfechas con sus relaciones con sus amigos y más inseguras acerca de su posición".
Pero para ser justos con la IA, no es sólo el uso de la tecnología lo que desanima a las personas. El estudio también encontró que también había efectos negativos cuando las personas se enteraban de que sus amigos habían recibido ayuda de otros al escribir sus mensajes. La gente quiere que su pareja o amigo se esfuerce por escribir el mensaje por su cuenta sin la ayuda de inteligencia artificial u otras personas.
La investigación fue publicada recientemente en línea en el Journal of Social and Personal Relationships.
Liu dijo que a medida que los chatbots de IA como ChatGPT se vuelvan más populares, la cuestión de cómo usarlos se volverá más relevante y compleja. En el estudio participaron 208 adultos que participaron en línea. A los participantes se les dijo que habían sido amigos de un hombre llamado Tyler durante muchos años. Se les dijo que había tres escenarios: estaban experimentando agotamiento y necesitaban apoyo; estaban en conflicto con sus colegas y necesitaban consejo; o se acercaba su cumpleaños.
Luego se pidió a los participantes que escribieran un breve mensaje a Taylor describiendo su situación actual en un cuadro de texto en la pantalla de la computadora.
A todos los participantes se les dijo que Taylor les enviaría una respuesta. Durante estos escenarios, Taylor escribió un primer borrador. A algunos participantes se les dijo que Taylor tenía un sistema de inteligencia artificial para ayudar a revisar el mensaje para lograr el tono correcto, a otros se les dijo que un miembro de la comunidad de escritores ayudó con las revisiones y a un tercer grupo de participantes se les dijo que Taylor hizo todas las revisiones del mensaje.
En cada caso, los participantes del estudio calificaron las respuestas de Taylor de la misma manera, incluso "reflexivas". Aún así, los participantes del estudio tenían sentimientos encontrados sobre los mensajes que dijeron haber recibido sobre Taylor. Aquellos que recibieron respuestas asistidas por IA pensaron que lo que Taylor había hecho era menos apropiado e inapropiado que aquellos que recibieron respuestas escritas únicamente por el propio Taylor.
Las respuestas de la IA también llevaron a los participantes a expresar menos satisfacción con su relación, como calificar a Taylor con una calificación más baja en cuanto a satisfacer "mis necesidades como amigo cercano". Además, en el estudio, las personas que recibieron las respuestas asistidas por IA estaban más inseguras acerca de su relación con Taylor y menos seguras acerca de la afirmación "Le agrado a Taylor como un amigo cercano".
Una posible razón por la que a la gente no le gustan las respuestas asistidas por IA es que piensa que es inapropiado e inferior a los humanos utilizar la tecnología para elaborar ese tipo de información personal. Pero los resultados mostraron que las personas respondieron igualmente negativamente cuando Taylor le pidió a otro ser humano, un miembro de una comunidad de escritores en línea, que le ayudara a escribir el mensaje.
El estudio encontró que las personas creen que los amigos no deberían utilizar a ningún tercero (inteligencia artificial u otros humanos) para ayudar a mantener su relación. La razón fue que los participantes creían que Taylor dedicaba menos esfuerzo a su relación al confiar en la inteligencia artificial u otras personas para ayudar a redactar el mensaje.
Cuanto peor calificaron los participantes los esfuerzos de Taylor por utilizar la IA u otras personas, menos satisfechos estaban con su relación y más inseguros estaban sobre la amistad.
"El esfuerzo es muy importante en una relación", afirmó Liu. "La gente quiere saber cuánto estás dispuesto a invertir en tu amistad, y si sienten que estás tomando atajos al usar la IA para ayudar, eso no es bueno".
Por supuesto, la mayoría de las personas no les dirán a sus amigos que usaron IA para ayudar a redactar sus mensajes, pero señaló que a medida que ChatGPT y otros servicios crecen en popularidad, las personas pueden comenzar a ejecutar pruebas de Turing en sus mentes mientras leen mensajes de amigos y otras personas. El término "prueba de Turing" se utiliza a veces cuando las personas quieren saber si pueden saber si una acción fue realizada por una computadora o por un humano.
La gente podría ejecutar en secreto este tipo de prueba de Turing en sus cabezas, tratando de descubrir si hay un elemento de inteligencia artificial en la información. Esto puede dañar las relaciones.
La respuesta es hacer tu trabajo en las relaciones, dijo. "No utilices la tecnología sólo porque sea conveniente. La sinceridad y la autenticidad siguen siendo muy importantes en las relaciones".