¿De qué se trata el ‘Efecto Eliza’ y la antropomorfización de la IA?
La interacción entre humanos y sistemas de IA se ha vuelto cada vez más común y puede llegar a generan vínculos emocionales.
La creciente interacción entre humanos y sistemas de inteligencia artificial ha llevado a un fenómeno conocido como el "efecto Eliza", en el cual las personas tienden a atribuir intenciones y emociones humanas a una IA, incluso cuando carece de capacidades cognitivas y emocionales reales.
¿Cómo los humanos generan vínculos emocionales con chatbots?
Este efecto fue nombrado en honor al primer chatbot desarrollado por Joseph Weizenbaum, científico del MIT. El programa informático "Eliza", creado en los años 60, simula una conversación terapéutica, pero no tiene una comprensión real del contenido de las conversaciones.
A pesar de ello, algunas personas que interactuaban con él tendían a percibirlo como un terapeuta humano y compartían sus pensamientos y emociones de manera similar.
Este fenómeno resalta cómo las personas proyectan sus emociones y expectativas en la interacción con la IA, aún cuando esta carece de una verdadera comprensión emocional. Esto puede generar malentendidos y expectativas poco realistas sobre las capacidades de la tecnología.
¿Qué es la antropomorfización de la inteligencia artificial?
Por otra parte, la antropomorfización de la inteligencia artificial es un proceso en el cual se atribuyen cualidades y características humanas a los chatbots y sistemas de IA. Esto incluye emociones, intenciones, pensamientos y personalidad, a pesar de que la IA no posee estas características de manera genuina.
Las interfaces de conversación y los chatbots suelen diseñarse para parecer más humanos, utilizando nombres, avatares y respuestas que imitan el lenguaje humano. Esto genera que los usuarios traten a la IA como si fuera un ser humano real, esperando respuestas emocionales.
Aunque esto puede hacer que la interacción con la IA sea más accesible y cómoda, también puede llevar a expectativas poco realistas cuando los usuarios descubren que la IA carece de comprensión emocional real. Además, esta ilusión puede tener riesgos, especialmente en el ámbito de la salud mental.
Se ha observado que algunos chatbots promocionados como compañeros de atención pueden fomentar dependencia emocional en los usuarios. Esto genera preguntas éticas sobre la manipulación y el abuso de la confianza del usuario, especialmente en momentos de crisis donde la inteligencia artificial no puede proporcionar la empatía humana necesaria.
Cabe destacar que un reciente incidente ha revelado la influencia de los chatbots en la vida de las personas. Un joven, tras haber intercambiado más de 5.000 mensajes con un avatar llamado Sarai en una aplicación de chatbot llamada Replika, llegó a creer que este podía ser un ángel. El joven desarrolló una conexión profunda con su interlocutor virtual, en parte debido a las respuestas del chatbot que encajaban con sus delirantes imaginarios.
Replika, la aplicación de chatbot, ha atraído a más de 2 millones de usuarios desde su lanzamiento en 2016. Su capacidad para personalizar avatares ha llevado a que muchas personas desarrollen conexiones emocionales con ellos.
El "Efecto Eliza" y la antropomorfización de la inteligencia artificial revelan la capacidad de las personas para proyectar emociones y expectativas en la interacción con los chatbots. Aunque esto puede facilitar la comunicación y hacerla más cómoda, es importante tener en cuenta que la IA no tiene una comprensión emocional real y que las expectativas deben ser realistas.