¿Puede fingir empatía una inteligencia artificial?

Hay millones de personas en el mundo que recurren a los chatbots en busca de apoyo emocional. ¿Son capaces de ello?

¿Puede fingir empatía una inteligencia artificial?

La empatía es una emoción compleja y multifacética donde cuentan componentes tanto cognitivos como emocionales. Es necesaria la capacidad de comprender la perspectiva o el estado mental de otra persona o incluso sentir lo que siente otra persona (que se conoce como empatía emocional). Es una característica inherentemente humana dentro de unos procesos cerebrales que nos permiten “reflejar” emociones de los demás. Ahora bien, ¿será capaz una inteligencia artificial de fingir esta capacidad tan humana?

Conectando genuinamente

Sabemos que los asistentes virtuales como Siri y Alexa, así como los chatbots de servicio al cliente, incluido el popular ChatGPT como modelo de lenguaje grande, están diseñados para reconocer palabras clave y señales emocionales y ofrecernos una respuesta adecuada ante nuestra pregunta o solicitud. Pero, ¿alcanzan a poder emular la empatía que puede sentir una persona?

Un equipo de científicos informáticos de la Universidad de Cornell, Olin College y la Universidad de Stanford llevó a cabo una investigación sobre agentes conversacionales como Siri para ver de qué manera mostraban empatía. Recordemos que la mayoría de los agentes conversacionales funciona con grandes modelos de lenguaje, lo que significa que poseen o barajan mucha información.

Estudio

Los expertos descubrieron que, tener tantos datos disponibles lleva acarreado que los mismos sesgos que los humanos de donde extraen la información, puede inclinarles a tener prejuicios y juicios sobre ciertas identidades humanas como los homosexuales y los musulmanes; los chatbots de inteligencia artificial (IA) y los grandes modelos de lenguaje (LLM) pueden permitir, sin darse cuenta, que el sexismo y el racismo estén presente en sus interlocutores.

Así las cosas, al probar a incitar a las IA’s a mostrar empatía mientras conversaban con hasta 65 identidades humanas distintas, el equipo descubrió que emitían juicios de valor sobre ciertas identidades, como la gay y la musulmana, y pueden alentar identidades relacionadas con ideologías dañinas, incluido el peligroso nazismo.

«Creo que la empatía automatizada podría tener un impacto tremendo y un enorme potencial para lograr cosas positivas, por ejemplo, en la educación o en el sector de la atención médica», explicó Andrea Cuadra, ahora investigadora postdoctoral en Stanford. «Es extremadamente improbable que (la empatía automatizada) no suceda, por lo que es importante que, mientras tenga lugar, tengamos perspectivas críticas para que podamos ser más intencionales a la hora de mitigar los daños potenciales».

Es una ilusión de empatía

De la misma forma, una máquina no siente emociones -al menos, por el momento-; procesa datos y ejecuta respuestas preprogramadas. Esta limitación es crucial en contextos que requieren una profunda comprensión emocional y conexión humana, como la terapia o los cuidados al final de la vida. Es decir, las inteligencias artificiales de modelos de lenguaje grande como ChatGPT o Llama, pueden responder a consultas en función de su formación, pero son incapaces de profundizar más allá, según los expertos. En suma, los LLM recibieron altas calificaciones en reacciones emocionales, pero obtuvieron calificaciones bajas en interpretaciones y profundizaciones sobre los temas.

Tambien te puede interesar:Bill Gates vislumbra el futuro con IA como una compañera en el 50 aniversario…
el siglo con informacion de:(muyinteresante)
SG