¿Puede fingir empatía una inteligencia artificial?

 ¿Puede fingir empatía una inteligencia artificial?

AGENCIA:
MÉXICO

La empatía es una emoción compleja y multifacética donde cuentan componentes tanto cognitivos como emocionales. Es necesaria la capacidad de comprender la perspectiva o el estado mental de otra persona o incluso sentir lo que siente otra persona (que se conoce como empatía emocional). Es una característica inherentemente humana dentro de unos procesos cerebrales que nos permiten “reflejar” emociones de los demás. Ahora bien, ¿será capaz una inteligencia artificial de fingir esta capacidad tan humana?
Sabemos que los asistentes virtuales como Siri y Alexa, así como los chatbots de servicio al cliente, incluido el popular ChatGPT como modelo de lenguaje grande, están diseñados para reconocer palabras clave y señales emocionales y ofrecernos una respuesta adecuada ante nuestra pregunta o solicitud. Pero, ¿alcanzan a poder emular la empatía que puede sentir una persona?
Un equipo de científicos informáticos de la Universidad de Cornell, Olin College y la Universidad de Stanford llevó a cabo una investigación sobre agentes conversacionales como Siri para ver de qué manera mostraban empatía. Recordemos que la mayoría de los agentes conversacionales funciona con grandes modelos de lenguaje, lo que significa que poseen o barajan mucha información.
Los expertos descubrieron que, tener tantos datos disponibles lleva acarreado que los mismos sesgos que los humanos de donde extraen la información, puede inclinarles a tener prejuicios y juicios sobre ciertas identidades humanas como los homosexuales y los musulmanes; los chatbots de inteligencia artificial (IA) y los grandes modelos de lenguaje (LLM) pueden permitir, sin darse cuenta, que el sexismo y el racismo estén presente en sus interlocutores.
Así las cosas, al probar a incitar a las IA’s a mostrar empatía mientras conversaban con hasta 65 identidades humanas distintas, el equipo descubrió que emitían juicios de valor sobre ciertas identidades, como la gay y la musulmana, y pueden alentar identidades relacionadas con ideologías dañinas, incluido el peligroso nazismo.
Esta limitación es crucial en contextos que requieren una profunda comprensión emocional y conexión humana, como la terapia o los cuidados al final de la vida. Es decir, las inteligencias artificiales de modelos de lenguaje grande como ChatGPT o Llama, pueden responder a consultas en función de su formación, pero son incapaces de profundizar más allá, según los expertos. En suma, los LLM recibieron altas calificaciones en reacciones emocionales, pero obtuvieron calificaciones bajas en interpretaciones y profundizaciones sobre los temas.

Redaccion Diario de Palenque