Foto: Sergio F Cara (NotiPress/Composición)
Un estudio reciente llevado a cabo por la Universidad de Toronto Scarborough reveló que las respuestas generadas por inteligencia artificial (IA) son percibidas como más empáticas y compasivas que las proporcionadas por humanos, incluidos expertos en respuesta a crisis. La investigación fue publicada en la revista Communications Psychology y analizó cómo las personas evalúan la compasión en diferentes tipos de respuestas.
De acuerdo con Dariya Ovsyannikova, autora principal del estudio y directora del laboratorio del profesor Michael Inzlicht, "la IA no se cansa. Puede ofrecer respuestas empáticas consistentes y de alta calidad sin la tensión emocional que experimentamos los humanos". La investigación consistió en una serie de experimentos diseñados para evaluar la percepción de empatía en diferentes contextos.
Los investigadores realizaron cuatro experimentos separados en los que se pidió a los participantes que calificaran respuestas a diversos escenarios, tanto positivos como negativos, generadas por IA, personas comunes y expertos en crisis. En cada escenario, las respuestas creadas por herramientas de IA como ChatGPT fueron las preferidas, destacándose por transmitir mayor cuidado, validación y comprensión.
Ovsyannikova señaló que la IA es particularmente eficaz porque puede captar detalles sutiles y mantener un abordaje objetivo. Sin embargo, los investigadores advirtieron que esto no implica la sustitución completa de la empatía humana por máquinas. Michael Inzlicht, coautor del estudio, explicó: "La IA puede ser una herramienta valiosa para complementar la empatía humana, pero conlleva sus propios peligros".
Un balance entre empatía humana e IA
El estudio también exploró las limitaciones humanas al expresar empatía. Los expertos indicaron que el agotamiento emocional, los prejuicios y las experiencias personales pueden dificultar respuestas empáticas constantes. "Los cuidadores pueden experimentar fatiga por compasión", afirmó Ovsyannikova, quien tiene experiencia como voluntaria en respuesta a crisis. En muchos casos, profesionales de la salud mental deben equilibrar su compromiso emocional para evitar el desgaste o desbordarse con casos particularmente complejos.
La investigación también destacó un fenómeno conocido como "aversión a la IA". Este término describe el escepticismo que muchas personas tienen hacia las máquinas en contextos que involucran emociones humanas. Según el estudio, las respuestas generadas por IA fueron calificadas de manera más positiva cuando los participantes no sabían su origen. Sin embargo, este sesgo fue menos pronunciado entre las generaciones más jóvenes, quienes crecieron interactuando con tecnologías de IA, lo cual sugiere un cambio en la percepción futura.
Riesgos éticos y sociales
A pesar de sus ventajas, el uso de IA para generar empatía plantea riesgos éticos. Inzlicht explicó que una dependencia excesiva de estas herramientas podría contribuir al aislamiento social. "Si la IA se convierte en la fuente preferida de empatía, la gente podría alejarse de las interacciones humanas, exacerbando los mismos problemas que estamos tratando de resolver, como la soledad y el aislamiento social", advirtió.
También, el uso de IA podría otorgar un poder desproporcionado a las empresas tecnológicas. Estas podrían manipular a personas vulnerables que buscan atención empática, promoviendo un mayor consumo de sus servicios. Por ello, los investigadores insistieron en la necesidad de implementar estas tecnologías de manera transparente y equilibrada.
"La IA puede llenar vacíos, pero nunca debería reemplazar por completo el toque humano", concluyó Inzlicht.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS