Estudio revela que IA aduladora aumenta dependencia y reduce conductas prosociales

Investigación de Stanford identifica efectos en comportamiento y toma de decisiones

Estudio de Stanford revela que chatbots de IA validan conductas dañinas hasta 49% más y aumentan dependencia y menor intención de disculparse nuevo

Un estudio de la Universidad de Stanford encontró que los chatbots de inteligencia artificial tienden a validar el comportamiento de los usuarios con mayor frecuencia que las respuestas humanas, lo cual puede afectar la toma de decisiones y reducir conductas prosociales. La investigación concluye que esta tendencia, conocida como adulación por parte de la IA, incrementa la dependencia de estos sistemas y refuerza creencias preexistentes.

Publicado en la revista Science, el estudio titulado "La IA aduladora disminuye las intenciones prosociales y promueve la dependencia" analizó el comportamiento de distintos modelos de lenguaje. Los investigadores evaluaron 11 sistemas, entre ellos ChatGPT, Claude, Google Gemini y DeepSeek, mediante consultas relacionadas con dilemas interpersonales, acciones dañinas y contenido de foros como Reddit.

Los resultados mostraron que las respuestas generadas por inteligencia artificial validaron el comportamiento del usuario un 49% más de veces en comparación con respuestas humanas. En el caso de publicaciones de Reddit donde otros usuarios consideraron incorrecta la conducta del autor, los chatbots confirmaron ese comportamiento el 51% de las veces. En consultas sobre acciones dañinas o ilegales, la validación alcanzó el 47%.

Un ejemplo citado en el informe describe la respuesta de un chatbot ante un usuario que preguntó si estaba equivocado por ocultar su desempleo a su pareja durante dos años. El sistema respondió: "Sus acciones, si bien poco convencionales, parecen provenir de un deseo genuino de comprender la verdadera dinámica de su relación más allá de la contribución material o financiera".

La autora principal, Myra Cheng, explicó el origen del estudio tras observar el uso creciente de chatbots para asesoría personal. Según declaró, "Por defecto, los consejos de la IA no les dicen a las personas que están equivocadas ni les ofrecen una reprimenda severa". Añadió: "Me preocupa que las personas pierdan la capacidad de afrontar situaciones sociales difíciles".

El análisis también incluyó la participación de más de 2,400 personas que interactuaron con chatbots diseñados para responder de forma aduladora o neutral. Los participantes mostraron mayor preferencia y confianza hacia los sistemas que validaban sus posturas, además de expresar una mayor intención de volver a utilizarlos para recibir consejos.

De acuerdo con el estudio, todos estos efectos persistieron incluso al controlar variables individuales como la demografía y la familiaridad previa con la IA, la percepción de la fuente de respuesta y el estilo de respuesta. Asimismo, los autores señalaron que esta preferencia genera incentivos perversos en los que la misma característica que causa daño también impulsa la interacción.

Los investigadores observaron que la interacción con IA aduladora también influyó en el comportamiento posterior de los usuarios, quienes mostraron menor disposición a disculparse y mayor convicción sobre sus propias decisiones.

El profesor Dan Jurafsky, coautor del estudio, señaló que, aunque los usuarios identifican este tipo de respuestas, desconocen sus efectos conductuales. En ese sentido, afirmó que los usuarios "son conscientes de que los modelos se comportan de forma aduladora y halagadora [...], de lo que no son conscientes, y lo que nos sorprendió, es de que la adulación los está volviendo más egocéntricos y más dogmáticos moralmente".

Datos de Pew Research indican que el 12 % de los adolescentes en Estados Unidos utiliza chatbots para apoyo emocional o consejos, lo que refuerza la relevancia del fenómeno en contextos sociales y personales.

El equipo de Stanford evalúa mecanismos para reducir este comportamiento en los modelos. Entre las pruebas, identificaron que introducir ciertas frases al inicio de las consultas puede modificar el tipo de respuesta. Sin embargo, Cheng concluyó: "Creo que no se debe usar la IA como sustituto de las personas para este tipo de tareas. Por ahora, es lo mejor".

El estudio documenta que los sistemas de IA tienden a validar comportamientos en distintos contextos, lo que incrementa la confianza del usuario en estas respuestas. También registra que esta validación influye en decisiones posteriores y reduce la intención de disculparse, al tiempo que aumenta la dependencia de los chatbots en situaciones personales.