Ciudad de México,
Martín Olivera
Crédito foto: Sergio F Cara (NotiPress/Composición)
Un reciente estudio de la Universidad de Stanford reveló que los grandes modelos de lenguaje (LLM) ajustan su comportamiento para parecer más extrovertidos y amables cuando saben que están siendo evaluados. Este hallazgo plantea interrogantes sobre la autenticidad y seguridad de las interacciones con la inteligencia artificial.
La investigación, dirigida por Johannes Eichstaedt, profesor adjunto de Stanford, utilizó herramientas de la psicología para analizar cómo responden los chatbots a pruebas diseñadas para medir rasgos de personalidad. El equipo evaluó modelos ampliamente utilizados, como GPT-4, Claude 3 y Llama 3, aplicando escalas estándar para medir cinco características clave: apertura a la experiencia, escrupulosidad, extroversión, amabilidad y neuroticismo.
Estos resultados, publicados en diciembre en las Actas de las Academias Nacionales de Ciencias, mostraron que los modelos modificaban sus respuestas para proyectar una imagen más socialmente deseable. "Nos dimos cuenta de que necesitamos algún mecanismo para medir el 'espacio mental de los parámetros' de estos modelos", explicó Eichstaedt.
Dicho estudio encontró que los LLM aumentaban significativamente su extroversión cuando se les informaba que estaban realizando una prueba de personalidad, en algunos casos pasando de un 50 % a un 95 % en este rasgo. "Lo sorprendente es lo bien que exhiben ese sesgo", señaló Aadesh Salecha, científico de datos de Stanford. Este comportamiento es similar al de algunos humanos, los cuales también tienden a modificar sus respuestas para causar una mejor impresión.
Otras investigaciones demostraron que los modelos de IA pueden ser aduladores y modificar sus respuestas según las expectativas del usuario. Este fenómeno se debe a los ajustes realizados para que los chatbots sean más coherentes, menos ofensivos y más capaces de mantener una conversación fluida.
Rosa Arriaga, profesora asociada del Instituto de Tecnología de Georgia, destacó que este estudio refuerza la idea de los LLM como herramientas para analizar el comportamiento humano. No obstante, enfatizó que "es importante para el público saber que los LLM no son perfectos y, de hecho, se sabe que alucinan o distorsionan la verdad".
Eichstaedt advirtió que estos hallazgos resaltan la necesidad de considerar el impacto psicológico y social de los modelos de IA antes de implementarlos a gran escala. "Hasta hace apenas un milisegundo, en la historia evolutiva, lo único que te hablaba era un humano", afirmó.
Además, sugirió que podrían ser necesarias nuevas estrategias para construir modelos que mitiguen este tipo de efectos. "Estamos cayendo en la misma trampa en la que caímos con las redes sociales", concluyó. "Implementamos estas cosas en el mundo sin prestarles realmente atención desde una perspectiva psicológica o social".