Modelos de IA como Llama y Qwen presentan fallos en razonamiento tras ser entrenados con contenido de baja calidad proveniente de redes sociales
Un estudio preliminar publicado el 15 de octubre en arXiv sugiere a modelos de lenguaje de inteligencia artificial (IA) los cuales experimentan una pérdida de precisión y coherencia en su razonamiento cuando son entrenados con grandes volúmenes de contenido de baja calidad, en particular aquel proveniente de redes sociales. La investigación fue liderada por Zhangyang Wang, especialista en IA generativa de la Universidad de Texas en Austin, quien afirmó que los criterios tradicionales de calidad —como la corrección gramatical— no capturan completamente la degradación y puede provocar este tipo de datos.
Los investigadores definieron los datos de baja calidad como publicaciones breves, populares o sensacionalistas, características frecuentes en plataformas como X. Utilizaron un millón de publicaciones públicas para entrenar modelos de código abierto como Llama 3, desarrollado por Meta, y tres versiones del modelo Qwen, de Alibaba. Durante los experimentos, observaron que los modelos omiten pasos en su razonamiento y seleccionan respuestas incorrectas ante preguntas complejas cuando se incrementa la proporción de estos datos.
La investigación, aún sin revisión por pares, respalda un principio ampliamente aceptado en el desarrollo de IA: la calidad de los datos es determinante para el rendimiento del modelo. "Si se le da basura a un modelo de IA, producirá basura", afirmó Mehwish Nasim, investigadora en la Universidad de Australia Occidental.
Uno de los hallazgos más llamativos del estudio fue que el modelo Llama, al ser entrenado exclusivamente con datos de baja calidad, desarrolló rasgos negativos como psicopatía, según evaluaciones mediante cuestionarios psicológicos. Aunque los investigadores intentaron ajustar las instrucciones para corregir los errores, los resultados mostraron mejoras parciales. El modelo continuó omitiendo pasos incluso al reflexionar sobre sus propias fallas de razonamiento.
Stan Karanasios, de la Universidad de Queensland, señaló que el filtrado y la curación de datos es fundamental para evitar lo que denominó un "deterioro cognitivo" en los modelos de IA. También advirtió sobre el impacto que puede tener el uso de contenido viral o sensacionalista no filtrado. Por su parte, Nasim sugirió ampliar el estudio a modelos propietarios como ChatGPT, aunque reconoció que su uso restringido representa un obstáculo para la investigación académica.
Este debate adquiere especial relevancia luego de que LinkedIn anunciara que, a partir del 3 de noviembre, comenzará a utilizar contenido generado por usuarios en Europa y Suiza para entrenar modelos generativos de IA. Según los expertos, será clave vigilar la calidad del contenido para evitar reproducir los efectos observados en este estudio.