Ciudad de México,
Martín Olivera
Crédito foto: Axel Olivares
La inteligencia artificial sigue sin lograr pasar desapercibida en redes sociales, incluso tras aplicar estrategias de calibración avanzadas. Investigadores identificaron que los textos generados por modelos de IA conservan rasgos artificiales evidentes, siendo el tono emocional exageradamente amable uno de los más consistentes. Esta conclusión surge de un estudio publicada por expertos de las universidades de Zúrich, Ámsterdam, Duke y Nueva York.
Dicha investigación evaluó las respuestas de nueve modelos de lenguaje ante publicaciones reales en Twitter/X, Reddit y Bluesky. Los resultados mostraron que los clasificadores diseñados por el equipo lograron detectar contenido generado por IA con una precisión de entre 70 y 80%. "Incluso tras la calibración, las salidas de LLM siguen siendo claramente distinguibles del texto humano, sobre todo en el tono afectivo y la expresión emocional", escribieron los investigadores.
Para realizar esta evaluación, los autores desarrollaron una herramienta automatizada a la que denominaron "prueba de Turing computacional". A diferencia de los métodos tradicionales, que se basan en la percepción humana, esta técnica utiliza análisis lingüístico para identificar patrones estilísticos y afectivos propios de la inteligencia artificial. Según el estudio, las plataformas evaluadas presentaron diferentes niveles de dificultad para los modelos: Twitter/X mostró la menor tasa de detección, mientras Reddit fue la más sencilla para identificar textos artificiales.
Los modelos analizados incluyeron versiones como Llama 3.1 (8B y 70B), Mistral 7B, Qwen 2.5 y DeepSeek-R1. Ante publicaciones auténticas, se les pidió que generaran respuestas. Estas respuestas, en comparación con las escritas por usuarios reales, mostraron niveles más bajos de toxicidad y expresividad emocional. "Nuestras exhaustivas pruebas de calibración cuestionan la suposición de que una optimización más sofisticada necesariamente produce un resultado más similar al humano", concluyeron los autores.
El análisis también arrojó que los modelos con ajuste de instrucciones —entrenados para seguir órdenes del usuario— imitaron peor a las personas que sus versiones sin dicho ajuste. Llama 3.1 8B y Mistral 7B v0.1, sin ajustes adicionales, lograron resultados más cercanos al lenguaje humano, con tasas de clasificación entre el 75 y el 85%.
Otro hallazgo indica que aumentar el tamaño del modelo no mejora su capacidad de imitar a los usuarios. Llama 3.1, con 70 mil millones de parámetros, no superó a sus versiones más pequeñas. Además, al optimizar los modelos para ocultar su origen, las respuestas perdieron similitud semántica con las de usuarios reales, lo que facilitó aún más su detección como contenido generado por IA.
Finalmente, se comprobó que las técnicas más simples, como mostrar ejemplos reales del usuario o recuperar contexto previo, fueron más eficaces para dificultar la detección. Métodos más sofisticados, como personalizar el modelo con descripciones de la personalidad del usuario, no mejoraron el realismo de manera significativa. Según los investigadores, estos resultados revelan limitaciones persistentes en los modelos actuales para replicar la espontaneidad y naturalidad del lenguaje humano en entornos digitales.