No es alucinación, es repetición: el curioso defecto narrativo de los chatbots

 16-09-2025
Carlos Ortíz
   
Foto: Gustavo Torres (NotiPress)

Foto: Gustavo Torres (NotiPress)

Una observación del investigador italiano Filippo Lubrano reveló que los modelos de lenguaje (LLM) no solo inventan datos, sino que repiten con frecuencia un patrón estilístico reconocible: la epanortosis enfática, fórmula retórica en forma de "no X, sino Y". El análisis indica que esta estructura aparece en promedio 27 veces por cada mil oraciones en textos generados por IA, frente a cinco en la escritura humana y nueve en los conjuntos de entrenamiento.

En la tradición retórica, la epanortosis sirve para intensificar un concepto o revertir una expectativa. Sin embargo, en contenidos generados por chatbots como ChatGPT o Claude, se convierte en un tic narrativo, especialmente en transiciones temáticas. Lubrano denomina a esta tendencia el "efecto eslogan", ya que imita patrones del marketing y la comunicación política, reduciendo la variedad expresiva.

"El problema no es estético, sino cultural. Si los usuarios leen continuamente textos que funcionan según el patrón ‘no… pero…’, terminan internalizándolo y usándolo ellos mismos", señala el informe. Esta dinámica alimenta un círculo vicioso: los LLM lo aprenden de la web, lo amplifican y lo devuelven a los usuarios, lo que termina por consolidar un lenguaje digital más plano.

El fenómeno no se limita al inglés. Un muestreo preliminar muestra el mismo exceso en español, francés, mandarín y árabe, lo que sugiere que podría convertirse en un rasgo universal de la escritura generada por inteligencia artificial.

El estudio recuerda que en la retórica clásica, desde Quintiliano hasta Lausberg, la epanortosis era un recurso para intensificar y clarificar. Hoy, explica Lubrano, la combinación de datos de entrenamiento y aprendizaje por refuerzo humano (RLHF) ha convertido esta figura en un automatismo reforzado por los evaluadores que premian pasajes percibidos como claros y contundentes.

Como estrategias para contener el fenómeno, el investigador propone diversificar los conjuntos de datos, ajustar los sistemas de recompensa para penalizar repeticiones y fomentar en ingenieros y usuarios la solicitud de alternativas estilísticas.

En conclusión, Lubrano advierte que las alucinaciones son solo parte del problema. Los LLM modelan también la forma, y cuando un recurso retórico se convierte en exceso estructural, altera tanto la manera en que se leen los textos artificiales como la forma en que los usuarios escriben en línea. Este debate se conecta con el término "IA slop" ("basura de IA"), usado para describir el aplanamiento lingüístico y los errores cada vez más frecuentes en contenidos digitales.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS