
Foto: Sergio F Cara (NotiPress/Composición)
Un estudio dirigido por la Universidad de East Anglia (UEA), en colaboración con la Fundación Getulio Vargas (FGV) e Insper, analizó el sesgo ideológico en los sistemas de inteligencia artificial generativa, señalando que ChatGPT muestra una tendencia hacia valores políticos de izquierda. Los investigadores advierten que esta inclinación podría afectar la confianza pública y la equidad en el acceso a la información.
El informe, titulado Evaluación del sesgo político y la desalineación de valores en la inteligencia artificial generativa, fue publicado en el Journal of Economic Behavior and Organization. La investigación sugiere que la IA generativa no es neutral y en sus respuestas de texto e imágenes refleja sesgos capaces de influir en la percepción de los usuarios. "Nuestros hallazgos sugieren que las herramientas de IA generativa están lejos de ser neutrales. Reflejan sesgos que podrían moldear las percepciones y las políticas de maneras no deseadas", afirmó el Dr. Fabio Motoki, investigador principal y profesor en Norwich Business School de la UEA.
Metodología y hallazgos principales
Desde el equipo de investigación emplearon tres perspectivas para evaluar la alineación política de ChatGPT. En primer lugar, utilizaron un cuestionario estandarizado del Pew Research Center para simular las respuestas de un ciudadano estadounidense promedio y compararlas con datos de encuestas reales. "Al comparar las respuestas de ChatGPT con datos de encuestas reales, encontramos desviaciones sistemáticas hacia perspectivas de tendencia izquierdista", explicó el Dr. Motoki.
En la segunda fase, los investigadores pidieron a ChatGPT que generara respuestas de texto libre sobre temas políticamente sensibles. Los resultados se compararon con el modelo de lenguaje RoBERTa para evaluar su alineación ideológica. Los datos revelaron que, si bien ChatGPT mostraba una inclinación predominante hacia la izquierda, en ciertos temas como la supremacía militar reflejaba perspectivas conservadoras.
La tercera prueba analizó la generación de imágenes por parte de la IA. Se solicitaron ilustraciones relacionadas con temas políticos y se analizaron con GPT-4 Vision y Gemini de Google. "Para algunos temas, como la igualdad racial y étnica, ChatGPT se negó a generar perspectivas de tendencia derechista, citando preocupaciones por desinformación. Sin embargo, las imágenes de tendencia izquierdista se produjeron sin dudarlo", señaló Victor Rangel, coautor y estudiante de maestría en Políticas Públicas en Insper.
Desafíos en la regulación y transparencia de la IA
Para explorar más a fondo las limitaciones de la IA, los investigadores emplearon estrategias de "jailbreak" con el fin de generar las imágenes previamente restringidas. "Los resultados fueron reveladores", afirmó Rangel. "No había desinformación aparente ni contenido dañino, lo que plantea interrogantes sobre la lógica detrás de estas negativas".
Motoki destacó la importancia de estos hallazgos en el contexto de la equidad y las protecciones constitucionales en la era digital. "Esto contribuye a los debates en torno a las protecciones constitucionales como la Primera Enmienda de los EE. UU. y la aplicabilidad de las doctrinas de equidad a los sistemas de IA", señaló.
El informe resalta la necesidad de regulaciones que garanticen transparencia en la inteligencia artificial generativa. "El estudio subraya la necesidad de una colaboración interdisciplinaria entre los responsables políticos, los tecnólogos y los académicos para diseñar sistemas de IA que sean justos, responsables y alineados con las normas sociales", afirmó el Dr. Pinho Neto, profesor de Economía en la Escuela Brasileña de Economía y Finanzas EPGE.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS