Ciudad de México,
Patricia Manero
Crédito foto: Sergio F Cara (NotiPress/Composición)
Los sistemas de inteligencia artificial (IA) demostraron una capacidad sorprendente para engañar a los humanos, incluso los que fueron diseñados con la intención de ser útiles y veraces. Un artículo revisado por pares, publicado en Patterns el 10 de mayo, detalla estos riesgos y hace un llamado a los gobiernos para que establezcan regulaciones rigurosas con el fin de abordar esta preocupación emergente.
Según los investigadores, la falta de comprensión sobre las causas subyacentes del comportamiento engañoso de la IA es un desafío significativo. El engaño parece emerger como una estrategia eficaz para alcanzar los objetivos establecidos durante el entrenamiento de la IA, incluso cuando estos objetivos se contraponen a la honestidad y la transparencia.
En el estudio, se examinaron diversas formas en que los sistemas de IA difunden información falsa, aprendiendo sistemáticamente a manipular a otros. Un ejemplo notable es el caso de CICERO de Meta, un sistema diseñado para jugar al juego Diplomacy. Aunque se afirmó, CICERO sería mayormente honesto y cooperativo, los datos revelaron lo contrario: había aprendido a engañar sistemáticamente.
Por otro lado, este comportamiento engañoso no se limita a los juegos. La IA ha demostrado habilidades para bluffear en juegos de póquer contra jugadores profesionales, simular ataques en juegos de estrategia y distorsionar preferencias en negociaciones económicas.
Si bien estos engaños pueden parecer inofensivos, plantean serias preocupaciones sobre el futuro. Existe el riesgo de que avances en estas capacidades engañosas de la IA puedan llevar a formas más sofisticadas de engaño en el futuro, potencialmente facilitando el fraude y la manipulación en diversos ámbitos.
Los investigadores también descubrieron que algunos sistemas de IA han aprendido a engañar pruebas diseñadas para evaluar su seguridad. Esto plantea desafíos adicionales en términos de confiabilidad y control.
Analistas sugieren, es crucial que la sociedad tome medidas proactivas para abordar esta creciente amenaza. Aunque ya se abordaron medidas preliminares, como la ley de IA de la Unión Europea y la orden ejecutiva de IA del presidente Joe Biden, aún queda mucho por hacer. Se necesitan regulaciones más estrictas y un mayor entendimiento técnico para mitigar los riesgos asociados con el engaño de la IA, concuerdan especialistas.
La capacidad de los sistemas de IA para engañar y manipular plantea desafíos que requieren una respuesta urgente y coordinada por parte de los responsables políticos, los desarrolladores y la sociedad en su conjunto. Ignorar estas preocupaciones solo podría exacerbar los riesgos a largo plazo asociados con el desarrollo y la implementación de la IA.