Ciudad de México,
Noelia Acuña
Crédito foto: Sergio F Cara (NotiPress/Composición)
En un contexto de preocupación por la integridad de los procesos electorales, OpenAI se dio a la tarea de identificar y desmantelar una operación encubierta de influencia iraní. Este grupo, conocido como Storm-2035, empleó cuentas de ChatGPT para generar y distribuir contenido manipulador sobre las elecciones presidenciales de Estados Unidos.
Para evitar el abuso de su tecnología de inteligencia artificial (IA) en el contexto de las elecciones presidenciales, la empresa detectó recientemente una operación de influencia encubierta, atribuida a un grupo iraní quienes generaban y difundían contenido manipulador en redes sociales y sitios web. Este contenido incluía artículos y comentarios sobre temas políticamente sensibles, como el conflicto en Gaza, las elecciones en Estados Unidos y la política en Venezuela.
Sin embargo, el compromiso de OpenAI con la transparencia y la prevención del abuso es clave para identificar y desmantelar este tipo de operaciones. En un informe publicado por la compañía, se detalló sobre la operación iraní intentó influir en la opinión pública estadounidense al crear perfiles falsos en redes sociales y hacerse pasar por progresistas o conservadores.
Dichos perfiles, publicaban contenido generado por ChatGPT, incluyendo comentarios reescritos a partir de publicaciones existentes en las plataformas. Si bien la operación tuvo poco impacto, la intervención de OpenAI no se limitó a la eliminación de las cuentas involucradas. La empresa también compartió la información obtenida con actores clave del gobierno, campañas políticas y la industria para evitar futuros intentos de manipulación electoral mediante el uso de IA.
El informe de Microsoft Threat Intelligence, contribuyó a la investigación de OpenAI e, identificó a Storm-2035 como una red iraní activa desde 2020, cuya estrategia es sembrar disenso y polarización entre la población estadounidense. Los operadores de Storm-2035 utilizaron ChatGPT para crear artículos falsos afirmando erróneamente que figuras políticas como Kamala Harris hacían declaraciones controvertidas sobre temas de inmigración y el cambio climático.
A pesar de la baja eficacia de estas campañas en términos de alcance y participación, OpenAI mantiene una postura firme contra cualquier intento de manipulación con IA. La empresa reafirmó su compromiso en seguir monitoreando y actuando contra el uso malicioso de sus servicios, especialmente en un año electoral tan importante como el 2024.
No obstante, el caso de Storm-2035 no es el primero en el que OpenAI interviene para detener operaciones encubiertas. En mayo, la empresa desbarató cinco campañas similares que utilizaban ChatGPT para fines maliciosos. A medida se aproximan las elecciones en Estados Unidos, es probable se intensifiquen los trabajos de actores malintencionados y utilicen la IA para difundir desinformación.