Deepfakes en tiempos de guerra, la otra cara de la propaganda política

 26-11-2023
Juan Manuel Flores
   
Foto: Sergio F Cara (NotiPress/Composición)

Foto: Sergio F Cara (NotiPress/Composición)

En los últimos meses, tanto los gobiernos como instituciones privadas han mostrado un temor general hacia los riesgos que implica la inteligencia artificial. Durante el inicio de la guerra entre Ucrania y Rusia, se vislumbraron algunos de los problemas generados por los contenidos creados con inteligencia artificial, tales como desconfianza, desinformación y cuestionamientos sobre lo que es y no real. Esta incertidumbre y preocupación entre especialistas en ética en relación con tecnología incrementó cuando las deepfakes, comenzaron a ser utilizadas con fines propagandísticos e ideológicos.

Ante ello, investigadores del University College Cork de Irlanda, realizaron un estudio para cuantificar el impacto de los deepfakes en escenarios de guerra. Para lo cual, analizaron más de 5 mil publicaciones en X, durante los primeros siete meses de 2022. Con el principal objetivo de comprender las reacciones del público en general ante los engaños digitales.

La investigación identificó que los espectadores de la guerra ruso-ucraniana tenían muchos problemas para discernir la información falsa de la verídica. Sin embargo, la mayor preocupación de los investigadores no fue el potencial del contenido para engañar a las personas, sino, la generación de desconfianza y cuestionamientos sobre la fiabilidad de información "legítima". Con lo cual, se generó la hipótesis de que "generar dudas" es uno de los principales objetivos de los contenidos falsos generados por IA.

Como ejemplo de deepfakes y dentro de los contenidos evaluados en el estudio, se menciona un video viralizado a principios de la guerra entre Ucrania y Rusia, en el cual, el presidente Volodímir Zelenski supuestamente le dice a sus soldados que se rindan. Posteriormente, los alcaldes de diversas capitales europeas fueron engañados para realizar videollamadas con una transmisión fake del presidente Zelenski. En estas, el mandatario falso, argumentaba, los refugiados ucranianos estaban engañando al estado alemán para que les entregaran beneficios sociales, ante lo cual aparentemente solicitaba deportaran a los ciudadanos de Ucrania.

Si bien, el estudio no asegura que estos videos fueran realizados por autoridades rusas, sí plantea que posiblemente alguien con intención de desprestigiar a Ucrania generó estos vídeos. Sin embargo, remarcan, estos casos de propaganda política o ideológica no fueron aislados. En junio de 2023, ciberterroristas de Ucrania, transmitieron un mensaje de emergencia falso en estaciones de radio y televisión de Rusia, en donde el presidente Vladímir Putin declaraba ley marcial después de la llegada de tropas enemigas al territorio del Kremlin.

Otra forma en la cual Ucrania aprovechó las deepfakes, según la investigación, fue la creación del mito "El fantasma de Kiev". Pues, mediante la combinación de videos de un videojuego e imágenes reales de vuelo se generó el concepto de un supuesto piloto de Ucrania que murió "heroicamente" derribando 40 aviones enemigos.

Estos solo fueron algunos ejemplos analizados en el estudio, bajo los cuales se concluyó que solo la posibilidad de la existencia de deepfakes siembra dudas sobre la autenticidad de cualquier contenido relacionado con guerra. Esto, a su vez, es considerado como la proliferación de una crisis de confianza en el panorama mediático, mismo que, incluso antes de los contenidos generados por IA, ya era cuestionado por el público. De este modo, surge la preocupación sobre cómo esta clase de contenidos podría potencialmente ser utilizado para adaptar la visión de un suceso a la agenda o conveniencia de un grupo, país u organización.

Así, los investigadores de University College Cork establecen la necesidad de crear mayor conciencia sobre los deepfakes y cómo identificarlos. Pues esto podría detener la erosión de la confianza en los medios legítimos y el escepticismo malsano. Dado que la responsabilidad para navegar por información falsa recae en los usuarios, el estudio también plantea la urgencia de crear manuales para ayudar a estos a identificar los contenidos generados por IA.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS