Ciudad de México,
Ali Figueroa
Crédito foto: Gustavo Torres (NotiPress/Composición)
Ante la ofensiva de Israel en la Franja de Gaza, agencias de fact-checking corroboraron la existencia de imágenes manipuladas con inteligencia artificial (IA), especialmente aquellas que muestran a niños y bebes de origen palestino en medio de los ataques. Bajo esta línea, el Observatorio Europeo de los Medios Digitales (EDMO) reportó: estas fotos falsas, también conocidas como deepfakes, son un riesgo de desinformación ante un tema que requiere sensibilidad y profesionalismo.
Tomasso Canetta, vocero de EDMO, informó que una ola de fotos falsas sobre la situación en Palestina circulan las redes sociales, plataformas de mensajería, y medios de información. Al respecto de su uso, el experto señaló dos intenciones: apoyar a la causa palestina con imágenes que contienen violencia gráfica, o glorificar la intervención de la milicia israelí. En cualquiera de estos casos, la reacción de las personas ante la guerra se encuentra acompañada de emociones y situaciones reales.
De acuerdo con un estudio publicado por la Universidad Colegio Cork, Irlanda, la desinformación creada con tecnologías de inteligencia artificial ha desatado una tendencia de escepticismo entre los televidentes y usuarios web. Con motivo de los videos, audio, y fotografías manipuladas con el método deepfake, las personas se sienten preocupadas por no poder confiar en la veracidad de la información, especialmente relacionada con guerras.
La desconfianza en las imágenes puede alcanzar las redes sociales, agencias, y medios de información; y es capaz de entorpecer el flujo de las noticias. En consecuencia, expertos consideran que los contenidos deepfake en situaciones de guerra puede emplearse como propaganda para manipular la creencia en las ofensivas, como en los casos de Ucrania y Palestina.
Por su parte, las fotos falsas creadas con IA pueden provocar respuestas emocionales asociadas con sus expresiones y contexto, sin importar si se trata de personas que no existen. Sobre ello, investigadores del Departamento de Información e Ingeniería de la Universidad de Florencia publicaron un estudio sobre el reconocimiento facial en imágenes y videos de tipo deepfake.
Según los resultados publicados en agosto de 2023, 76% de los participantes en su encuesta lograron detectar rostros que fueron alterados con inteligencia artificial. No obstante, la mayoría de estas imágenes fueron consideradas de una expresión emocional "neutra", sin facciones exageradas, motivo por el cual se han vuelto el estándar para realizar este tipo de pruebas.
Los investigadores de Florencia señalaron que las personas tienen mayores dificultades de distinguir a una persona real de otra creada con deepfake cuando los rostros muestran emociones positivas y negativas. Desde expresiones relacionadas con tristeza y dolor, hasta felicidad, el estudio con técnicas de electroencefalograma indicó que el reconocimiento se complica en este campo.
Una investigación clave sobre la relación entre las imágenes falsas y las emociones reales fue publicada por la revista Psychology Today. Los resultados del estudio, compartido en octubre de 2021, revelaron que las personas son susceptibles a sentir emociones con las fotos deepfake, incluso al conocer que existe la manipulación con IA.
En el contexto de las fotos falsas utilizadas para ilustrar a personas que sufren por la guerra, las imágenes de niños y bebes en la Franja de Gaza representa un problema debido a los dos factores: emociones de horror reales en los espectadores, y la posibilidad de considerar el conflicto como una noticia falsa. Ante ello, el EDMO realizó un llamado para poner atención a cualquier contenido de guerra con imágenes, y emplear estrategias para reconocer deepfakes.