El problema de las deepfakes y las posturas de las redes sociales al respecto

 07-08-2020
Jorge Cerino
   
Foto: Sergio Cara (NotiPress)

Foto: Sergio Cara (NotiPress)

Ante el surgimiento reciente de deepfakes y los problemas que ya se han experimentado por las noticias falsas y otras falsificaciones de información en redes sociales, muchas empresas, entre ellas TikTok, Facebook y Twitter, comienzan a tomar medidas para combatir la desinformación en sus plataformas.

Las deepfakes son audios o vídeos manipulados mediante el uso de inteligencia artificial (IA), para dar la impresión de que una persona dice o realiza acciones, con el fin de engañar a las personas. Estos videos o audios falsificados suelen ser difíciles de distinguir para una persona promedio, por lo cual, se teme su uso en ediciones engañosas con políticos expresando algo en realidad nunca dicho, a fin de desacreditar opositores.

Quien más recientemente implementó políticas para prevenir el uso de deepfakes en su plataforma ha sido TikTok, actualmente en negociaciones de venta con Microsoft, a fin de evitar el bloqueo en Estados Unidos, con el que ha amenazado el gobierno del presidente Donald Trump. Según informaron en su blog el 5 de agosto de 2020, la plataforma explícitamente prohíbe las deepfakes, además de cualquier otro video manipulado con la intención de causar daño. Con anterioridad, TikTok había prohibido ya los anuncios políticos, pero su nueva norma busca prevenir el uso de sus servicios en la distribución de falsificaciones con fines electorales.

Similarmente, Twitter ha decidido abordar el problema no desde el uso de IA como condición para prohibir una falsificación en particular, sino desde una perspectiva amplia, con una política que prohíbe toda clase de imágenes, videos y otros medios de carácter falso, incluyendo deepfakes, pero también otras formas de manipulación menos tecnológicas. Además de bloquear a usuarios responsables de transgresiones significativas, la plataforma etiquetará algunos de los contenidos como "medios manipulados" y proveerá, a través de un link, más contexto. Esta política comenzó a aplicarse a partir del 5 de mayo de 2020.

Por otro lado, Facebook decidió abordar el problema desde la perspectiva contraria y prohibirá el contenido editado de formas no evidentes para cualquier persona con el fin de producir un engaño, pero únicamente aquel contenido creado a través de IA. Esta prohibición no incluye el contenido de parodia o sátira, o los videos editados para remover palabras o cambiar el orden en que se dijeron, de acuerdo a la política dada a conocer por la plataforma el 6 de enero.

Aunque el uso de las deepfakes es aún mínimo, y no se ha detectado todavía un uso político, con la experiencia previa de vídeos falsos, con ediciones menos complejas –como el de la senadora estadounidense Nancy Pelosi en 2019, donde se hace parecer que tiene problemas para hablar–, las distintas redes sociales han decidido prepararse para el problema con anticipación, frente al panorama de las elecciones estadounidenses de 2020.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS