
Foto: Sergio F Cara (NotiPress/Composición)
Los estafadores digitales encontraron en la inteligencia artificial (IA) una poderosa herramienta para suplantar identidades, especialmente de celebridades, con el objetivo de engañar a sus víctimas. NotiPress tuvo información exclusiva sobre este fenómeno creciente, el cual fue analizado por Kaspersky, compañía especializada en ciberseguridad.
Según datos compartidos por Kaspersky, los delincuentes utilizan deepfakes, videos y audios manipulados con IA para imitar de forma realista a figuras públicas. Esto permite crear materiales que aparentan ser auténticos, generando confianza entre los usuarios y facilitando que caigan en fraudes.
El desconocimiento es uno de los factores que agravan el problema. De acuerdo con una encuesta de Kaspersky, el 72% de los mexicanos encuestados no sabe qué es un deepfake, mientras que el 62% afirma no saber cómo reconocer uno. Esta falta de información fue aprovechada por los ciberdelincuentes, lo cual contribuyó a un aumento del 220% en las estafas mediante mensajes falsos en México durante 2024, según el Panorama de Amenazas 2024 de Kaspersky.
Los criminales atraen a sus víctimas mediante contenidos donde celebridades promocionan supuestos productos milagro o sorteos fraudulentos. Las personas, confiadas en la aparente autenticidad de los mensajes, acceden a páginas falsas, comparten datos personales y bancarios, o incluso realizan compras de productos inexistentes.
Para ayudar a los usuarios a protegerse, Kaspersky elaboró una guía práctica en cinco pasos para identificar videos falsos. Primero, se recomienda observar con atención los movimientos de ojos y boca, ya que los deepfakes suelen fallar en replicar gestos naturales. Segundo, es necesario revisar la iluminación y las sombras en el video, buscando inconsistencias que delaten una edición artificial.
Tercero, se debe escuchar el audio cuidadosamente, identificando tonos robóticos, cortes bruscos o falta de sincronización con los labios. Cuarto, es importante observar señales visuales como pixeles borrosos alrededor del rostro, bordes irregulares o gestos corporales poco naturales. Finalmente, se recomienda verificar siempre la fuente del video, acudiendo a los perfiles oficiales o medios confiables antes de compartir o creer en el contenido.
"Estas estafas logran su objetivo no solo por lo sofisticado de la tecnología detrás de ellas, sino porque muchas personas aún desconocen su existencia o no saben cómo identificarlas. En un mundo digital que avanza a gran velocidad, mantenerse informado sobre cómo evoluciona la tecnología —y los riesgos que trae consigo— ya no es opcional, es una forma de autoprotección", señaló Isabel Manjarrez, Investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS