Las cuentas bancarias se enfrentan a grandes riesgos por nueva modalidad de fraude con IA

 20-03-2025
Martín Olivera
   
Foto: Sergio F Cara (NotiPress/Composición)

Foto: Sergio F Cara (NotiPress/Composición)

El uso de deepfakes, inicialmente vinculado a campañas publicitarias y políticas, evolucionó hacia una peligrosa herramienta de fraude cibernético. Esta modalidad amenaza la seguridad de cuentas bancarias al suplantar identidades mediante inteligencia artificial (IA), lo que exige nuevas estrategias de protección para usuarios y empresas.

De acuerdo con un análisis de Appdome, empresa especializada en defensa de aplicaciones móviles, América Latina se convirtió en un blanco atractivo para este tipo de ataques. En Brasil, se registraron casos de fraude con IA que causaron pérdidas millonarias. Un grupo de ciberdelincuentes utilizó deepfakes para infiltrarse en cuentas bancarias y desviar aproximadamente 110 millones de reales a finales de 2024.

El problema no es exclusivo de la región. Tom Tovar, CEO y cofundador de Appdome, menciona un caso en China donde delincuentes emplearon deepfakes para simular una videollamada y persuadir a un ejecutivo de realizar transferencias por más de 20 millones de dólares. "Inicialmente, los deepfakes se convirtieron en una preocupación pública debido a su papel en la falsificación de campañas publicitarias, por ejemplo. Pero ahora nos enfrentamos a un problema mucho mayor: el robo de millones de dólares a particulares y empresas", explicó Tovar a NotiPress.

Ante el incremento de estos ataques, Appdome desarrolló 30 nuevos plugins de defensa móvil para prevenir fraudes deepfake en aplicaciones Android e iOS. Estas soluciones buscan reforzar los sistemas de autenticación biométrica, como Face ID de Apple y el reconocimiento facial de Google, sin necesidad de modificar el código de las aplicaciones ni implementar cambios complejos en los servidores.

Los nuevos sistemas de seguridad detectan intentos de fraude que utilizan imágenes o videos manipulados para eludir mecanismos de reconocimiento facial. También bloquean el uso de cámaras virtuales o vídeos pregrabados en procesos de autenticación, además de identificar intentos de clonación de voz para evitar fraudes en sistemas de verificación basados en audio.

Una de las características más avanzadas de estas soluciones es su sistema de detección de vitalidad, que analiza la textura de la piel, reflejos en los ojos, iluminación y profundidad facial. Este mecanismo permite identificar si la persona frente a la cámara es real, dificultando los intentos de suplantación mediante IA. "No podemos evitar que se creen deepfakes, pero sí podemos bloquear su uso dentro de las aplicaciones móviles", destacó Tovar.

Las soluciones de Appdome también proporcionan informes detallados sobre intentos de fraude en tiempo real. Esta información permite a las empresas mejorar sus estrategias de seguridad y adaptar sus respuestas a los usuarios cuando se detecta una posible suplantación de identidad. Además de proteger a bancos y empresas de tecnología financiera, estas herramientas refuerzan la seguridad en plataformas de compras, redes sociales, servicios de mensajería y otros sistemas basados en reconocimiento facial o de voz.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS