Foto: Sergio F Cara (NotiPress/Composición)
La clonación de voz con inteligencia Artificial (IA) dejó de ser un concepto de la ciencia ficción y se convirtió en una preocupante realidad. Con el avance de esta tecnología, se puede replicar con asombrosa precisión las voces humanas, sin embargo plantea serios riesgos de suplantación de identidad y fraude.
Asimismo, la suplantación de identidad mediante la clonación de voz con IA se convertió en un delito común y accesible a cualquier persona con conexión a Internet. Según un estudio global realizado por McAfee, una de cada diez personas recibió mensajes de voz clonada, y el 77% de ellas perdió dinero a causa de esta tecnología.
Esta técnica fraudulenta se logra utilizando modelos GAN (Generative Adversarial Networks), consiste en dos redes neuronales donde colaboran y aprenden entre sí con objetivos opuestos, perfeccionando el resultado hasta niveles impresionantes. En la actualidad, la voz artificial evolucionó significativamente, dejando atrás la locución robotizada de asistentes virtuales o aplicaciones de tránsito.
Ahora, las voces generadas por IA pueden imitar a la perfección a celebridades, amigos e incluso familiares cercanos. Este fenómeno, conocido como suplantación de identidad a través de clonación de voz, es posible gracias a herramientas y tutoriales gratuitos disponibles en Internet.
Ricardo Robledo, director general y fundador de Tu Identidad, plataforma dedicada a la validación de identidad, indicó la clonación de voz es un proceso donde analiza y copia características únicas de la voz humana, como tono, ritmo, inflexiones y pronunciación. Mediante el uso de GAN, la IA genera voces cada vez más realistas, replicando las sutilezas del habla humana con precisión sorprendente y las redes generativas antagónicas permiten a estas IA mejorar continuamente, entrenándose mutuamente para producir voces indistinguibles de las reales.
Por otra parte, la investigación de McAfee reveló que cerca del 70% de las personas no puede distinguir una voz clonada de una real. Este dato subraya la eficacia de la tecnología y la vulnerabilidad de la población ante este tipo de fraude. Además, no se requieren audios extensos para clonar una voz y fragmentos de pocos segundos son suficientes para que las herramientas de IA aprendan y repliquen una voz con exactitud.
No obstante, los ciberdelincuentes utilizan estas voces clonadas para realizar llamadas falsas, solicitando dinero o información confidencial, y simulando emergencias como accidentes o secuestros. Los estafadores investigan a las víctimas potenciales, recolectan datos de fuentes públicas, redes sociales y seleccionan a un familiar o conocido cuya voz clonaron para realizar la estafa.
Robledo indicó los ciberdelincuentes utilizan la información recopilada para hacer llamadas de emergencia falsas, aprovechando la confianza y el temor de las víctimas. Para protegerse de este tipo de fraude, Tu Identidad recomienda verificar siempre la identidad de la persona al otro lado de la línea mediante una palabra clave preestablecida o información que solo la supuesta víctima conocería y evitar compartir videos con la voz real y detalles personales en redes sociales.
De la misma forma, Tu identidad recomienda supervisar regularmente las cuentas en plataformas en línea para detectar cualquier actividad inusual y reportar intentos sospechosos de acceso a la información personal. Por último, mantenerse informado sobre las técnicas de estafa más comunes y las nuevas amenazas relacionadas con la clonación de voz, compartiendo esta información con familiares y amigos para estar alerta y evitar este tipo de estafas.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS