Meta prueba reconocimiento facial para combatir fraudes con inteligencia artificial

 22-10-2024
Axel Olivares
   
Portada | Actualidad
Foto: Gustavo Torres (NotiPress/Composición)

Foto: Gustavo Torres (NotiPress/Composición)

Meta está implementando el reconocimiento facial como medida antiestafa para combatir los anuncios fraudulentos de celebridades. Para dificultar la tarea de los estafadores y evitar que engañen a los usuarios de Facebook e Instagram, los escaneos automatizados (que utilizan clasificadores de aprendizaje automático) se ejecutarán como parte de un sistema de revisión de anuncios.

"Los estafadores suelen intentar usar imágenes de figuras públicas, como creadores de contenido o celebridades, para atraer a las personas a que interactúen con anuncios que conducen a sitios web fraudulentos donde se les pide que compartan información personal o envíen dinero", escribió la vicepresidenta de política de contenido de Meta, Monika Bickert. "Este esquema, comúnmente llamado 'cebo de celebridades', viola nuestras políticas y es malo para las personas que usan nuestros productos", agregó.

Las pruebas utilizan el reconocimiento facial como una medida de respaldo para verificar los anuncios que los sistemas Meta existentes consideran sospechosos. "Si confirmamos que hay una coincidencia y que el anuncio es una estafa, lo bloquearemos", escribió Bickert.

Desde la empresa aseguraron que la función no se está utilizando para ningún otro fin que no sea el de combatir los anuncios fraudulentos. "Eliminamos inmediatamente cualquier dato facial generado a partir de anuncios para esta comparación única, independientemente de si nuestro sistema encuentra una coincidencia, y no la utilizamos para ningún otro fin", afirmó la vicepresidenta de políticas de contenido.

La empresa implementó estas pruebas inicialmente con un "pequeño grupo de celebridades y figuras públicas" e informó que los resultados son "prometedores" en términos de eficacia y rapidez en la detección de estos fraudes. Además, Meta está explorando el uso de esta tecnología para identificar anuncios fraudulentos que utilizan imágenes generadas por inteligencia artificial (IA).

En las próximas semanas, Meta ampliará las notificaciones dentro de sus aplicaciones a un grupo más amplio de figuras públicas que fueron blanco de estafas con deepfakes, notificándoles que están inscritas en este sistema de protección. La compañía, además, está investigando el uso de reconocimiento facial para detectar perfiles falsos que intentan hacerse pasar por celebridades, comparando las fotos de perfil sospechosas con las imágenes oficiales en Facebook e Instagram. El objetivo es identificar y actuar contra los intentos de fraude de manera más precisa y eficiente.

Otra de las innovaciones que Meta está probando es la verificación de cuentas mediante selfies en video, combinando estos datos con reconocimiento facial para ayudar a los usuarios que han perdido el acceso a sus cuentas por ataques de estafadores. Este sistema busca simplificar el proceso de recuperación en comparación con la actual verificación mediante identificación oficial. Meta afirma que este método es similar a tecnologías como Face ID de Apple y asegura que los datos se cifran y eliminan tras la verificación, garantizando la privacidad de los usuarios.

Cabe destacar que, por el momento, las pruebas no se están llevando a cabo en el Reino Unido ni en la Unión Europea debido a las estrictas normativas de protección de datos en estas regiones. La compañía señala que trabaja con reguladores y expertos para buscar posibles formas de implementar estas tecnologías cumpliendo con las regulaciones vigentes, mientras continúa ajustando sus métodos basándose en los comentarios recibidos.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS