Encuentran falla en sistema de prevención de imagenes con abuso infantil de Apple

 19-08-2021
Ali Figueroa
   
Foto: thiago japyassu en Pexels

Foto: thiago japyassu en Pexels

El sistema para detectar abuso infantil en imágenes desarrollado por Apple (CSAM-scanning system) ha registrado una importante vulnerabilidad en la herramienta para comparar imágenes, denominada NeuralHash, reportaron usuarios y programadores. De acuerdo con Asuhariet Ygvar, usuario de la plataforma de desarrollo colaborativo GitHub, cuya empresa matriz es Microsoft, NeuralHash no puede detectar ciertos retoques de imagen, tales como rotación o recorte.

Apple dio a conocer el plan de Protección Expandida para Niños el pasado 5 de agosto, basado en tecnología para limitar la distribución de material CSAM (material de abuso sexual de niños, por sus siglas en inglés). Con la ayuda de NeuralHash, herramienta especializada en procesar información de imágenes para identificar rasgos y expresiones faciales, la compañía indicó que podrá identificar imágenes CSAM antes de ser subidas en iCloud. Antes de terminar en el servicio de nube, esta herramienta mandará una alerta que avisa sobre el tipo de material y la fuente responsable de subirlo.

Según el portal oficial de NeuralHash, este sistema utiliza una red compleja de algoritmos para identificar hasta 3 mil 72 objetos digitales por segundo, con una precisión de 97%. Asimismo, clasifica rasgos comunes a los objetos de manera dinámica gracias al acceso a datos en dispositivos e internet. En el caso de personas, compara los rasgos y expresiones faciales para determinar factores como edad, estado anímico y lenguaje corporal en las fotografías. Por ello, las plataformas responsables de distribuir y alojar imágenes, especialmente en la nube, pueden implementar este servicio con objeto de prevenir CSAM o material con características ilícitas en general.

CSAM-scanning system parte de una comparación de imágenes en tiempo real dentro de los dispositivos Apple y servicio de iCloud, cuyos contenidos son revisados por un ser humano cuando se encuentran coincidencias con actividades ilícitas que involucran menores de edad. Sin embargo, luego de realizar un estudio del código de NeuralHash en el lenguaje de programación Python, Ygvar reportó la vulnerabilidad en el repositorio y los foros de GitHub. En ese sentido el programador agregó, debido a la facilidad para recortar y rotar imágenes, Apple debe optar por mejor seguridad antes de implementar NeuralHash en sus dispositivos iOS y maCOS.

Anteriormente el caso de Apple causó preocupaciones por el tema de la privacidad, debido al sistema de escaneo y verificación constante de mensajes cifrados de los usuarios. Matthew Green, investigador de criptografía en la Universidad Johns Hopkins, indicó que estas herramientas trabajan con metadatos, y no perciben imágenes, motivo por el cual pueden recolectar grandes cantidades de información sensible. Frente a las dificultades de vulnerabilidad y privacidad de esta iniciativa, la Fundación Frontera Electrónica (EFF) publicó una carta para solicitar que Apple detenga la revisión los equipos e imágenes.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS