Apple va contra personas que tengan contenido sexual infantil en sus dispositivos

 06-08-2021
Andrés Zimbrón

 

   

 

Crédito foto: Zhiyue en Unsplash

Crédito foto: Zhiyue en Unsplash

 

Recientemente, Apple dio a conocer sus planes para escanear los iPhone en Estados Unidos en busca de imágenes de abuso sexual y pornografía infantil. Las organizaciones de protección a menores de edad aplaudieron la iniciativa, sin embargo, para algunos investigadores de seguridad ello generó preocupación ya que el sistema podría ser mal utilizado incluso por los gobiernos.

De acuerdo con el comunicado en el sitio oficial de Apple, la herramienta llamada NeutralHash fue diseñada para detectar imágenes de abuso sexual infantil antes de ser subidas a iCloud. Si encuentra una coincidencia con algún acto ilícito que implique menores de edad, la imagen será revisada por un ser humano. De confirmarse un acto de pornografía infantil, la cuenta del usuario se desactivará y se notificará al Centro Nacional para Niños Desaparecidos y Explotados.

En un caso aparte, Apple planea escanear los mensajes cifrados de los usuarios en busca de contenido sexual explícito como medida de seguridad infantil. También, el sistema de detección solo marcará las imágenes previamente cargadas en la base de datos del centro de pornografía infantil. Asimismo, la empresa detalló, aquellas fotos inocentes de un niño que son tomadas por los padres no deberán de preocuparse.

NeutralHash es una fuerte acción en contra de la pornografía infantil, pero la herramienta también alarmó a los defensores de la privacidad, pues las autoridades podrían emplear esta herramienta para vigilar a los ciudadanos. "La herramienta de emparejamiento que no ve tales imágenes, solo metadatos y eso podría tener fines más nefastos", explicó Matthew Green, principal investigador de criptografía de la Universidad Johns Hopkins.

Green advirtió que el sistema podría usarse para enmarcar a personas inocentes enviándoles imágenes aparentemente inocuas diseñadas para desencadenar coincidencias por pornografía infantil. Ello podría engañar a Apple y alterar a las fuerzas del orden, "los investigadores han sido capaces de hacer esto con bastante facilidad", añadió.

Por el contrario, la Electronic Frontier Foundation, pionera en libertades civiles en línea calificó el compromiso de la empresa de Cupertino, California como de forma positiva a esta nueva acción. "Consideramos que Apple hizo un cambio impactante para los usuarios quienes han confiado en el liderazgo de la empresa en cuestiones de privacidad y seguridad".

Compañías de tecnología como Microsoft, Google y Facebook han estado compartiendo durante años huellas digitales de imágenes conocidas de abuso sexual infantil. Apple los ha utilizado para escanear los archivos de usuario almacenados en su sistema de iCloud, el cual no está encriptado de forma tan segura en comparación a los datos del dispositivo.

La empresa Apple, fue una de las primeras empresas de emplear el sistema de cifrado de extremo a extremo en los mensajes para que los usuarios pudieran leerlos. No obstante, las fuerzas del orden han presionado durante mucho tiempo a la firma para acceder a esa información con el fin de investigar delitos, entre ellos terrorismo o explotación sexual infantil.

Esta vez, la empresa de tecnología tiene el objetivo de crear herramientas para empoderar a las personas y enriquecer sus vidas, al mismo tiempo, ayudar a mantenerlas seguras. Por esa razón, quieren ayudar en conjunto con expertos en seguridad para proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos.

DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS