Foto: Pedro Basilio (NotiPress)
Ante la exposición involuntaria de material explícito a niños y adolescentes, Apple prueba una nueva función que le permite a los jóvenes denunciar envíos y videos de desnudos. La iniciativa es parte del conjunto de medidas conocidas como "Seguridad en las Comunicaciones", que se activó desde el lanzamiento del iOS17.
El nuevo modelo de iPhone permite detectar automáticamente contenido inapropiado que usuarios menores de 13 años reciben e intentan enviar. La función es compatible con aplicaciones como iMessage, AirDrop, FaceTime y Photos.
Al reconocer material sensible, el sistema difumina y emite una advertencia con una serie de opciones para ayudar a los adolescentes a comprender la situación y tomar una acción pertinente. Los usuarios pueden reportar las imágenes o videos al equipo de moderación de contenido de Apple. Mientras tanto, el dispositivo elaborará un informe sobre el material, los mensajes y los datos de contacto de las cuentas involucradas, asimismo, los afectados podrán llenar un formulario para detallar lo ocurrido.
Luego de evaluar el reporte, Apple decidirá si deshabilita algunas funcionalidades o suspende parcial o totalmente a las cuentas denunciadas. Este recurso, incluido en la versión beta de iOS 18.2, estará disponible solo en Australia, pero la compañía prometió desplegar próximamente la herramienta en todo el mundo.
En el pasado, Apple fue señalado por implementar políticas de privacidad que dificultaban a los investigadores judiciales explorar temas como la explotación y el coso en la red. En julio, la Sociedad Nacional para la Prevención de la Crueldad hacia los Niños del Reino Unido acusó a Apple de subestimar el uso frecuente de sus productos y servicios para la difusión de material de abuso sexual infantil.
La big tech retrocedió en varias iniciativas destinadas a abordar las preocupaciones sobre privacidad y seguridad en sus plataformas. En septiembre, la empresa anunció que detendría el desarrollo de una herramienta para escanear fotos de iCloud en busca de material de abuso sexual infantil (CSAM). Algunos grupos de derechos digitales y expertos señalaron que un sistema así sería vulnerable a usos indebidos, comprometiendo la seguridad y privacidad de los usuarios en la nube.
Este tema se inserta en un debate más amplio, donde diversas autoridades y reguladores presionaron para eliminar el cifrado en aplicaciones como WhatsApp e iMessage. En el Reino Unido, una reforma de ley estudia prohibir la tecnología de encriptación para combatir la pornografía infantil. Al respecto, más de 15 agencias policiales internacionales manifestaron que, si bien el cifrado protege la privacidad, también dificulta la identificación y enjuiciamiento de criminales.
Con el aumento de contenidos ilícitos, algunos de ellos impulsados por inteligencia artificial, se intensificaron las preocupaciones. Un estudio de junio de 2023 por The Washington Post advirtió que imágenes manipuladas con IA que muestran a menores en situaciones sexuales están pasando de la dark web a redes sociales. Además, un informe reciente reveló que el 98% de los videos de deepfake en internet son de carácter sexual, y que estos contenidos ficticios aumentaron un 400% en 2024.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS