Foto: Gustavo Torres (NotiPress)
Un reciente estudio realizado por la organización danesa Digitalt Ansvar ha puesto en evidencia serias deficiencias en la moderación de contenido autolesivo en Instagram, propiedad de Meta. Según la investigación, la plataforma no eliminó ninguna de las 85 imágenes explícitas relacionadas con autolesiones compartidas durante un experimento de un mes, a pesar de afirmar que su inteligencia artificial (IA) detecta y elimina proactivamente el 99% de dicho contenido.
Los investigadores crearon una red privada en Instagram con perfiles falsos de adolescentes de hasta 13 años para probar la eficacia de las herramientas de moderación de la plataforma. Sorprendentemente, descubrieron que el algoritmo no solo no bloqueaba el contenido, sino que promovía la interacción entre usuarios que compartían publicaciones sobre autolesiones, facilitando la expansión de la red.
Ask Hesby Holm, director de Digitalt Ansvar, expresó su preocupación por la falta de acción de la plataforma: "Esperábamos que, a medida que las imágenes aumentaran en gravedad, las alarmas se activaran, pero no fue así".
Meta, por su parte, asegura que el contenido que promueve la autolesión está prohibido y que, en la primera mitad de 2024, eliminó más de 12 millones de publicaciones relacionadas con suicidio y autolesiones. Sin embargo, la psicóloga Lotte Rubæk, quien renunció al grupo global de prevención del suicidio de Meta, criticó duramente los resultados del estudio y señaló que la inacción de la plataforma está contribuyendo al aumento de suicidios entre jóvenes vulnerables.
El estudio sugiere que Instagram podría estar incumpliendo la Ley de Servicios Digitales de la Unión Europea, que exige a las plataformas identificar riesgos sistémicos para la salud mental. Según Digitalt Ansvar, la falta de moderación efectiva en grupos pequeños de autolesiones podría tener "consecuencias graves", incluyendo el incremento de suicidios entre adolescentes.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS