El algoritmo de TikTok facilita contenido sexual y de drogas a menores de edad

 09-09-2021
Patricio Contreras
   
Foto: Solen Feyissa en Unsplash

Foto: Solen Feyissa en Unsplash

El algoritmo de TikTok, función que ayuda a brindar contenido personalizado en el feed de los usuarios de esta red social de videos cortos, muestra contenido sin restricciones a menores de edad. Ello ocasiona una exposición constante y sin control de los usuarios más pequeños a TikToks de naturaleza sexual y con referencias a drogas.

Como contexto, redes sociales orientadas a ofrecer contenido, como Youtube y TikTok, utiliza un conjunto de algoritmos para determinar las preferencias de los usuarios e incrementar las interacciones y el tiempo que se pasa en la plataforma. En el caso de TikTok, el principal indicador para determinar estas preferencias es el tiempo se permanece viendo una determinada pieza de contenido.

La situación se dio a conocer tras una investigación del medio estadounidense The Wall Street Journal (WSJ), publicación que fabricó un total de 31 cuentas bots registradas con edades entre 13 y 15 años. Cada una de estas cuentas se programó para detonar un conjunto de preferencias muy delimitadas, incluyendo drogas y contenido sexual.

Este ejercicio arrojó, con solo poca exposición este tipo de contenido, el algoritmo expuso a una de las cuentas bots de menores de edad a 569 videos relacionado a drogas. Otra cuenta fue expuesta a más de 100 publicaciones promocionando sitios pornográficos y tiendas de artículos sexuales. Más videos potencialmente peligrosos involucran la glorificación de estilos de vida no saludables, como el alcoholismo y los desórdenes alimenticios.

Cerca de 2 mil 800 publicaciones catalogados como solo para adultos fueron mostrados a estas cuentas, pese a que TikTok cuenta con varias políticas para evitar la sobreexposición de videos adultos a los usuarios menores de edad. Los creadores pueden etiquetar sus TikToks como exclusivo para personas mayores de 18 años, aunque muchos videos registrados en el experimento aparecen con esta restricción. También, la compañía cuenta con un equipo de moderación de hasta 10 mil personas, encargado de revisar las publicaciones que potencialmente incumplan los términos de uso.

No obstante, el rápido crecimiento de esta plataforma ha complicado sobremanera la moderación de contenido, pues tan solo desde 2019 el número de usuarios en Estados Unidos se cuadriplicó. Ello, aunado a que determinar transgresiones en los videos requiere un trabajo contextualización imposible para algoritmos automatizados. Por otra parte, existe el riesgo de sobremoderar contenido que, a ojos y criterio de un adulto, no representan un peligro.

Tras estos hallazgos, la compañía matriz de TikTok ByteDance eliminó 616 de estos videos, cerca de la mitad de los que fueron muestreados por las cuentas bot de WSJ. La moderación incompleta y la presencia de contenido sexual y de drogas en la redes es inevitable. Sin embargo, es importante atender a como la tecnología incentiva ciertos hábitos e incrementar la vigilancia de los guardianes hacia los hábitos de consumo de los menores en Internet.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS