Foto: Obi Onyeador en Unsplash
En Estados Unidos, un 18% de encuestados obtuvo la mayoría de sus noticias políticas y electorales en redes sociales, según el Centro de Investigación Pew. Al mismo tiempo, la evidencia apunta a una mayor propensión a creer noticias falsas de parte de las personas quienes utilizan las redes sociales como su fuente principal de información. Para combatir este problema, podría creerse que basta con señalar las noticias falsas y proveer información confiable y verificada, no obstante, esto podría tener el efecto adverso.
Mediante un experimento en Twitter, investigadores encontraron evidencia de que corregir a quien comparte noticias falsas en dicha plataforma disminuye la calidad y aumenta la inclinación partidista y la toxicidad del lenguaje de los retweets posteriores de los usuarios. Para su estudio, investigadores del Instituto de Tecnología de Massachusetts crearon cuentas bots para ofrecer cortésmente enlaces a pruebas sólidas a quienes publicaban tweets flagrantemente falsos sobre política.
Pese al enfoque cortés de las respuestas, no se observó una corrección de las noticias falsas en estas cuentas, sino el efecto adverso. Tras recibir enlaces a información verificada, los investigadores observaron una disminución de aproximadamente 1% en la precisión de las fuentes de noticias que los usuarios retuitearon hasta 24 horas después de la corrección. Similarmente, se identificó un aumento mayor al 1% en la inclinación partidista del contenido y un aumento de alrededor del 3% en la toxicidad de los retweets, según su análisis del lenguaje.
Sin embargo, este efecto adverso ocurrió únicamente en los retweets, tras recibir la corrección sobre las noticias falsas, y no en los tweets principales. Según los investigadores, esto sugiere que el efecto opera a través del canal de atención, pues a diferencia de la decisión rápida de retuitear información, la gente parece pasar un tiempo relativamente largo redactando sus tweets primarios.
El corregir públicamente a otro usuario cuando comparte noticias falsas parece tener un efecto adverso, en lugar de centrar la atención en la precisión de la noticia. Según los investigadores, esto tal vez se deba a los diversos factores sociales en juego, como la vergüenza.
Dicho efecto adverso incluso se vio aumentado cuando la corrección provino de una cuenta con las mismas ideas políticas que quienes difundieron las noticias falsas. Esto descartaría la explicación de una respuesta negativa impulsada por la animosidad partidista, aseguraron los autores del estudio. Aunque sería posible observar resultados peores en correcciones altamente argumentativas, aún es necesaria investigación adicional, también señalaron.
Ante este escenario, quizás se necesiten otros enfoques para combatir noticias falsas que no provoquen un efecto adverso. Recientemente se ha discutido la posibilidad de requerir pruebas de personalidad para combatir los perfiles falsos de redes sociales. Esto ante la creciente evidencia respecto a su papel en la diseminación de información falsa y la creación artificial de tendencias.
Cualquiera que termine siendo el método o el conjunto de métodos para combatir esta problemática, es innegable el efecto adverso de la abundancia de noticias falsas en Internet. De esta forma, combatir la desinformación debe ser prioridad de los gobiernos y organizaciones internacionales, sobre todo por su impacto en la vida política y en la salud pública.
DESCARGA LA NOTA SÍGUENOS EN GOOGLE NEWS