Ciudad de México,
Martín Olivera
Crédito foto: Patricia Manero (NotiPress)
Fable, una popular plataforma social que permite a los usuarios compartir sus lecturas, se vio envuelta en una polémica tras el lanzamiento de su función de resúmenes anuales impulsada por inteligencia artificial (IA). Esto comenzó como una propuesta divertida para resumir las lecturas del año y terminó generando malestar entre los usuarios por los comentarios inusuales y ofensivos generados por la herramienta automatizada.
La controversia se desató cuando varios usuarios compartieron sus experiencias en redes sociales. Tiana Trammell, una influencer literaria, recibió un resumen que cerraba con la frase: "No te olvides de buscar ocasionalmente a algún autor blanco, ¿de acuerdo?". Trammell expresó su sorpresa y explicó que tras publicar su experiencia en Threads recibió "múltiples mensajes" de personas las cuales habían pasado por situaciones similares. Según Trammell, algunos de los resúmenes contenían comentarios inapropiados sobre "discapacidad y orientación sexual".
El desarrollo de esta función estuvo a cargo de un modelo de IA que utilizaba la API de OpenAI para generar resúmenes personalizados de los hábitos de lectura de los usuarios durante los últimos 12 meses. Si bien este tipo de funciones anuales es cada vez más popular en distintas aplicaciones, como el conocido Spotify Wrapped, los resultados de Fable adoptaron un tono que varios usuarios consideraron grosero o sesgado.
Frente a la creciente ola de críticas, la empresa emitió disculpas en varias redes sociales, incluyendo un video publicado en Instagram y Threads. En el mensaje, un ejecutivo de Fable afirmó: "Lamentamos profundamente el daño causado por algunos de nuestros resúmenes de lectores esta semana". Además, la directora de comunidad de Fable, Kimberly Marsh Allee, explicó a Wired que se están realizando ajustes en el sistema. "Por el momento, hemos eliminado la parte del modelo que burla al lector y, en su lugar, el modelo simplemente resume el gusto del usuario en libros", indicó Marsh Allee.
A pesar de las disculpas, algunos usuarios consideran que las medidas adoptadas son insuficientes. La escritora de fantasía y romance AR Kaufer señaló que Fable debería "eliminar la IA por completo" y ofrecer una disculpa más contundente. Trammell, quien decidió eliminar su cuenta tras el incidente, propuso: "La medida adecuada sería desactivar la función y realizar pruebas internas rigurosas, incorporando las medidas de seguridad recientemente implementadas".
El debate sobre los sesgos de los algoritmos de IA resurgió tras este incidente. Groves, otro usuario afectado, afirmó: "Estos algoritmos están diseñados por programadores que viven en una sociedad con prejuicios, por lo que, por supuesto, el aprendizaje automático también tendrá prejuicios". Según Wired, no es la primera vez que una herramienta de IA genera este tipo de controversias. En 2022, se descubrió que el generador de imágenes Dall-E mostraba personas no blancas cuando se solicitaban imágenes de prisioneros y, en cambio, solo mostraba personas blancas cuando se pedían imágenes de directores ejecutivos.
Como respuesta final, Fable tomó la decisión de eliminar los resúmenes anuales de lectura generados por IA y desactivar otras funciones similares. Sin embargo, usuarios como Groves consideran que lo más prudente sería evitar estas herramientas hasta que puedan garantizar resultados libres de sesgos: "Prefiero prescindir de ellos que enfrentarme a resultados de inteligencia artificial no controlados que podrían resultar ofensivos", sentenció Groves.