El espejismo de la igualdad: la IA reproduce el pasado que prometía superar

IA replica sesgos de género en jóvenes y redefine interacción social digital

Estudio revela que IA refuerza estereotipos en jóvenes y desplaza interacción humana, con impacto en identidad, género y decisiones profesionales

Por momentos, la escena parece contradictoria: una tecnología que se presenta como el epítome del progreso termina replicando —con precisión matemática— las mismas desigualdades que dice combatir.

"La tecnología que usamos todos los días no es neutral. En México estamos viendo cómo estas respuestas automatizadas reafirman estereotipos del pasado frente a una generación que busca construir su identidad", asegura Blanca Juana Gómez, directora general de LLYC en México durante la presentación del informe El espejismo de la IA: un reflejo incómodo con alto impacto en jóvenes de la mano de IWF Capítulo México.

No se trata de un diagnóstico apocalíptico, sino de algo más incómodo: la confirmación de que el futuro ya está ocurriendo… y se parece demasiado al pasado.

El estudio no acusa a la tecnología, sino a la forma en que la alimentamos. Como se señaló durante la conferencia: "cuando la inteligencia artificial analiza información, patrones y decisiones del pasado, incorpora los estereotipos que vienen con dichos datos". La IA no imagina futuros; reorganiza memorias. Y esas memorias están atravesadas por siglos de sesgos.

Por su parte, el dato más inquietante no es técnico, sino cultural: uno de cada tres jóvenes considera que la inteligencia artificial es tan o más satisfactoria que interactuar con sus amigos. Ese desplazamiento del vínculo humano hacia el algoritmo redefine no solo la conversación, sino la construcción de identidad. Como se advirtió en la presentación: "el nuevo confidente es un algoritmo". El problema no es que escuche, sino cómo responde.

Distinción de tratamiento

Así, la IA, según los hallazgos, no trata igual a hombres y mujeres. A ellos les habla como entrenador: directo, orientado a resultados, con instrucciones claras. A ellas, en cambio, las envuelve en una narrativa emocional que valida, pero no empuja. "Te entiendo cómo te sientes" frente a "haz esto". La consecuencia es sutil pero profunda: se refuerza una pedagogía diferenciada donde el liderazgo se entrena en masculino y la emocionalidad se administra en femenino.

Más aún, el estudio revela que en el 48% de las respuestas dirigidas a mujeres aparecen recomendaciones sobre apariencia física no solicitadas. No es un error anecdótico: es un patrón. La inteligencia artificial no solo reproduce estereotipos, los normaliza bajo una capa de neutralidad técnica.

Una de las frases más contundentes de la conferencia sintetiza este fenómeno: "no está proyectando un futuro distinto, sino reorganizando el mismo pasado desigual de siempre". La ilusión de objetividad es, en realidad, una sofisticación del sesgo.

Sin embargo, reducir el análisis a una crítica tecnológica sería simplista. Varias participantes coincidieron en que la IA funciona como espejo social. La publicista Ana María Olabuenaga lo expresó con claridad: no estamos viendo cómo piensa la máquina, sino cómo pensamos nosotros. La diferencia es que ahora ese pensamiento escala, se automatiza y se vuelve norma.

Asimismo, el riesgo no es solo de representación, sino de diseño del futuro. Si a las jóvenes se les orienta hacia profesiones asistenciales y a los hombres hacia liderazgo e ingeniería, no estamos frente a una recomendación inocente, sino ante la reproducción digital del techo de cristal. "Estamos bloqueando el futuro profesional de las jóvenes incluso antes de que lleguen a sus primeras entrevistas", se advirtió.

Pero el diagnóstico no se queda en la denuncia. La conversación giró hacia un terreno más fértil: qué hacer.

Primero, desmontar la idea de que el problema es la IA. Como se dijo en la conferencia, "el enemigo no es la inteligencia artificial, es la poca conciencia sobre nuestros sesgos". Esto implica un cambio de enfoque: menos prohibición, más alfabetización crítica. Enseñar a los jóvenes a auditar respuestas, no a consumirlas.

Segundo, intervenir en la conversación desde el uso. La IA no es inmutable. Puede ser configurada, cuestionada, tensionada. Pero eso requiere usuarios activos, no pasivos.

Tercero, y quizá más relevante, reconstruir el vínculo humano. Recuperar el diálogo presencial. Porque el problema no es solo que la IA responda, sino que sustituya espacios donde antes se construía pensamiento colectivo.

Finalmente, emerge una idea incómoda pero necesaria: la tecnología no está adelantada a la sociedad, la está reflejando. Y en ese reflejo, amplificado y legitimado, se juega una batalla cultural. El verdadero espejismo no es la igualdad prometida por la inteligencia artificial. Es creer que llegará sola.

Sin pesimismo pero con exigencia: si no intervenimos en los datos, en los usos y en la educación crítica, la IA no será una herramienta de inclusión, sino un sistema de repetición automatizada de desigualdades. A la pregunta de qué hace la inteligencia artificial con nosotros, es preciso agregar qué estamos dispuestos a hacer nosotros con ella.