IA presenta sesgos de discriminación a través de sus bases de datos, según expertos

 26-09-2023
Ali Figueroa
   
Foto: Sergio F Cara (NotiPress/IA)

Foto: Sergio F Cara (NotiPress/IA)

El mercado de inteligencia artificial proyecta un crecimiento de más de 241 mil millones de dólares (mmdd) según cifras de Statista. Ante el incremento de adopción de tecnologías conversacionales, expertos destacaron que los algoritmos cuentan con sesgos de discriminación, especialmente en materia de contexto étnico y género.

Durante la feria de tecnología Wired Summit 2023, celebrada el 21 de septiembre en Expo Santa Fe, expertos de inteligencia artificial (IA) se reunieron para discutir sobre los prejuicios en los algoritmos. Según la cobertura oficial, el director de RacismoMX, José Antonio Aguilar, declaró que la IA no es inteligente porque repite discursos de discriminación.

En la opinión del vocero de RacismoMX, la tecnología no es algo artificial, ya que tiene sustento en el trabajo de programadores y personas que dan retroalimentación. Con respecto a la IA basada en la retroalimentación de usuarios, cabe destacar el ejemplo de Tay, el bot conversacional (chatbot) desarrollado por Microsoft.

Tras una serie de comentarios de discriminación emitidos en Twitter, mismos que fueron aprendidos desde la base de datos de tweets, Microsoft decidió retirar el chatbot. Según el comunicado oficial de la tecnológica, publicado en marzo de 2016, evitar el contenido ofensivo representa uno de los mayores retos del sector.

Sin embargo, las bases de datos para generar aprendizajes y respuestas de inteligencia artificial presentaron dificultades en 2020, 4 años después del incidente con Microsoft. Al respecto, el Instituto Tecnológico de Massachusetts (MIT) retiró una base de datos con términos misóginos y racistas que fueron empleados con contenido escrito y audiovisual desde 2006.

Frente a los incidentes de discriminación con herramientas de inteligencia artificial, Aguilar comentó que los algoritmos empleados actualmente aún cuentan con esos sesgos, especialmente en temas de seguridad, salud, e inclusión financiera. En la opinión del vocero de Wired Summit 2023, esta problemática es compleja, y parte de los prejuicios enraizados en los motores de búsqueda y otras plataformas digitales de uso cotidiano.

Al respecto de los prejuicios de la inteligencia artificial, la Red en Defensa de los Derechos Digitales (R3D) señaló que la inteligencia artificial fue responsable de poner en riesgo a personas migrantes en Estados Unidos. En un reporte publicado el 14 de septiembre de 2023, R3D señaló que la traducción automatizada no fue capaz de reconocer las particularidades de los acentos de las personas en solicitud de asilo.

Según el Instituto de Tecnología de Georgia, el modelo "redes neuronales", que permite a la IA aprender a comunicarse en un lenguaje legible para cualquier persona, es vulnerable a contenidos de discriminación. Ya que cualquier conversación sostenida por un chatbot depende de la información consultada y retroalimentada, la violencia discriminatorias existen por acciones humanas, agregó.

Con motivo de analizar la respuesta de un robot conversacional sobre los prejuicios de los desarrolladores, NotiPress preguntó a ChatGPT su "opinión" sobre los sesgos de discriminación. Al respecto, la herramienta conversacional de OpenAI señaló: "Es responsabilidad de los desarrolladores y los equipos que trabajan en IA tomar medidas para identificar y mitigar estos sesgos. Esto puede incluir la revisión de datos de entrenamiento, la aplicación de técnicas de equidad y la incorporación de consideraciones éticas en el proceso de desarrollo."




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS