Acciones para la igualdad: eliminar el sesgo racial y de género en nuevas tecnologías

Sistemas de reconocimiento facial o de voz han demostrado el sesgo a diferentes poblaciones por falta de diversidad en los datos

Eliminar o reducir el sesgo racial y de género en las nuevas tecnologías es un proceso complejo y no siempre visible, pero es necesario para llegar a todos

El sesgo racial y de género se ha demostrado es una de las principales problemáticas a vencer en las nuevas tecnologías inteligencia artificial (IA), machine learning y deep learning. Sobre esta problemática se realizó la conferencia virtual "Sesgo racial y de género en IA" en el CES 2021 a la cual NotiPress tuvo acceso. El panel, con expertas y líderes en tecnología que se han enfrentado a estas problemáticas, compartieron su opinión sobre el tema. Llamadas de atención se han realizado para cambiar la situación en individuos y organizaciones, por ello aquí se retoman algunos puntos y recomendaciones sobre el tema.

Luchar contra el sesgo racial y de género ha sido difícil en gran parte de las industrias, la inclusión de la diversidad siempre es un tema polémico. Ahora, con nuevas tecnologías que buscan ser la base de diversos software y dispositivos, estos sesgos junto con otros tendrían implicaciones discriminatorias.

De entre las razones de este sesgo, un dilema multifactorial, puede destacarse una incompleta recolección de datos con el cual "se entrena" a estos sistemas. Por ejemplo, en reconocimiento de voz, cuando el sistema sólo analiza audios con voces masculinas, caucásicas y de acento inglés normalizado, el dispositivo identificará esa voz de inmediato. Pero si es utilizado por una mujer, una persona de color, un niño o un inmigrante con otra lengua, el sistema fallará o no será tan preciso.

Ejemplos de esta falta de atención a otras poblaciones existen relatados en redes sociales y en la industria tecnológica. El software Speech2Face que genera un rostro a partir de una grabación de voz no es preciso con grabaciones de acentos diferentes de personas caucásicas de clase media, según comentarios de desarrolladores.

En la conferencia fueron mencionadas como dos acciones para eliminar o disminuir el sesgo en tecnología IA. La primera fue educar a los investigadores y técnicos que desarrollan esta tecnología, hacerlos sensibles al tema. La segunda tener en cuenta los prejuicios presentes hacia la diversidad para ofrecer soluciones equitativas más que en igualdad.

"Creo que debemos pensar en eliminar el sesgo por diseño, siendo muy intencional al desafiar nuestras suposiciones", mencionó Kimberly Sterling, directora senior de Economía de la Salud e Investigación de Resultados. "Si tienes personas en la mesa que se parecen a ti, tienen la misma historia que tú, aunque sea educacional, experiencias, edad, probablemente no seas intencional. Estar seguro en tener voces diversas y experiencias diferentes contigo en la mesa se vuelve la clave".

Lo más importante a considerar sobre estas acciones mencionadas, es que no son acciones de una vez como mencionaron las expertas, sino un proceso continuo. Una vez haya terminado el sesgo racial y de género, tendrán que pensarse en discapacidades, neurodivergencia, entre otras diferen