¿Cómo podrían las empresas avanzar en su propia regulación ética de la IA?

 30-06-2019
Belem Ruiz
   
Portada | Negocios
Foto: Pedro Basilio (NotiPress)

Foto: Pedro Basilio (NotiPress)

MX, 30 de junio de 2019 (NotiPress).- Cadena de bloques (blockchain), tecnologías financieras (fintech), redes sociales, realidad virtual y demás innovaciones emergentes tienen algo en común: avanzan más rápido que las regulaciones o legislaciones; las tecnologías cognitivas, incluida la Inteligencia Artificial (IA), no son la excepción. ¿Cómo podrían las empresas avanzar en plantear sus propias regulaciones éticas para la IA? Dentro del sector empresarial, es una cuestión de reputación y protección de los actores involucrados; de manera que deberían comenzar a tomar medidas para el desarrollo de IA ética.

¿En qué consisten los problemas éticos relacionados con IA? Más allá de controvertidas aplicaciones de estas tecnologías (por ejemplo: creación de vídeos o imágenes falsos, armas automatizadas, etcétera), preocupa cómo será empleada la IA en la vida diaria, como en las interacciones a través de redes sociales o en las tomas de decisiones en ámbitos como la aprobación de créditos o la contratación de personal. Los sesgos cognitivos todavía son un problema en el campo de las tecnologías cognitivas en general.

De acuerdo con David Schatsky, director general de Innovación en Deloitte Estados Unidos, los problemas éticos relacionados con IA conllevan amplios riesgos financieros, estratégicos y de reputación para las empresas. El analista y estratega experto en tecnologías emergentes aconseja que los directivos se involucren, quizá no directamente pero sí mediante un comité interdisciplinario dedicado a resolver problemas y determinar lineamientos relacionados con diseño, creación e implementación de programas de IA.

Otro punto clave, asegura Schatsky, es aprovechar tecnologías y procesos disponibles a fin de evitar sesgos y otros riesgos inherentes a la IA que afectan de forma injusta a usuarios o a terceros. Investigadores y compañías han comenzado a crear herramientas y técnicas útiles para disminuir este tipo de problemas éticos en el campo. Por mencionar algunas: detección automática de correlaciones nocivas basadas en variables sensibles como edad, sexo o raza; evaluación de sesgos algorítmicos injustos para determinadas poblaciones; auditoría de los procesos de aprendizaje automático.

Además es necesario que las firmas sean transparentes en los usos de sus IA, solo así lograrán ganarse la confianza de usuarios y terceros. Es decir, en vez de hacer pasar sus algoritmos por personas, deben admitir y señalar abiertamente cuando se trate de un agente inteligente o chatbot; asimismo, es obligación ética informar a sus clientes los usos de sistemas de toma de decisiones automatizados (en particular cuando los resultados podrían afectar a su clientela). Claridad y transparencia en recopilación y uso de datos son igualmente importantes.

La suplantación o transformación de puestos laborales antes exclusivamente de humanos es otro de los fenómenos de la IA donde entran en juego cuestiones éticas. El director general de Innovación en Deloitte Estados Unidos aconseja brindar asesoría a los empleados en torno a cómo la IA llegaría a afectar sus trabajos en el futuro; a quienes se verían desplazados, darles tiempo para encontrar nuevas oportunidades laborales; otra opción sería crear esos oportunidades de trabajo dentro de la misma empresa, capacitarlos para nuevas responsabilidades y roles.

Por último, recomienda Schatsky, no debe perderse de vista el balance entre los beneficios y los riesgos. Si bien la IA es una potente herramienta para mejorar el rendimiento de las empresas, existen cuestiones éticas que deben estudiarse antes de implementarla, porque los problemas ocasionados por un mal abordaje de tales riesgos aparecerán a largo plazo, serán graves y afectarán no solo la reputación empresarial sino también los intereses de los involucrados. Es urgente que las compañías comiencen a avanzar en su propia regulación ética de la IA.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS