Inteligencia artificial se encuentra en un punto de inflexión crítico en su evolución

Científicos señalan que con el progreso de la inteligencia artificial también existen riesgos sutiles pero preocupantes

Un panel multidisciplinario de especialistas reportó sobre el progreso actual de la inteligencia artificial así como de algunos riesgos que lo acompañan

En años recientes, la inteligencia artificial (IA)se ha extendido con gran rapidez en muchas áreas de la vida humana, transitando de un uso exclusivo de laboratorios científicos al de la vida diaria. Prueba de dicho crecimiento: de 2015 a 2020 la inversión global corporativa anual total en inteligencia artificial aumentó en 55 mil millones de dólares, según la plataforma de inteligencia de mercado Statista. Como consecuencia de este desarrollo, investigadores en la materia consideran que la IA alcanzó ya un punto de inflexión crítico en su evolución, aunque este progreso también llega con ciertos riesgos.

A esta conclusión llegó un panel de expertos en ciencias de la computación, políticas públicas, psicología, sociología y de otras disciplinas llamado "El estudio de cien años sobre inteligencia artificial". Este es un proyecto en curso del Instituto de Inteligencia Artificial Centrada en el Hombre de la Universidad Stanford, dedicado a monitorear el progreso de la inteligencia artificial y guiar su desarrollo. En su segundo informe, publicado en septiembre del año en curso, este grupo multidisciplinario evaluó el progreso y los riesgos en materia de inteligencia artificial, entre 2016 y 2021.

Otros rasgos del progreso de la IA se presentan en diversas áreas científicas, como en el diagnóstico de cánceres y otras enfermedades. Igualmente en la investigación sobre el genoma humano, el descubrimiento de nuevos productos farmacéuticos y en el diseño de los sistemas de asistencia al conductor que eventualmente usarán los autos autónomos. En NotiPress hemos dado noticias de avances de este tipo, como la propuesta de recurrir a la inteligencia artificial y el análisis de radiografías para diagnosticar la Covid-19, publicado en la revista IEEE/CAA Journal of Automatica Sinica. También de la posibilidad de recurrir a la IA para entender las causas de eventos climáticos extremos, según detalla un estudio en la revista Geophysical Research Letters.

Con base en el reporte, los riesgos actuales de la IA no pronostican un escenario distópico de ciencia ficción; se trata de riesgos más sutiles pero igualmente preocupantes. Entre ellos se encuentra el uso indebido deliberado de la inteligencia artificial, como la falsificación de imágenes y videos (deep fakes) para difundir información errónea o dañar la reputación de otras personas. En un sentido similar, también existe el riesgo de la programación de bots para manipular el discurso y la opinión pública.

Diversos riesgos se relacionan con asumir que la IA es neutral e imparcial, cuando la toma de decisiones a través de ella pueden ser resultado de decisiones históricas sesgadas o incluso de una discriminación flagrante. Este riesgo se relaciona particularmente con los sistemas de predicción de delitos, pues existe evidencia de un sesgo en contra de comunidades de color. Similarmente existe este peligro en el área de la atención médica, donde el sesgo racial incrustado en los algoritmos de seguros puede afectar el acceso de las personas a la atención adecuada. Con anterioridad, la Comisión de Seguridad Nacional de Inteligencia Artificial de Estados Unidos ha advertido de riesgos similares y otros, incluyendo la potencialización de ciberataques.

Aunque la inteligencia artificial avanza a grandes pasos y promete múltiples beneficios, su progreso no está exento de riesgos, como apunta este y otros reportes de expertos. En este sentido, será necesaria la participación constante de gobiernos, académicos y de la industria para asegurarse de