Confianza en IA varía según cuál sea su aplicación: estudio

 15-01-2022
Jorge Cerino

 

   

 

Crédito foto: Pexels

Crédito foto: Pexels

 

La inteligencia artificial (IA) crece en los últimos años a un ritmo acelerado, ocupando un lugar prominente en la sociedad actual, con un mercado valuado en 327.500 millones de dólares según Statista. Sin embargo, las posturas ante ella aún son diversas, sobre todo por su rápido desarrollo, la cual a menudo sobrepasa al de las estructuras sociales encargadas de regularla, como la ley o la ética. Un estudio reciente de la Universidad de Tokio encontró que la confianza de las personas en la IA varía según el escenario de su aplicación.

Para conocer cómo cambian las actitudes y confianza hacia la inteligencia artificial según el escenario de aplicación, los investigadores aplicaron encuestas sobre ocho cuestiones éticas comunes a muchas aplicaciones de la IA. Estos temas fueron: privacidad, responsabilidad, seguridad y protección, transparencia y explicabilidad, equidad y no discriminación, derechos humanos, control de la tecnología, responsabilidad profesional y promoción de los valores humanos.

Según un comunicado de la Universidad de Tokio, se les presentó a los encuestados cuatro escenarios para juzgar su confianza a partir de estos ocho criterios. Los escenarios fueron: Arte generado por IA, IA de servicio al cliente, armas autónomas y predicción de delitos. A partir de las respuestas los investigadores elaboraron gráficamente un octógono de medidas para registrar los puntajes de confianza provistos por los encuestados. En general, la idea de las armas con inteligencia artificial se calificó con mucho más escepticismo, en comparación con los otros tres escenarios, según el comunicado. En tanto, los escenarios de arte generado por IA y de servicio al cliente con IA fueron los mejor calificados.

En cuanto a las diferencias demográficas, las encuestas confirmaron la tendencia de que la IA se percibe más negativamente entre mujeres, personas mayores y personas con más conocimiento del tema. Aunque las encuestas se llevaron a cabo únicamente en Japón, los investigadores ya planean recopilar los datos de otros países. De acuerdo a investigadores de la Universidad Stanford, la inteligencia artificial ha alcanzado un punto de inflexión crítico en su evolución, con grandes avances y beneficios, pero también riesgos importantes. Sin embargo, según la universidad, no se trata de riesgos distópicos, sino de otros más sutiles, aunque importantes. Por ejemplo, la creación de imágenes y videos falsos (deep fakes), así como la programación de bots para manipular el discurso y la opinión pública.

Igualmente existe preocupación y falta de confianza por el uso de IA y tecnologías de reconocimiento facial en temas policiales. Esta preocupación proviene principalmente de la falta de equilibrio entre brindar tecnologías policiales para el trabajo judicial y el derecho a la privacidad de las personas.

Conocer cómo varían los niveles de confianza en la inteligencia artificial según su aplicación puede ayudar a investigadores, desarrolladores y reguladores a actuar en consecuencia. Esto debe llevarlos a trabajar en una mayor prevención de los riesgos propios de la IA en la actualidad, tanto a nivel tecnológico, como a nivel ético y de legalidad.

DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS