Regulación, el punto perdido en la Cumbre Mundial de IA en Reino Unido

 02-11-2023
Juan Manuel Flores
   
Foto: Sergio F Cara (NotiPress/IA)

Foto: Sergio F Cara (NotiPress/IA)

Durante el segundo día de actividades de la Cumbre de Seguridad IA, llevada a cabo en Reino Unido, se estableció un acuerdo para que gobiernos y empresas tecnológicas, realicen pruebas de seguridad en modelos de vanguardia. Si bien, este encuentro estableció acuerdos pioneros en torno a la investigación para gestionar los potenciales riesgos de la IA, no se abordó el desarrollo de regulaciones respaldadas por autoridades gubernamentales.

Mediante una declaración basada en el acuerdo de Bletchley, los 28 países participantes de la cumbre reconocieron su papel de realizar pruebas de seguridad externas sobre IA de frontera. Sin embargo, esto no implica la responsabilidad de determinar la seguridad de los modelos, pues esto recae en las empresas que los desarrollan, dejando de lado el concepto de regulación de cara a las autoridades.

En contraste a ello, Rishi Sunak, primer ministro de Reino Unido, apoya la idea de que las empresas no deberían marcar "sus propios deberes", como cita Nature. De este modo, se infiere, por un lado, que las autoridades y empresas tecnológicas asumen una responsabilidad compartida en torno a mitigar los riesgos de la IA.

Mientras, por otro lado, ninguno de los dos asume el papel de desarrollar regulaciones sobre las mismas. Similar al caso en torno a la determinación de seguridad sobre los modelos, donde los países deben realizar pruebas que confirmen la seguridad de estos, pero solo las tecnológicas responden por sus propios estándares de seguridad.

De este modo, la gestión de riesgo queda sesgada a la investigación y desarrollo de protocolos de seguridad, sin tomar en cuenta la regulación a nivel político. Nature remarca la necesidad de transparencia y acceso a los datos completos de quienes desarrollan modelos de IA.

Pilares de regulación de la IA

Dentro de los pilares de regulación, el medio académico menciona el registro, monitoreo regular, notificación de incidentes que podrían causar daños y la educación continua, para usuarios y reguladores.

Como ejemplo de la necesidad de regulación, Nature recurre a la seguridad vial. Los automovilismos han trasformado la vida de diversas formas, pero también han generado daños incalculables. Para mitigar estos daños, los fabricantes de vehículos deben cumplir normas de seguridad y estos deben ser sometidos a pruebas periódicas. Además, existe capacitación y marcos obligatorios legales para hacer uso de estos, como licencia de conducir.

Por su parte, Estados Unidos ha encabezado una serie de iniciativas que, si bien no son señaladas como marcos regulatorios, impulsan la transparencia en torno a los sistemas de IA. Pues solicitan a las empresas notificar y compartir con el gobierno datos de seguridad.

Con ello, Nature determina, la Cumbre de Seguridad de IA no tocó el punto crítico de la regulación y lo fundamental que resulta. Aunque, los acuerdos establecidos marcan esfuerzos sin precedentes por comprender y gestionar los potenciales riesgos de la IA.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS