Ciudad de México,
Axel Olivares
Crédito foto: Sergio F Cara (NotiPress/Composición)
La inteligencia artificial provoca tanto asombro como espanto, es por eso que varias legislaciones en el mundo piensan en diferentes formas para regular esta tecnología. Uno de esos casos es el estado de California, en donde se presentó un controvertido proyecto de ley para prevenir desastres provocados por IA.
El proyecto SB 1047 fue aprobado por el Senado del estado y ahora debe pasar al escritorio del gobernador Gavin Newsom para su aprobación o veto. Presentada por el senador estatal Scott Wiener, la ley tiene como objetivo evitar la posibilidad de que modelos de IA puedan ser los autores de eventos catastróficos como pérdida de vidas o ciberataques con un costo de más de 500 millones de dólares en daños.
A pesar de que la IA aun no tenga esa capacidad, el proyecto busca prevenir tales escenarios. De suceder algo semejante, la SB 1047 responsabilizaría a los desarrolladores de modelos de IA por los daños provocados y le otorgaría al fiscal general de California el poder de demandar a las empresas de IA con fuertes sanciones. La ley prevé también que los modelos tengan un "interruptor de apagado" el cual permita apagarlos si se los considera peligrosos.
Esta iniciativa ha sido cautelosamente aceptada por algunas figuras de Sillicon Valley, aunque mayormente inspira cierta incertidumbre con respecto a la aplicación de la legislación. Por lo tanto, el gobernador Newsom podría vetar la ley por la presión de la industria. "Esto [SB 1047] cambia el precedente con el que hemos tratado la política de software durante 30 años", afirmó el socio general de Andreessen Horowitz, Martin Casado, en una entrevista con TechCrunch. "Desvía la responsabilidad de las aplicaciones y la aplica a la infraestructura, algo que nunca habíamos hecho".
Una de las principales preocupaciones de la industria es que esta ley tenga un efecto paralizante en la innovación en IA de California. En efecto, muchos agentes le han pedido a Newsom que no firme la ley. Incluso la Cámara de Comercio de Estados Unidos le ha pedido a Newsom que vete el proyecto de ley, asegurando que "la IA es fundamental para el crecimiento económico de Estados Unidos".
De ser aprobada, en principio no sucederá nada. A partir de 2025, las empresas tecnológicas deberán redactar informes de seguridad para sus modelos de IA. En ese momento, el fiscal general de California podría solicitar una orden judicial exigiéndole a una empresa de IA que deje de entrenar u operar sus modelos si un tribunal determina que son peligrosos.
Con el paso de los años, se pondría en marcha el resto del proyecto como la creación de una Junta de Modelos Fronterizos la cual comenzaría a recopilar informes de seguridad de las empresas tecnológicas. Además, se le exigiría a los desarrolladores de modelos de IA contratar auditores para evaluar sus prácticas de seguridad, creando una nueva industria para el cumplimiento de la seguridad de la IA. Para 2027, la Junta de Modelos Fronterizos podría comenzar a emitir orientación para los desarrolladores de modelos de IA sobre cómo entrenar y operar modelos de IA de manera segura.
En caso de no aprobarse, los reguladores federales probablemente tomarían la iniciativa en la regulación de los modelos de IA. Recientemente, OpenAI y Anthropic sentaron las bases de cómo sería tal regulación. Ambos acordaron dar al AI Safety Institute, un organismo federal, acceso anticipado a sus modelos avanzados de IA. Al mismo tiempo, OpenAI respaldó un proyecto de ley que permitiría al AI Safety Institute establecer estándares para los modelos de IA. Los críticos argumentan que las autoridades federales son por lo general más lentas y menos efectivas al momento de aplicar regulaciones y esa sería la razón por la cual las compañías preferirían este tipo de regulación.