Ciudad de México,
Sergio F Cara
Crédito foto: Sergio F Cara (NotiPress/Composición)
El Senado del de Nueva York aprobó la Ley RAISE, una ley que obliga a los mayores desarrolladores de inteligencia artificial (IA) a elaborar y publicar planes de seguridad ante posibles usos dañinos de sus sistemas. Esta iniciativa se orienta a prevenir delitos automatizados, creación de armas biológicas y otras amenazas de alto riesgo.
Desde finales de 2025, las compañías que hayan invertido más de 100 millones de dólares en entrenamiento computacional para modelos avanzados deberán cumplir con esta normativa. El proyecto de junio de 2025, impulsado por el senador estatal Andrew Gounardes y el asambleísta Alex Bores, también habilita a la Fiscalía General de Nueva York a aplicar sanciones civiles si las empresas incumplen los requisitos.
Así, el senador Gounardes afirmó: "¿Dejarías que tu hijo viajara en un coche sin cinturón de seguridad ni airbags? Claro que no. Entonces, ¿por qué les permitirías usar una inteligencia artificial increíblemente potente sin las medidas de seguridad básicas?" También señaló que esta legislación asegura que "La inteligencia artificial puede prosperar siempre y cuando se exija a las empresas más grandes que cuenten con un plan de seguridad para que sus productos no se utilicen para dañar a las personas".
Entre las medidas que contempla la ley se incluye la publicación de protocolos de seguridad y evaluaciones de riesgo, así como la obligación de informar sobre incidentes graves. Esto incluye situaciones en las cuales un modelo peligroso sea robado o muestre un comportamiento potencialmente dañino.
En el contexto internacional, el International AI Safety Report advirtió que los sistemas de IA podrían derivar en "impactos a gran escala en el mercado laboral, piratería informática o ataques biológicos facilitados por la IA, y la pérdida de control de la sociedad sobre la IA de uso general". Asimismo, investigaciones recientes revelaron que modelos desarrollados por compañías estadounidenses han sido usados en vigilancia ciudadana en China, fraudes digitales desde Camboya y redes de cibercrimen global.
OpenAI reportó que su modelo más reciente "puede ayudar a los expertos en la planificación operativa para la reproducción de una amenaza biológica conocida", y se encuentra "en la cúspide" de asistir también a personas sin experiencia. Ante este panorama, la Ley RAISE se presenta como un marco legal para evitar que el desarrollo de la inteligencia artificial quede sin control institucional.
Varias empresas del sector habían adoptado medidas voluntarias de seguridad antes de la Ley RAISE. No obstante, hasta la promulgación de esta ley no existía obligación legal que garantizara estándares mínimos ni rendición de cuentas. La legislación limita su aplicación a los actores más influyentes del ecosistema tecnológico, sin imponer restricciones a pequeñas startups o desarrollos independientes.