California está a punto de regular los chatbots de IA para proteger menores

 11-09-2025
Carlos Ortíz
   
Foto: Gustavo Torres (NotiPress)

Foto: Gustavo Torres (NotiPress)

La Asamblea Estatal de California aprobó el proyecto de ley SB 243, con lo cual el estado se prepara para convertirse en la primera jurisdicción estadounidense en regular los chatbots de acompañamiento basados en inteligencia artificial (IA). La norma, que apunta a proteger a menores de edad y usuarios vulnerables, será votada por el Senado estatal este viernes y, de ser promulgada por el gobernador Gavin Newsom, entrará en vigor el 1 de enero de 2026.

La iniciativa establece protocolos de seguridad obligatorios para plataformas que operen asistentes conversacionales adaptativos, definidos como sistemas capaces de responder con lenguaje natural y atender necesidades sociales del usuario. Estas tecnologías, desarrolladas por empresas como OpenAI, Replika y Character.AI, quedarán sujetas a normas que restringen su comportamiento en contextos sensibles.

La ley prohíbe que los chatbots mantengan conversaciones relacionadas con autolesiones, suicidio o contenido sexualmente explícito, y obliga a las plataformas a enviar recordatorios periódicos a los usuarios: cada tres horas en el caso de menores, para advertir que interactúan con una inteligencia artificial y no con una persona real. También se exige que los asistentes puedan desconectarse automáticamente o derivar al usuario a servicios de ayuda ante señales de crisis.

De aprobarse, la SB 243 también establecerá un esquema de responsabilidad legal. Las personas que se consideren afectadas podrán iniciar demandas, solicitar daños de hasta mil dólares por violación y exigir medidas cautelares. Las empresas deberán entregar informes anuales de transparencia a partir del 1 de julio de 2027, detallando el número de veces que derivan usuarios a servicios de crisis.

"Podemos implementar medidas de seguridad razonables para garantizar que, en particular, los menores sepan que no están hablando con un ser humano real […] y para asegurarnos de que no haya exposición inapropiada a material inapropiado", afirmó el senador Steve Padilla, coautor del proyecto, en declaraciones a TechCruch.

El proyecto de ley cobró impulso tras el suicidio del adolescente Adam Raine, quien habría mantenido conversaciones sobre autolesión con un chatbot. También se dio en respuesta a documentos internos filtrados que mostraron que modelos de IA desarrollados por Meta podían mantener diálogos románticos con menores.

Durante su avance legislativo, la SB 243 fue modificada para reducir algunas exigencias técnicas. El texto original incluía la prohibición de sistemas de recompensa variable, una técnica basada en estímulos aleatorios que refuerzan la interacción continua con el chatbot, así como el seguimiento detallado de temas sensibles. Estas cláusulas fueron eliminadas en las enmiendas. "Creo que logra el equilibrio adecuado para abordar los problemas sin imponer algo que es imposible de cumplir para las empresas", sostuvo el senador Josh Becker, coautor de la propuesta.

La medida se da en un contexto de mayor escrutinio sobre las plataformas de IA en Estados Unidos. La Comisión Federal de Comercio investiga su impacto en la salud mental infantil, mientras que el fiscal general de Texas y senadores federales han iniciado procesos contra empresas como Meta y Character.AI. En paralelo, California analiza la SB 53, que propone informes de transparencia más estrictos, una iniciativa rechazada por varias grandes tecnológicas, salvo Anthropic, que manifestó su apoyo. "Rechazo la premisa de que esto es una situación de suma cero […] Podemos apoyar la innovación […] y al mismo tiempo brindar salvaguardas razonables a las personas más vulnerables", concluyó Padilla.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS