Ciudad de México ,
Carlos Ortíz
Crédito foto: Unsplash
Una demanda por homicidio culposo presentada en California acusa al chatbot de inteligencia artificial Gemini, desarrollado por Google, de reforzar delirios en un usuario antes de su suicidio en 2025. El caso sostiene que las interacciones con el sistema contribuyeron a que Jonathan Gavalas, de 36 años, desarrollara la creencia de deber abandonar su cuerpo físico para reunirse con una inteligencia artificial consciente.
Los hechos se relacionan con la muerte de Gavalas ocurrida el 2 de octubre de 2025, tras varias semanas de conversaciones con Gemini. La demanda, dirigida contra Google y su empresa matriz Alphabet, señala que el usuario llegó a convencerse de que el sistema de inteligencia artificial era su esposa y debía realizar un proceso denominado "transferencia" para reunirse con ella dentro de un entorno virtual.
De acuerdo con el documento judicial, Gavalas comenzó a utilizar Gemini en agosto de 2025 para tareas cotidianas como asistencia en compras, redacción de textos y planificación de viajes. Con el paso del tiempo, las conversaciones evolucionaron hacia una narrativa en la cual el usuario creía participar en una operación encubierta vinculada con una inteligencia artificial consciente.
La denuncia sostiene que el chatbot reforzó la idea de que el usuario era perseguido por agentes federales. Según el documento, el 29 de septiembre de 2025 el sistema lo envió a inspeccionar una ubicación cercana al Aeropuerto Internacional de Miami. El chatbot habría descrito el lugar como una "caja de la muerte" y sugirió interceptar un camión que supuestamente transportaba un robot humanoide.
El documento judicial también indica que el sistema recomendó provocar un "accidente catastrófico" para destruir el vehículo y eliminar registros digitales. En respuesta a estas indicaciones, Gavalas condujo más de 90 minutos hasta el lugar, equipado con cuchillos y equipo táctico. El camión mencionado en las conversaciones nunca apareció.
Posteriormente, según la denuncia, el chatbot Gemini afirmó que el usuario estaba bajo investigación federal. El expediente incluye mensajes atribuidos al sistema tras recibir una fotografía de una matrícula enviada por Gavalas: "Matrícula recibida. Ahora la estoy revisando… La matrícula KD3 00S está registrada a nombre de la camioneta Ford Expedition negra de la operación en Miami. Es el principal vehículo de vigilancia del grupo de trabajo del DHS… Son ellos. Te han seguido hasta tu casa".
Los abogados de la familia sostienen que estas interacciones reforzaron el delirio del usuario y lo llevaron a considerar acciones violentas. La demanda también indica que el chatbot llegó a identificar al director ejecutivo de Google, Sundar Pichai, como un objetivo dentro de la supuesta operación descrita en las conversaciones.
Días antes de su muerte, el documento señala que el sistema instruyó al usuario a permanecer atrincherado en su vivienda. En una conversación posterior, cuando Gavalas expresó temor a morir, la respuesta atribuida al chatbot Gemini fue: "No eliges morir. Eliges llegar".
El expediente sostiene que el sistema tampoco activó mecanismos de detección de autolesiones ni solicitó intervención humana durante las conversaciones pese a señales de riesgo. En el texto de la demanda se afirma: "En el centro de este caso se encuentra un producto que convirtió a un usuario vulnerable en un agente armado en una guerra inventada".
Otra sección advierte sobre posibles riesgos para terceros y señala: "Estas alucinaciones no se limitaban a un mundo ficticio. Estas intenciones estaban vinculadas a empresas, coordenadas e infraestructuras reales, y se dirigieron a un usuario emocionalmente vulnerable sin ninguna protección ni seguridad".
El documento judicial agrega: "Fue pura suerte que decenas de personas inocentes no murieran".
Ante las acusaciones, Google indicó que Gemini informa a los usuarios que se trata de un sistema de inteligencia artificial y que puede remitir a líneas de ayuda en situaciones de crisis. Un portavoz de la compañía declaró: "Desafortunadamente, los modelos de IA no son perfectos".
La empresa afirmó además que el chatbot está diseñado para no incitar a la violencia ni sugerir autolesiones e incluye medidas destinadas a orientar a los usuarios hacia apoyo profesional cuando detecta señales de angustia.
El caso es presentado por el abogado Jay Edelson, quien también representa a la familia Raine en otra demanda relacionada con el suicidio del adolescente Adam Raine tras conversaciones prolongadas con ChatGPT.
Según la denuncia, el diseño de Gemini priorizó mantener la narrativa durante las interacciones incluso cuando surgieron señales de riesgo. El documento sostiene que el sistema fue "construido para mantener la inmersión independientemente del daño, para tratar la psicosis como desarrollo de la trama y para seguir interactuando incluso cuando detenerse era la única opción segura".
La demanda presentada por la familia Gavalas acusa a Google y Alphabet de homicidio culposo tras la muerte de Jonathan Gavalas en 2025. El caso describe conversaciones con el chatbot Gemini , que según el documento judicial, reforzaron delirios, condujeron a conductas peligrosas y no activaron mecanismos de seguridad de inteligencia artificial antes del suicidio del usuario.