El Gobierno de Trump rompe vínculos con Anthropic por negarse a colaborar con el Pentágono

La empresa se negó a ceder su IA Claude para usos militares y de vigilancia

La Casa Blanca y el Pentágono suspendieron de manera inmediata la relación con Anthropic por no respaldar las operaciones ejercidas con IA; la compañía defiende lineamientos éticos

El presidente de Estados Unidos, Donald Trump, ordenó este 27 de febrero a todas las agencias federales suspender de inmediato el uso de la tecnología desarrollada por la empresa Anthropic. La decisión se produjo luego de que la compañía se negara a conceder el uso completo de su modelo de inteligencia artificial Claude al Departamento de Guerra, representado en una clausula del contrato apodada "cualquier uso legal".

"Ordeno a TODAS las agencias federales del Gobierno de Estados Unidos que CESE INMEDIATAMENTE todo uso de la tecnología de Anthropic. ¡No la necesitamos, no la queremos y no volveremos a hacer negocios con ellos!", publicó Trump en su red Truth Social.

La orden presidencial otorga un periodo de transición de seis meses para que agencias como el Departamento de Guerra descontinúen el uso de Claude. Durante ese lapso, la tecnológica deberá cooperar con el gobierno para facilitar el proceso. De lo contrario, el mandatario advirtió que "utilizaré todo el poder de la presidencia para obligarlos a cumplir, con las importantes consecuencias civiles y penales que ello conllevaría".

Anthropic había sido contratada por 200 millones de dólares en julio de 2025 para desarrollar soluciones de inteligencia artificial en el ámbito de la seguridad nacional. No obstante, la empresa se negó a permitir que Claude se utilice en armas autónomas, como drones sin pilotos humanos, o actividades de vigilancia a ciudadanos estadounidenses.

[img1]

"Amparados en la retórica santurrona del "altruismo efectivo", han intentado someter a las fuerzas armadas estadounidenses mediante la presión", afirmó el secretario de Defensa, Pete Hegseth, en X, quien además agregó que el "altruismo" de Anthropic "nunca prevalecerán sobre la seguridad, la preparación ni la vida de las tropas estadounidenses en el campo de batalla". El Pentágono fijó como fecha límite el 27 de febrero para que Anthropic aceptara sus términos.

En un comunicado emitido el día anterior a la orden, Anthropic reafirmó su decisión de no ceder ante las condiciones del Pentágono. Según la compañía, autorizar el uso de Claude en los términos propuestos sería "incompatible con los valores democráticos".

Trump respondió duramente a esta postura en su red social:

"Los locos de izquierda de Anthropic han cometido un ERROR DESASTROSO al intentar presionar al Pentágono para que acepten sus condiciones en lugar de nuestra Constitución".

El mandatario también agregó: "NOSOTROS decidiremos el destino de nuestro país, no una empresa de IA radical de izquierda fuera de control dirigida por personas que no tienen ni idea de cómo es el mundo real".

[img2]

Como consecuencia, la empresa perdió su relación con el Ejército y fue calificada oficialmente como un "riesgo para la cadena de suministro" y para la "seguridad nacional".

Mientras tanto, OpenAI, desarrolladora de ChatGPT, mantiene conversaciones con el Pentágono para desplegar sus modelos de IA en entornos clasificados. Según The Wall Street Journal, aún no se ha concretado un acuerdo. El periódico estima que las negociaciones podrían fracasar.

Un trato degradado

Desde un principio, Anthropic mantuvo requisitos estrictos en su vínculo con el Gobierno de Estados Unidos. El acuerdo prohibía explícitamente el uso de Claude en sistemas de vigilancia masiva de ciudadanos estadounidenses y en sistemas de armas totalmente autónomos que pudieran seleccionar y atacar objetivos sin intervención humana.

Bajo estos términos, el Pentágono comenzó a utilizar a Claude para análisis de inteligencia, modelado y simulación, planificación operacional y operaciones cibernéticas.

Sin embargo, el trato comenzó a desfigurarse con el tiempo. Al enterarse que se habían utilizado las plataformas de Palantir Technologies para capturar a Nicolás Maduro, la compañía contactó a colegas en Palantir para preguntar qué rol específico había jugado su IA en la misión. Esto fue interpretado por el Pentágono como una interferencia en la seguridad nacional y un intento de auditar operaciones clasificadas.

Anthropic no quería quedar vinculado con el operativo ya que contradecía sus principios que prohíben explícitamente el uso de la IA para facilitar la violencia, desarrollar armamento o vigilancia invasiva.

Ese mismo mes, el Secretario de Defensa Hegseth emitió un memorando exigiendo que todos los contratos de IA con el Departamento de Defensa incluyeran la cláusula de "cualquier uso legal", eliminando las restricciones impuestas por las empresas privadas. A diferencia de otras empresas, Anthropic se negó a eliminar sus salvaguardas éticas, argumentando que no podía permitir usos que violaran sus principios de seguridad.