Anthropic lanza IA clasificada para inteligencia nacional de Estados Unidos

 09-06-2025
Martín Olivera
   
Foto: Sergio F Cara (NotiPress/Composición)

Foto: Sergio F Cara (NotiPress/Composición)

La empresa de inteligencia artificial Anthropic presentó Claude Gov, un conjunto de modelos de IA desarrollados especialmente para agencias de seguridad nacional de Estados Unidos. La compañía aseguró que esta tecnología fue creada en respuesta a las necesidades específicas planteadas por clientes gubernamentales, enfocadas en análisis de inteligencia, apoyo operativo y planificación estratégica.

Dichos modelos están restringidos a personal con autorizaciones de seguridad y funcionan exclusivamente en entornos clasificados. Claude Gov difiere de los modelos Claude disponibles para consumidores y empresas, ya que fue ajustado para procesar documentos confidenciales sin aceptar ni almacenar información clasificada ingresada por usuarios.

Además, Anthropic destacó que Claude Gov ofrece una "competencia mejorada" en lenguas y dialectos considerados cruciales para las operaciones de inteligencia internacional. Este aspecto responde a la creciente necesidad de interpretar información multilingüe en entornos sensibles de seguridad nacional.

La empresa declaró que "los nuevos modelos se sometieron a las mismas pruebas de seguridad que todos los modelos Claude". Esta validación se produce en el contexto de un trabajo por asegurar contratos estables en el sector público. En noviembre de 2024, Anthropic anunció una alianza con Palantir y Amazon Web Services para comercializar sus sistemas de IA entre clientes gubernamentales.

Otras empresas también ofrecen soluciones de IA especializadas para el sector defensa, además de las desarrolladas por Anthropic. En 2024, Microsoft lanzó una versión aislada de GPT-4, sin conexión a internet, que fue probada por unas 10,000 personas de la comunidad de inteligencia de Estados Unidos. Ese sistema fue implementado en una red gubernamental especial tras 18 meses de desarrollo.

El uso de modelos de IA en inteligencia plantea inquietudes sobre la confabulación, fenómeno en el cual los sistemas pueden generar información que parece confiable, pero es incorrecta. Dado que las IA se basan en probabilidades estadísticas y no en hechos verificados, su uso inapropiado podría derivar en resúmenes o análisis inexactos de datos críticos.

Según el medio TechCrunch, la competencia entre empresas tecnológicas por contratos de defensa se intensificó. OpenAI busca estrechar vínculos con el Departamento de Defensa de Estados Unidos; Meta puso sus modelos Llama a disposición de socios de seguridad; y Google desarrolla una versión clasificada de su modelo Gemini. La firma Cohere también participa en este sector a través de una colaboración con Palantir.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS