Anthropic acusa a firmas chinas de usar 24.000 cuentas falsas para extraer datos de Claude

 23-02-2026
Patricia Manero
   
Foto: Unsplash

Foto: Unsplash

Anthropic acusó a tres empresas chinas de inteligencia artificial —DeepSeek, Moonshot AI y MiniMax— de crear más de 24.000 cuentas falsas para generar al menos 16 millones de intercambios con su modelo Claude, con el objetivo de mejorar sus propios sistemas mediante una técnica conocida como "destilación". La denuncia fue publicada en el blog oficial de la empresa estadounidense.

Según Anthropic, los laboratorios se centraron en las capacidades más diferenciadas de Claude: razonamiento agente, uso de herramientas y programación. La compañía afirmó que la escala de actividad detectada sugiere el uso de infraestructura avanzada y vinculó el fenómeno con el debate sobre los controles de exportación de chips de inteligencia artificial hacia China.

La destilación es un método de entrenamiento habitual en la industria para desarrollar versiones más pequeñas y eficientes de modelos existentes. No obstante, Anthropic sostiene que también puede utilizarse para replicar capacidades de terceros. En ese contexto, OpenAI envió recientemente un memorando a legisladores de la Cámara de Representantes en el que acusó a DeepSeek de emplear esta técnica para imitar sus productos.

De acuerdo con la información difundida, Anthropic rastreó más de 150.000 intercambios atribuidos a DeepSeek enfocados en lógica y alineación, incluidos mecanismos para responder a consultas sensibles. En el caso de Moonshot AI, se registraron más de 3,4 millones de interacciones relacionadas con razonamiento agéntico, programación, análisis de datos y visión artificial. MiniMax habría generado cerca de 13 millones de intercambios centrados en codificación y orquestación de herramientas.

Anthropic afirmó que la magnitud de estas actividades requiere acceso a chips avanzados y señaló en su blog: "Los ataques de destilación refuerzan la justificación de los controles de exportación: el acceso restringido a los chips limita tanto el entrenamiento directo del modelo como la escala de la destilación ilícita".

En paralelo, la empresa advirtió: "Anthropic y otras empresas estadounidenses construyen sistemas que impiden que actores estatales y no estatales utilicen la IA para, por ejemplo, desarrollar armas biológicas o llevar a cabo actividades cibernéticas maliciosas". Añadió que es poco probable que los modelos creados mediante destilación ilícita conserven esas salvaguardias, lo que significa que pueden proliferar capacidades peligrosas y muchas protecciones quedarían completamente eliminadas.

Por su parte, Dmitri Alperovitch, presidente de Silverado Policy Accelerator y cofundador de CrowdStrike, declaró a TechCrunch: "Hace tiempo que está claro que parte del rápido progreso de los modelos de IA chinos se debe al robo mediante la destilación de modelos fronterizos estadounidenses. Ahora lo sabemos con certeza". También señaló: "Esto debería darnos razones aún más convincentes para negarnos a vender chips de IA a ninguna de estas [empresas] , lo que solo las beneficiaría aún más".

La controversia se produce en un contexto de debate en Estados Unidos sobre la exportación de chips avanzados a China, incluida la autorización reciente para que compañías como NVIDIA exporten determinados procesadores de IA.




DESCARGA LA NOTA  SÍGUENOS EN GOOGLE NEWS