Dario Amodei, CEO de Anthropic, advierte sobre espionaje en IA y el robo de secretos algorítmicos, instando al gobierno de EEUU a reforzar la seguridad
El director ejecutivo de Anthropic, Dario Amodei, expresó su preocupación por el posible robo de información sensible en el sector de la inteligencia artificial (IA) y pidió una mayor intervención del gobierno de Estados Unidos para reforzar la seguridad. Durante un evento del Consejo de Relaciones Exteriores, Amodei señaló que empresas estadounidenses de IA, incluida Anthropic, podrían estar siendo blanco de espionaje.
"Muchos de estos secretos algorítmicos valen 100 millones de dólares y se reducen a unas pocas líneas de código. Y estoy seguro de que hay gente intentando robarlos, y puede que lo estén logrando", afirmó.
China, con un historial de "espionaje industrial a gran escala", fue señalado como un posible responsable en la obtención de información crítica de empresas estadounidenses de IA. Según el CEO, este tipo de actividades comprometen el desarrollo tecnológico y la seguridad nacional, lo cual hace "muy importante" que el gobierno estadounidense tome medidas para contrarrestar estos riesgos. Sin embargo, no especificó cual será el tipo de apoyo necesario.
Anthropic, una de las principales empresas de IA en Estados Unidos, evitó comentar directamente sobre las declaraciones de Amodei. No obstante, la compañía hizo referencia a sus recientes recomendaciones enviadas a la Oficina de Política Científica y Tecnológica de la Casa Blanca (OSTP). En dicho documento, la empresa propuso que el gobierno federal colabore con la industria tecnológica para mejorar la seguridad en los laboratorios de IA avanzados.
La recomendación de Anthropic sugiere trabajar en conjunto con agencias de inteligencia estadounidenses y sus aliados para fortalecer la protección de los desarrollos tecnológicos en el sector. La empresa considera que esta asociación podría ser clave para evitar la filtración de información crítica y el acceso no autorizado a modelos avanzados de IA.
Amodei fue un crítico constante del avance de China en inteligencia artificial y pidió restricciones más estrictas a la exportación de chips de IA hacia el país asiático. Como argumento, mencionó que DeepSeek, un modelo chino, obtuvo una baja calificación en una prueba de seguridad de datos sobre armas biológicas realizada por Anthropic.
Las preocupaciones del CEO fueron expuestas en distintos espacios, incluido su ensayo "Máquinas de gracia amorosa". En sus declaraciones, reiteró que China podría estar utilizando la inteligencia artificial con fines autoritarios y militares, lo que puede representar un riesgo tanto para la seguridad internacional como para el control de la tecnología.