Ciudad de mÉXICO,
Patricia Manero
Crédito foto: Sergio F Cara (NotiPress)
El Departamento de Defensa de Estados Unidos está integrando herramientas de inteligencia artificial (IA) generativa para mejorar su capacidad de identificar y evaluar amenazas, pero mantiene una postura firme en evitar que estas tecnologías se utilicen para causar daño directo a los humanos. Según la Dra. Radha Plumb, directora digital y de inteligencia artificial del Pentágono, estas herramientas están ayudando en la planificación y estrategia dentro de la "cadena de eliminación", un proceso militar que incluye la identificación, seguimiento y neutralización de amenazas.
Empresas como OpenAI, Anthropic y Meta han flexibilizado sus políticas para permitir el uso de sus modelos en defensa e inteligencia, aunque con restricciones que prohíben su uso directo en sistemas letales. Según Plumb, el Pentágono ha sido claro en que las decisiones de fuerza letal siempre incluirán supervisión humana. "Como cuestión de confiabilidad y ética, siempre tendremos humanos involucrados en la decisión de emplear la fuerza", afirmó.
Anthropic, por ejemplo, prohíbe explícitamente el uso de sus modelos para crear o modificar sistemas diseñados para causar daño. Su CEO, Dario Amodei, enfatizó la necesidad de un enfoque equilibrado: "Estamos tratando de buscar un punto intermedio, de hacer las cosas de manera responsable".
La IA generativa ha demostrado ser útil para explorar escenarios estratégicos y opciones de respuesta en contextos de amenaza. Plumb destacó que estas herramientas permiten a los comandantes analizar múltiples posibilidades y tomar decisiones más informadas. Sin embargo, aún persisten debates sobre la autonomía de estos sistemas, especialmente en aplicaciones militares.
El uso de IA en la defensa ha generado preocupación entre empleados de empresas tecnológicas y expertos en ética. En contraste con protestas anteriores, como las relacionadas con el "Proyecto Nimbus" de Google y Amazon, la comunidad de IA ha mostrado una respuesta más moderada. Investigadores como Evan Hubinger de Anthropic sostienen que colaborar con el gobierno es inevitable y necesario para garantizar un uso responsable de la IA.
A medida que la tecnología avanza, el Pentágono y los desarrolladores de IA buscan mantener un equilibrio entre aprovechar las capacidades de la IA y respetar principios éticos. Aunque las herramientas actuales no actúan de manera completamente autónoma, su implementación en defensa plantea desafíos continuos sobre cómo gestionar la colaboración entre humanos y máquinas en decisiones críticas.