El Departamento de Guerra de Estados Unidos anunció acuerdos con "siete de las principales empresas mundiales de inteligencia artificial frontera" para uso operativo. Según el comunicado oficial sobre los Acuerdos de IA en Redes Clasificadas, las firmas SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft y Amazon Web Services desplegarán sus modelos de lenguaje en las redes clasificadas del Pentágono "para uso operativo lícito".

El gobierno estadounidense sostiene que esta decisión ayudará a transformar a sus fuerzas armadas en una "fuerza de combate AI-first" y aportará "superioridad en la toma de decisiones a través de todos los dominios de la guerra".

¿Qué pueden hacer estos LLMs en las redes militares?

Por ahora, las herramientas de IA quedan acotadas a análisis de datos y aceleración de la toma de decisiones en situaciones complejas. Estos modelos son accesibles vía GenAi.mil, la plataforma oficial de IA del Pentágono, a través de la red del Departamento de Guerra y están ampliamente disponibles para su personal.

"Más de 1,3 millones de personas del Departamento han usado la plataforma, generando decenas de millones de prompts y desplegando cientos de miles de agentes en solo cinco meses", informó el Pentágono. "Combatientes, civiles y contratistas están aplicando estas capacidades en uso práctico ahora mismo, recortando muchas tareas de meses a días."

Anthropic queda fuera del trato

A pesar del entusiasmo, persisten preocupaciones sobre el uso de IA en aplicaciones militares. Anthropic se negó a ceder ante la exigencia del Departamento de Guerra de relajar sus salvaguardas, argumentando que hacerlo podría implicar que sus productos terminen usándose para vigilancia masiva o creación de armas autónomas.

Esta postura le costó caro: el presidente Donald Trump bloqueó a la empresa de las agencias federales, llegando incluso a designarla como riesgo de cadena de suministro por rehusarse a ceder a las demandas del gobierno federal.

El sesgo de automatización es el riesgo silencioso

La IA es útil para condensar grandes volúmenes de información y detectar patrones que escapan al ojo humano, pero todavía no es una herramienta 100% confiable para decisiones de impacto global. Un investigador comprobó esto al enfrentar a GPT-5.2, Claude Sonnet 4 y Gemini 3 en un wargame: el 95% de los desenlaces terminó en un ataque nuclear táctico. Tres escenarios incluso terminaron en un ataque nuclear estratégico que habría supuesto el fin del mundo.

Aunque las herramientas de IA están limitadas al análisis y al apoyo, con un operador humano al mando como responsable final de cada decisión, surge el riesgo del automation bias. Es la tendencia de una persona a seguir la sugerencia de un computador a pesar de información contradictoria, sobre todo porque los sistemas de IA pueden procesar muchísimo más datos y mucho más rápido que cualquier humano. El problema: los datos que alimentan a la IA pueden ser falsos, erróneos o malinterpretados, así que es crucial que los humanos apliquen su intuición y experiencia antes de aceptar las sugerencias del modelo al pie de la letra.

¿Qué significa esto para el equilibrio global?

Estados Unidos no es el único actor militar experimentando con IA en uso operativo. China, por ejemplo, ya mostró un enjambre de 200 drones autónomos controlable por un solo soldado, además de jaurías de drones terrestres armados con ametralladoras y lanzagranadas para combate urbano.

No es realista esperar que estas instituciones armadas dejen de desplegar herramientas de IA para inteligencia, reconocimiento y toma de decisiones en el campo de batalla. Lo único que queda por hoy es esperar que no ignoren las salvaguardas y que nunca le entreguen a la IA el gatillo de ningún arma.