El Departamento de Guerra de Estados Unidos firmó acuerdos con ocho compañías para desplegar IA en redes militares clasificadas: SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, Amazon Web Services y Oracle. Los acuerdos buscan "acelerar la transformación hacia establecer al ejército estadounidense como una fuerza de combate IA-first" y reforzar la "superioridad de decisión a través de todos los dominios de guerra".

Según el comunicado oficial, las herramientas se utilizarán para "uso operativo legal" ("lawful operational use"). Las otras siete compañías presuntamente aceptaron los mismos términos de uso que OpenAI.

¿Por qué Anthropic quedó fuera?

Anthropic empujó en sentido contrario sobre la redacción "all lawful use", con su CEO Dario Amodei argumentando que las leyes vigentes dejan agujeros abiertos, como vigilancia masiva mediante conjuntos de datos comerciales.

El Pentágono respondió catalogando a Anthropic como un riesgo de cadena de suministro, y la administración Trump ordenó a las agencias federales dejar de usar su tecnología. Anthropic presentó una demanda en respuesta.

¿Qué dice Amodei sobre el contrato de OpenAI?

En un memo filtrado, Amodei descartó el contrato de OpenAI con el Pentágono como "80% safety theater".

OpenAI, por su parte, trazó tres líneas rojas en su acuerdo:

  • No a la vigilancia masiva doméstica.
  • No a armas autónomas.
  • No a decisiones automatizadas de alto riesgo.

Pero los expertos legales cuestionan si esos compromisos significan algo sin "carve-outs" contractuales explícitos. La nota de The Decoder subraya que un compromiso público sin redacción legal vinculante puede ser revertido o reinterpretado bajo una administración distinta, y que la cláusula "all lawful use" deja al contratista atado a la lectura que el ejecutivo de turno haga de la ley.