Puntos clave

  • Google firmó un contrato que permite al Pentágono usar sus modelos de IA para tareas clasificadas, el mismo día en que más de 600 empleados protestaron por el acuerdo en una carta abierta.
  • Expertos legales sostienen que las salvaguardas contractuales contra vigilancia masiva y armas autónomas no tienen peso legal, ya que el acuerdo explícitamente no le da a Google el derecho a controlar ni vetar las decisiones operacionales del gobierno.
  • A diferencia de OpenAI, que retuvo el control completo sobre su stack de seguridad, Google se comprometió a ajustar sus filtros de seguridad de IA cuando el gobierno se lo pida.

Pese a una carta abierta de cientos de empleados, Google firmó un contrato que entrega al Departamento de Defensa de EE.UU. acceso a sus modelos de IA para trabajo clasificado. Expertos legales advierten que las cláusulas de seguridad del contrato no son vinculantes.

Google firmó un contrato con el Pentágono que permite al Departamento de Defensa de EE.UU. usar los modelos de IA de Google en tareas clasificadas, reporta The Information citando a una fuente familiarizada con el asunto. El acuerdo entrega al Pentágono acceso para "cualquier propósito gubernamental legítimo".

La firma ocurrió el mismo día en que más de 600 empleados de Google, muchos del laboratorio de investigación en IA DeepMind, enviaron una carta abierta al CEO Sundar Pichai pidiéndole rechazar cualquier colaboración clasificada con el Pentágono. "Queremos ver que la IA beneficie a la humanidad, no que se use de formas inhumanas o extremadamente dañinas", escribieron los empleados, según el Washington Post.

El argumento central de la carta es que los contratos clasificados imposibilitan que los propios representantes de Google sepan cómo se está usando la tecnología. "La única forma de garantizar que Google no termine asociada a esos daños es rechazar cualquier carga de trabajo clasificada", afirma la carta.

Una vocera de Google Public Sector calificó el nuevo contrato como una extensión de un acuerdo previo de noviembre. Google sigue comprometida con el consenso de que la IA no debe usarse para "vigilancia masiva doméstica ni armamento autónomo sin supervisión humana adecuada", afirmó la vocera.

Las cláusulas de seguridad no tienen filo legal

El contrato sí incluye un párrafo que indica que el sistema de IA "no está destinado a vigilancia masiva doméstica ni a armas autónomas sin supervisión humana adecuada". Pero también establece, según The Information, que "este acuerdo no confiere ningún derecho a controlar ni a vetar la toma de decisiones operacionales legítimas del gobierno".

Charlie Bullock, abogado e investigador senior en el Institute for Law and AI, sostiene que el fraseo "no está destinado, y no debiera ser usado para" no tiene peso legal: solo señala que ese uso sería indeseado, pero no constituye un incumplimiento de contrato. Amos Toh, del Brennan Center de la NYU, agrega, según The Information, que "supervisión humana adecuada" no implica necesariamente que un humano deba intervenir entre la identificación del objetivo y la orden de fuego. El Pentágono no ha descartado sistemas de armas totalmente autónomos.

Más margen que OpenAI, contraste con Anthropic

El acuerdo de Google parece dar al Pentágono más margen que contratos comparables. OpenAI conservó el control total sobre su Safety Stack en el acuerdo de febrero, según una publicación de la propia compañía. Google, en cambio, se comprometió a ayudar al gobierno a ajustar sus filtros de seguridad cuando se lo solicite, reporta The Information. Junto a Google y OpenAI, xAI de Elon Musk también tiene un contrato clasificado de IA con el Pentágono.

A inicios de este año, Anthropic fue excluida de un acuerdo con el Pentágono en febrero porque exigía garantías contractuales contra vigilancia masiva y armas autónomas. La compañía está actualmente demandando esa decisión. En esa misma ocasión, más de 900 empleados de Google llamaron públicamente a la empresa a respaldar las líneas rojas de Anthropic. Ya en 2018, tras protestas de miles de empleados, Google decidió no renovar su contrato Project Maven con el Pentágono y se comprometió a no usar nunca su inteligencia artificial para armamento o vigilancia. El año pasado, la compañía retiró silenciosamente esas restricciones autoimpuestas.

Project Maven, en sí mismo, sigue en operación y hoy es comercializado por Palantir. Ha sido usado para la selección de objetivos en el conflicto con Irán, con apoyo del modelo Claude de Anthropic.