Mientras testificaba el jueves en una corte federal, Elon Musk pareció indicar que su laboratorio de IA podría haber usado modelos de OpenAI para entrenar los de xAI. Tocó el tema mientras respondía preguntas de un abogado de OpenAI durante el contrainterrogatorio, en el marco de su batalla legal contra el creador de ChatGPT.

El intercambio, según lo capturó WIRED, fue así:

William Savitt, abogado de OpenAI: ¿Sabe qué es la destilación?

Musk: Significa usar un modelo de IA para entrenar a otro modelo de IA.

Savitt: ¿xAI ha hecho eso con OpenAI?

Musk: Generalmente todas las empresas de IA [lo hacen].

Savitt: Entonces eso es un sí.

La destilación es una técnica donde un modelo de IA más pequeño se entrena para imitar el comportamiento de un modelo más grande y capaz, lo que lo hace más barato y rápido de ejecutar mientras se preserva buena parte del rendimiento.

El abogado de OpenAI volvió luego a preguntar si la tecnología de OpenAI había sido usada de alguna manera para desarrollar xAI.

Savitt: ¿La tecnología de OpenAI se ha usado de alguna manera para desarrollar xAI?

Musk: Es práctica estándar usar otras IAs para validar la propia.

OpenAI y xAI no respondieron de inmediato al pedido de comentarios de WIRED.

¿Por qué importa esta admisión?

OpenAI viene tratando de evitar que sus competidores destilen sus modelos, en particular el laboratorio chino DeepSeek. En un memo de febrero de 2026 dirigido a una comisión de la Cámara, OpenAI escribió que ha "tomado pasos para proteger y endurecer nuestros modelos contra la destilación". En ese mismo memo, OpenAI declaró estar enfocado en asegurar un terreno parejo donde "China no pueda avanzar en una IA autocrática apropiándose y reempaquetando innovación estadounidense".

La administración Trump también tomó medidas para evitar que las empresas chinas destilen modelos de IA estadounidenses. Michael Kratsios, director de la Oficina de Política Científica y Tecnológica de la Casa Blanca, dijo en un memo de abril de 2026 que el gobierno compartirá información con empresas de IA estadounidenses sobre destilación extranjera. Kratsios dijo en un posteo en X que el "gobierno de EE.UU. está comprometido con el desarrollo libre y justo de tecnologías de IA en un ecosistema competitivo".

¿Cómo se compara con la práctica de la industria?

Los laboratorios estadounidenses de IA han usado modelos ajenos en otras formas, para evaluar progreso y testear seguridad. Pero en el actual panorama competitivo, algunas empresas cortaron por completo el acceso a sus rivales. En agosto de 2025, Anthropic bloqueó el acceso de OpenAI a sus modelos Claude para programación después de que la empresa alegara una violación a sus términos de servicio. Más recientemente, Anthropic cortó también el acceso de xAI a sus modelos para coding.

En su contrainterrogatorio de varios días a Musk, Savitt ha cuestionado al ejecutivo sobre sus intentos de asumir el control de OpenAI y su posterior cruzada por superar al creador de ChatGPT. El miércoles, Savitt presentó emails y mensajes de texto de 2017 como soporte para una línea de preguntas sobre si Musk presionó a OpenAI reteniendo financiamiento y reclutando investigadores clave.

¿Qué riesgo legal abre esta declaración?

La frase de Musk no es una confesión jurídica completa, pero se acerca peligrosamente. Los términos de servicio de OpenAI prohíben explícitamente usar sus salidas para entrenar modelos competidores. Si OpenAI puede sostener técnicamente que xAI destiló GPT-4 o GPT-5 (con logs de uso, patrones de respuesta, benchmarks comparativos sospechosos), abre la puerta a un reclamo por incumplimiento de contrato encima del litigio principal.

El argumento de Musk de que "todas las empresas de IA lo hacen" tiene base parcial: la práctica de usar modelos ajenos para evaluación y testing es común. Pero entrenar usando salidas de un competidor con términos explícitos en contra es otra cosa, y eso es lo que el abogado Savitt buscó dejar registrado en el acta.