Anthropic anunció la semana pasada un acuerdo con SpaceX para arrendar la totalidad de Colossus 1, el data center de IA de xAI ubicado en Memphis, con más de 220.000 GPUs Nvidia y 300 MW de capacidad de cómputo. El movimiento, reportado por Tom's Hardware sobre la base de un análisis de Mirae Asset Securities, llega en un momento en que xAI prepara la salida a bolsa de SpaceX y Anthropic enfrenta restricciones severas de capacidad para servir a usuarios de Claude.
Según la propia Anthropic, la capacidad recién incorporada se usará principalmente para aliviar cuellos de botella en el ecosistema pago de Claude. Esto debería traducirse en límites más altos para Claude Code, eliminación del throttling en horas peak para suscriptores Pro y Max, y aumentos sustanciales en el límite de requests API para los modelos Claude Opus que usan desarrolladores y clientes enterprise.
¿Por qué Anthropic necesita 300 MW solo para Claude?
Las primeras señales de que Anthropic estaba quedándose corta de cómputo fueron los límites de uso cada vez más agresivos en su suscripción. Los usuarios free se quejaron del consumo rápido de tokens, pero las restricciones también golpearon a clientes Pro, Max, Team y Enterprise: caps de mensajes, throttling en horas peak, rate limits en la API y techos de tiempo en sesiones de Claude Code, especialmente durante períodos de alta demanda.
Entrenar un modelo es un gasto computacional grande pero acotado en el tiempo. Servirlo a millones de usuarios simultáneos, en cambio, genera demanda continua que escala directo con cada nuevo usuario y cada nueva consulta. Anthropic ya viene firmando acuerdos masivos a escala de gigawatt con Amazon, Google, Microsoft y Nvidia, pero un data center hyperscale moderno cuesta decenas de miles de millones de dólares y toma años en construirse. El problema era inmediato; la solución, de largo plazo.
¿Por qué Colossus 1 nunca pudo entrenar Grok bien?
Cuando Musk presentó Colossus, lo enmarcó como prueba de que xAI quería competir en serio con OpenAI, Anthropic y Google en la frontera del IA. El cluster de Memphis se hizo famoso por la velocidad con que se armó: decenas de miles de GPUs Nvidia puestas en línea en tiempo récord, escalando hasta 220.000 aceleradores.
El problema, según el reporte de Mirae Asset, es que Colossus 1 es un cluster heterogéneo. La mezcla aproximada es 150.000 H100, 50.000 H200 y 20.000 GB200, tres generaciones distintas de silicio de Nvidia bajo un mismo techo. Esto fue más consecuencia de la prisa por escalar que de una decisión deliberada.
Para entrenar, la configuración heterogénea introduce un problema serio de eficiencia: el entrenamiento distribuido exige que cada GPU del cluster termine cada paso computacional antes de avanzar. Cuando los GB200 acaban primero y los H100 todavía van a la mitad, el cluster entero espera al más lento. Es el llamado straggler effect, y a 220.000 chips se vuelve exponencial.
El resultado: la utilización real de GPU en xAI estaría sentada en apenas 11%, según el informe. Es decir, 89% de la capacidad teórica del cluster se estaba desperdiciando. Para comparar, Meta y Google operan típicamente sobre 40%. Las GPUs de IA no envejecen bien en una bodega: se deprecian rápido, consumen mucha electricidad y requieren mantenimiento y refrigeración caros. Una GPU encendida sin trabajar es plata quemándose.
¿Qué cambia para inferencia versus entrenamiento?
Acá entra el match perfecto. Anthropic necesitaba cómputo para inferencia, es decir, correr consultas sobre un modelo ya entrenado. Y la inferencia no requiere la sincronización ajustada que sí necesita el entrenamiento. Lo que era una ineficiencia estructural para los workloads de entrenamiento de xAI resulta ser una infraestructura perfectamente usable para los workloads de inferencia de Anthropic.
Múltiples reportes sugieren que xAI ya migró todos sus workloads core de entrenamiento a Colossus 2, un cluster de próxima generación apuntado a escala de gigawatt y construido íntegramente sobre la arquitectura Blackwell de Nvidia. En un cluster uniforme, cada chip termina cada paso al mismo tiempo, y la utilización puede teóricamente superar el rango de Meta y Google. xAI también puede optimizar su stack de software para una sola generación de hardware en lugar de tres.
Según Mirae Asset, xAI ya trata a Colossus 1 como un activo retirado de primera generación: dejó de ser un "arma de entrenamiento de frontera" y pasó a ser un asset monetizable.
¿Cuánto vale el acuerdo para cada uno?
Los analistas de Mirae Asset estimaron el valor del contrato usando tarifas de arriendo por hora para distintos tipos de GPU Nvidia. La proyección: Colossus 1 podría generar entre USD 5.000 y 6.000 millones de revenue anual. Eso cubre casi de forma exacta la pérdida neta anualizada de xAI, estimada en USD 6.000 millones al cierre del Q1 2026. En otras palabras, un solo contrato lleva a xAI cerca del breakeven.
Para Anthropic, los analistas aplicaron el estimado público del CEO Dario Amodei: alrededor de la mitad del gasto total de cómputo en IA va a inferencia, y la inferencia convierte a revenue con un multiplicador de 3x. Sobre esa base, los USD 5.000 millones destinados a inferencia podrían generar aproximadamente USD 15.000 millones de ARR incremental, una adición significativa a la base de ingresos de Anthropic, que ya superó los USD 30.000 millones de run rate anualizado el mes pasado.
El giro de Musk y la IPO de SpaceX
A comienzos de año, Musk había atacado públicamente a Anthropic y Claude, llamando a la compañía "misanthropic and evil". Esta semana dijo que aprobó el acuerdo tras hablar con ejecutivos de Anthropic y determinar que "nadie disparó mi detector de maldad".
El acuerdo también deja entrever otra posibilidad: Musk podría estar posicionando a SpaceX/xAI más como un proveedor de infraestructura cloud de IA. No sería del todo sorprendente. xAI ya lanzó Grok Business y ofertas enterprise con APIs, controles de seguridad, audit logging e integraciones corporativas. Todo esto alinea con los planes reportados de cambios estructurales en SpaceX y xAI de cara a la salida a bolsa próxima.
Hay además un anexo de ciencia ficción: el anuncio conjunto incluyó una mención a "capacidad de cómputo orbital", o sea, data centers en el espacio. Suena a marketing, pero conecta con un problema real que enfrentan los hyperscalers: la infraestructura de IA está empezando a chocar con los límites terrestres de electricidad, terreno y enfriamiento.
Lo que queda en duda
Los detalles financieros del acuerdo de Colossus no son públicos. Anthropic recaudó hace poco USD 30.000 millones en una ronda Serie G que la valoriza en USD 380.000 millones, así que no sería raro que parte de ese cash haya ido al Colossus. Pero la compañía también dice que su ARR ya superó los USD 30.000 millones, lo que muestra la escala vertiginosa a la que opera hoy el negocio de Claude.
xAI construyó Colossus 1 rápido. Demasiado rápido, resulta. La mezcla heterogénea de GPUs lo volvió difícil de justificar como plataforma de largo plazo. Con Colossus 2 ya operativo y construido como corresponde sobre Blackwell uniforme, Colossus 1 quedó como un activo de primera generación buscando un mejor uso. Anthropic, con demanda explosiva y poco cómputo disponible, fue precisamente ese mejor uso.




