Google, Amazon, Microsoft y Meta planean gastar en conjunto USD 725.000 millones en capex durante 2026, un salto del 77% sobre los USD 410.000 millones del récord anterior, según los reportes de resultados del primer trimestre compilados por Financial Times. Google encabezó el ciclo con un crecimiento del 63% en ingresos cloud y un alza del 81% en utilidad neta hasta los USD 62.600 millones, mientras que la acción de Meta cayó 6% after-hours pese a un aumento del 33% en sus ingresos, castigada por sumar USD 10.000 millones a su pronóstico de gasto sin entregar fechas firmes para nuevos modelos de IA.
Pero en las llamadas con inversionistas, al menos dos de las cuatro compañías culparon explícitamente al alza en los precios de los chips de memoria por inflar los presupuestos, confirmando lo que reportes de mercado y ejecutivos del sector vienen advirtiendo hace meses.
¿Cuánto pesa la memoria dentro del capex?
La CFO de Microsoft, Amy Hood, le dijo a inversionistas que el alza en chips de memoria y otros componentes representó USD 25.000 millones del presupuesto récord de capex de la compañía. Microsoft fijó su gasto 2026 en USD 190.000 millones, muy por encima del promedio analista de USD 152.000 millones. Hood advirtió que incluso con esa inversión adicional, Microsoft espera mantenerse con restricción de capacidad en GPU, CPU y almacenamiento durante todo 2026.
Meta citó la misma razón, elevando su rango de capex anual a entre USD 125.000 millones y USD 145.000 millones, desde un techo previo de USD 135.000 millones. En su comunicado, Meta atribuyó el aumento a "precios de componentes más altos este año, particularmente memoria", junto con costos en aumento de terreno, energía y mano de obra calificada para construir centros de datos que ya consumen el 70% de la producción mundial de memoria.
El timing no es casualidad. TrendForce reportó que los precios de contrato de DRAM subieron aproximadamente 95% intertrimestral en Q1 2026, con un alza adicional proyectada de 58% a 63% para Q2. La NAND sigue una trayectoria similar, con precios contractuales Q2 que treparían entre 70% y 75%. La DRAM para servidores y los DDR5 RDIMM de alta densidad están absorbiendo el grueso de la capacidad de producción, y según el CEO de Phison, Khein-Seng Pua, toda la producción NAND de 2026 ya está comprometida.
Los USD 25.000 millones de Hood ponen valor monetario a lo que era una preocupación abstracta. Si la inflación de costos de memoria de una sola compañía supera el capex anual completo de la mayoría de las firmas semiconductoras, la presión sobre el suministro de DRAM y NAND para consumidores se vuelve mucho más fácil de cuantificar.
¿Quién lidera el cloud y con qué backlog?
Más allá de Meta y Microsoft, los ingresos de Google Cloud llegaron a USD 20.000 millones en el trimestre, con un crecimiento del 63% interanual, superando tanto a AWS (USD 37.600 millones, +USD 8.300 millones) como al segmento Azure de Microsoft (USD 34.700 millones, +USD 7.900 millones).
El backlog de contratos de Google Cloud alcanzó los USD 460.000 millones, prácticamente el doble de los USD 240.000 millones reportados al cierre de Q4 2025. Amazon reportó USD 364.000 millones en su propio pipeline, que se expandirá tras un reciente contrato de USD 100.000 millones con Anthropic por la próxima década. Las obligaciones comerciales remanentes de Microsoft llegaron a USD 625.000 millones, +110% interanual.
Thomas Kurian, jefe de cloud, atribuyó el crecimiento de Google a su estrategia de construir chips de IA personalizados, modelos fundacionales y productos de manera interna, declarando al Financial Times que esto le da a la compañía una ventaja de costo y de I+D sobre competidores que no logran desarrollar sus propios chips ni modelos de frontera.
La séptima generación de TPU Ironwood de Google, que empaqueta 192 GB de HBM3E por chip con 7,37 TB/s de ancho de banda en pods de hasta 9.216 chips, es central a esa estrategia, y Anthropic se comprometió a acceder a hasta un millón de unidades. Google recientemente anunció su 8va generación de TPU, dividida en dos variantes distintas para entrenamiento e inferencia.
¿Cómo se reparte el silicio personalizado?
Estas cifras de capex reflejan más que compras de GPU, porque cada hyperscaler despliega o desarrolla aceleradores personalizados para reducir su dependencia de Nvidia en cargas de inferencia.
- Amazon Trainium3: proceso 3nm, 144 GB de HBM3E, ~4,9 TB/s de ancho de banda. El CEO Andy Jassy lo describió como "casi totalmente suscrito" para 2026.
- Meta MTIA: cuatro generaciones anunciadas de su chip de inferencia, fabricadas en TSMC junto a Broadcom, en paralelo con acuerdos de GPU por aproximadamente USD 110.000 millones combinados con AMD y Nvidia.
- Microsoft Maia 200: en despliegue actual en data centers de U.S. Central.
Este patrón se extenderá más allá de aceleradores. La demanda de CPU para cargas agentic AI arrastra un cuello de botella paralelo, con tiempos de espera para CPU que llegan a seis meses. Intel reportó miles de millones en demanda no satisfecha de Xeon, y el CEO de Arm, Rene Haas, declaró que las cargas agénticas requieren aproximadamente 120 millones de núcleos CPU por gigawatt de capacidad de data center, cuatro veces lo que necesitan los clusters tradicionales de entrenamiento de IA. Según el CFO de Intel, David Zinsner, los ratios CPU-a-GPU en data centers ya pasaron de 1:8 a 1:4, con convergencia esperada hacia paridad.
¿Qué pasa con CoWoS y la red eléctrica?
Pese al gasto récord, las cuatro compañías reconocen restricciones de suministro que el capital adicional no puede resolver. Nvidia ya reservó entre 800.000 y 850.000 obleas de la capacidad de empaquetado avanzado CoWoS de TSMC para 2026, consumiendo más de la mitad de la producción total y dejando a AMD, Broadcom y al programa TPU de Google compitiendo por el resto. CoWoS sigue sobre-suscrita al menos hasta mediados de 2026, y las plantas de empaquetado de TSMC en EE.UU. no llegarían a volumen comercial hasta 2028.
La infraestructura eléctrica es otro cuello de botella. Los tiempos de entrega de transformadores de gran potencia llegan a 128 semanas, y la International Energy Agency estima que aproximadamente 20% de los proyectos planificados de data centers globales podrían retrasarse por problemas de red eléctrica. TrendForce recientemente bajó su pronóstico de crecimiento anual de servidores del 20% al 13%, porque los power management ICs y los baseboard management controllers necesarios para ensamblar servidores completos se estiraron a 35-40 semanas de espera. El cierre programado de la fab S7 de Samsung de obleas de 8 pulgadas en Corea apretará aún más el suministro de PMIC.
"La tesis bajista es basura"
La acción de Meta cayó 6% after-hours tras los resultados, borrando aproximadamente USD 113.000 millones de capitalización de mercado. La caída reflejó tanto el alza de USD 10.000 millones en capex como la falta de un cronograma firme de Mark Zuckerberg para liberar mejoras de IA después del recientemente lanzado Muse Spark. Dec Mullarkey, director gerente de SLC Management, le dijo al FT que los inversionistas están preocupados por si el negocio históricamente capital-light de Meta se está volviendo mucho más intensivo en capital.
"La tesis bajista es basura", contestó Brent Thill, analista de Jefferies, argumentando que el crecimiento de ingresos en todo el sector justifica el gasto. Zuckerberg ofreció poco para zanjar el debate. Consultado sobre el desarrollo de agentes de IA en Meta, dijo a inversionistas que le importa más la calidad que las fechas, agregando que la mayoría de los agentes disponibles hoy no son lo suficientemente buenos para usuarios cotidianos.
Amazon mantuvo sin cambios su plan de capex de USD 200.000 millones, y el CEO de Microsoft, Satya Nadella, dijo que terminar el contrato exclusivo con OpenAI fue beneficioso, alegando acceso libre de regalías a los modelos de frontera y propiedad intelectual de OpenAI hasta 2032.
Lectura LATAM: el spillover llega tarde pero llega
Para integradores y consumidores en Chile, el alza de DRAM y NAND ya empieza a aparecer en distribuidores locales. Importadores reportan subidas de 8% a 12% en SSDs y módulos DDR5 retail, con proyección de profundización en Q3 2026 cuando lleguen los lotes adquiridos a los nuevos precios contractuales. La recomendación práctica para makers, integradores PYME y armadores de PC es adelantar compras de almacenamiento y memoria si el proyecto lo permite, porque las condiciones contractuales del mercado mayorista bloquean cualquier baja durante todo 2026.




