Meta Amazon firma un acuerdo multimillonario para los chips Graviton 5, ya que la demanda de informática de IA supera el presupuesto de inversión de 135.000 millones de dólares


Resumen: Meta ha firmado un acuerdo multimillonario de varios años para implementar cientos de millones de núcleos de CPU ARM Graviton5 de Amazon en los centros de datos de AWS para cargas de trabajo de IA agentes. Los chips son procesadores de uso general, no aceleradores de IA, que manejan tareas de inferencia y orquestación que requieren un uso intensivo de la CPU detrás de lógica en tiempo real y agentes de múltiples pasos. El acuerdo es parte de una campaña de compras que ha superado los 200.000 millones de dólares en Nvidia (50.000 millones de dólares), AMD (60.000 millones de dólares), CoreWeave (35.000 millones de dólares), Nebius (27.000 millones de dólares), Broadcom (MTIA Custom Silicon 2029) y ahora Amazon, lo que refleja la conclusión de Meta de que la IA puede satisfacer su demanda singular.
Meta firmó un acuerdo multimillonario por varios años con Amazon Web Services para implementar varios millones de núcleos de procesador Graviton 5 para cargas de trabajo de inteligencia artificial, anunciaron las compañías el jueves. Los chips no son aceleradores de IA. Se trata de CPU basadas en ARM de uso general, con 192 núcleos Neoverse V3 por chip, construidas en un proceso de 3 nanómetros, que se ejecutan en los centros de datos de AWS en todo Estados Unidos. El meta no los está comprando. Es alquilar potencia informática. El acuerdo es importante por lo que hacen los chips, que es manejar tareas de inferencia y orquestación que requieren un uso intensivo de la CPU detrás de la IA agente, pero también por quién los vende. Amazon es el competidor directo de Meta en publicidad, comercio y, cada vez más, en inteligencia artificial. Meta está pagando a Amazon miles de millones por infraestructura porque la demanda informática para ejecutar agentes de IA excede lo que cualquier empresa puede construir por sí sola, incluso cuando una está gastando entre 115.000 y 135.000 millones de dólares en gastos de capital este año.
carga de trabajo
La distinción entre entrenamiento e inferencia ha definido el mercado de chips de IA desde que comenzó el auge del aprendizaje profundo. El entrenamiento, el proceso computacional intensivo de enseñar un modelo, requiere GPU o aceleradores especializados. La inferencia, el proceso de ejecutar un modelo entrenado para servir a los usuarios requiere una combinación diferente de computación, y las cargas de trabajo de IA agente que Meta está desarrollando requieren mucha más potencia de CPU que la inferencia tradicional. El razonamiento en tiempo real, la generación de código, la búsqueda y la organización de tareas de varios pasos en múltiples modelos exigen una enorme potencia de procesamiento de propósito general. Santosh Janardhan, jefe de infraestructura de Meta, se está expandiendo en GravitonNuestra escala nos permite ejecutar cargas de trabajo con uso intensivo de CPU detrás de IA agente con el rendimiento y la eficiencia que necesitamos.Nafia Bishara, vicepresidenta e ingeniera principal de AWS, dijo que Meta eligió Graviton5 por su "rendimiento de precios".Acceso a muchas opciones en cuanto a oferta."
El acuerdo comienza con millones de núcleos Graviton5, con flexibilidad para expandirse, y tendrá una duración de al menos tres años. La mayor parte de la capacidad se implementará en centros de datos de EE. UU. Meta había utilizado previamente gravitones a menor escala. Este acuerdo transforma esa relación de una prueba a una dependencia de infraestructura central. Graviton5, anunciado a principios de este año, ofrece una mejora de rendimiento del 25 % con respecto a su predecesor con una latencia entre núcleos un 33 % menor a pesar de duplicar el número de núcleos. Está disponible a través de instancias EC2 M9g en versión preliminar, y las variantes C9g y R9g llegarán más adelante en 2026. Meta se está convirtiendo efectivamente en el mayor cliente individual del programa de silicio personalizado de Amazon, ejecutando la carga de trabajo en el centro de datos de un competidor porque la alternativa, internamente, tomaría más tiempo para construir una capacidad equivalente por camino de IA.
La tentación de comprar
Espacio de coworking de TNW City: donde ocurre tu mejor trabajo
Un espacio de trabajo diseñado para el crecimiento, la colaboración y un sinfín de oportunidades de networking en el corazón de la tecnología.
El acuerdo con Graviton es una entrada en una campaña de adquisiciones sin precedentes en la industria de la tecnología. En febrero de 2026, Meta comprometió casi 50 mil millones de dólares a Nvidia para millones de GPU Blackwell y Rubin, CPU Grace y Vera y equipos de red Spectrum-X. En el mismo mes, firmó un acuerdo estimado por 60 mil millones de dólares con AMD por seis gigavatios de GPU Instinct MI450 personalizadas construidas en la arquitectura CDNA 5 a 2 nm, un acuerdo que incluye garantías de rendimiento convertibles para aproximadamente el 10% del capital social de AMD. El compromiso de Meta de 35.000 millones de dólares en la nube de IA con CoreWeave Las estimaciones cubren la capacidad dedicada hasta diciembre de 2032, con la implementación inicial de la plataforma Vera Rubin de Nvidia. El acuerdo de 27 mil millones de dólares con Nebius agrega más infraestructura de inteligencia artificial. El contrato de chips ampliado de Meta con Broadcom hasta 2029 Cubre varias generaciones de sus procesadores MTIA personalizados a 2 nm con más de un gigavatio de potencia informática primaria. Ahora llega el acuerdo multimillonario de Graviton con Amazon. El costo total comprometido en todos estos contratos supera los 200 mil millones de dólares, y ninguno de ellos incluye los centros de datos, la infraestructura eléctrica o la ingeniería interna necesaria para absorber el hardware.
Meta lanzó cuatro nuevos chips MTIA en marzo de 2026, MTIA 300, 400, 450 y 500, todos construidos sobre la arquitectura RISC-V y fabricados por TSMC en asociación con Broadcom. La empresa ahora puede lanzar nuevos diseños de chips cada seis meses o menos. MTIA 400 es el primer chip personalizado que Meta describe como un rendimiento bruto competitivo con los principales productos comerciales. Estimaciones de IA generativa objetivo de 450 y 500 para imágenes y videos. Sin embargo, incluso mientras acelera su propio programa de silicio, Meta está firmando simultáneamente acuerdos con Nvidia, AMD, CoreWave, Nebius, Broadcom y Amazon. Esto significa que las estimaciones internas de Meta para la demanda de informática de IA son tan grandes que construir todo internamente no es una estrategia viable, no por falta de tecnología, sino porque el cronograma es demasiado corto.
vendedor
El negocio de chips personalizados de Amazon podría valer 50 mil millones de dólares, según la carta a los accionistas del CEO Andy Jassy de abril de 2026, que reveló que los chips Graviton, Threnium y Nitro generan colectivamente más de 20 mil millones de dólares en ingresos anuales a tasas de tres dígitos. Jacey insinuó que Amazon podría comenzar a vender racks de chips a terceros en el futuro, y señaló que dos clientes importantes habían solicitado comprar toda la capacidad de Graviton de Amazon en 2026 y se negaron a preservar la disponibilidad para otros clientes. El acuerdo Meta coloca los chips dentro de los centros de datos de AWS, lo que lo convierte en un acuerdo de nube en lugar de una venta de hardware, pero la escala del compromiso sugiere que los límites entre el proveedor de la nube y el proveedor de chips se están disolviendo.
Annapurna Labs de Amazon, adquirida en 2015, diseña tres familias de chips. Trenium, un acelerador de inferencia y entrenamiento de IA, ha atraído a Anthropic, que ha implementado más de un millón de chips Trenium2 y ha comprometido 100 mil millones de dólares en gastos de AWS durante una década. OpenAI obtuvo dos gigavatios de capacidad de Trenium como parte de la inversión de 50 mil millones de dólares de Amazon. Según se informa, Apple está probando Trenium para cargas de trabajo de IA. Trainium3, que normalmente estará disponible a principios de 2026, es el primer chip de IA de 3 nm de AWS y está casi completamente suscrito. Trainium4, a unos 18 meses de su amplia disponibilidad, contará con la interoperabilidad NVLink Fusion con Nvidia, una concesión a la realidad de que ningún ecosistema de chips puede existir completamente aislado de Nvidia. El acuerdo Meta es para CPU Graviton, no para aceleradores Trenium, pero valida las mayores ambiciones de Amazon de ser una empresa de chips que fabrique chips en lugar de una empresa de nube que fabrique chips.
división
Cada hiperescalador importante ahora diseña su propio silicio. El programa TPU de Google, ahora en su octava generación, proyecta 4,3 millones de envíos de chips en 2026 y 35 millones en 2028. Cuatro de los socios de la cadena de suministro de chips de Google desafían a Nvidia Broadcom para capacitación, MediaTek para inferencia con costos optimizados, Marvell para procesamiento de memoria y TSMC para fabricación. Maia 200 de Microsoft, lanzado en enero de 2026, impulsa el GPT-5.2 de OpenAI en producción. El programa MTIA de Mater está lanzando su cuarta generación. Las líneas Graviton y Trainium de Amazon están generando 20 mil millones de dólares en ingresos. Se proyecta que el mercado de ASIC personalizados crecerá un 45% en 2026, en contraste con un aumento del 16% en los envíos de GPU. De forma predeterminada, la participación en los ingresos del acelerador de IA de Nvidia ha caído desde un máximo del 87% en 2024 a un 75% estimado para finales de este año. La caída es gradual y los ingresos absolutos de Nvidia siguen aumentando, pero el cambio estructural es inconfundible: los clientes se están volviendo hacia la competencia.
La estrategia de Nvidia para mantener los ingresos incluso frente a los rivales de chips personalizados Su interconexión es esencial para el tejido. Marvell y su inversión de 2 mil millones de dólares en NVLink Fusion Platform garantizan que incluso los chips personalizados diseñados para Amazon, Google, Microsoft y Meta puedan integrarse en la infraestructura a escala de rack de Nvidia, generando ingresos para Nvidia a través de licencias de plataforma y componentes de red, independientemente de si el silicio hace la computación. La compatibilidad NVLink Fusion de Trainium4 ilustra el punto: Amazon está creando alternativas a las GPU de Nvidia mientras se integra con las interconexiones de Nvidia. El mercado de chips de IA no converge en torno a un único ganador. Se está descomponiendo en un ecosistema en el que cada participante compite y depende de cada participante, y los contratos son tan grandes que incluso los competidores directos no pueden permitirse el lujo de no comerciar entre sí.
lógica
La orientación de gasto de capital de Meta para 2026 es de entre 115.000 y 135.000 millones de dólares, casi el doble de los 72.000 millones de dólares gastados en 2025, un récord en sí mismo. La compañía está construyendo Prometheus, un supercúmulo de un gigavatio con más de 1,3 millones de GPU en Ohio, y anunció Hyperion, una instalación descrita como aproximadamente del tamaño de Manhattan. Ha creado el Meta Superintelligence Lab para desarrollar el modelo Frontier y Metacompute para gestionar la construcción de centros de datos, con planes de agregar diez gigavatios de capacidad en esta década. Mark Zuckerberg compromete 600 mil millones de dólares para infraestructura estadounidense para 2028. Estas no son estimaciones del modelo de un analista. Anunciaron un compromiso del director ejecutivo de la compañía, que se ubicará entre los programas de infraestructura más grandes de la historia.
El contrato de gravitones sólo puede entenderse en el contexto de ese número. Meta no alquila capacidad de AWS porque no tiene su propia capacidad de construcción. Está alquilando capacidad de AWS porque incluso 135 mil millones de dólares en gasto de capital anual, incluso su propio programa de chips, incluso 50 mil millones de dólares en hardware Nvidia y 60 mil millones de dólares en hardware AMD y 35 mil millones de dólares en la nube CoreWeave y 27 mil millones de dólares en infraestructura Nebius, no son suficientes. La demanda que crea la hoja de ruta de IA de Meta, para entrenar modelos de frontera, ejecutar predicciones a escala con tres mil millones de usuarios activos diarios, implementar IA agente en WhatsApp, Instagram, Facebook y una nueva generación de productos que aún no existen, es más de lo que cualquier cadena de suministro puede ofrecer. Entonces Meta les compra a todos. Compra a sus proveedores de GPU. Compra a sus competidores en la nube. Hace sus propios chips. Alquilalo desde el principio. Y firmó un acuerdo multimillonario con Amazon para CPU de uso general, ya que se compromete a construir un futuro en el que el mundo necesite más computación de la que necesita actualmente, y la única estrategia que le queda es comprar dónde conseguirla.



