Google está en conversaciones con Marvell Technologies para desarrollar nuevos chips de inferencia de IA junto con el programa Broadcom TPU

Resumen: Google está en conversaciones con Marvell Technologies para construir dos nuevos chips de IA (una unidad de procesamiento de memoria y una TPU optimizada para conjeturas) y agregar un tercer socio de diseño junto con Broadcom y MediaTek a su cadena de suministro de silicio personalizado. Las conversaciones, que aún no han producido un acuerdo firmado, se producen días después de que Broadcom cerrara un contrato de TPU para 2031 y reflejan el cambio de Google hacia la especulación como gasto en computación dominante, ya que se proyecta que el mercado de ASIC personalizados crecerá un 45% en 2026 y alcanzará los 118.000 millones de dólares en 2033.
Según The Information, Google está en conversaciones con Marvel Technologies para construir dos nuevos chips para ejecutar modelos de IA. Una es una unidad de procesamiento de memoria diseñada para funcionar junto con las unidades de procesamiento tensoriales existentes de Google. El otro es un nuevo TPU diseñado específicamente para la inferencia, la fase de la IA en la que los modelos sirven a los usuarios en lugar de aprender de los datos. Marvell desempeñará un papel de servicios de diseño, similar a la participación de MediaTek en el último Ironwood TPU de Google. Las negociaciones aún no han dado lugar a un acuerdo firmado.
Las conversaciones se producen días después de que Broadcom, el principal socio de chips personalizados de Google, anunciara un acuerdo a largo plazo para diseñar y suministrar TPU y componentes de red hasta 2031. El momento sugiere que Google no está reemplazando a Broadcom sino más bien agregando un tercer socio de diseño a una cadena de suministro que ya incluye a Broadcom para variantes de chips de alto rendimiento.miVariante de costo entre un 20 y un 30% menor y TSMC para la fabricación. El truco es la diversificación, no el reemplazo.
Por qué las suposiciones son importantes ahora
La TPU de séptima generación de Google, Ironwood, debutó este mes con lo que la compañía llama “El primer TPU de Google para la era de la especulación."Esto es diez veces el rendimiento máximo de TPU v5p y escala a 9.216 chips refrigerados por líquido en un SuperPod que abarca 10 MW, produciendo 42,5 exaflops FP8. Google planea construir millones de unidades Ironwood este año. Para diferentes perfiles de carga de trabajo o puntos de costo que se destinan a servir en lugar de entrenar modelos de IA.
El cambio de la formación a la inferencia como principal impulsor de la demanda está remodelando el mercado de chips. Entrenar un modelo de frontera es un evento único que requiere muchos cálculos durante semanas o meses. La inferencia se ejecuta continuamente, atiende todas las consultas de todos los usuarios y escala sus costos según la demanda en lugar de la asequibilidad. A medida que los productos de IA llegan a decenas de millones de usuarios, la inferencia se vuelve dominante en cuanto a costos, y el silicio de inferencia diseñado específicamente se convierte en una ventaja competitiva que las GPU de uso general no pueden igualar en costo o eficiencia.
historia de fondo
La relación Google-Marvel tiene una historia más larga de lo que sugiere el informe de esta semana. La información informó en 2023 que Google estaba trabajando en un chip con el nombre en código 2022.Granito Redux"Utilizará Marvel en lugar de Broadcom, con lo que Google espera ahorrar miles de millones de dólares anualmente. En ese momento, un portavoz de Google llamó a Broadcom "un gran socio" y dijo que la empresa "Colaboración productiva con Broadcom y muchos otros proveedores a largo plazo."
2023 y lo que ha cambiado ahora es que Google parece haber renunciado a la idea de deshacerse de Broadcom por completo. El acuerdo congela esa relación hasta 2031. En cambio, Google está construyendo una arquitectura de múltiples proveedores en la que Broadcom, MediaTek y potencialmente Marvell administran cada uno diferentes partes del programa TPU, compitiendo por partes específicas en lugar de por el contrato completo. El enfoque refleja cómo las empresas automotrices gestionan a los proveedores de componentes: ningún proveedor tiene suficiente influencia para dictar las condiciones.
Eso es lo que trae Marvel
Los ingresos del centro de datos de Marvell alcanzaron un récord de 6.100 millones de dólares en el año fiscal que finalizó en febrero de 2026, con ingresos totales de 8.200 millones de dólares, un aumento interanual del 42 %. La empresa gestiona un negocio de silicio personalizado con una tasa de ejecución anual de 1.500 millones de dólares en 18 diseños de proveedores de nube, y fabrica chips para Amazon (procesadores Tranium), Microsoft (aceleradores Maya AI) y Meta (una nueva unidad de procesamiento de datos), además del trabajo existente con Google en CPU Axeon ARM.
Nvidia invirtió 2 mil millones de dólares en Marvell A finales de marzo, se asoció con NVLink Fusion para integrar las redes y los chips personalizados de Marvell con Interconnect Fabric de Nvidia. El acuerdo posiciona a Marvell en la intersección de los ecosistemas GPU y ASIC. En diciembre de 2025, Marvel adquirió Celestial AI por hasta 5.500 millones de dólares, adquiriendo tecnología de interconexión fotónica que el director ejecutivo Matt Murphy dijo “La plataforma de conectividad más completa de la industria para clientes de IA y nube.Murphy apunta a una participación de mercado del 20% en chips de IA personalizados y espera un crecimiento de ingresos de alrededor del 30% año tras año en el año fiscal 2027.
Las acciones de Marvel han subido casi un 50% en lo que va del año, con una ganancia del 30% sólo en abril tras la asociación con Nvidia y las conversaciones con Google. El analista de Barclays, Tom O’Malley, mejoró la acción a sobreponderada y elevó su precio objetivo a 150 dólares desde 105 dólares.
La posición de Broadcom
Las conversaciones con Marvel no parecen haber debilitado la posición de Broadcom. Broadcom controla más del 70% de la participación de mercado en aceleradores de IA personalizados. Sus ingresos por IA alcanzaron los 8.400 millones de dólares en su trimestre más reciente, un aumento interanual del 106%, con una previsión de 10.700 millones de dólares para el próximo trimestre. La compañía tiene como objetivo 100 mil millones de dólares en ingresos por chips de IA para 2027. Las acciones de Broadcom subieron más del 6% el día en que se anunció la extensión de Google, y los analistas de Mizuho estimaron que la compañía registraría 21 mil millones de dólares en ingresos de Google y de IA atribuibles a ella. Relación antropológica en 2026, llegando a 42 mil millones de dólares en 2027, Anthropic accederá a aproximadamente 3,5 gigavatios de computación basada en TPU de próxima generación a partir de 2027.
El mercado más amplio de ASIC está creciendo más rápido que el mercado de GPU. TrendForce proyecta que las ventas de chips personalizados crecerán un 45% en 2026 en comparación con un crecimiento del 16% en los envíos de GPU. Counterpoint Research proyecta que Broadcom capturará alrededor del 60% del mercado de aceleradores de IA personalizados para 2027, en comparación con aproximadamente el 25% de Marvell. Se espera que el mercado en sí alcance los 118.000 millones de dólares en 2033.
Qué significa esto para Google
La estrategia de chips de Google ahora incluye cuatro socios (Broadcom, MediaTek, Marvell y TSMC), su propio equipo de diseño interno y una línea de productos que abarca capacitación, inferencia y computación en la nube de uso general. La complejidad es intencional. Cada hiperescalador que depende de un único proveedor de chips, ya sea Nvidia o cualquier otro, enfrenta riesgos de precio, riesgos de suministro y la vulnerabilidad estratégica de construir un negocio con el silicio de otra persona.
El enfoque proyectado de las conversaciones de Marvel refleja un cambio en el destino del dinero. capacitación Los últimos chips de Nvidia Las cargas de trabajo de capacitación son dominantes, pero las estimaciones son donde está el volumen, y el volumen es donde está el costo-beneficio compuesto de la silicona personalizada. Google atiende miles de millones de consultas de búsqueda mejoradas con IA, conversaciones de Gemini y llamadas API de IA en la nube todos los días. Un pequeño porcentaje de reducción de costos por estimación en esa escala se traduce en miles de millones de dólares al año, de eso se trató la charla sobre "Granite Redux" de 2023.
Las conversaciones con Marvel aún no han llegado a un acuerdo, y el cronograma de desarrollo del chip significa que cualquier producto fructífero podría tardar años. Pero la dirección es clara. Google está construyendo uno La cadena de suministro de chips La hipótesis de la IA más exigente del mundo está diseñada para soportar cargas de trabajo y quiere tener múltiples socios capaces de construir el silicio que las impulsa. Para Marvell, Google estima que un acuerdo con TPU validaría su posición como el segundo diseñador de chips de IA personalizados más importante del mundo. Para Google, eso significa un proveedor más en un mercado donde ninguna empresa puede confiar en uno solo.




