TECNOLOGIA

Google reúne una cadena de suministro de chips de cuatro socios con Broadcom, MediaTek y Marvell para desafiar a Nvidia

Resumen: Google está construyendo la cadena de suministro de chips personalizados más diversa de la industria de la inteligencia artificial, con cuatro socios de diseño (Broadcom, MediaTek, Marvell, Intel) y una hoja de ruta que se extiende desde Ironwood TPU y que ahora enviará chips TPU v8 a TSMC de 2 nm a fines de 2027, detallando la estrategia de divisiones de próxima generación de Google. Claramente: “Sunfish” de Broadcom para entrenamiento, “Zebrafish” de MediaTek para inferencia a un costo entre 20 y 30% menor, en conversaciones con Marvel para agregar una unidad de procesamiento de memoria y una TPU de inferencia adicional, posicionando el silicio personalizado de Google como el desafío más directo al dominio de Nvidia en IA.

Google AI está ensamblando una de las cadenas de suministro de chips personalizados más diversas de la industria, cuatro socios de diseño, una relación forjada con TSMC y una hoja de ruta de productos que se expande desde los chips ahora especulados que espera implementar hoy hasta procesadores de 2 nanómetros para fines de 2027. El desafío más directo al dominio de Nvidia en la especulación de AI es el programa Silicon de Google, la fase de la computación donde los modelos sirven a los usuarios en lugar de aprender de los datos.

La pieza central es Ironwood, el TPU de séptima generación de Google y el primero diseñado específicamente para la inferencia. Ofrece diez veces el rendimiento máximo del TPU v5p, ofreciendo 192 GB de memoria HBM3E por chip con 7,2 terabytes por segundo de ancho de banda y 9216 chips refrigerados por líquido en un solo superpod que produce 42,5 exaflops FP8. Ironwood ahora está disponible de forma generalizada para los clientes de Google Cloud. Google planea producir millones de unidades este año y Anthropic se ha comprometido a producir hasta un millón de TPU. También hay acuerdos de alquiler que cumplir.

Cadena de suministro de cuatro socios

El programa de chips de Google ahora involucra a cuatro socios de diseño distintos, cada uno de los cuales administra diferentes partes de la línea de productos.

Broadcom, que firmó un contrato a largo plazo el 6 de abril para suministrar TPU y componentes de red hasta 2031, maneja variantes de chips de alto rendimiento. También está diseñando el chip de entrenamiento TPU v8 de próxima generación, con nombre en código “Sunfish”, dirigido al nodo de proceso de 2 nanómetros de TSMC a finales de 2027. Broadcom controla más del 70% del mercado de aceleradores de IA personalizados y proyecta 100 mil millones de dólares en ingresos por chips de IA para 2027.

💜 de tecnología de la UE

Los últimos rumores de la escena tecnológica de la UE, una historia de nuestro sabio fundador Boris y algo de arte de inteligencia artificial dudoso. Es gratis, todas las semanas, en tu bandeja de entrada. ¡Regístrate ahora!

MediaTek está diseñando una variante de inferencia de costo optimizado del TPU v8, con nombre en código “Zebrafish”, que también apunta a TSMC 2 nm a fines de 2027. La participación de MediaTek comenzó con módulos de E/S y componentes periféricos en Ironwood, donde sus diseños tenían precios entre un 20 y un 30 % más bajos. La estrategia TPU v8 divide claramente la línea de productos: Broadcom fabrica los chips de entrenamiento, MediaTek fabrica los chips de inferencia y Google obtiene la ventaja de negociación que proviene de que cada socio conoce la existencia del otro.

Marvell Technologies, que está en conversaciones con Google para desarrollar una unidad de procesamiento de memoria y una nueva TPU centrada en la especulación, sería un tercer socio de diseño si esas conversaciones producen un acuerdo. Google planea construir alrededor de dos millones de unidades de procesamiento de memoria y se espera que los diseños estén finalizados el próximo año. El negocio de silicio personalizado de Marvell opera a una tasa anual de 1.5 mil millones de dólares a través de 18 diseños de proveedores de nube, y Nvidia invirtió 2 mil millones de dólares en la compañía en marzo.

Intel entró en escena el 9 de abril con un acuerdo de varios años para suministrar procesadores Xeon y unidades de procesamiento de infraestructura personalizadas para la infraestructura del centro de datos de inteligencia artificial de Google. El sistema cubre redes y capas informáticas de uso general que rodean a las TPU en lugar de los aceleradores de IA.

TSMC fabrica todo el silicio personalizado de Google. La relación es estructural: cada chip que diseña Google, independientemente de qué socio lo diseñó, pasa por las fábricas de TSMC.

Por qué la especulación cambia la economía

Pasar del entrenamiento a la inferencia como principal costo de computación de la IA es la premisa estratégica detrás de todo el programa de chips de Google. Entrenar un modelo de frontera es un evento único e intensivo. La estimación es continua y escala con cada usuario, cada pregunta y cada producto que incorpora IA. Google atiende miles de millones de consultas de búsqueda mejoradas con IA, conversaciones de Gemini y llamadas API de IA en la nube todos los días. A esa escala, el costo por hipótesis determina la economía de todo el negocio de la IA.

Las GPU de Nvidia siguen siendo dominantes para las cargas de trabajo de entrenamiento, donde su programabilidad y su ecosistema de software CUDA crean costos de conmutación que los chips personalizados no pueden replicar fácilmente. Pero las cargas de trabajo de inferencia son más predecibles, más iterativas y más adecuadas para el tipo de optimización de funciones fijas que realiza el silicio personalizado. Un chip de inferencia especialmente diseñado que cuesta menos por consulta que una GPU Nvidia, incluso si no iguala la versatilidad de la GPU, gana métricas importantes a escala de Google.

Es por eso que Google está invirtiendo simultáneamente en múltiples rutas de chips de adivinación. Ironwood trabaja con las cargas de trabajo actuales. Zebrafish de MediaTek apunta a la próxima generación de bajo costo. Los chips propuestos por Marvel agregarán una opción más. La redundancia es intencional: Google está creando opcionalidad en una cadena de suministro donde la dependencia de un solo socio crea riesgo de precio, riesgo de capacidad y la vulnerabilidad estratégica de tener su infraestructura de IA controlada por la hoja de ruta de otra persona.

La ambición es el número detrás

Los envíos totales de TPU esperados por Google se estiman en 4,3 millones de unidades en 2026, y aumentarán a más de 35 millones en 2028. La promesa de la antropología Estos chips por sí solos representan hasta un millón, con acceso estimado a 3,5 gigavatios de computación basada en TPU de próxima generación a partir de 2027. Mizuho de Broadcom ha proyectado ingresos por IA de 21 mil millones de dólares en 2026, que aumentarán a 427 mil millones de dólares en 2026.

El mercado de ASIC personalizados está creciendo más rápido que el de las GPU en general. TrendForce proyecta que las ventas de chips personalizados crecerán un 45% en 2026 en comparación con un crecimiento del 16% en los envíos de GPU. Se espera que el mercado alcance los 118.000 millones de dólares en 2033. Google no sólo fabrica silicio de inferencia personalizado para hiperescaladores: Amazon tiene Trenium e Inferencia, Microsoft tiene Maya y Se explora la antropología. Su propio programa de chips. Pero el enfoque multigeneracional y de múltiples socios de Google es el más ambicioso desde el punto de vista arquitectónico.

Qué buscar en Cloud Next

Google Cloud Next abre el miércoles en Las Vegas con conferencias magistrales de Sundar Pichai y Thomas Kurian. Se espera que la conferencia muestre la arquitectura de TPU de próxima generación y la hoja de ruta de silicio personalizada que conectará Ironwood con la generación v8. El momento de la presentación de Bloomberg, un día después de la charla de Marvel y dos días antes de Cloud Next, sugirió que Google estaba utilizando la conferencia para enmarcar su programa de chips como una estrategia coherente en lugar de una serie de asociaciones individuales.

El desafío que enfrenta Nvidia no es que ningún chip de Google supere a sus GPU. Es que Google está construyendo un sistema en el que múltiples chips personalizados, cada uno optimizado para una carga de trabajo y un punto de costo específicos, reducen colectivamente la proporción de computación de inteligencia artificial de Google que se ejecuta en hardware Nvidia. La respuesta de Nvidia ha sido insertarse en el ecosistema de chips personalizados en lugar de luchar contra él: la inversión de 2 mil millones de dólares de Marvel y el programa NVLink Fusion garantizan que Nvidia mantenga una posición en los racks donde sus GPU se complementan o reemplazan por ASIC.

Para Google, la apuesta es que controlar su propio silicio entre múltiples socios y múltiples generaciones creará una ventaja de costos al componer las estimaciones a lo largo del tiempo. D Escala del negocio de Nvidia Lo que significa que los titulares no serán desplazados rápidamente. Pero la economía de las conjeturas favorece al silicio personalizado frente a las GPU de uso general, y ninguna empresa tiene más conjeturas que Google. Una cadena de suministro de cuatro socios, una hoja de ruta v8 de doble vía y el envío de millones de astillas de palo de hierro son la infraestructura para una posición competitiva este año que Google espera fortalecer con cada consulta que atiende.

Source link

Redacción - ACN

Somos un portal de noticias líder en la República Dominicana que se especializa en ofrecer una cobertura informativa integral. Desde eventos políticos y económicos hasta avances científicos y noticias de entretenimiento, este sitio web es tu fuente confiable para mantenerse al día con los acontecimientos más relevantes tanto a nivel nacional como internacional. Además de ofrecer informes actualizados, ACN también se destaca por sus análisis en profundidad y sus entrevistas exclusivas que proporcionan una comprensión más completa de las noticias.

Artículos Relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Volver arriba botón