Intel y Google profundizan su alianza para escalar infraestructura de IA con Xeon e IPU
Intel y Google refuerzan infraestructura de IA con Xeon e IPU | Créditos: Intel

Intel y Google profundizan su alianza para escalar infraestructura de IA con Xeon e IPU

Intel y Google anunciaron una colaboración multianual para desarrollar la próxima generación de infraestructura de IA y nube. El eje del acuerdo está en reforzar el papel de los procesadores Intel Xeon y de las IPU personalizadas dentro de sistemas heterogéneos que deben crecer en rendimiento, eficiencia y control operativo.

Intel y SambaNova presentan una arquitectura de inferencia para IA agéntica con Xeon 6
Intel y SambaNova proponen una arquitectura heterogénea con Xeon 6, GPU y RDUs para escalar inferencia de IA agéntica en empresas.

Xeon e IPU quedan en el centro de una arquitectura pensada para cargas de IA más complejas

A medida que la IA gana peso dentro de la nube, la infraestructura exige más coordinación entre cómputo general, red, almacenamiento y seguridad. En ese marco, ambas compañías alinearán varias generaciones de Intel Xeon para mejorar desempeño, eficiencia energética y costo total de propiedad dentro de la infraestructura global de Google.

Google Cloud seguirá utilizando procesadores Intel Xeon en instancias optimizadas para distintas cargas, incluidas C4 y N4 basadas en Intel Xeon 6. Esa base cubre desde coordinación de entrenamiento de IA a gran escala hasta inferencia sensible a latencia y computación de propósito general.

En paralelo, las dos compañías ampliarán el desarrollo conjunto de IPU personalizadas basadas en ASIC programables. Estas unidades descargan del CPU tareas de red, almacenamiento y seguridad, con el objetivo de mejorar utilización, elevar eficiencia y dar un comportamiento más predecible en entornos de IA a escala hiperescalar.

Intel presenta resultados de MLPerf Inference v6.0 con foco en Xeon 6 y Arc Pro B-Series
Intel mostró en MLPerf Inference v6.0 el rendimiento de Xeon 6 y Arc Pro B-Series para inferencia de IA en workstations, edge y datacenter.

El CEO de Intel, Lip-Bu Tan, planteó esta etapa como una discusión sobre arquitectura completa y no solo sobre aceleradores aislados. Su mensaje sitúa a CPU e IPU como una base conjunta para sostener rendimiento y flexibilidad cuando la infraestructura debe escalar sin perder equilibrio operativo.

“La IA está remodelando cómo se construye y escala la infraestructura [...] los CPU y las IPU son centrales para entregar el rendimiento, la eficiencia y la flexibilidad que exigen las cargas modernas de IA”.

Intel también sostiene que las IPU permiten liberar capacidad efectiva de cómputo al asumir funciones que antes recaían sobre los CPU. Bajo esa lógica, la combinación entre Xeon e infraestructura acelerada apunta a reducir complejidad y a sostener una expansión más ordenada de servicios cloud impulsados por IA.

Intel Xeon 6 será el CPU host en los sistemas NVIDIA DGX Rubin NVL8
NVIDIA DGX Rubin NVL8 integrará Xeon 6 como procesador anfitrión para reforzar inferencia, seguridad y gestión de memoria en IA.

Desde Google, Amin Vahdat, SVP y Chief Technologist de AI Infrastructure, vinculó la alianza con una relación de casi dos décadas y con la necesidad de responder a exigencias crecientes de rendimiento. Su declaración refuerza a Xeon como una pieza de continuidad para cargas críticas dentro de su infraestructura.

“Los CPU y la aceleración de infraestructura siguen siendo una piedra angular [...] desde la orquestación del entrenamiento hasta la inferencia y el despliegue”.

El alcance estratégico del acuerdo apunta a una base más abierta y escalable para la siguiente etapa de servicios cloud con IA. Para entornos corporativos, el mensaje central es claro: la expansión ya no depende solo de aceleradores, sino de cómo se integran