Intel anunció en NVIDIA GTC 2026 que los sistemas NVIDIA DGX Rubin NVL8 utilizarán procesadores Intel Xeon 6 como CPU host. La definición refuerza el papel del procesador en una etapa donde la inferencia en tiempo real exige coordinar memoria, seguridad y flujo de datos junto a las GPU.

Intel busca reposicionar al CPU host dentro de la infraestructura de IA
La empresa sostiene que, con el avance de la IA con agentes y los sistemas de razonamiento, el CPU host vuelve a ser una pieza crítica para la orquestación del sistema. En esa línea, Intel presentó a Xeon 6 como una base para escalar cargas de inferencia en plataformas aceleradas por GPU.
Según Intel, Xeon 6 fue elegido para DGX Rubin NVL8 por su capacidad para sostener altas velocidades de memoria, desempeño equilibrado, menor costo total de propiedad y compatibilidad con el ecosistema x86 empresarial.

Jeff McVeigh, vicepresidente corporativo y gerente general de Data Center Strategic Programs en Intel, situó esta decisión en un cambio más amplio del mercado. Su planteamiento es que la inferencia moderna exige un CPU capaz de coordinar rendimiento, acceso a memoria y seguridad del modelo.
“La IA está pasando del entrenamiento a gran escala a la inferencia en tiempo real y en todas partes, impulsada por la IA con agentes y los sistemas de razonamiento. En esta nueva era, el CPU host es de misión crítica. Gobierna la orquestación, el acceso a memoria, la seguridad del modelo y el rendimiento total en sistemas acelerados por GPU. Intel Xeon 6 ofrece rendimiento, eficiencia y compatibilidad con el amplio ecosistema de software x86 en el que los clientes confían para escalar cargas de inferencia”.

Xeon 6 también busca dar continuidad técnica desde Blackwell hacia Rubin
Intel indicó que esta integración en DGX Rubin NVL8 se apoya en la base ya usada en plataformas Blackwell, incluyendo sistemas DGX B300 con Intel Xeon 6776P. La compañía plantea que esa continuidad permite trasladar experiencia operativa hacia la nueva generación.
Entre los elementos destacados aparecen hasta 8 TB de memoria del sistema, mayor ancho de banda con MRDIMM, líneas PCIe 5.0 y computación confidencial entre CPU y GPU. Con ello, Intel busca reforzar la idea de que la eficiencia de un clúster de IA no depende solo del rendimiento de las GPU, sino también del papel del CPU host en seguridad, orquestación y continuidad operativa.


