Intel presenta resultados de MLPerf Inference v6.0 con foco en Xeon 6 y Arc Pro B-Series
Intel exhibe en MLPerf v6.0 inferencia con Xeon-6 y Arc. | Créditos: Intel

Intel presenta resultados de MLPerf Inference v6.0 con foco en Xeon 6 y Arc Pro B-Series

Intel informó que sus resultados en MLPerf Inference v6.0 muestran el desempeño de sistemas de IA basados en procesadores Xeon 6 y GPUs Arc Pro B-Series para estaciones de trabajo, centros de datos y entornos de borde. El comunicado sitúa el anuncio en cuatro pruebas clave para sus sistemas GPU y lo enfoca en inferencia de baja latencia y escalabilidad con una pila de software abierta y contenerizada.

Intel expone una visión de 5G con IA y una transición a 6G sin reinicios
Intel propone 5G con IA sin reinicios hacia 6G, unificando RAN Core y Edge en una plataforma abierta, eficiente y segura con Xeon 6 y ruta Xeon 6+.

El eje del anuncio es el rendimiento de inferencia y la escalabilidad del sistema

Intel sostuvo que una configuración con cuatro GPUs Arc Pro B70 y B65 entrega 128 GB de VRAM para ejecutar modelos de 120 mil millones de parámetros con alta concurrencia.

La compañía agregó que Arc Pro B70 alcanzó hasta 1,8 veces más rendimiento de inferencia que Arc Pro B60 y que, sobre el mismo hardware Arc Pro B60, las optimizaciones de software permitieron mejoras de hasta 1,18 veces frente a MLPerf v5.1.

La empresa también buscó reforzar el papel del CPU dentro de la infraestructura de IA. En esa línea, afirmó que el procesador sigue siendo clave para gestión de memoria, orquestación de tareas, distribución de cargas y continuidad operativa, además de remarcar que Xeon fue el CPU host presente en más de la mitad de las presentaciones de MLPerf 6.0.

Intel presentó en Computex 2024 sus nuevos procesadores Xeon 6 y aceleradores Gaudí
Intel destaca en Computex 2024 con sus procesadores Xeon 6 y aceleradores Gaudí, marcando un avance en rendimiento y eficiencia para la computación en IA.

Anil Nanduri, vicepresidente de Intel para AI Products and GTM en el Data Center Group, presentó estos resultados como una señal de la estrategia de la compañía para ampliar opciones de infraestructura abierta para modelos de lenguaje y cargas clásicas de aprendizaje automático.

“La combinación de Intel Xeon 6 y las GPU Intel Arc Pro B-Series representa nuestra inversión para ampliar la capacidad de elección y el valor para los clientes [...] con soluciones reales para modelos LLM y cargas tradicionales de aprendizaje automático”.

Intel añadió que Xeon 6 con P-cores logró hasta 1,9 veces de mejora generacional en MLPerf Inference v5.1. Además, sostuvo que sus tecnologías integradas de aceleración, como AMX y AVX512, permiten ejecutar inferencia LLM, ajuste fino y aprendizaje automático clásico sin depender necesariamente de aceleradores dedicados.