AMD plantea que la próxima etapa de la IA dependerá de sistemas eficientes desde el silicio al software
AMD prioriza IA eficiente y local fuera del data center | Créditos: AMD.

AMD plantea que la próxima etapa de la IA dependerá de sistemas eficientes desde el silicio al software

El avance de la IA generativa está desplazando parte de la discusión desde el tamaño de los modelos hacia la eficiencia de los sistemas que los ejecutan. AMD plantea que la siguiente fase no dependerá solo de escalar infraestructura, sino de diseñar arquitecturas integradas desde el silicio hasta el software para reducir consumo, latencia y costo operativo.

La conversación técnica se concentra en una idea central para empresas y proveedores de infraestructura: no todas las cargas de IA deben permanecer en centros de datos de gran escala. A medida que la inferencia se expande hacia PCs, dispositivos edge y sistemas embebidos, el rendimiento por vatio pasa a ser una variable crítica para sostener modelos en entornos con restricciones de energía, temperatura y espacio físico.

AMD realizará Advancing AI 2026 el 23 de julio en San Francisco
AMD reunirá a su ecosistema de IA en San Francisco para mostrar avances de silicio, software y cómputo de alto rendimiento con transmisión en vivo.

IA eficiente más allá del centro de datos

Durante la última década, buena parte de la innovación en IA estuvo asociada a centros de datos de hiperescala y modelos fundacionales entrenados en grandes clústeres de GPU. Ese enfoque seguirá siendo necesario para entrenamiento y cargas complejas, pero AMD sostiene que la oportunidad ahora está en mover tareas de inferencia adecuadas hacia dispositivos cercanos al usuario y a los datos.

Ramin Hasani, cofundador y CEO de Liquid AI, explicó que el diseño de modelos compactos debe considerar desde el inicio el lugar donde se ejecutará la inteligencia artificial, junto con sus restricciones de latencia, batería y hardware.

"No se trata solo de calidad. Pensamos en dónde se sirve la inteligencia artificial, la latencia que obtienes, cuánta batería consume y lo que eso significa para el hardware real fuera del centro de datos".

Liquid AI trabaja con modelos fundacionales especializados y de menor tamaño, diseñados para operar de forma eficiente en procesadores como las unidades de procesamiento neuronal. En ese contexto, Hasani vinculó el uso de NPU con la posibilidad de mantener cargas continuas de IA en dispositivos de bajo consumo.

"Las unidades de procesamiento neuronal son el lugar donde se pueden mantener las cargas de trabajo de inteligencia artificial con un consumo de energía muy bajo. Eso es fundamental para el estado de la batería y para habilitar la inteligencia que se ejecuta continuamente en segundo plano".
AMD busca posicionar su cómputo embarcado en la nueva etapa de exploración lunar
AMD presenta su cómputo embarcado como base para misiones lunares y espaciales con autonomía, procesamiento local y hardware adaptable.

El planteamiento se alinea con la estrategia de AMD de optimizar rendimiento por vatio en CPUs, GPUs, NPU y arquitecturas de sistema. Según Mark Papermaster, vicepresidente ejecutivo y director de tecnología de AMD, esa visión exige trabajar la eficiencia como un resultado de ingeniería integrado, desde el diseño del chip hasta las aplicaciones finales.

La ejecución local también cambia el desarrollo de agentes de IA. Cuando los modelos operan de forma eficiente y sin depender siempre de la nube, pueden observar contexto, encadenar tareas y actuar con menor latencia, además de entregar a usuarios y empresas mayor control sobre qué datos salen del sistema y cuándo se requiere conectividad externa.

Hasani describió ese escenario como una arquitectura distribuida, donde distintos modelos especializados trabajan de manera coordinada dentro de un mismo equipo.

"No es un solo modelo que lo hace todo. Es una orquestación de componentes inteligentes que se ejecutan de manera eficiente en el dispositivo".

La eficiencia también aparece como una condición de sostenibilidad para ampliar el acceso a la inteligencia artificial. AMD plantea que los centros de datos seguirán siendo esenciales, pero que desplazar tareas de inferencia hacia dispositivos eficientes puede reducir la demanda energética total y extender el uso de IA a laptops, teléfonos, vehículos, robótica y sistemas industriales.

"Democratizar la inteligencia artificial depende de hacerla lo suficientemente eficiente para funcionar en todas partes".