Qualcomm Technologies anunció el lanzamiento de sus nuevas soluciones de inferencia de inteligencia artificial (IA) diseñadas para centros de datos: AI200 y AI250, dos plataformas que buscan redefinir el rendimiento a escala de rack.
Ambas soluciones integran procesadores optimizados para cargas de trabajo de IA generativa y ofrecen una mejor relación entre rendimiento, consumo energético y costo total de propiedad (TCO).

¿Cómo los sistemas AI200 y AI250 cambian la infraestructura de IA en centros de datos?
El AI200 está concebido como una solución de inferencia a nivel de rack, enfocada en modelos de lenguaje y multimodales de gran tamaño (LLM y LMM). Ofrece hasta 768 GB de memoria LPDDR por tarjeta, lo que permite un equilibrio entre capacidad, escalabilidad y bajo costo operativo.
Por su parte, el AI250 introduce una arquitectura innovadora basada en near-memory computing, que multiplica por más de diez veces el ancho de banda efectivo de memoria respecto a generaciones anteriores. Este enfoque mejora la eficiencia energética y el rendimiento de inferencia, al tiempo que permite una utilización más flexible del hardware.
Durga Malladi, vicepresidente senior y gerente general de Tecnología de Edge y Centros de Datos de Qualcomm Technologies, afirmó:
"Con AI200 y AI250 estamos redefiniendo lo que es posible en inferencia de IA a escala de rack. Estas soluciones permiten a los clientes desplegar IA generativa con un costo total sin precedentes, manteniendo la flexibilidad y seguridad que exigen los centros de datos modernos".

Ambos sistemas se integran con una pila de software optimizada y compatible con los principales marcos de aprendizaje automático, como PyTorch y ONNX. Incluyen herramientas de implementación con un clic y soporte para la biblioteca Efficient Transformers y la Qualcomm AI Inference Suite, facilitando la adopción de modelos ya entrenados.
El AI200 estará disponible comercialmente en 2026 y el AI250 en 2027, dentro de una hoja de ruta anual que refuerza el compromiso de Qualcomm con la eficiencia y el rendimiento en inferencia de IA.

