OpenAI potencia gpt-oss en GPUs NVIDIA RTX para acelerar la IA local
OpenAI presentó los modelos de código abierto gpt-oss-20b y gpt-oss-120b optimizados para GPUs NVIDIA RTX, para correr modelos locales y en entornos seguros | Imagen Créditos: NVIDIA

OpenAI potencia gpt-oss en GPUs NVIDIA RTX para acelerar la IA local

OpenAI presentó los modelos de código abierto gpt-oss-20b y gpt-oss-120b optimizados para GPUs NVIDIA RTX, permitiendo inferencia rápida desde la nube hasta el PC. Ofrecen razonamiento avanzado y un rendimiento de hasta 256 tokens por segundo en una GeForce RTX 5090.

Rendimiento de generación del modelo gpt-oss-20b en distintas GPUs NVIDIA RTX AI PCs, medido con cuantización MXFP4 mediante la herramienta llama-bench de llama.cpp | Gráfico Créditos: NVIDIA

¿Cómo transforman los modelos gpt-oss el desarrollo de IA local?

Los gpt-oss, con arquitectura mixture-of-experts, ajustan el nivel de razonamiento y admiten herramientas, lo que los hace versátiles para múltiples tareas. Soportan contextos de hasta 131.072 tokens, ideales para búsquedas, programación o análisis documental.

GPT-OSS: OpenAI lanza un modelo GPT gratuito que puede ejecutarse localmente en tu laptop
GPT-OSS viene en dos variantes, y fue testeado rigurosamente contra riesgos en áreas como la ciberseguridad y armas biológicas.

Entrenados en GPUs NVIDIA H100, son los primeros con soporte MXFP4 en RTX, ofreciendo alta calidad y menor consumo de recursos. Esto facilita su implementación en entornos que demandan velocidad y eficiencia en IA.

Ollama permite probarlos en GPUs con al menos 24GB de VRAM y añade funciones como soporte para PDF, texto e imágenes en chats. Puede usarse por línea de comandos o mediante SDK para integrarlo en flujos de trabajo.

NVIDIA enfrenta una nueva competencia en China a pesar del regreso de su chip H20
El retorno del chip H20 de NVIDIA a China se topa con la competencia local y un mayor escrutinio de Pekín sobre la seguridad de los productos.

También están disponibles en llama.cpp y Microsoft AI Foundry Local, que usa ONNX Runtime optimizado con CUDA y tendrá soporte para NVIDIA TensorRT, junto con mejoras en bibliotecas como GGML para maximizar rendimiento, así lo detalla: Jensen Huang, fundador y CEO de NVIDIA:

“OpenAI mostró al mundo lo que podía construirse sobre NVIDIA AI — y ahora están impulsando la innovación en software de código abierto”.

Esta visión refuerza el papel de la colaboración tecnológica para acelerar el desarrollo de la inteligencia artificial, creando un ecosistema abierto que favorece tanto la innovación como la competitividad global, afirmó el ejecutivo:

“Los modelos gpt-oss permiten a desarrolladores de todo el mundo construir sobre esa base de vanguardia, fortaleciendo el liderazgo tecnológico de EE. UU. en IA, todo sobre la infraestructura de cómputo de IA más grande del mundo”.