Los modelos abiertos de IA están comenzando a salir del centro de datos para instalarse en máquinas que operan en entornos reales. En ese escenario, NVIDIA posiciona a Jetson como una plataforma para ejecutar inferencia local en robótica, asistentes industriales y sistemas que requieren menor latencia y mayor control operativo.
Del centro de datos al dispositivo
El planteamiento de NVIDIA se enfoca en una pregunta más operativa que técnica. Ya no se trata solo de qué modelo rinde mejor en abstracto, sino de dónde conviene ejecutarlo para responder con rapidez, mantener estabilidad y reducir dependencia de conectividad externa.
Jetson aparece como esa base de despliegue local. La compañía lo presenta como una plataforma capaz de soportar distintos modelos abiertos y frameworks, con una arquitectura orientada a simplificar diseño de hardware, validación y escalamiento en entornos físicos.

Los casos de uso buscan aterrizar la propuesta en operación real
NVIDIA respalda ese enfoque con ejemplos concretos. Uno de ellos es el Cat AI Assistant de Caterpillar, mostrado en CES sobre Jetson Thor, además del sistema FR3 Duo de Franka Robotics, que ejecutó el modelo GR00T N1.6 de forma local y de extremo a extremo.

La nota también amplía esa narrativa hacia investigación y comunidad. Ahí aparecen el proyecto SONIC sobre Jetson Orin, el robot YOR del centro de robótica de NYU y OpenClaw como base para asistentes privados que operan de forma continua en el borde.
En términos corporativos, el mensaje de NVIDIA es claro. Jetson no se presenta solo como hardware, sino como una capa de ejecución para mover la IA hacia operaciones locales con más autonomía, menor latencia y mejor resguardo de datos.
