L'Android de la robotique
Au CES 2026, Nvidia a dévoilé une salve de modèles ouverts pour la robotique et les systèmes autonomes. L'ambition affichée : fournir le stack technologique de référence pour l'IA physique, comme Android l'a fait pour le mobile. Tous les modèles sont disponibles sur Hugging Face.
Les modèles publiés
Cosmos Reason 2 est un modèle de vision-langage (VLM) de raisonnement ouvert, conçu pour que les machines « voient, comprennent et agissent dans le monde physique ». Il est accompagné de Cosmos Transfer 2.5 et Cosmos Predict 2.5, des world models pour la génération de données synthétiques et l'évaluation de politiques robotiques en simulation.
GR00T N1.6 est le modèle phare : un VLA (vision-language-action) ouvert, spécialement conçu pour les robots humanoïdes. Il débloque le contrôle corporel complet et s'appuie sur Cosmos Reason pour le raisonnement contextuel.
Isaac Lab-Arena est un framework open source d'évaluation et de benchmarking, hébergé sur GitHub, pour tester les politiques robotiques à grande échelle en simulation.
Partenariat Hugging Face × LeRobot
Nvidia collabore avec Hugging Face pour intégrer GR00T N et Isaac Lab-Arena dans LeRobot, le framework open source de référence en robotique. Cette alliance réunit 2 millions de développeurs robotique Nvidia et 13 millions de builders IA Hugging Face.
Le robot humanoïde Reachy 2 de Hugging Face est désormais interopérable avec le Jetson Thor de Nvidia, tandis que le Reachy Mini fonctionne avec le DGX Spark pour exécuter des modèles en local.
Un écosystème industriel massif
Les partenaires qui déploient le stack Nvidia sont nombreux : Boston Dynamics (Jetson Thor intégré), NEURA Robotics (humanoïde Gen 3 designé par Porsche), AGIBOT, LG Electronics (robot domestique), Caterpillar (engins autonomes) et LEM Surgical (robot chirurgical).
Côté matériel, le nouveau Jetson T4000 basé sur l'architecture Blackwell offre 1 200 TFLOPS en FP4 dans une enveloppe de 70W pour 1 999 $ — 4× les performances de la génération précédente.
Le framework OSMO
Nvidia a aussi lancé OSMO, un framework d'orchestration cloud-native qui unifie les workflows robotiques : génération de données synthétiques, entraînement de modèles et tests software-in-the-loop. Il gère les environnements mixtes, du poste de travail au cloud.
Pourquoi l'open source
En ouvrant ses briques fondamentales, Nvidia réduit les barrières d'entrée et crée des effets de réseau. Les startups robotiques peuvent adopter le stack sans développer d'alternative propriétaire. La stratégie est claire : capturer la valeur sur toute la chaîne (GPU, modèles, simulation) en laissant les partenaires se différencier sur la couche applicative.