L'open source au service des agents IA
Nvidia ne se contente plus de vendre des GPU : le géant construit désormais les modèles qui tournent dessus. Avec Nemotron 3, annoncé en décembre 2025, Nvidia dévoile une famille complète de modèles de langage open source spécifiquement conçus pour l'IA agentique — ces systèmes autonomes capables de planifier, raisonner et agir en chaîne pour accomplir des tâches complexes.
Trois tailles, une architecture révolutionnaire
Nemotron 3 se décline en trois modèles :
| Modèle | Paramètres totaux | Paramètres actifs | Disponibilité |
|---|---|---|---|
| Nano | 30 milliards | 3 milliards | Disponible |
| Super | ~100 milliards | 10 milliards | Q1 2026 |
| Ultra | ~500 milliards | 50 milliards | H1 2026 |
L'innovation clé réside dans l'architecture hybride latent MoE (Mixture of Experts). Chaque modèle combine trois composants : des couches Mamba-2 pour le traitement efficace des séquences, des couches Transformer pour le raisonnement précis, et un routage MoE qui n'active qu'une fraction des paramètres par token. Résultat : le Nano utilise seulement 3 milliards de paramètres actifs sur 30 milliards au total.
4x plus rapide, 60 % de tokens en moins
Les gains de performance sont spectaculaires. Nemotron 3 Nano affiche un débit 4 fois supérieur à son prédécesseur Nemotron 2 Nano, tout en réduisant de 60 % les tokens de raisonnement générés. Avec une fenêtre de contexte native de 1 million de tokens, le modèle peut traiter des codebases entières ou des documents massifs en une seule passe. Sur l'Intelligence Index v3 d'Artificial Analysis, le Nano se classe premier de sa catégorie avec un score de 52.
Open source total : modèles, données, outils
Contrairement aux modèles « open weight » qui ne partagent que les poids, Nvidia adopte une transparence complète. Les poids sont disponibles sur Hugging Face, accompagnés de 3 trillions de tokens de données d'entraînement (pré-entraînement, fine-tuning, RL), de librairies open source (NeMo Gym pour l'entraînement RL multi-environnement, NeMo RL, NeMo Evaluator), et d'un dataset de sécurité agentique contenant 11 000 traces de workflows d'agents IA pour évaluer les risques émergents.
Les géants de l'industrie déjà à bord
La liste des early adopters impressionne : Accenture, CrowdStrike, Oracle, Palantir, Perplexity AI, ServiceNow, Siemens et Zoom déploient déjà Nemotron 3 dans des cas d'usage allant de la cybersécurité au développement logiciel, en passant par la fabrication industrielle. Le modèle est accessible via les principales plateformes cloud (AWS Bedrock, Google Cloud) et les fournisseurs d'inférence (DeepInfra, Fireworks, Together AI).
Nvidia, nouveau rival de Meta en open source IA
Avec Nemotron 3, Nvidia se positionne comme un concurrent direct de Meta (Llama) sur le terrain des modèles open source. La différence : Nvidia optimise ses modèles pour ses propres GPU (DGX Spark, H100, B200) avec le format d'entraînement 4-bit NVFP4 sur architecture Blackwell, créant un cercle vertueux matériel-logiciel que Meta ne peut pas répliquer.