Le 16 mars 2026 au GTC, Nvidia a annoncé la Nemotron Coalition — une alliance de huit labos IA mondiaux pour co-développer des modèles ouverts de frontière. Jensen Huang résume : « Les modèles ouverts sont le moteur de la participation mondiale à la révolution IA. »
8 membres fondateurs
La coalition réunit des acteurs complémentaires :
- Mistral AI — Co-développeur du premier modèle de base avec Nvidia
- Cursor — Apporte les exigences de performance réelle et les datasets d'évaluation pour les développeurs
- LangChain — Expertise en agents, avec 100+ millions de téléchargements mensuels de son framework
- Perplexity — Développement de modèles de frontière accessibles
- Black Forest Labs — Modèles génératifs multimodaux (images, vidéo, prédiction d'actions)
- Reflection AI — Systèmes ouverts fiables, transparence et collaboration
- Sarvam AI — IA souveraine multilingue, modèles vocaux culturellement inclusifs
- Thinking Machines Lab — Collaboration de données via la plateforme Tinker
Nemotron 4 : le premier modèle collectif
Le premier modèle de la coalition sera co-développé par Mistral AI et Nvidia, entraîné sur DGX Cloud, puis publié en open source sous la famille Nemotron 4. L'approche permet ensuite une spécialisation post-entraînement par industrie et par région.
Chaque membre apporte son expertise : Cursor garantit la fiabilité pour le coding, LangChain optimise le raisonnement long et l'utilisation d'outils, Sarvam adapte les modèles aux langues sous-représentées.
Un modèle économique pour l'open source IA
La Coalition répond à un défi structurel : entraîner des modèles de frontière coûte des centaines de millions de dollars. En mutualisant compute (DGX Cloud), données et expertise, Nvidia propose un modèle économique viable pour l'open source IA — face aux modèles propriétaires de GPT-5 et Gemini.
Le panel du 18 mars, animé par Jensen Huang avec les CEOs de Cursor, Mistral, Perplexity et LangChain, a confirmé que les modèles ouverts comblent l'écart avec les modèles fermés — en semaines, plus en mois.