Le plus grand événement IA au monde
Nvidia GTC 2026 se tiendra du 16 au 19 mars au SAP Center et dans 10 lieux à travers San Jose, Californie. Avec 30 000 participants venus de 190 pays, 700+ sessions techniques et des dizaines de démos live, c'est le rendez-vous incontournable de l'infrastructure IA. Jensen Huang donnera sa keynote d'ouverture le lundi 16 mars à 11h PT.
Pour mesurer l'ampleur du phénomène Nvidia, rappelons que l'entreprise a publié 68 Md$ de CA trimestriel en février — un record historique qui place GTC sous le signe de la démonstration de force.
Programme et temps forts
Keynote de Jensen Huang — lundi 16 mars, 11h PT
Le CEO dévoilera la feuille de route Nvidia pour les 12 prochains mois. Voici ce qu'on attend :
| Annonce attendue | Détail | Impact |
|---|---|---|
| Vera Rubin update | VR200 NVL72, HBM4 à 3,0+ TB/s | Puces déjà en production de masse |
| Feynman preview | Architecture 2028, TSMC A16 (1,6 nm) | Photonique silicium, « surprise » promise |
| Puce d'inférence Groq | Collaboration Nvidia × Groq | Fusion GPU + LPU pour l'inférence |
| OpenClaw | Plateforme d'agents IA open source | Agents locaux sur DGX Spark et GeForce |
| DreamDojo update | World model robotique | Entraînement de robots en simulation |
Sessions et panels clés
- Mercredi 18 mars — Panel « Modèles ouverts » avec les CEO de LangChain, Cursor, Mistral, Thinking Machines Lab et un partenaire a16z
- Speakers confirmés : Dario Gil (Département de l'Énergie US), Lucian Grainge (Universal Music), les CEO de Perplexity et Skild AI
- Build-a-Claw — Atelier pratique : les participants construisent un agent IA avec OpenClaw et le déploient en local
Vera Rubin : la plateforme qui change les règles
La plateforme Vera Rubin est en production de masse depuis janvier 2026. Nous avions déjà couvert ses spécifications impressionnantes : 336 milliards de transistors et 5× la puissance de Blackwell.
Voici comment elle se positionne face aux générations précédentes :
| Hopper H100 | Blackwell Ultra GB300 | Vera Rubin VR200 | |
|---|---|---|---|
| Gravure | TSMC 4N (5 nm) | TSMC 3nm | TSMC N3P (3 nm) |
| Transistors | 80 Md | 208 Md | 336 Md |
| Mémoire | HBM3 (3,35 TB/s) | HBM3e (8 TB/s) | HBM4 (3,0+ TB/s par stack) |
| Perf. inférence vs Hopper | 1× | ~30× | ~100× |
| Coût par token vs Hopper | 1× | ~0,03× | ~0,01× |
Comme l'expliquait notre article sur Blackwell Ultra GB300, chaque génération divise les coûts d'inférence par un facteur significatif. Vera Rubin pousse cette logique encore plus loin, rendant les coûts d'inférence 90% moins chers qu'il y a un an.
Feynman : l'architecture de 2028
L'architecture Feynman est le vrai suspense de cette GTC. Ce qu'on sait :
- Gravure : TSMC A16 (1,6 nm), premier nœud sub-2nm de Nvidia
- Photonique silicium : intégration de liens optiques directement dans le package, une technologie que des startups comme Ayar Labs développent aussi
- Interconnect : bande passante inter-GPU potentiellement 10× supérieure à NVLink 6
- Timeline : production de masse prévue pour fin 2028
Jensen Huang a déclaré qu'il « surprendrait le monde » — des échantillons physiques pourraient être montrés sur scène. Si c'est le cas, ce serait la première démonstration publique d'une puce IA en 1,6 nm.
OpenClaw : les agents IA passent en local
Nvidia dévoilera OpenClaw, une plateforme open source pour créer et déployer des agents IA en entreprise. Le concept fait écho à l'OpenClaw viral qui a buzé début 2026 (et dont le créateur Peter Steinberger vient d'être recruté par OpenAI).
La version Nvidia se distingue par :
- Déploiement local — Les agents tournent sur DGX Spark ou laptops GeForce, sans dépendre du cloud
- Modèles Nemotron — Basé sur la famille Nemotron 3 optimisée pour l'agentique
- Stack Physical AI — Intégration avec Cosmos, GR00T et Isaac Lab pour les agents robotiques
- Interopérabilité — Compatible avec LangChain, LlamaIndex et les frameworks MCP
Dans un contexte où le coding agentique explose et où chaque IDE intègre des agents, Nvidia veut positionner son hardware comme la plateforme de référence pour l'exécution locale.
Écosystème et partenariats
GTC ne se limite pas aux annonces hardware. L'événement met en lumière l'écosystème qui s'est construit autour de Nvidia :
- Thinking Machines Lab — Le deal à 50 Md$ en puces Vera Rubin signé avec Mira Murati sera probablement mis en avant
- Mistral — Le champion français, qui a récemment acquis Koyeb et investi 1,2 Md€ en Suède, participe au panel modèles ouverts
- Capex massif — Les 700 Md$ de capex IA en 2026 profitent directement à Nvidia, qui équipe la majorité des datacenters mondiaux
Le contexte boursier : dissiper l'AI anxiety
L'action Nvidia a reculé de 11 % depuis octobre 2025. Les investisseurs s'interrogent sur la rentabilité à court terme des investissements IA massifs. Plusieurs facteurs alimentent le doute :
- Meta vient de retarder son modèle Avocado, posant la question du ROI des 107 Md$ investis
- Les licenciements tech s'accélèrent — Atlassian vient de supprimer 1 600 postes pour « auto-financer l'IA »
- La concurrence s'intensifie : AMD, les puces custom et les switches optiques grignotent des parts
GTC 2026 est un moment critique pour Jensen Huang : démontrer que la demande en compute IA est structurelle, pas spéculative.
Infos pratiques
| Dates | 16-19 mars 2026 |
| Lieu | SAP Center, San Jose, Californie |
| Keynote | Lundi 16 mars, 11h PT (20h heure de Paris) |
| Participants | 30 000 (190 pays) |
| Sessions | 700+ |
| Streaming | Keynote en direct sur nvidia.com/gtc |
| Prix | Pass conférence à partir de 299 $ |
Ce qu'on surveillera
- Les samples Feynman — Si Jensen montre du silicium physique en 1,6 nm, c'est un signal majeur
- Les benchmarks Vera Rubin — Chiffres réels d'inférence vs Blackwell Ultra en production
- OpenClaw adoption — Combien de partenaires au lancement ?
- La guidance financière — Nvidia confirmera-t-il sa trajectoire de croissance ?
- Les annonces surprises — Jensen Huang est coutumier des « one more thing »