Aller au contenu principal

Nvidia GTC 2026 : ce qu'on attend de la keynote de Jensen Huang

13 mars 2026 4 min de lecture Paul Forcadel
Nvidia GTC 2026 : ce qu'on attend de la keynote de Jensen Huang

Le plus grand événement IA au monde

Nvidia GTC 2026 se tiendra du 16 au 19 mars au SAP Center et dans 10 lieux à travers San Jose, Californie. Avec 30 000 participants venus de 190 pays, 700+ sessions techniques et des dizaines de démos live, c'est le rendez-vous incontournable de l'infrastructure IA. Jensen Huang donnera sa keynote d'ouverture le lundi 16 mars à 11h PT.

Pour mesurer l'ampleur du phénomène Nvidia, rappelons que l'entreprise a publié 68 Md$ de CA trimestriel en février — un record historique qui place GTC sous le signe de la démonstration de force.


Programme et temps forts

Keynote de Jensen Huang — lundi 16 mars, 11h PT

Le CEO dévoilera la feuille de route Nvidia pour les 12 prochains mois. Voici ce qu'on attend :

Annonce attendue Détail Impact
Vera Rubin update VR200 NVL72, HBM4 à 3,0+ TB/s Puces déjà en production de masse
Feynman preview Architecture 2028, TSMC A16 (1,6 nm) Photonique silicium, « surprise » promise
Puce d'inférence Groq Collaboration Nvidia × Groq Fusion GPU + LPU pour l'inférence
OpenClaw Plateforme d'agents IA open source Agents locaux sur DGX Spark et GeForce
DreamDojo update World model robotique Entraînement de robots en simulation

Sessions et panels clés

  • Mercredi 18 mars — Panel « Modèles ouverts » avec les CEO de LangChain, Cursor, Mistral, Thinking Machines Lab et un partenaire a16z
  • Speakers confirmés : Dario Gil (Département de l'Énergie US), Lucian Grainge (Universal Music), les CEO de Perplexity et Skild AI
  • Build-a-Claw — Atelier pratique : les participants construisent un agent IA avec OpenClaw et le déploient en local

Vera Rubin : la plateforme qui change les règles

La plateforme Vera Rubin est en production de masse depuis janvier 2026. Nous avions déjà couvert ses spécifications impressionnantes : 336 milliards de transistors et 5× la puissance de Blackwell.

Voici comment elle se positionne face aux générations précédentes :

Hopper H100 Blackwell Ultra GB300 Vera Rubin VR200
Gravure TSMC 4N (5 nm) TSMC 3nm TSMC N3P (3 nm)
Transistors 80 Md 208 Md 336 Md
Mémoire HBM3 (3,35 TB/s) HBM3e (8 TB/s) HBM4 (3,0+ TB/s par stack)
Perf. inférence vs Hopper ~30× ~100×
Coût par token vs Hopper ~0,03× ~0,01×

Comme l'expliquait notre article sur Blackwell Ultra GB300, chaque génération divise les coûts d'inférence par un facteur significatif. Vera Rubin pousse cette logique encore plus loin, rendant les coûts d'inférence 90% moins chers qu'il y a un an.


Feynman : l'architecture de 2028

L'architecture Feynman est le vrai suspense de cette GTC. Ce qu'on sait :

  • Gravure : TSMC A16 (1,6 nm), premier nœud sub-2nm de Nvidia
  • Photonique silicium : intégration de liens optiques directement dans le package, une technologie que des startups comme Ayar Labs développent aussi
  • Interconnect : bande passante inter-GPU potentiellement 10× supérieure à NVLink 6
  • Timeline : production de masse prévue pour fin 2028

Jensen Huang a déclaré qu'il « surprendrait le monde » — des échantillons physiques pourraient être montrés sur scène. Si c'est le cas, ce serait la première démonstration publique d'une puce IA en 1,6 nm.


OpenClaw : les agents IA passent en local

Nvidia dévoilera OpenClaw, une plateforme open source pour créer et déployer des agents IA en entreprise. Le concept fait écho à l'OpenClaw viral qui a buzé début 2026 (et dont le créateur Peter Steinberger vient d'être recruté par OpenAI).

La version Nvidia se distingue par :

  • Déploiement local — Les agents tournent sur DGX Spark ou laptops GeForce, sans dépendre du cloud
  • Modèles Nemotron — Basé sur la famille Nemotron 3 optimisée pour l'agentique
  • Stack Physical AI — Intégration avec Cosmos, GR00T et Isaac Lab pour les agents robotiques
  • Interopérabilité — Compatible avec LangChain, LlamaIndex et les frameworks MCP

Dans un contexte où le coding agentique explose et où chaque IDE intègre des agents, Nvidia veut positionner son hardware comme la plateforme de référence pour l'exécution locale.


Écosystème et partenariats

GTC ne se limite pas aux annonces hardware. L'événement met en lumière l'écosystème qui s'est construit autour de Nvidia :


Le contexte boursier : dissiper l'AI anxiety

L'action Nvidia a reculé de 11 % depuis octobre 2025. Les investisseurs s'interrogent sur la rentabilité à court terme des investissements IA massifs. Plusieurs facteurs alimentent le doute :

GTC 2026 est un moment critique pour Jensen Huang : démontrer que la demande en compute IA est structurelle, pas spéculative.


Infos pratiques

Dates 16-19 mars 2026
Lieu SAP Center, San Jose, Californie
Keynote Lundi 16 mars, 11h PT (20h heure de Paris)
Participants 30 000 (190 pays)
Sessions 700+
Streaming Keynote en direct sur nvidia.com/gtc
Prix Pass conférence à partir de 299 $

Ce qu'on surveillera

  1. Les samples Feynman — Si Jensen montre du silicium physique en 1,6 nm, c'est un signal majeur
  2. Les benchmarks Vera Rubin — Chiffres réels d'inférence vs Blackwell Ultra en production
  3. OpenClaw adoption — Combien de partenaires au lancement ?
  4. La guidance financière — Nvidia confirmera-t-il sa trajectoire de croissance ?
  5. Les annonces surprises — Jensen Huang est coutumier des « one more thing »
Partager cet article

Questions fréquentes

Du 16 au 19 mars 2026 à San Jose, Californie. La keynote de Jensen Huang est le 16 mars à 11h PT au SAP Center.
L'architecture GPU prévue pour 2028, gravée en TSMC A16 (1,6 nm) avec photonique silicium. Des samples pourraient être montrés à GTC 2026.
Une plateforme open source d'agents IA pour l'entreprise, dévoilée à GTC. Les agents fonctionnent en local sur DGX Spark ou laptops GeForce, sans dépendre du cloud.
30 000 participants de 190 pays, avec 700+ sessions réparties sur 10 lieux à travers San Jose. La keynote est aussi streamée en direct.
La plateforme GPU de nouvelle génération, en production depuis janvier 2026. Le VR200 NVL72 offre 100× les performances d'inférence de Hopper et divise les coûts par token par 100.

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Articles connexes

Parcourir par catégorie