Aller au contenu principal
Recherche

Nvidia Vera Rubin : 6 puces, 336 milliards de transistors et 5× la puissance de Blackwell

5 janv. 2026 3 min de lecture Paul Forcadel
Nvidia Vera Rubin : 6 puces, 336 milliards de transistors et 5× la puissance de Blackwell

Six puces, un supercalculateur

Jensen Huang a gardé le meilleur pour la fin de son keynote au CES 2026. Vera Rubin n'est pas juste un nouveau GPU — c'est une plateforme complète de six puces co-conçues pour fonctionner comme un seul système.

Le GPU Rubin : 336 milliards de transistors, architecture double die en TSMC 3 nm, 224 Streaming Multiprocessors. 50 pétaFLOPS d'inférence en NVFP4 (5× Blackwell), 35 pétaFLOPS d'entraînement (3,5×). Chaque GPU embarque 288 Go de mémoire HBM4 avec 22 To/s de bande passante — 2,8× ce que propose Blackwell.

Autour du GPU : le CPU Vera (88 cœurs ARM Olympus, 176 threads, 1,5 To de LPDDR5X), le NVLink 6 Switch (3,6 To/s par GPU), le ConnectX-9 SuperNIC (1,6 Tb/s réseau), le BlueField-4 DPU, et le switch Spectrum-6 à optique co-packagée.

Le rack NVL72

Un rack Vera Rubin NVL72 contient 72 GPU et 36 CPU — 220 mille milliards de transistors au total. Performances : 3,6 exaFLOPS d'inférence, 2,5 exaFLOPS d'entraînement, 20,7 To de HBM4 et 54 To de LPDDR5X.

L'assemblage d'un rack est passé de 100 minutes à 6 minutes. En configuration SuperPOD (8 racks), on atteint 576 GPU pour 28,8 exaFLOPS d'inférence.

L'économie du token

Le chiffre qui compte : 10× de réduction du coût par token d'inférence pour les modèles mixture-of-experts, et 4× moins de GPU nécessaires pour entraîner. Pour les opérateurs de data centers, ça signifie soit faire 10× plus avec le même budget, soit diviser la facture par 10.

Un rack GB200 NVL72 (Blackwell) coûte environ 3,35 millions de dollars. Un rack Vera Rubin devrait tourner autour de 8,4 millions — mais avec un coût par unité d'inférence divisé par deux.

Qui déploie

AWS, Google Cloud, Microsoft Azure et Oracle seront parmi les premiers à proposer des instances Vera Rubin au second semestre 2026. CoreWeave, Lambda, Nebius et Nscale suivent.

La concurrence veille

AMD n'est pas en reste : ses racks Helios promettent 2,9 exaFLOPS avec 50 % de HBM4 en plus. Mais l'écosystème logiciel Nvidia (CUDA, cuDNN, les frameworks d'entraînement) reste un fossé difficile à combler.

Rubin arrive au second semestre 2026. En attendant, Blackwell est déjà obsolète sur le papier — six mois avant que son successeur ne soit livré.

Partager cet article

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Parcourir par catégorie