Aller au contenu principal

Nexthop AI lève 500 M$ pour le réseau des datacenters IA

11 mars 2026 2 min de lecture Paul Forcadel
Nexthop AI lève 500 M$ pour le réseau des datacenters IA

Le goulot d'étranglement des datacenters IA

Les clusters de GPU poussent les réseaux de datacenters à leurs limites. Le 10 mars 2026, Nexthop AI a annoncé une levée de 500 millions de dollars en Series B, menée par Lightspeed Venture Partners avec Andreessen Horowitz et Altimeter Capital. La startup est désormais valorisée 4,2 milliards de dollars.

Trois switches pour trois usages

Nexthop a dévoilé simultanément sa gamme de switches construits sur des puces réseau Broadcom :

  • NH-4010 : 51,2 térabits/seconde de débit, jusqu'à 20 % plus économe en énergie que la concurrence, économisant des dizaines de mégawatts par appareil
  • NH-4220 : double la capacité du NH-4010
  • NH-5010 : conçu pour l'architecture Disaggregated Spine des clusters IA

La technologie RoCEv2 permet la communication directe GPU-à-GPU sans passer par les CPU, tandis que DCQCN détecte et résout automatiquement les congestions réseau.

Disaggregated Spine : une nouvelle architecture

Nexthop propose une alternative au design spine-and-leaf traditionnel. Son architecture Disaggregated Spine sépare la couche spine en deux niveaux fonctionnels : un pour le trafic interne au datacenter, l'autre pour les flux inter-datacenters. L'ensemble tourne sur Nexthop NOS, un OS basé sur SONiC (Microsoft) avec des optimisations de cybersécurité.

Un marché en pleine explosion

Les géants tech — Alphabet, Amazon, Meta, Microsoft — devraient dépenser environ 650 milliards de dollars en 2026 pour leurs datacenters IA. Le réseau est devenu le facteur limitant de la performance des clusters, et Nexthop vise directement les hyperscalers et les NeoClouds depuis ses bureaux de Santa Clara, Seattle, Vancouver, Dublin et Bengaluru.

Partager cet article

Questions fréquentes

Nexthop conçoit des switches réseau et des solutions de networking optimisés pour les datacenters IA, permettant la communication directe GPU-à-GPU à très haut débit.
Les clusters de milliers de GPU nécessitent des réseaux ultra-rapides pour échanger des données pendant l'entraînement des modèles. Le réseau est devenu le facteur limitant de la performance.
Une architecture réseau qui sépare la couche spine en deux niveaux : un pour le trafic interne au datacenter et un pour les flux entre datacenters, offrant plus de flexibilité.
500 millions de dollars en Series B, mené par Lightspeed et a16z, pour une valorisation de 4,2 milliards de dollars.

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Articles connexes

Parcourir par catégorie