Aller au contenu principal

Puces, robots, open source : février 2026 en revue

2 mars 2026 11 min de lecture Paul Forcadel
Puces, robots, open source : février 2026 en revue

Les modèles IA font les gros titres, mais sans le matériel pour les faire tourner et le logiciel libre pour les démocratiser, ils ne serviraient pas à grand-chose. En février, ces deux mondes ont bougé aussi vite que les modèles eux-mêmes — et les robots ont commencé à sortir des labos pour entrer dans les usines. Tour d'horizon.

La guerre des puces : Nvidia domine, mais plus pour longtemps

Tout commence par Nvidia, qui a dévoilé le Blackwell Ultra GB300 : 50 fois la puissance de la génération Hopper, et surtout 35 fois moins cher par token d'inférence. Pour donner une idée concrète : une requête qui coûtait 1 $ à traiter il y a un an coûte aujourd'hui 3 centimes. C'est cette baisse qui rend possible tout le reste — quand l'IA devient quasi gratuite à utiliser, elle s'infiltre partout.

Spec GB300 NVL72 Valeur
GPU par rack 72 (refroidissement liquide)
Puissance 1,1 exaFLOPS en FP4
Mémoire par GPU 288 Go HBM3e
Bande passante 8 To/s
vs Hopper (H100) 50× le débit, 35× moins cher/token

Les déploiements sont déjà massifs :

Client Déploiement
Microsoft Azure 4 600+ racks GB300 pour OpenAI
CoreWeave 6,5× plus rapide que H100 sur DeepSeek R1
Nebius Premier déploiement GB300 en Europe (Finlande)
Oracle Objectif 100 000+ GPU Blackwell

Et le timing n'est pas anodin : les requêtes liées au code sont passées de 11 % à près de 50 % du trafic d'inférence en un an — les agents IA et copilotes de code exigent à la fois une faible latence et des contextes longs, exactement ce que Blackwell Ultra optimise.

Nvidia a aussi confirmé sa domination en devenant le premier client de TSMC, devant Apple — une première en plus de dix ans. Les GPU IA sont plus gros, plus complexes et plus rentables à fabriquer que les puces de smartphones : la division HPC (calcul haute performance) de TSMC pèse désormais 55 % de son chiffre d'affaires. Le fondeur taïwanais prévoit 52 à 56 milliards de dollars de capex en 2026, un record absolu. Et un signal révélateur : Broadcom pourrait bondir de la 6e à la 3e place des clients TSMC, porté par les puces ASIC qu'il développe pour OpenAI — preuve que les hyperscalers veulent aussi leurs propres accélérateurs, tous fabriqués par TSMC.

Et pour ne pas rester cantonné aux data centers, Nvidia a développé un SoC N1 pour PC portables avec Dell et Lenovo — un processeur Arm (20 cœurs, design MediaTek) combiné à un GPU de classe RTX 5070, capable d'atteindre 1 petaFLOP en FP4. Les premiers laptops arrivent au premier semestre 2026. Selon Gartner, les PC IA dépasseront 50 % des ventes cette année. L'IA dans votre ordinateur portable, pas seulement dans le cloud.

Les challengers arrivent

Mais le monopole Nvidia commence à se fissurer. Trois startups de puces IA ont levé 1,1 milliard de dollars en une seule semaine :

  • MatX (500 M$) — Fondée par deux ex-ingénieurs de la division TPU de Google, financée par Jane Street et le fonds de Leopold Aschenbrenner (ex-OpenAI). Leur puce MatX One combine SRAM et HBM dans un même accélérateur et promet 10× l'efficacité de Nvidia pour l'entraînement. Premières livraisons prévues en 2027.
  • SambaNova (350 M$) — Partenariat stratégique avec Intel. Leur SN50 affiche 1,6 PFLOPS en FP16 et une vitesse d'inférence 5× supérieure au B200 de Nvidia. SoftBank est le premier client, avec un déploiement au Japon dès 2026.
  • Axelera (250 M$) — Startup néerlandaise spécialisée dans l'edge computing. Leur puce Europa délivre la puissance d'un A100 pour 6× moins de watts (45W). La prochaine génération, Titania, est développée dans le cadre d'un programme européen de supercalcul en architecture RISC-V.

Avec Etched (valorisé 5 Md$) et Cerebras (8,1 Md$), l'écosystème des alternatives Nvidia n'a jamais été aussi capitalisé. Mais le défi reste immense : Nvidia contrôle environ 60 % de la capacité de packaging avancé de TSMC pour 2026, et son écosystème CUDA reste le standard de facto.

La plus spectaculaire de ces alternatives : Taalas a dévoilé HC1, une puce qui grave un modèle IA directement dans le silicium. Au lieu de charger un modèle en mémoire à chaque requête (ce que font les GPU classiques), HC1 « câble » le réseau de neurones physiquement dans les transistors — 53 milliards d'entre eux, sur un die de 815 mm² en TSMC 6 nm. Résultat : 17 000 tokens par seconde sur Llama 3.1 8B, soit 70 à 100 fois plus rapide qu'un H200 sur le même modèle. Dix cartes à 200 W tiennent dans un serveur standard à 2 500 W — l'équivalent d'un cluster GPU entier dans un seul rack.

Le revers : une puce = un modèle. Les poids sont physiquement câblés, impossible d'en charger un autre. Mais Taalas ne compte pas en rester là — un second modèle de raisonnement est prévu au printemps, et la plateforme HC2 visera des modèles de 20 milliards de paramètres fin 2026. L'entreprise a levé 200 M$ et n'en a dépensé que 30 — avec une équipe de 24 personnes.

La mémoire, le goulot d'étranglement

Un GPU sans mémoire, c'est un moteur de Ferrari sans essence. Et la mémoire manque. La pénurie mondiale de DRAM s'est aggravée en février : l'IA dévore 70 % de la production mondiale de puces mémoire HBM, les prix grimpent, et les fabricants de smartphones et de PC font la queue. SK Hynix a réagi en investissant 15 milliards de dollars dans un méga-cluster de production dédié à la HBM (High Bandwidth Memory), la mémoire ultra-rapide collée directement sur les GPU.

Et pour relier tous ces composants entre eux à la bonne vitesse, Tower Semiconductor et Salience Labs préparent des switches optiques pour les data centers. L'idée : remplacer les câbles en cuivre par des faisceaux lumineux pour transférer les données entre serveurs. Plus rapide, moins énergivore, et surtout capable de suivre le rythme des GPU de nouvelle génération.

Composant Ce qui change Qui
Blackwell Ultra GB300 50× Hopper, 1,1 exaFLOPS, 35× moins cher/token Nvidia
HC1 LLM gravé dans le silicium, 17 000 tokens/s Taalas
MatX One 10× l'efficacité Nvidia pour l'entraînement MatX
SN50 5× plus rapide que le B200 en inférence SambaNova
SoC N1 1 petaFLOP dans un laptop Nvidia × Dell × Lenovo
Méga-cluster HBM 15 Md$ pour répondre à la pénurie SK Hynix
Switches optiques Transferts à la vitesse de la lumière Tower × Salience

Les robots sortent des labos

Si 2025 était l'année des démos robotiques, février 2026 est le mois où les robots sont entrés en production. La différence entre un prototype qui marche dans un labo et un robot qui tourne 8 heures dans une usine, c'est un gouffre — et plusieurs acteurs l'ont franchi.

Au CES 2026, neuf robots humanoïdes fonctionnels ont été présentés. Pas des maquettes ni des vidéos — des machines qui se déplacent, manipulent des objets et interagissent avec des humains. Parmi eux : le LG CLOiD (premier robot domestique crédible, deux bras à 7 axes), le EngineAI T800 (25 000 $, disponible mi-2026), le LEM Surgical Dynamis (approuvé FDA pour la chirurgie spinale), ou encore le Fourier GR-3 (55 degrés de liberté, spécialisé dans l'aide aux personnes âgées).

Nvidia a posé les fondations logicielles de cette révolution : GR00T N1.6 (modèle Vision-Language-Action open source pour humanoïdes), Cosmos Transfer pour générer des données d'entraînement synthétiques, Isaac Lab-Arena pour simuler les robots, et le Jetson T4000 (1 200 TFLOPS en FP4, 70 W, 1 999 $) — le cerveau embarqué des robots de demain.

Boston Dynamics : de YouTube à l'usine

Boston Dynamics a lancé Atlas en production industrielle pour des clients comme Hyundai. Le robot fait 1,90 m, 90 kg, 56 degrés de liberté, soulève 50 kg, tient 4 heures en autonomie avec swap de batterie à chaud, et fonctionne de -20°C à +40°C. Toutes les unités 2026 sont déjà réservées.

Puis, mi-février, l'entreprise a annoncé un partenariat avec Google DeepMind : Atlas est désormais piloté par Gemini Robotics, le modèle IA de Google spécialisé dans la compréhension du monde physique. Gemini Robotics est un modèle vision-langage-action (VLA) qui double les scores de généralisation par rapport aux VLA concurrents. Concrètement, vous pouvez dire à Atlas « va chercher la boîte rouge sur l'étagère du haut » et il comprend, planifie et exécute — même dans un environnement qu'il n'a jamais vu. Si un objet glisse, il replanifie en temps réel.

Hyundai prévoit 30 000 Atlas par an d'ici 2028, avec un investissement de 26 milliards de dollars aux États-Unis. DHL, Nestlé et Maersk sont déjà identifiés comme partenaires logistiques.

Tesla parie tout sur Optimus

Tesla a choisi une autre stratégie : la production de masse. En arrêtant la production des Model S et Model X à Fremont, Tesla a converti la ligne en usine à robots Optimus Gen 3. Les specs sont impressionnantes : 1,73 m, 57 kg, 40+ degrés de liberté, mains à système tendon avec 50 actuateurs, charge utile de 20 kg, 6 à 8 heures d'autonomie, 3 000 tâches possibles, IA basée sur l'architecture FSD-v15 (la même que la conduite autonome).

Objectif annoncé : un million de robots par an d'ici 2028. Mais la réalité tempère : Musk avait promis plusieurs milliers de robots utiles fin 2025, il en a livré environ 150. Les premiers Optimus commerciaux coûteront entre 100 000 et 150 000 $ — loin du prix de 20 000 $ promis à terme. Le pari est que les robots rapporteront plus que les voitures — le capex a été doublé à 20 milliards pour financer la transition.

La Chine mène la course

En Chine, l'avance est déjà considérable. Tiangong 3.0 est devenu le premier humanoïde à intégrer un contrôle tactile sur l'ensemble du corps — 4 096 capteurs de pression qui lui permettent de « sentir » ce qu'il touche, d'ajuster sa force, de manipuler des objets fragiles. Son architecture « deux cerveaux » sépare le contrôle moteur temps réel (équilibre, locomotion) du raisonnement de haut niveau (perception, planification). Un seul cerveau peut même piloter plusieurs robots simultanément.

Fait notable : X-Humanoid, le labo derrière Tiangong, publie les plans hardware complets, le modèle de perception Pelican-VL et le dataset d'entraînement RoboMIND en open source — la même stratégie que pour les LLM chinois.

Et la Chine contrôle désormais 90 % du marché mondial des robots humanoïdes. Les chiffres parlent d'eux-mêmes :

Fabricant Pays Ventes 2025 Prix d'entrée
Unitree Chine 5 500 (obj. 20 000 en 2026) 16 000 $
Agibot Chine 5 168 Non communiqué
Tesla USA ~150 100-150 000 $
Figure AI USA ~150 Non communiqué
Agility USA ~150 250 000 $+

Le marché est estimé à 38 milliards de dollars d'ici 2035, potentiellement 5 000 milliards d'ici 2050.

L'open source rattrape les géants

Le mois a prouvé, une fois de plus, que les modèles propriétaires n'ont plus le monopole de la performance.

En tête, GLM-5 de Zhipu : 744 milliards de paramètres en architecture Mixture-of-Experts (40 milliards actifs par token), entraîné sur 28,5 trillions de tokens. Les benchmarks bousculent la hiérarchie : 77,8 % sur SWE-bench (ingénierie logicielle), au-dessus de Gemini 3 Pro, et un score de 62 sur BrowseComp (navigation web) — quasiment le double de Claude. Le tout entraîné intégralement sur puces Huawei Ascend, sans aucun GPU Nvidia. Publié sous licence MIT, facturé 0,11 $ par million de tokens — jusqu'à 6× moins cher que les modèles propriétaires.

Qwen 3.5 d'Alibaba a suivi avec un modèle multimodal natif (texte, image, vidéo dans un seul modèle) en architecture Gated DeltaNet. Qwen est la famille open source la plus téléchargée au monde, avec un rythme de mise à jour d'une génération tous les 10-12 mois.

À l'opposé du spectre, Moondream a fait sensation : un modèle vision-langage qui tient dans 1 Go de mémoire. Il tourne sur un Raspberry Pi, sans GPU, sans connexion internet — et sa version 3.0 (architecture MoE, 9 milliards de paramètres, 2 milliards actifs) bat GPT-5 Vision sur la détection d'objets et la compréhension d'interfaces. Le tout entraîné sur 450 milliards de tokens — les concurrents en utilisent des milliers de milliards. Pour les développeurs qui veulent intégrer de la vision IA dans un drone, une caméra ou un objet connecté à 50 €, c'est une révolution.

Nvidia Nemotron 3 cible l'IA agentique en entreprise avec une architecture hybride Mamba-2 + Transformer. Le modèle Nano (30 milliards de paramètres, 3 milliards actifs) affiche un débit 4× supérieur à son prédécesseur avec 60 % de tokens de raisonnement en moins, le tout avec une fenêtre de contexte d'un million de tokens. Accenture, CrowdStrike, Palantir et Siemens le déploient déjà.

Cohere a lancé Tiny Aya, un modèle de 3,35 milliards de paramètres qui fonctionne dans 70 langues hors connexion — entraîné sur seulement 64 GPU H100. Quatre variantes régionales (Afrique, Asie du Sud, Asie-Pacifique, global) avec un ancrage linguistique et culturel profond. Premier terrain visé : l'Inde et ses 1,4 milliard de locuteurs multilingues.

Alibaba a aussi ouvert RynnBrain, un « cerveau robotique » de 30 milliards de paramètres (3 milliards actifs) qui permet aux robots de percevoir leur environnement en 3D, planifier des manipulations et naviguer dans des espaces encombrés. Il bat Gemini Robotics-ER et Cosmos-Reason2 de Nvidia sur 16 benchmarks d'IA embodied. Sept modèles publiés en open source — le premier industriel à le faire à cette échelle.

Enfin, OpenClaw, un agent IA local entièrement open source, est devenu viral sur GitHub. Il se connecte à WhatsApp, Slack, Discord et Telegram, gère emails et calendriers de manière autonome. Andrej Karpathy l'a qualifié de « the most incredible sci-fi takeoff-adjacent thing I have seen recently ». Mais Gartner a aussi tiré la sonnette d'alarme : identifiants stockés en clair, pas d'authentification par défaut — autonomie et sécurité restent difficiles à concilier.

Ce qu'il faut retenir

Trois mouvements convergent, et c'est leur combinaison qui compte. Les puces deviennent exponentiellement plus puissantes et moins chères — ce qui rend l'IA accessible au-delà des GAFAM. Les robots passent du prototype au produit industriel — Tesla, Boston Dynamics et la Chine se battent pour un marché à plusieurs milliers de milliards. Et l'open source prouve qu'on n'a pas besoin d'être OpenAI ou Google pour créer des modèles compétitifs — un modèle de 1 Go bat GPT-5 Vision, un modèle chinois entraîné sans GPU Nvidia rivalise avec Claude Opus.

Ces trois tendances se renforcent mutuellement : des puces moins chères permettent d'entraîner des modèles open source plus performants, qui alimentent des robots plus intelligents, qui justifient des puces encore plus spécialisées. C'est ce cercle vertueux qui va définir 2026.

Partager cet article

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Articles connexes

Parcourir par catégorie