Aller au contenu principal
Business

Meta loue les TPU de Google et abandonne sa puce IA

27 févr. 2026 2 min de lecture Paul Forcadel
Meta loue les TPU de Google et abandonne sa puce IA

Meta vient de signer un accord multi-milliards pour louer les TPU de Google — les puces IA maison du géant de la recherche. En parallèle, l'entreprise abandonne son projet le plus ambitieux de puce d'entraînement interne. Un double signal qui redessine la carte des fournisseurs de compute IA.

Les TPU Ironwood pour entraîner Llama

Contrairement aux clients classiques de Google Cloud qui utilisent les TPU pour l'inférence, Meta prévoit de les utiliser pour entraîner ses modèles de nouvelle génération — probablement la famille Llama. L'accord porte sur les TPU Ironwood, les plus avancés de Google (lancés en novembre 2025).

Des discussions sont en cours pour que Meta achète directement des millions de TPU pour les installer dans ses propres data centers, potentiellement dès 2027. Google vise à capter jusqu'à 10 % du revenu data center de Nvidia avec cette stratégie.

L'échec de la puce maison

En interne, le programme MTIA (Meta Training and Inference Accelerator) a accumulé les revers. La puce d'entraînement la plus avancée a été abandonnée pour « difficultés de conception ». Une puce d'inférence antérieure avait déjà été enterrée après des tests décevants. Le Chief Product Officer de Meta décrit la situation comme « un apprentissage progressif ».

135 Md$ répartis entre trois fournisseurs

Meta a relevé son capex 2026 à 115-135 Md$ et répartit désormais ses achats entre trois géants :

  • Nvidia — Des millions de GPU Vera Rubin et CPU Grace (dizaines de milliards)
  • AMD — Deal de 100 Md$+ sur plusieurs années pour les MI450 (6 GW)
  • Google — Location de TPU Ironwood via Cloud

Les puces MTIA internes restent utilisées pour les algorithmes de recommandation (fil d'actualité, publicités), mais pas pour l'entraînement des modèles de fondation.

La fin du monopole Nvidia ?

L'approche multi-fournisseurs de Meta reflète un mouvement de fond : les hyperscalers ne veulent plus dépendre d'un seul fournisseur. Google, en ouvrant ses TPU à la location, se positionne comme une alternative crédible. Pour Nvidia, le message est clair : même un client record peut chercher ailleurs.

Partager cet article

Sources

Références et articles originaux

Articles connexes

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Parcourir par catégorie