Aller au contenu principal

OpenAI et Google défendent Anthropic face au Pentagone

9 mars 2026 2 min de lecture Paul Forcadel
OpenAI et Google défendent Anthropic face au Pentagone

Fait rare dans la Silicon Valley : des employés de Google DeepMind et OpenAI font front commun pour défendre leur concurrent Anthropic face au département de la Défense américain.

Un amicus brief inédit

Le 9 mars 2026, plus de 30 employés d'OpenAI et Google DeepMind ont déposé un mémoire amicus curiae auprès du tribunal fédéral, soutenant les deux plaintes d'Anthropic contre le DOD. Leur argument principal : la désignation d'Anthropic comme « risque supply chain » est un usage arbitraire et abusif du pouvoir qui menace l'ensemble de l'industrie IA américaine.

Quelques semaines plus tôt, une lettre ouverte avait déjà recueilli les signatures de 366 employés Google et 70 employés OpenAI, soit plus de 430 signataires au total.

Le fil des événements

Le conflit a démarré quand le Pentagone a exigé qu'Anthropic autorise l'utilisation de Claude pour de la surveillance de masse domestique et des armes létales autonomes. Face au refus de Dario Amodei, le DOD a :

  1. Menacé d'invoquer le Defense Production Act (loi de 1950)
  2. Rescindé un contrat de 200 millions de dollars
  3. Désigné Anthropic comme risque supply chain — un label habituellement réservé aux adversaires étrangers

Le Pentagone s'est ensuite tourné vers OpenAI pour remplacer Anthropic, une ironie que le mémoire ne manque pas de souligner.

Des lignes rouges partagées

Le soutien des employés concurrents révèle un consensus émergent dans l'industrie IA. Les signataires estiment que certaines utilisations militaires franchissent des lignes rouges :

  • Surveillance de masse des citoyens américains
  • Armes autonomes sans contrôle humain

Sam Altman lui-même a déclaré que le Pentagone ne devrait pas menacer d'appliquer une loi de 1950 à Anthropic, qualifiant la surveillance de masse et les armes autonomes de « lignes rouges » pour OpenAI aussi.

Un précédent historique

Cet épisode rappelle le Project Maven de 2018, quand des milliers d'employés Google avaient forcé l'entreprise à renoncer à un contrat d'analyse d'images de drones pour le Pentagone. Huit ans plus tard, la question de l'IA militaire divise toujours la Silicon Valley — mais cette fois, les concurrents se serrent les coudes.

Partager cet article

Questions fréquentes

Plus de 30 employés ont déposé un amicus brief estimant que la désignation d'Anthropic comme risque supply chain par le Pentagone est arbitraire et menace toute l'industrie IA américaine.
Anthropic a refusé que son modèle Claude soit utilisé pour de la surveillance de masse des citoyens américains et pour des systèmes d'armes létales autonomes.
C'est une loi américaine de 1950 qui permet au gouvernement de forcer des entreprises à produire pour la défense nationale. Le Pentagone a menacé de l'invoquer contre Anthropic.
Plus de 430 signataires au total : 366 employés Google et 70 employés OpenAI ont signé une lettre ouverte fin février 2026, avant le dépôt formel de l'amicus brief.

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Articles connexes

Parcourir par catégorie