Le 3 janvier 2026, l'armée américaine lance l'opération « Absolute Resolve » au Venezuela. Objectif : capturer Nicolás Maduro. Bilan : 83 morts selon les autorités locales. Révélation du Wall Street Journal le 13 février : Claude, le modèle d'Anthropic, a été utilisé pendant l'opération — une première pour un modèle IA dans une mission classifiée du Pentagone.
Ce que Claude a fait (et ce qu'on ne sait pas)
Claude a été déployé via le partenariat entre Anthropic et Palantir Technologies, le géant du renseignement militaire. Selon les sources, l'IA a traité des milliers de pages de renseignement en quelques secondes, filtrant le bruit informationnel pour offrir une conscience situationnelle en temps réel aux commandants.
Mais le périmètre exact reste flou. Le Wall Street Journal évoque un spectre allant de « la synthèse de documents au pilotage de drones autonomes ». Ni Anthropic ni le Pentagone ne confirment les détails. Un employé d'Anthropic aurait interrogé un homologue chez Palantir sur l'utilisation opérationnelle de Claude — signe que l'entreprise elle-même ne savait pas tout.
Le paradoxe éthique
La politique d'utilisation d'Anthropic interdit explicitement trois usages : faciliter la violence, développer des armes et conduire des opérations de surveillance. Un raid militaire avec 83 morts viole au moins deux de ces restrictions.
Pourtant, le contrat de 200 millions de dollars signé avec le Pentagone à l'été 2025 contient une clause permettant « d'adapter les restrictions d'utilisation » pour les clients gouvernementaux. Ce qui est publiquement interdit devient contractuellement possible.
Dario Amodei, le CEO d'Anthropic, a qualifié la surveillance de masse de « crime contre l'humanité » dans un essai récent. Mais il a signé le contrat.
Le Pentagone hausse le ton
Depuis la révélation, les tensions montent. L'administration Trump envisage de rompre le partenariat si Anthropic maintient ses deux lignes rouges : pas de surveillance de masse des Américains, pas d'armes entièrement autonomes. Le secrétaire à la Défense Pete Hegseth a prévenu : le Pentagone n'emploiera pas de modèles IA « qui refusent de faire la guerre ».
Fin janvier, un premier clash avait déjà éclaté sur le déploiement de Claude auprès de l'ICE et du FBI.
Ce que ça change
C'est la première fois qu'un modèle IA commercial est utilisé dans une opération militaire classifiée. Le Pentagone collabore aussi avec xAI, Google et OpenAI pour l'analyse de documents et — potentiellement — le guidage de drones autonomes.
Pour Anthropic, le dilemme est existentiel. Refuser le Pentagone, c'est perdre 200 millions et un accès stratégique. Accepter sans conditions, c'est trahir les principes qui ont fondé l'entreprise. Entre les deux, il y a une clause contractuelle — et un silence sur ce qui s'est passé à Caracas.