Le Pentagone a autorisé l'intégration de Grok, le chatbot d'xAI (Elon Musk), dans ses systèmes classifiés — alors même que plusieurs agences fédérales avaient signalé des problèmes de sécurité et de fiabilité.
Les alertes ignorées
Selon le Wall Street Journal, des responsables de la GSA (General Services Administration) ont transmis des mémos internes alertant sur les failles de Grok : sycophantie excessive, susceptibilité à la manipulation, et vulnérabilité aux données biaisées. Ed Forst, le plus haut responsable de la GSA, a personnellement alerté la Maison-Blanche.
En parallèle, Grok continue de générer des images sexualisées non consenties malgré les correctifs promis par xAI. Reuters a testé le système : sur 55 prompts, Grok a produit des images problématiques dans 45 cas. Les concurrents (ChatGPT, Gemini, Meta AI) refusent systématiquement les mêmes requêtes.
Adopté quand même
Malgré ces signaux, le Pentagone a signé un accord avec xAI le 24 février. Grok rejoint le réseau IA non classifié GenAI.mil et accède aux systèmes classifiés. xAI a accepté le standard "all lawful purposes" — la même exigence qu'Anthropic a refusée pour Claude.
Matthew Johnson, chef de l'IA responsable au Pentagone, a démissionné en partie à cause de ses inquiétudes sur le recul de la gouvernance et de la sécurité IA au sein du département.
Le contraste avec Anthropic
Le timing est frappant : la même semaine, le Pentagone menace Anthropic du Defense Production Act pour avoir refusé l'usage de Claude dans les armes autonomes et la surveillance de masse. D'un côté, on adopte un modèle signalé comme peu fiable. De l'autre, on sanctionne une entreprise qui pose des limites éthiques.
Les enjeux
Cette décision illustre la tension croissante entre rapidité de déploiement et gouvernance IA dans la défense américaine. Le départ de Matthew Johnson envoie un signal clair : les garde-fous internes s'effritent face à la pression politique.