Dix février 2026. Mrinank Sharma, chef de la sécurité chez Anthropic, publie une lettre sur X. Onze février. Zoë Hitzig, chercheuse chez OpenAI, signe un essai dans le New York Times. Même semaine : deux cofondateurs de xAI disparaissent, OpenAI dissout une équipe entière dédiée à la sûreté. En quarante-huit heures, les trois plus grands labos d'IA perdent leurs garde-fous — et cette fois, c'est public.
Ce n'est pas la première fois
En mai 2024, Ilya Sutskever et Jan Leike quittaient déjà OpenAI. Leike dénonçait une culture où « la sécurité a pris le siège arrière par rapport aux produits brillants ». L'équipe Superalignment, censée résoudre le problème du contrôle de l'IA, était dissoute dans la foulée. Sutskever fondait Safe Superintelligence Inc.
Deux ans plus tard, le schéma se répète — mais à l'échelle de toute l'industrie, et avec des mots plus durs.
Anthropic : « le monde est en péril »
Mrinank Sharma dirigeait l'équipe Safeguards Research chez Anthropic depuis août 2023. Docteur en machine learning d'Oxford, il supervisait les recherches sur le bioterrorisme assisté par IA et la sycophantie des modèles — cette tendance des chatbots à dire aux gens ce qu'ils veulent entendre plutôt que la vérité.
Sa lettre, vue plus d'un million de fois sur X, ne mâche pas ses mots : « J'ai régulièrement vu à quel point il est difficile de vraiment laisser nos valeurs gouverner nos actions. » Même chez Anthropic — l'entreprise qui se présente comme la plus prudente du secteur. Il décrit des « pressions constantes pour mettre de côté ce qui compte le plus ».
Sa conclusion : « Notre sagesse doit croître à la mesure de notre capacité à affecter le monde. »
Sa destination : un diplôme de poésie. Il cite Rilke plutôt que des benchmarks.
OpenAI : l'archive de candeur humaine
Le 4 février, Anthropic diffuse un spot au Super Bowl montrant un chatbot qui trahit la confiance de son utilisateur en glissant une pub au milieu d'un conseil personnel. Cinq jours plus tard, OpenAI lance les publicités dans ChatGPT pour les utilisateurs gratuits.
Zoë Hitzig, deux ans chez OpenAI où elle guidait les politiques de sécurité, démissionne le 11 février. Son essai dans le New York Times frappe fort : les utilisateurs se confient à ChatGPT sur leurs « peurs médicales, leurs problèmes de couple, leurs croyances sur Dieu et l'au-delà » — en croyant que le chatbot n'a « aucun agenda caché ». Cette masse de confidences constitue une « archive de candeur humaine sans précédent », désormais exploitable par la publicité.
« Un potentiel de manipulation que nous n'avons pas les outils pour comprendre, et encore moins prévenir. »
Elle trace un parallèle avec Facebook, qui promettait le contrôle des données avant de basculer vers la surveillance de masse. Sam Altman a répondu que les pubs permettent l'accès gratuit à l'IA.
Le même jour, OpenAI dissout son équipe Mission Alignment — la deuxième équipe de sûreté dissoute en deux ans. Son chef est promu « chief futurist ». Un titre sans équipe.
xAI : la moitié des fondateurs ont quitté
Chez xAI, c'est plus silencieux mais tout aussi brutal. Le 10 février, Tony Wu et Jimmy Ba — respectivement cinquième et sixième cofondateurs à partir — annoncent leur départ sur X, sans justifications publiques. Le lendemain, Elon Musk confirme lors d'un all-hands une « réorganisation pour accélérer l'exécution » qui a impliqué « de se séparer de certaines personnes ». D'anciens employés évoquent le burnout et un sentiment de stagnation. Au total, six des douze cofondateurs de xAI ont désormais quitté — la moitié de l'équipe fondatrice, partie en moins de deux ans.
« Que restera-t-il aux humains ? »
Hieu Pham, ingénieur chez OpenAI, n'a pas (encore) démissionné. Mais son post sur X résonne : « Je ressens enfin pleinement la menace existentielle que fait peser l'IA. Quand elle saura tout faire mieux que nous, que restera-t-il aux humains ? Et c'est "quand", pas "si". »
Le lauréat du prix Turing Yoshua Bengio pose un constat similaire : il y a un an, « personne n'avait prédit les problèmes psychologiques liés à l'attachement humain aux chatbots ». Chaque trimestre apporte son lot de risques que personne n'avait anticipé.
Ce que ça dit de l'industrie
Le pattern est toujours le même. Un labo recrute les meilleurs chercheurs en sécurité. La pression commerciale monte. Les chercheurs alertent en interne. Rien ne change. Ils partent — et parlent. Le labo recrute les suivants.
En 2024, c'était un problème OpenAI. En 2026, c'est un problème d'industrie. Quand Anthropic, OpenAI et xAI perdent leurs chercheurs en sécurité et leurs cofondateurs la même semaine, ce n'est plus un incident isolé. C'est un signal.