Un départ retentissant
Le 7 mars 2026, Caitlin Kalinowski, responsable robotique et hardware chez OpenAI depuis novembre 2024, a annoncé sa démission. Motif : le contrat récemment signé entre OpenAI et le Pentagone pour déployer ses modèles sur un réseau gouvernemental classifié.
Kalinowski est la plus haute cadre d'OpenAI à rompre publiquement avec l'entreprise sur ce sujet.
« Ces lignes méritaient plus de délibération »
« Surveillance of Americans without judicial oversight and lethal autonomy without human authorization are lines that deserved more deliberation than they got », a déclaré Kalinowski. Sa critique porte sur le processus — le manque de délibération interne avant l'annonce — plutôt que sur un refus catégorique du travail de sécurité nationale.
Elle a précisé garder « un profond respect pour Sam [Altman] et l'équipe » et être fière du travail accompli.
Le contexte : Anthropic refuse, OpenAI signe
La chronologie est importante. Les négociations entre le Pentagone et Anthropic avaient échoué car la startup exigeait des limites strictes sur la surveillance domestique et les armes autonomes. Quelques jours plus tard, OpenAI signait son propre accord. Sam Altman a reconnu que le timing pouvait paraître « opportunistic ».
OpenAI affirme avoir posé des lignes rouges claires : « no domestic surveillance and no autonomous weapons ». Mais pour Kalinowski et d'autres critiques, ces garde-fous n'ont pas été suffisamment définis ni débattus en interne avant l'annonce.
Un parcours hardware prestigieux
Kalinowski n'est pas une recrue récente sans poids. Avant OpenAI, elle a dirigé le projet de lunettes AR Orion chez Meta, passé 9 ans chez Oculus sur les casques VR, et 6 ans chez Apple à concevoir des MacBook. Sa démission envoie un signal fort sur les tensions éthiques au sein d'OpenAI.
Le dilemme militaire de l'IA
Ce départ s'ajoute à une série de controverses : le boycott #CancelChatGPT, le blacklisting d'Anthropic par le gouvernement US, et l'invocation du Defense Production Act. La question de fond reste la même : les labos IA peuvent-ils fixer leurs propres limites face à la pression gouvernementale ?