Anthropic publie un rapport détaillé accusant trois labs d'IA chinois — DeepSeek, Moonshot AI et MiniMax — d'avoir mené des campagnes industrielles de distillation contre Claude. Au total : 24 000 comptes frauduleux et plus de 16 millions d'échanges visant à extraire les capacités du modèle pour entraîner leurs propres systèmes.
Trois campagnes, trois cibles
Chaque lab a ciblé des capacités spécifiques de Claude :
-
DeepSeek — Plus de 150 000 échanges concentrés sur le raisonnement et l'évaluation par rubrique. DeepSeek a demandé à Claude d'« articuler son raisonnement interne étape par étape », générant ainsi des données d'entraînement de type chain-of-thought à grande échelle. Le lab a également cherché des alternatives « sans censure » à des requêtes politiquement sensibles.
-
Moonshot AI — 3,4 millions d'échanges ciblant le raisonnement agentique, l'utilisation d'outils, le coding et la vision par ordinateur. Des centaines de comptes frauduleux déployés sur plusieurs voies d'accès.
-
MiniMax — Le plus massif avec 13 millions d'échanges, concentrés sur le coding agentique et l'orchestration d'outils. Quand Anthropic a publié un nouveau modèle, MiniMax a pivoté en moins de 24 heures, redirigeant la moitié de son trafic.
Des « hydra clusters » pour contourner les restrictions
Les trois entreprises ont utilisé des services de proxy commerciaux opérant des architectures dites « hydra cluster » — des réseaux tentaculaires de comptes frauduleux capables de gérer 20 000 sessions simultanées. Le trafic de distillation était mélangé avec des requêtes légitimes pour échapper à la détection.
Anthropic a identifié les attaquants via l'analyse des métadonnées de requêtes, la corrélation d'adresses IP et les indicateurs d'infrastructure. La structure des prompts — volume massif concentré sur des capacités précises, patterns hautement répétitifs — était « incompatible avec un usage normal ».
Enjeux de sécurité nationale
Anthropic situe ces attaques dans un contexte géopolitique : la distillation permet à des acteurs étrangers d'acquérir des capacités IA américaines sans développement indépendant, contournant de facto les contrôles à l'exportation. Les modèles distillés sont dépourvus des garde-fous de sécurité, ouvrant la porte à des usages de surveillance et de cyberattaques.
OpenAI a formulé des accusations similaires quelques semaines plus tôt. Anthropic conclut : « Aucune entreprise ne peut résoudre cela seule. Les attaques par distillation à cette échelle nécessitent une réponse coordonnée entre l'industrie IA, les fournisseurs cloud et les législateurs. »