Aller au contenu principal
Business

Anthropic accuse DeepSeek et MiniMax d'avoir cloné Claude

23 févr. 2026 2 min de lecture Paul Forcadel
Anthropic accuse DeepSeek et MiniMax d'avoir cloné Claude

Anthropic publie un rapport détaillé accusant trois labs d'IA chinois — DeepSeek, Moonshot AI et MiniMax — d'avoir mené des campagnes industrielles de distillation contre Claude. Au total : 24 000 comptes frauduleux et plus de 16 millions d'échanges visant à extraire les capacités du modèle pour entraîner leurs propres systèmes.

Trois campagnes, trois cibles

Chaque lab a ciblé des capacités spécifiques de Claude :

  • DeepSeek — Plus de 150 000 échanges concentrés sur le raisonnement et l'évaluation par rubrique. DeepSeek a demandé à Claude d'« articuler son raisonnement interne étape par étape », générant ainsi des données d'entraînement de type chain-of-thought à grande échelle. Le lab a également cherché des alternatives « sans censure » à des requêtes politiquement sensibles.

  • Moonshot AI — 3,4 millions d'échanges ciblant le raisonnement agentique, l'utilisation d'outils, le coding et la vision par ordinateur. Des centaines de comptes frauduleux déployés sur plusieurs voies d'accès.

  • MiniMax — Le plus massif avec 13 millions d'échanges, concentrés sur le coding agentique et l'orchestration d'outils. Quand Anthropic a publié un nouveau modèle, MiniMax a pivoté en moins de 24 heures, redirigeant la moitié de son trafic.

Des « hydra clusters » pour contourner les restrictions

Les trois entreprises ont utilisé des services de proxy commerciaux opérant des architectures dites « hydra cluster » — des réseaux tentaculaires de comptes frauduleux capables de gérer 20 000 sessions simultanées. Le trafic de distillation était mélangé avec des requêtes légitimes pour échapper à la détection.

Anthropic a identifié les attaquants via l'analyse des métadonnées de requêtes, la corrélation d'adresses IP et les indicateurs d'infrastructure. La structure des prompts — volume massif concentré sur des capacités précises, patterns hautement répétitifs — était « incompatible avec un usage normal ».

Enjeux de sécurité nationale

Anthropic situe ces attaques dans un contexte géopolitique : la distillation permet à des acteurs étrangers d'acquérir des capacités IA américaines sans développement indépendant, contournant de facto les contrôles à l'exportation. Les modèles distillés sont dépourvus des garde-fous de sécurité, ouvrant la porte à des usages de surveillance et de cyberattaques.

OpenAI a formulé des accusations similaires quelques semaines plus tôt. Anthropic conclut : « Aucune entreprise ne peut résoudre cela seule. Les attaques par distillation à cette échelle nécessitent une réponse coordonnée entre l'industrie IA, les fournisseurs cloud et les législateurs. »

Partager cet article

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Parcourir par catégorie