Aller au contenu principal
Régulation

Gemini détourné par 4 États : la Corée du Nord, la Chine, l'Iran et la Russie arment l'IA

12 févr. 2026 3 min de lecture Paul Forcadel
Gemini détourné par 4 États : la Corée du Nord, la Chine, l'Iran et la Russie arment l'IA

Le 12 février, le Google Threat Intelligence Group (GTIG) publie un rapport qui fait froid dans le dos : 9 groupes de hackers étatiques exploitent Gemini pour accélérer leurs cyberattaques. Quatre pays sont identifiés : Corée du Nord, Chine, Iran et Russie. L'IA n'est plus un outil défensif. Elle est devenue une arme.

Comment les hackers utilisent Gemini

L'IA est détournée à chaque étape de la chaîne d'attaque :

  • Reconnaissance : profilage de cibles, collecte de données publiques, identification de rôles techniques et de grilles salariales
  • Développement : génération de code malveillant, analyse de vulnérabilités, contournement de pare-feu
  • Social engineering : rédaction d'emails de phishing, création de faux profils de recrutement
  • Post-intrusion : exfiltration de données, débogage de malwares

Corée du Nord : l'opération Dream Job

Le groupe UNC2970 — aussi connu sous les noms Lazarus Group, Diamond Sleet et Hidden Cobra — utilise Gemini pour cartographier les employés des secteurs aérospatial, défense et énergie. L'IA synthétise des données publiques, identifie les postes techniques sensibles et leurs salaires, puis aide à fabriquer de fausses offres d'emploi ciblées. C'est l'Operation Dream Job : un piège d'ingénierie sociale qui dure depuis des années, désormais accéléré par l'IA.

Chine : vulnérabilités sur commande

Les groupes APT31 et APT41 utilisent Gemini avec des personas fictifs d'experts en cybersécurité pour automatiser l'analyse de vulnérabilités ciblant l'infrastructure américaine. L'IA fournit des recommandations sur les failles d'exécution de code à distance, les contournements de WAF et les injections SQL.

Des malwares générés par l'IA

Deux outils illustrent la menace. HonestCue appelle directement l'API de Gemini pour générer des payloads en C# compilés et exécutés en mémoire — invisibles pour les antivirus classiques. CoinBait, un kit de phishing ciblant les plateformes crypto, porte les signatures caractéristiques d'un développement assisté par IA.

Plus inquiétant : 100 000 requêtes ont tenté de « distiller » Gemini 3 Pro — c'est-à-dire de cloner son raisonnement. Avec seulement 1 000 requêtes ciblées, les attaquants atteignent 80 % de précision dans la réplication du modèle. Google qualifie cette pratique de « vol de propriété intellectuelle ».

La réponse de Google

Google a désactivé les comptes compromis et affirme renforcer ses classifieurs de sécurité. Mais le GTIG reconnaît un point rassurant : « l'IA n'a pas encore livré les sauts de capacité dramatiques que certains experts redoutaient ». Les hackers gagnent en efficacité, pas en capacité fondamentale.

Le problème reste entier. Quand un modèle commercial accessible par API permet de générer du malware invisible et de profiler des cibles à l'échelle industrielle, la question n'est plus de savoir si l'IA sera utilisée comme arme — mais comment la défense peut suivre le rythme.

Partager cet article

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Parcourir par catégorie