L'IA générative entre dans l'arsenal des attaquants
Le 4 février 2026, le CERT-FR (centre de réponse aux incidents de l'ANSSI) a publié le rapport CERTFR-2026-CTI-001, première synthèse officielle française consacrée à l'utilisation de l'IA générative dans les cyberattaques. Le constat est net : les modèles de langage sont désormais intégrés à toutes les étapes de la chaîne d'attaque, du profilage des victimes à la création de malwares.
42 groupes étatiques identifiés
Selon les données compilées par l'ANSSI et relayées par Clubic, 42 groupes de hackers exploitent activement les outils d'IA générative, notamment Google Gemini : 20 groupes chinois, 10 iraniens, 9 nord-coréens et 3 russes. Le groupe nord-coréen Lazarus utilise par exemple l'IA pour fabriquer de fausses entreprises et des profils crédibles sur les réseaux sociaux afin de piéger ses cibles.
Parallèlement, plus de 100 000 comptes ChatGPT ont été compromis entre 2022 et 2023 via des infostealers comme Rhadamanthys, d'après le même rapport.
Des outils offensifs en vente libre
Sur les forums Telegram, des outils comme WormGPT, FraudGPT et EvilGPT se négocient autour de 100 dollars par mois. WormGPT 4 aurait été entraîné sur des échantillons réels de malwares et de templates de phishing. Le rapport identifie également PromptLock, un ransomware qui demande à l'IA de générer ses propres instructions d'attaque en temps réel, et Promptflux, un malware qui mute toutes les heures via l'API Gemini pour échapper aux antivirus.
Les systèmes d'IA eux-mêmes deviennent des cibles
Le CERT-FR souligne que les modèles d'IA ne sont pas seulement des facilitateurs d'attaques : ils sont aussi des cibles. L'empoisonnement de modèles, la compromission de la chaîne d'approvisionnement et l'exfiltration de données d'entraînement figurent parmi les menaces émergentes. Selon Clubic, 250 documents suffisent pour corrompre un dataset d'entraînement, quelle que soit la taille de la base.
L'ANSSI alerte aussi sur le « slopsquatting » : des attaquants identifient des noms de logiciels inventés par erreur par les IA, puis créent de vrais malwares portant ces noms pour piéger les développeurs.
35 recommandations et un cadre en construction
Pour contrer ces menaces, l'ANSSI a publié dès avril 2024 un guide de 35 recommandations couvrant le cycle de vie complet d'un système d'IA générative : développement, infrastructure, protection des données et sécurité en production. Le rapport préconise notamment d'interdire l'utilisation de l'IA générative en ligne pour les données métier sensibles et de privilégier un hébergement SecNumCloud.
Cette publication intervient en amont du panorama général des menaces 2025, dont elle constitue un « avant-goût » selon l'ANSSI.