Régulation

CERT-FR : 42 groupes de hackers exploitent déjà l'IA générative pour leurs cyberattaques

4 févr. 2026 3 min de lecture Paul Forcadel
CERT-FR : 42 groupes de hackers exploitent déjà l'IA générative pour leurs cyberattaques

L'IA générative entre dans l'arsenal des attaquants

Le 4 février 2026, le CERT-FR (centre de réponse aux incidents de l'ANSSI) a publié le rapport CERTFR-2026-CTI-001, première synthèse officielle française consacrée à l'utilisation de l'IA générative dans les cyberattaques. Le constat est net : les modèles de langage sont désormais intégrés à toutes les étapes de la chaîne d'attaque, du profilage des victimes à la création de malwares.

42 groupes étatiques identifiés

Selon les données compilées par l'ANSSI et relayées par Clubic, 42 groupes de hackers exploitent activement les outils d'IA générative, notamment Google Gemini : 20 groupes chinois, 10 iraniens, 9 nord-coréens et 3 russes. Le groupe nord-coréen Lazarus utilise par exemple l'IA pour fabriquer de fausses entreprises et des profils crédibles sur les réseaux sociaux afin de piéger ses cibles.

Parallèlement, plus de 100 000 comptes ChatGPT ont été compromis entre 2022 et 2023 via des infostealers comme Rhadamanthys, d'après le même rapport.

Des outils offensifs en vente libre

Sur les forums Telegram, des outils comme WormGPT, FraudGPT et EvilGPT se négocient autour de 100 dollars par mois. WormGPT 4 aurait été entraîné sur des échantillons réels de malwares et de templates de phishing. Le rapport identifie également PromptLock, un ransomware qui demande à l'IA de générer ses propres instructions d'attaque en temps réel, et Promptflux, un malware qui mute toutes les heures via l'API Gemini pour échapper aux antivirus.

Les systèmes d'IA eux-mêmes deviennent des cibles

Le CERT-FR souligne que les modèles d'IA ne sont pas seulement des facilitateurs d'attaques : ils sont aussi des cibles. L'empoisonnement de modèles, la compromission de la chaîne d'approvisionnement et l'exfiltration de données d'entraînement figurent parmi les menaces émergentes. Selon Clubic, 250 documents suffisent pour corrompre un dataset d'entraînement, quelle que soit la taille de la base.

L'ANSSI alerte aussi sur le « slopsquatting » : des attaquants identifient des noms de logiciels inventés par erreur par les IA, puis créent de vrais malwares portant ces noms pour piéger les développeurs.

35 recommandations et un cadre en construction

Pour contrer ces menaces, l'ANSSI a publié dès avril 2024 un guide de 35 recommandations couvrant le cycle de vie complet d'un système d'IA générative : développement, infrastructure, protection des données et sécurité en production. Le rapport préconise notamment d'interdire l'utilisation de l'IA générative en ligne pour les données métier sensibles et de privilégier un hébergement SecNumCloud.

Cette publication intervient en amont du panorama général des menaces 2025, dont elle constitue un « avant-goût » selon l'ANSSI.

Partager cet article

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Parcourir par catégorie

Newsletter

Recevez les actus IA directement dans votre boîte mail.

Suivez-nous

Retrouvez-nous sur les réseaux pour ne rien rater.