Aller au contenu principal

Corée du Nord : de faux devs IA infiltrent les entreprises

9 mars 2026 2 min de lecture Paul Forcadel
Corée du Nord : de faux devs IA infiltrent les entreprises

L'IA au service de l'infiltration

Microsoft, Palo Alto Networks et Okta ont publié coup sur coup des rapports alarmants : la Corée du Nord utilise massivement l'intelligence artificielle pour infiltrer des entreprises occidentales avec de faux développeurs. Deux groupes identifiés par Microsoft — Jasper Sleet et Coral Sleet — orchestrent ces opérations à grande échelle.

Un arsenal IA complet

Les agents nord-coréens utilisent l'IA à chaque étape du recrutement. Des logiciels de face-swap insèrent leurs visages dans des documents d'identité volés. Des changeurs de voix masquent leurs accents pendant les entretiens vidéo. Des outils de génération de CV testent automatiquement les candidatures contre les systèmes de tri des entreprises jusqu'à ce qu'elles passent.

Selon Palo Alto Networks, un opérateur unique peut créer un deepfake convaincant en 70 minutes avec un GPU grand public et des outils gratuits, puis passer plusieurs entretiens pour le même poste sous différentes identités.

Des centaines de millions détournés

Le département de la Justice américain estime que ce réseau a généré des centaines de millions de dollars pour le régime nord-coréen. Les opérateurs, basés en Asie du Sud-Est ou en Chine, cumulent plusieurs emplois à distance simultanément. Une partie des fonds est liée au département de l'Industrie des Munitions, qui supervise le programme de missiles balistiques.

Microsoft a déjà démantelé des milliers de comptes email utilisés dans ces opérations. Le CISO de Coinbase affirme que « presque toutes les entreprises du Fortune 500 sont confrontées à ce problème ».

Comment les détecter

Palo Alto Networks a identifié quatre failles des deepfakes en temps réel : les mouvements de tête rapides créent des artefacts, les mains passant devant le visage perturbent le système, les changements d'éclairage révèlent les bords du rendu, et un décalage audio-visuel est détectable. Les entreprises renforcent leurs processus : entretiens vidéo multiples, présentations en direct et vérification d'identité biométrique.

Partager cet article

Questions fréquentes

Des agents utilisent des deepfakes vidéo, des changeurs de voix et des CV générés par IA pour se faire passer pour des développeurs qualifiés lors d'entretiens à distance.
Le département de la Justice américain estime que ces opérations ont généré des centaines de millions de dollars, en partie liés au programme de missiles balistiques nord-coréen.
Les mouvements de tête rapides, les mains devant le visage, les changements d'éclairage et le décalage entre lèvres et voix sont les quatre signes révélateurs identifiés par les chercheurs.
Selon Coinbase, presque toutes les entreprises du Fortune 500 sont touchées. Les faux candidats visent principalement des postes de développement logiciel et d'IT en télétravail.

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Articles connexes

Parcourir par catégorie