Aller au contenu principal

Deepfake musicaux : l'IA clone les voix, les chercheurs ripostent

11 mars 2026 2 min de lecture Paul Forcadel
Deepfake musicaux : l'IA clone les voix, les chercheurs ripostent

En quelques secondes d'audio, l'IA peut désormais cloner n'importe quelle voix et générer une chanson entière. En mars 2026, le phénomène explose : des albums complets imitant Eminem inondent YouTube, un faux clip de Taylor Swift se fait passer pour une sortie officielle, et les artistes n'ont quasiment aucun recours.

Une explosion sur YouTube

Mi-mars, au moins trois chaînes YouTube ont publié en 48 heures des compilations IA imitant Eminem — dont un album de 63 minutes accumulant des dizaines de milliers de vues. Les vidéos incluent des disclaimers « fan-made », mais les auditeurs occasionnels ne font pas la différence.

Parallèlement, une chaîne de 300 abonnés a publié un clip présenté comme un titre officiel de Taylor Swift. La mention IA est cachée dans la description détaillée — conforme aux règles YouTube, qui n'obligent pas à afficher le label dans le lecteur vidéo. L'équipe de Swift n'a pas de mécanisme simple de retrait.

YouTube tolère ces contenus avec disclaimer, tandis que Spotify et Apple Music suppriment ou démonétisent les imitations IA — créant des politiques incohérentes d'une plateforme à l'autre.

MMMC : rendre les voix inclonables

Des chercheurs de l'université de Binghamton (New York) et de la startup Cauth AI ont développé My Music My Choice (MMMC), un outil qui protège les chansons du clonage vocal IA. Le principe : injecter des modifications imperceptibles dans la forme d'onde audio. L'oreille humaine ne détecte rien, mais les modèles d'IA ne produisent que du bruit distordu quand ils tentent de reproduire la voix.

Testé sur 150 morceaux de genres variés et présenté au workshop NeurIPS 2025, MMMC est conçu pour être appliqué avant la sortie d'un titre. Umur Aybars Ciftci, le chercheur principal, résume : « On minimise l'impact pour les auditeurs humains tout en maximisant la perturbation pour les machines. »

Un vide juridique persistant

Le problème dépasse la technologie. Aucun cadre juridique fédéral américain ne protège spécifiquement les artistes contre le clonage vocal IA. Le NO FAKES Act est en discussion, mais pas encore voté. En attendant, les artistes dépendent d'outils comme MMMC et des politiques incohérentes des plateformes pour défendre leur voix.

Partager cet article

Questions fréquentes

C'est une chanson générée par IA qui clone la voix d'un artiste à partir de quelques secondes d'audio. L'IA peut produire des titres entiers imitant le style et la voix d'un musicien sans son consentement.
MMMC injecte des modifications imperceptibles dans la forme d'onde audio. L'oreille humaine ne détecte rien, mais les modèles d'IA ne produisent que du bruit distordu quand ils tentent de cloner la voix.
Il n'existe pas encore de loi fédérale américaine protégeant spécifiquement contre le clonage vocal IA. Le NO FAKES Act est en discussion. YouTube tolère les contenus avec disclaimer, Spotify les supprime.
En appliquant un outil comme MMMC avant la sortie d'un titre, en demandant le statut d'artiste officiel sur YouTube, et en surveillant les plateformes via des alertes de recherche.

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Articles connexes

Parcourir par catégorie