Le 10 mars 2026, le Meta Oversight Board a publié une décision majeure exigeant de Meta une refonte de sa modération des contenus générés par IA. Le verdict est sans appel : les deepfakes IA se propagent plus vite que la modération ne peut répondre, en particulier en période de conflit armé.
700 000 vues pour un bombardement fictif
L'affaire déclencheur : en juin 2025, pendant la guerre Iran-Israël, un groupe philippin se faisant passer pour un média d'information a publié une vidéo IA montrant des bâtiments détruits à Haïfa, la troisième ville d'Israël. La vidéo a atteint 700 000 vues sans que Meta n'intervienne. Six utilisateurs l'ont signalée avant qu'une action soit prise. Le contenu avait pourtant déjà été débunké sur TikTok par des médias crédibles.
Le Board a qualifié cet incident de « point d'inflexion » et annulé la décision de Meta de laisser la vidéo en ligne sans étiquette.
Des recommandations structurelles
Le comité de surveillance demande à Meta de :
- Créer un Community Standard dédié aux contenus générés par IA
- Étendre le label « High Risk AI » aux contenus susceptibles de tromper
- Implémenter les standards C2PA (Coalition for Content Provenance and Authenticity) pour tracer l'origine des contenus
- Investir dans des outils de détection audio et vidéo, pas seulement images
Meta dispose de 60 jours pour répondre aux recommandations du Board.
Un système de détection défaillant
Le problème de fond : Meta s'appuie principalement sur les métadonnées pour identifier les contenus IA — une approche facilement contournée, puisque les utilisateurs peuvent supprimer les métadonnées avant de publier. La plateforme dépend aussi largement de l'auto-déclaration des créateurs, un système inefficace face à des acteurs malveillants.
Les chercheurs Mahsa Alimardani et Sam Gregory avertissent : « Le contenu IA lié au conflit Iran-Israël a porté la désinformation à un niveau industriel. » Le Board signale que des réformes structurelles sont inévitables à mesure que l'IA générative se démocratise.