Faux missiles, vrais problèmes
Le 3 mars 2026, Nikita Bier, head of product chez X, a annoncé une mise à jour du programme Creator Revenue Sharing : tout créateur qui publie une vidéo générée par IA montrant un conflit armé sans la déclarer comme telle sera suspendu du programme de revenus pendant 90 jours. En cas de récidive, la suspension devient permanente.
« During times of war, it is critical that people have access to authentic information on the ground », a justifié Bier. La mesure intervient alors que des vidéos IA de frappes de missiles au Moyen-Orient circulent massivement sur la plateforme.
Comment X détecte les contenus IA
Deux mécanismes sont utilisés :
- Community Notes : le système de modération participative de X permet aux utilisateurs de signaler un contenu comme généré par IA. Une note devient publique lorsque des contributeurs aux points de vue différents la jugent pertinente.
- Métadonnées techniques : X analyse les signaux intégrés par les outils de génération IA dans les fichiers vidéo.
X propose aussi un label volontaire « Made with AI » que les créateurs peuvent appliquer eux-mêmes lors de la publication.
Pourquoi seulement les conflits armés ?
La politique ne couvre que les contenus liés aux conflits armés, pas l'ensemble des deepfakes ou vidéos IA. Plusieurs questions restent ouvertes : comment X définit « conflit armé », quelle est la fiabilité de la détection automatique, et comment le timing des Community Notes (qui peut prendre des heures) permet d'agir assez vite sur du contenu viral.
Un mouvement plus large
Cette annonce s'inscrit dans une tendance mondiale de régulation des contenus IA. L'Inde a renforcé en février 2026 ses règles sur les médias synthétiques, obligeant les plateformes à déployer des outils de vérification. L'UE avait déjà imposé des obligations d'étiquetage dans l'AI Act. Reste à savoir si X appliquera cette politique au-delà des zones de conflit.