IA générative

Seedance 2.0 : ByteDance lance le modèle vidéo IA qui affole Hollywood et la Chine

12 févr. 2026 3 min de lecture Paul Forcadel
Seedance 2.0 : ByteDance lance le modèle vidéo IA qui affole Hollywood et la Chine

Le nouveau choc vidéo venu de Chine

Après DeepSeek en janvier, c'est ByteDance qui secoue l'industrie IA. Le 12 février 2026, la maison mère de TikTok dévoile Seedance 2.0, un modèle de génération vidéo qui transforme un simple prompt texte en clip cinématique de 15-20 secondes — avec son, dialogues et mouvements de caméra synchronisés.

Les réactions sont immédiates : sur Weibo, les hashtags liés cumulent des dizaines de millions de vues. En bourse, Huace Media Group et Perfect World bondissent de 7 à 10 %, tandis que Chinese Online Entertainment Group touche la limite quotidienne de +20 %.

Ce que Seedance 2.0 sait faire

Architecture — Un double transformeur de diffusion (dual-branch diffusion transformer) qui génère image et audio simultanément. Pas de doublage après coup : la voix, les effets sonores et la musique sont produits en même temps que la vidéo.

Résolution et vitesse — Jusqu'à 2K Cinema, généré en environ 60 secondes. ByteDance revendique une vitesse 30 % supérieure aux modèles concurrents.

Multimodal — Le modèle accepte jusqu'à 12 fichiers en entrée (9 images, 3 vidéos, 3 pistes audio) pour un contrôle précis de la scène : placement de caméra, éclairage, effets visuels.

Lip-sync natif — Synchronisation labiale au niveau du phonème dans 8+ langues (anglais, chinois, japonais, coréen, espagnol, français, allemand, portugais).

Multi-shot — Contrairement à Sora ou Runway, Seedance 2.0 génère des séquences multi-plans avec cohérence de personnages et de style entre les scènes.

Le comparatif qui fait mal

Critère Seedance 2.0 Sora Runway Gen-3 Kling 1.6
Audio natif Oui Non Non Limité
Multi-shot Oui Non Non Non
Résolution max 2K 1080p 1080p 1080p
Temps de génération ~60 s ~120 s ~90 s ~45 s

Le dérapage : Tom Cruise contre Brad Pitt

Moins de 24 heures après le lancement, des utilisateurs génèrent un combat entre Tom Cruise et Brad Pitt, des remixes d'Avengers: Endgame, et une scène de Friends jouée par des loutres. Les vidéos deviennent virales.

La Motion Picture Association (MPA) réagit immédiatement, dénonçant une "utilisation non autorisée d'œuvres protégées à une échelle massive" et appelant ByteDance à mettre en place des garde-fous.

Plus inquiétant : un entrepreneur chinois découvre que Seedance 2.0 peut reproduire sa voix à partir d'une simple photo, sans échantillon audio. ByteDance suspend la fonctionnalité en 48 heures et impose de nouvelles restrictions : interdiction des photos de vraies personnes comme référence, vérification d'identité obligatoire pour la création d'avatars, renforcement de la modération.

Ce que ça change

Seedance 2.0 marque un tournant : la génération vidéo IA passe du gadget au niveau "qualité industrielle". ByteDance promet des coûts de production drastiquement réduits pour le cinéma, la publicité et le e-commerce.

Mais la controverse du deepfake illustre le dilemme permanent : plus l'outil est puissant, plus le potentiel d'abus est élevé. Le modèle est disponible en bêta sur Jimeng AI (plateforme ByteDance) avec des tarifs estimés entre 0,10 et 0,80 $/minute selon la résolution.

Partager cet article

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Parcourir par catégorie