Aller au contenu principal

DeepSeek V4 : le modèle multimodal à 1 000 milliards de paramètres arrive

3 mars 2026 2 min de lecture Paul Forcadel
DeepSeek V4 : le modèle multimodal à 1 000 milliards de paramètres arrive

DeepSeek prépare le lancement de V4, son modèle le plus ambitieux à ce jour. Selon le Financial Times et TechNode, la sortie est prévue la première semaine de mars 2026, stratégiquement calée sur les « Deux Sessions » — les réunions annuelles du parlement chinois qui débutent le 4 mars.

Un modèle multimodal natif

La grande nouveauté de V4 : c'est un modèle multimodal natif. Contrairement aux versions précédentes (texte uniquement), V4 peut générer du texte, des images et de la vidéo. Et surtout, ces capacités ne sont pas ajoutées après coup — le modèle a été entraîné dès le départ sur les trois modalités simultanément.

C'est le premier lancement majeur de DeepSeek depuis R1, le modèle de raisonnement sorti en janvier 2025 qui avait secoué le marché en montrant qu'on pouvait rivaliser avec les meilleurs modèles américains pour une fraction du coût.

Deux variantes prévues

Modèle Paramètres Actifs par token Contexte
V4 (complet) ~1 000 milliards ~32 milliards 1 million de tokens
V4 Lite ~200 milliards 1 million de tokens

V4 Lite vise les déploiements avec des ressources de calcul limitées tout en maintenant des performances supérieures au V3.2 actuel. La fenêtre de contexte d'un million de tokens — 8× plus large que les 128 000 du V3 — permet de traiter des documents de plusieurs centaines de pages d'un coup.

Optimisé pour puces chinoises

Le détail qui compte : V4 a été développé en collaboration avec Huawei et Cambricon pour tourner sur leurs puces, sans GPU Nvidia. C'est un signal fort d'indépendance technologique. Les sanctions américaines à l'export de semi-conducteurs n'ont pas empêché DeepSeek de produire un modèle frontier — elles l'ont forcé à trouver des alternatives.

DeepSeek rejoint ainsi GLM-5 (Zhipu AI) dans le club des modèles frontier chinois entraînés sans matériel Nvidia.

Premières capacités démontrées

Les premières démos montrent des capacités impressionnantes en génération d'images SVG (images vectorielles de haute qualité en 54 lignes de code) et en raisonnement spatial. Un rapport technique détaillé est attendu dans le mois suivant le lancement.

Ce que ça change

DeepSeek V4 confirme que la compétition IA est devenue une course à trois : États-Unis, Chine et Europe (via Mistral). Le modèle arrive dans un marché où les fenêtres de contexte d'un million de tokens deviennent la norme et où le multimodal natif remplace les approches bricolées. Reste à voir si les benchmarks tiendront face à Claude Opus 4.6 et Gemini 3.1 Pro.

Partager cet article

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Articles connexes

Parcourir par catégorie