Le 11 février, DeepSeek a discrètement mis à jour ses apps web et mobile avec une fenêtre de contexte de 1 million de tokens — 8 fois plus que les 128k du V3.1. C'est l'une des plus grandes fenêtres disponibles sur le marché.
Ce que ça change concrètement
Un million de tokens, c'est environ 750 000 mots. En pratique :
- Un développeur peut charger un projet entier en une seule requête
- Un chercheur peut compiler des millions de mots de documentation
- Un juriste peut analyser un contrat de plusieurs centaines de pages sans découpage
Des tests utilisateurs montrent que le modèle digère un roman complet comme Jane Eyre (240 000 tokens) d'un seul coup et répond avec précision sur son contenu.
Comment c'est possible
DeepSeek n'a pas juste étiré la fenêtre — le modèle intègre de nouvelles briques architecturales. Le futur V4 (en test interne sous le nom de code "Sealion Lite") repose sur trois innovations :
- Engram Memory : un système de mémoire à récupération en O(1), indépendant de la longueur du contexte
- Modified Hopfield Continuum (mHC) : un nouveau mécanisme d'attention
- Dynamic Sparse Attention (DSA) avec un "Lightning Indexer"
Résultat : traiter 1 million de tokens coûte à peine plus que 128k.
Le V4 en approche
Le V4 complet visera les 1 000 milliards de paramètres (1T) avec du multimodal natif. Les sources internes évoquent un retard lié à la complexité de l'entraînement. DeepSeek cible un score de 80 %+ sur SWE-bench à un coût 10 à 40x inférieur aux modèles occidentaux.
Mise à jour des connaissances
En parallèle, le knowledge cutoff a été étendu de juillet 2024 à mai 2025 — presque un an de connaissances supplémentaires. Le modèle reste texte et voix uniquement, sans vision.