GPT-5.4 devient le modèle recommandé
OpenAI a publié une série de mises à jour de Codex début mars 2026, intégrant GPT-5.4 comme modèle recommandé pour toutes les tâches. Le modèle apporte le computer use natif, un raisonnement amélioré et le support expérimental d'une fenêtre de contexte de 1 million de tokens — permettant de charger des codebases entières dans une seule session.
Fast mode par défaut
La version CLI 0.111.0 (6 mars) active le fast mode par défaut. L'en-tête du TUI indique désormais si la session tourne en mode Fast ou Standard, rendant le choix transparent. Le REPL JavaScript supporte l'import dynamique de fichiers .js et .mjs locaux, facilitant la réutilisation de scripts du workspace.
Un système de plugins complet
La version 0.110.0 (5 mars) introduit un système de plugins qui charge des skills, des entrées MCP et des connecteurs d'applications depuis la configuration. Les plugins sont automatiquement découverts au démarrage de la session.
Les flux multi-agents s'enrichissent avec des prompts d'approbation et des handoffs étiquetés par rôle. La mémoire est désormais scopée au workspace avec des garde-fous contre la pollution de données obsolètes.
Thread forking et voix temps réel
La version 0.107.0 (2 mars) avait introduit le thread forking : un thread peut être branché en sous-agents sans quitter la conversation principale. La voix temps réel permet de sélectionner le micro et les haut-parleurs, et les outils custom peuvent retourner des sorties multimodales incluant des images.
L'app Windows arrive
Codex est désormais disponible en application native Windows (4 mars) avec support PowerShell et sandbox Windows. Un installeur Windows est inclus dans les artefacts de release. La version app 26.303 ajoute le nettoyage de worktrees et le handoff de threads du local vers un worktree.