Open source
Modèles et outils ouverts
Nvidia Nemotron 3 : modèles open source pour l'IA agentique
Nvidia lance Nemotron 3, modèles open source hybrides Mamba-Transformer-MoE en trois tailles. Le Nano 30B affiche 4× le débit.
8 févr. 2026
Moondream : le modèle vision-langage de 2 Md qui bat GPT-5
Moondream 3.0 : modèle vision-langage de 9B paramètres (2B actifs), tourne sur un laptop en moins d'1 Go et bat des modèles 100× plus gros.
6 févr. 2026
OpenClaw : l'agent IA open source local qui buzze
Un assistant IA autonome open source connecté à WhatsApp et Slack. Adoption virale et alertes de sécurité de Gartner.
3 févr. 2026
Arcee AI Trinity : 30 personnes, 20 M$, un LLM 400B qui défie Llama 4
Arcee AI lance Trinity Large : 400B paramètres, 13B actifs, Apache 2.0. Entraîné from scratch sur 2 048 GPUs B300 en 33 jours.
28 janv. 2026
Hugging Face Datasets dépasse 780 000 jeux de données
La bibliothèque datasets 4.5.0 introduit le support Lance et NIFTI, tandis que le Hub franchit un cap historique.
21 janv. 2026
vLLM 0.14 : 2 200 tokens/s par GPU H200 avec Wide-EP
Le moteur d'inférence open source atteint des performances record grâce à PagedAttention et au nouveau moteur V1.
20 janv. 2026
LangChain et LangGraph atteignent la v1.0 stable
Après 3 ans de développement, les frameworks d'orchestration d'agents s'engagent sur la stabilité jusqu'à la v2.0.
19 janv. 2026
Fine-tuning local avec Unsloth + Ollama : le guide complet
Entraînez vos propres LLM avec seulement 3 Go de VRAM et déployez-les localement via Ollama.
18 janv. 2026
Nvidia ouvre 10 000 Md de tokens et lance Nemotron 3
Nvidia publie 10 trillions de tokens synthétiques et 500 000 trajectoires robotiques en open source, plus la famille Nemotron 3 jusqu'à 500B.
7 janv. 2026