Aller au contenu principal

Open source

Modèles et outils ouverts

Nvidia Nemotron 3 : modèles open source pour l'IA agentique Open source

Nvidia Nemotron 3 : modèles open source pour l'IA agentique

Nvidia lance Nemotron 3, modèles open source hybrides Mamba-Transformer-MoE en trois tailles. Le Nano 30B affiche 4× le débit.

8 févr. 2026

Moondream : le modèle vision-langage de 2 Md qui bat GPT-5 Open source

Moondream : le modèle vision-langage de 2 Md qui bat GPT-5

Moondream 3.0 : modèle vision-langage de 9B paramètres (2B actifs), tourne sur un laptop en moins d'1 Go et bat des modèles 100× plus gros.

6 févr. 2026

OpenClaw : l'agent IA open source local qui buzze Open source

OpenClaw : l'agent IA open source local qui buzze

Un assistant IA autonome open source connecté à WhatsApp et Slack. Adoption virale et alertes de sécurité de Gartner.

3 févr. 2026

Arcee AI Trinity : 30 personnes, 20 M$, un LLM 400B qui défie Llama 4 Open source

Arcee AI Trinity : 30 personnes, 20 M$, un LLM 400B qui défie Llama 4

Arcee AI lance Trinity Large : 400B paramètres, 13B actifs, Apache 2.0. Entraîné from scratch sur 2 048 GPUs B300 en 33 jours.

28 janv. 2026

Hugging Face Datasets dépasse 780 000 jeux de données Open source

Hugging Face Datasets dépasse 780 000 jeux de données

La bibliothèque datasets 4.5.0 introduit le support Lance et NIFTI, tandis que le Hub franchit un cap historique.

21 janv. 2026

vLLM 0.14 : 2 200 tokens/s par GPU H200 avec Wide-EP Open source

vLLM 0.14 : 2 200 tokens/s par GPU H200 avec Wide-EP

Le moteur d'inférence open source atteint des performances record grâce à PagedAttention et au nouveau moteur V1.

20 janv. 2026

LangChain et LangGraph atteignent la v1.0 stable Open source

LangChain et LangGraph atteignent la v1.0 stable

Après 3 ans de développement, les frameworks d'orchestration d'agents s'engagent sur la stabilité jusqu'à la v2.0.

19 janv. 2026

Fine-tuning local avec Unsloth + Ollama : le guide complet Open source

Fine-tuning local avec Unsloth + Ollama : le guide complet

Entraînez vos propres LLM avec seulement 3 Go de VRAM et déployez-les localement via Ollama.

18 janv. 2026

Nvidia ouvre 10 000 Md de tokens et lance Nemotron 3 Open source

Nvidia ouvre 10 000 Md de tokens et lance Nemotron 3

Nvidia publie 10 trillions de tokens synthétiques et 500 000 trajectoires robotiques en open source, plus la famille Nemotron 3 jusqu'à 500B.

7 janv. 2026

Parcourir par catégorie