Open source
Modèles ouverts, librairies et outils communautaires.
Arcee AI Trinity : 30 personnes, 20 M$, un LLM 400B qui défie Llama 4
La startup américaine Arcee AI lance Trinity Large, un modèle 400B entraîné from scratch sur 2 048 GPUs B300 en 33 jours. Apache 2.0, 13B paramètres actifs, 512K de contexte.
28 janv. 2026
Hugging Face Datasets dépasse 780 000 jeux de données
La bibliothèque datasets 4.5.0 introduit le support Lance et NIFTI, tandis que le Hub franchit un cap historique.
21 janv. 2026
vLLM 0.14 : 2 200 tokens/s par GPU H200 avec Wide-EP
Le moteur d'inférence open source atteint des performances record grâce à PagedAttention et au nouveau moteur V1.
20 janv. 2026
LangChain et LangGraph atteignent la v1.0 stable
Après 3 ans de développement, les frameworks d'orchestration d'agents s'engagent sur la stabilité jusqu'à la v2.0.
19 janv. 2026
Fine-tuning local avec Unsloth + Ollama : le guide complet
Entraînez vos propres LLM avec seulement 3 Go de VRAM et déployez-les localement via Ollama.
18 janv. 2026
Vision mobile en 2026 : les bibliothèques et modèles pour l'inférence embarquée
De LiteRT à MobileSAM, tour d'horizon des outils pour déployer la vision par ordinateur sur smartphones et edge devices.
6 janv. 2026