Le pari à 20 millions
Arcee AI, une startup de 30 personnes ayant levé moins de 50 millions de dollars, a engagé 20 M$ — presque la moitié de son capital — pour entraîner un LLM from scratch. Un pari risqué qui positionne Arcee comme l'un des rares acteurs américains à produire un modèle open source de cette envergure.
Trinity Large en chiffres
| Spec | Valeur |
|---|---|
| Paramètres totaux | 400B |
| Paramètres actifs | 13B (1,56 %) |
| Experts | 256, 4 actifs par token |
| Contexte | 512K tokens |
| Données | 17T tokens (dont 8T synthétiques) |
| GPUs | 2 048 NVIDIA B300 |
| Durée | 33 jours |
| Licence | Apache 2.0 |
L'architecture MoE permet d'avoir la "connaissance" d'un système massif tout en maintenant la vitesse d'inférence d'un modèle beaucoup plus petit — 2 à 3x plus rapide que ses pairs sur le même hardware.
Benchmarks vs Llama 4
| Benchmark | Trinity Large | Llama 4 Maverick |
|---|---|---|
| MMLU | 87,2 % | 85,5 % |
| AIME 2025 | 24,0 % | 19,3 % |
Trinity dépasse Llama 4 Maverick sur les benchmarks clés, et le modèle est en phase Preview — les performances finales devraient être supérieures.
Trois variantes
- Preview : post-entraîné, prêt pour le chat, non-reasoning
- Base : checkpoint complet après 17T tokens, meilleures performances
- TrueBase : checkpoint à 10T tokens sans instruction ni RLHF — pour la recherche
Pourquoi c'est important
Les modèles open source chinois ont capté 30 % de l'usage mondial en 2025 (contre 1,2 % fin 2024). Côté américain, seuls OpenAI (GPT-oss) et Arcee produisent actuellement des modèles open source entraînés entièrement from scratch.
Arcee critique la licence Meta de Llama : "Llama n'est pas véritablement open source, avec ses restrictions commerciales et d'usage." Trinity utilise Apache 2.0, sans aucune restriction.
Disponibilité
Gratuit en preview sur OpenRouter et chat.arcee.ai (jusqu'en février 2026 minimum). Poids disponibles sur Hugging Face.