Toute l'actu IA, en un seul endroit
IA générative, recherche, open source, produits, business, régulation — votre veille quotidienne.
Dernières actualités
L'AGI est déjà là, selon quatre chercheurs dans Nature — et c'est notre définition de l'intelligence qui pose problème
Quatre chercheurs de l'UC San Diego publient dans Nature un essai affirmant que les LLM actuels constituent déjà une intelligence artificielle générale. GPT-4.5 a été jugé humain à 73 % lors d'un test de Turing. Leur argument : nous exigeons de l'IA des standards que nous n'appliquons pas aux humains.
7 févr. 2026
OpenAI débranche GPT-4o le 13 février : 6 modèles retirés, des procès et des utilisateurs en deuil
Le 13 février 2026, OpenAI retirera GPT-4o, GPT-4.1, GPT-5 Instant, GPT-5 Thinking et o4-mini de ChatGPT. Le modèle que 0,1 % des utilisateurs refusaient de quitter disparaît — emportant avec lui des liens que certains qualifiaient de « présence humaine ».
7 févr. 2026
IA et régulation : Trump, la Californie et l'UE en guerre ouverte
En janvier 2026, 38 États américains ont des lois IA actives. Trump signe un décret pour les écraser. La Californie et le Colorado refusent de plier. L'UE retarde son propre calendrier. Le chaos réglementaire de l'IA est officiellement installé.
6 févr. 2026
CES 2026 : l'IA physique débarque, 9 robots humanoïdes prêts à bosser
Au CES 2026, la robotique humanoïde passe du prototype à la production. Nvidia lance GR00T N1.6, Boston Dynamics présente Atlas en version industrielle avec DeepMind, et des robots à 25 000 $ arrivent sur le marché. L'ère de l'IA incarnée commence.
6 févr. 2026
DeepSeek V4 : le modèle coding open source à 1 000 milliards de paramètres arrive mi-février
DeepSeek prépare le lancement de V4 autour du 17 février 2026. Un modèle MoE d'un trillion de paramètres, taillé pour le code : contexte de 1 million de tokens, système de mémoire Engram, et performances revendiquées au-dessus de Claude Opus 4.5 et GPT-5.2 sur SWE-bench. Le tout prévu en open-weight, exécutable sur deux RTX 4090.
6 févr. 2026
Moondream : le modèle vision-langage de 2 milliards de paramètres qui bat GPT-5 sur certains benchmarks
Moondream 3.0, créé par une équipe de trois anciens d'AWS, utilise une architecture mixture-of-experts de 9 milliards de paramètres — dont seulement 2 milliards actifs. Résultat : il tourne sur un laptop, pèse moins d'un Go en version compacte, et surpasse des modèles 100 fois plus gros en détection d'objets et en compréhension visuelle.
6 févr. 2026
41 % du code est écrit par l'IA : Karpathy enterre le « vibe coding » et lance l'ère de l'ingénierie agentique
Un an après avoir inventé le terme « vibe coding », Andrej Karpathy le déclare obsolète. Le nouveau mot : « agentic engineering ». Le développeur n'écrit plus de code — il orchestre des agents qui le font. Microsoft, Google et Meta y sont déjà.
6 févr. 2026
GPT-5.3-Codex : le premier modèle d'OpenAI qui a participé à sa propre création
OpenAI lance GPT-5.3-Codex, un agent de développement autonome 25 % plus rapide que son prédécesseur. Record sur Terminal-Bench (77,3 %) et OSWorld (64,7 %, proche des 72 % humains). Particularité : c'est le premier modèle à avoir aidé à débugger son propre entraînement. Et le premier classé « High risk » en cybersécurité par OpenAI.
5 févr. 2026
Panasonic Advanced Auto Framing : l'IA embarquée qui cadre vos caméras PTZ
Panasonic déploie une solution d'auto-framing IA pour ses caméras PTZ broadcast. Détection de corps, reconnaissance faciale, zoom optique — sans GPU externe. Premier article de notre nouvelle catégorie Hardware.
5 févr. 2026
Aucun article trouvé pour ""