« Nous ne sommes plus seuls »
Quatre chercheurs de l'Université de Californie à San Diego ont publié début février 2026 un essai dans la section Comment de Nature. Leur conclusion est directe : « Pour la première fois dans l'histoire humaine, nous ne sommes plus seuls dans l'espace de l'intelligence générale. »
Les auteurs — Eddy Keming Chen (philosophie), Mikhail Belkin (IA et science des données), Leon Bergen (linguistique et informatique) et David Danks (science des données, philosophie et politique) — argumentent que les grands modèles de langage actuels constituent déjà une AGI selon des critères raisonnables.
Trois niveaux d'intelligence
Leur cadre d'évaluation repose sur trois paliers :
- Niveau Turing — Conversation crédible, littéracie de base. Franchi : GPT-4.5 a été jugé humain à 73 % lors d'un test de Turing en mars 2025, dépassant le taux des humains réels.
- Niveau Expert — Performance de niveau olympiade, résolution de problèmes de doctorat en sciences, maths, code, raisonnement créatif et pratique. Franchi par les modèles frontier actuels.
- Niveau Surhumain — Percées scientifiques révolutionnaires. Non atteint (peu d'humains y arrivent non plus).
Les LLM actuels satisfont les deux premiers niveaux. C'est suffisant pour parler d'intelligence générale, argumentent les auteurs.
Ce que l'AGI n'exige pas
Le cœur de l'essai déconstruit les objections classiques :
- « Les LLM hallucinent » — Les humains aussi ont des faux souvenirs et des biais cognitifs. L'erreur ne disqualifie pas l'intelligence.
- « Les LLM n'ont pas de corps » — Stephen Hawking avait des limitations physiques extrêmes sans que personne ne remette en question son intelligence.
- « Les LLM ne comprennent pas, ils recombinent » — Bergen admet : « Nous avons construit des systèmes très capables, mais nous ne comprenons pas pourquoi nous avons réussi. » Les mécanismes d'apprentissage diffèrent, mais ne sont pas invalides pour autant.
- « L'AGI doit être parfaite » — Chen : « Il y a un malentendu courant selon lequel l'AGI doit tout savoir, tout résoudre — mais aucun humain individuel ne peut faire ça. »
Un double standard
L'argument le plus percutant : nous inférons l'intelligence des autres humains à partir de leur comportement, de leur conversation et de leur résolution de problèmes — pas en regardant dans leur tête. Si on applique le même standard aux LLM, ils « dépassent même ce que nous exigeons des humains ».
Les demandes de fiabilité parfaite, d'apprentissage instantané et d'efficacité optimale sont des standards économiques, pas des standards d'intelligence.
Copernic, Darwin, et maintenant ?
Belkin établit un parallèle avec les révolutions copernicienne et darwinienne : à chaque fois, l'humanité a dû accepter de ne plus être au centre. Cette fois, c'est notre unicité cognitive qui est remise en question.
Mais le débat est loin d'être clos. 76 % des chercheurs en IA de premier plan estiment que les méthodes actuelles sont « peu susceptibles » ou « très peu susceptibles » d'atteindre l'AGI. Et la réponse la plus cinglante reste : si c'est de l'AGI, pourquoi ne peut-elle pas vider un lave-vaisselle ?