Recherche

IA et neurosciences : les LLMs imitent les hiérarchies cérébrales

26 déc. 2025 3 min de lecture Paul Forcadel
IA et neurosciences : les LLMs imitent les hiérarchies cérébrales

Quand l'IA imite le cerveau

La convergence entre intelligence artificielle et neurosciences s'accélère. Des découvertes récentes révèlent des parallèles troublants entre le fonctionnement des LLMs et celui du cerveau humain.

Le "hub sémantique" : LLMs et cerveau même combat

Les neuroscientifiques du MIT ont fait une découverte majeure : les LLMs utilisent un mécanisme similaire au "hub sémantique" du lobe temporal antérieur humain. Ce hub intègre les informations sémantiques de différentes modalités.

Les chercheurs ont observé que les LLMs traitent les données multimodales de manière abstraite et centralisée — exactement comme le cerveau humain.

Hiérarchies d'extraction convergentes

Une étude publiée dans Nature Machine Intelligence montre que plus les LLMs progressent sur les benchmarks, plus ils deviennent "brain-like" :

  • Meilleure prédiction des réponses neurales
  • Alignement croissant avec les voies d'extraction hiérarchique du cerveau
  • Patterns similaires lors du traitement du langage

NSLLMs : l'efficacité du cerveau pour les LLMs

Le cerveau humain effectue des tâches complexes avec moins de 20 watts. Les chercheurs ont développé les NSLLMs (Neuromorphic Spike-based LLMs) pour s'en approcher :

Métrique Gain vs GPU A800
Efficacité énergétique 19,8×
Économie mémoire 21,3×
Débit d'inférence 2,2×

Le système consomme seulement 13,8 watts pour 161,8 tokens/seconde.

LLMs pour le diagnostic neurologique

Les LLMs révolutionnent l'interprétation des signaux EEG :

  • Moins de données nécessaires que les DNN traditionnels
  • Interprétabilité : génération de raisonnements intermédiaires
  • Multimodal : traitement simultané des patterns fréquentiels, spatiaux et temporels

Trois paradigmes émergent : apprentissage de représentations, analyse discriminative et analyse générative.

Impact cognitif des interactions LLM

L'EEG révèle comment les LLMs affectent notre cognition :

  • Theta frontal : augmente avec la charge mémoire de travail
  • Suppression alpha : signale l'engagement cognitif
  • Interfaces bien conçues réduisent la charge cognitive
  • Trop d'information déclenche une surcharge

Tensions fondamentales

Le domaine fait face à des questions ouvertes :

  1. Détail vs Abstraction : combien de détails biologiques sont nécessaires ?
  2. Cognition désincarnée : les LLMs ignorent l'intégration sensorimotrice
  3. Intelligence sociale : l'intelligence humaine émerge des structures sociales, pas des cerveaux isolés

Perspective

La convergence IA-neurosciences ouvre deux voies : des IA plus efficaces inspirées du cerveau, et une meilleure compréhension du cerveau grâce à l'IA. Le workshop NIH BRAIN NeuroAI 2024 a posé les jalons de cette symbiose.

Partager cet article

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Parcourir par catégorie

Newsletter

Recevez les actus IA directement dans votre boîte mail.

Suivez-nous

Retrouvez-nous sur les réseaux pour ne rien rater.