Aller au contenu principal
Régulation

INESIA : feuille de route 2026-2027 pour sécuriser l'IA

12 févr. 2026 2 min de lecture Paul Forcadel
INESIA : feuille de route 2026-2027 pour sécuriser l'IA

La France se dote d'un cadre structuré pour évaluer les systèmes d'IA les plus avancés. L'INESIA (Institut national pour l'évaluation et la sécurité de l'IA), créé en 2025, vient de publier sa feuille de route 2026-2027 sous la tutelle conjointe de la Direction générale des Entreprises (DGE) et du Secrétariat général de la défense et de la sécurité nationale (SGDSN).

Un écosystème de quatre acteurs clés

L'INESIA réunit quatre organismes aux expertises complémentaires :

  • ANSSI — cybersécurité et certification
  • INRIA — recherche en sciences du numérique
  • LNE — métrologie et essais (évaluation des performances)
  • PEReN — expertise des plateformes numériques

L'ambition affichée : « doter la France d'une capacité souveraine d'évaluation des systèmes d'IA avancés, au service d'une innovation sûre et de la protection des citoyens. » Cette initiative répond aux engagements pris lors de la Déclaration de Séoul en mai 2024.

Trois axes stratégiques

1. Support à la régulation. L'INESIA développera des méthodes d'évaluation et des outils techniques pour les autorités en charge de l'AI Act. L'institut renforcera les capacités de détection des contenus synthétiques (lutte contre la désinformation) et contribuera à la certification cybersécurité des systèmes d'IA.

2. Risques systémiques. L'axe le plus prospectif : approfondir l'expertise nationale sur les risques que pourraient générer les IA les plus avancées. L'étude des systèmes agentiques — ces IA capables d'agir de manière autonome — est explicitement mentionnée comme priorité. Les résultats alimenteront le réseau international des AI Safety Institutes, aux côtés des homologues britannique (UK AISI) et américain (US AISI).

3. Performance et fiabilité. L'INESIA organisera des défis techniques pour stimuler l'innovation et la coopération entre acteurs publics et privés, dans un esprit d'émulation comparable aux benchmarks académiques.

Des travaux déjà en cours

L'institut n'est pas parti de zéro. Dès janvier 2025, Viginum et PEReN ont publié des résultats sur la détection de contenus synthétiques. En juillet 2025, INRIA, LNE et PEReN ont mené des tests conjoints sur des modèles d'IA avancés. L'ANSSI travaille parallèlement sur les méthodes d'évaluation de la cybersécurité de l'IA.

Avec l'INESIA et le guide AI Act de la FnTC publié la même semaine, la France accélère sur les deux fronts simultanément : structurer l'évaluation technique et organiser la conformité réglementaire.

Partager cet article

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Parcourir par catégorie