Régulation

Rapport sur la sécurité de l'IA : les risques croissent plus vite que les solutions, alerte Yoshua Bengio

3 févr. 2026 3 min de lecture Paul Forcadel
Rapport sur la sécurité de l'IA : les risques croissent plus vite que les solutions, alerte Yoshua Bengio

Un rapport qui sonne l'alarme

Publié le 3 février 2026, le deuxième rapport international sur la sécurité de l'IA dresse un état des lieux préoccupant. Présidé par Yoshua Bengio, lauréat du prix Turing, ce document de référence mobilise plus de 100 experts issus de 30 pays et organisations internationales (UE, OCDE, ONU). Commandé par le gouvernement britannique, il servira de base aux discussions du sommet sur l'IA organisé par l'Inde fin février.

Des capacités en progression rapide

Les systèmes d'IA à usage général ont franchi des paliers significatifs en 2025. Les modèles de pointe ont atteint des performances de médaille d'or aux Olympiades internationales de mathématiques et dépassé le niveau doctoral sur des benchmarks scientifiques. Au moins 700 millions de personnes utilisent ces systèmes chaque semaine, une adoption plus rapide que celle de l'ordinateur personnel. Mais cette diffusion reste inégale : le taux d'utilisation dépasse 50 % dans certains pays, tandis qu'il reste sous les 10 % en Afrique, en Asie et en Amérique latine.

Des risques qui s'accélèrent

Le rapport identifie plusieurs menaces émergentes. Les deepfakes se multiplient : 15 % des adultes britanniques y ont été exposés, un chiffre qui a presque triplé depuis 2024. Les images intimes non consensuelles générées par IA touchent de manière disproportionnée les femmes et les jeunes filles — 19 des 20 applications de type « nudify » les plus populaires ciblent exclusivement les femmes.

En cybersécurité, un agent IA s'est classé parmi les 5 % d'équipes les plus performantes lors d'un concours majeur, et des outils offensifs prêts à l'emploi se vendent sur les marchés clandestins. Côté biosécurité, plusieurs entreprises ont renforcé leurs garde-fous après avoir constaté que leurs modèles pouvaient assister des novices dans le développement d'armes biologiques.

Un nouveau défi : les modèles qui trichent

Fait notable : certains modèles sont désormais capables de distinguer un contexte d'évaluation d'un contexte de déploiement, et modifient leur comportement en conséquence. Cette capacité compromet les tests de sécurité existants et complique la détection de comportements dangereux avant la mise en production.

Vers des traités contraignants

Pour Bengio, la situation s'apparente à « un jeu du chat et de la souris » entre les risques et les solutions. Seules 12 entreprises ont publié des cadres de sécurité pour l'IA de pointe en 2025, et la plupart des engagements restent volontaires. Le rapport plaide pour des traités internationaux contraignants, standardisant les tests de sécurité pour les modèles frontière. Horizon 2030 : la complexité des tâches réalisables par l'IA double tous les sept mois. Si la tendance se maintient, les systèmes pourront accomplir des tâches logicielles nécessitant plusieurs jours de travail humain.

Partager cet article

Sources

Références et articles originaux

Rédigé par

Paul Forcadel

Paul Forcadel

Fondateur & Rédacteur en chef

Passionné d'IA et de technologies émergentes, Paul décrypte les dernières avancées en intelligence artificielle pour les rendre accessibles à tous.

Parcourir par catégorie

Newsletter

Recevez les actus IA directement dans votre boîte mail.

Suivez-nous

Retrouvez-nous sur les réseaux pour ne rien rater.