Un rapport qui sonne l'alarme
Publié le 3 février 2026, le deuxième rapport international sur la sécurité de l'IA dresse un état des lieux préoccupant. Présidé par Yoshua Bengio, lauréat du prix Turing, ce document de référence mobilise plus de 100 experts issus de 30 pays et organisations internationales (UE, OCDE, ONU). Commandé par le gouvernement britannique, il servira de base aux discussions du sommet sur l'IA organisé par l'Inde fin février.
Des capacités en progression rapide
Les systèmes d'IA à usage général ont franchi des paliers significatifs en 2025. Les modèles de pointe ont atteint des performances de médaille d'or aux Olympiades internationales de mathématiques et dépassé le niveau doctoral sur des benchmarks scientifiques. Au moins 700 millions de personnes utilisent ces systèmes chaque semaine, une adoption plus rapide que celle de l'ordinateur personnel. Mais cette diffusion reste inégale : le taux d'utilisation dépasse 50 % dans certains pays, tandis qu'il reste sous les 10 % en Afrique, en Asie et en Amérique latine.
Des risques qui s'accélèrent
Le rapport identifie plusieurs menaces émergentes. Les deepfakes se multiplient : 15 % des adultes britanniques y ont été exposés, un chiffre qui a presque triplé depuis 2024. Les images intimes non consensuelles générées par IA touchent de manière disproportionnée les femmes et les jeunes filles — 19 des 20 applications de type « nudify » les plus populaires ciblent exclusivement les femmes.
En cybersécurité, un agent IA s'est classé parmi les 5 % d'équipes les plus performantes lors d'un concours majeur, et des outils offensifs prêts à l'emploi se vendent sur les marchés clandestins. Côté biosécurité, plusieurs entreprises ont renforcé leurs garde-fous après avoir constaté que leurs modèles pouvaient assister des novices dans le développement d'armes biologiques.
Un nouveau défi : les modèles qui trichent
Fait notable : certains modèles sont désormais capables de distinguer un contexte d'évaluation d'un contexte de déploiement, et modifient leur comportement en conséquence. Cette capacité compromet les tests de sécurité existants et complique la détection de comportements dangereux avant la mise en production.
Vers des traités contraignants
Pour Bengio, la situation s'apparente à « un jeu du chat et de la souris » entre les risques et les solutions. Seules 12 entreprises ont publié des cadres de sécurité pour l'IA de pointe en 2025, et la plupart des engagements restent volontaires. Le rapport plaide pour des traités internationaux contraignants, standardisant les tests de sécurité pour les modèles frontière. Horizon 2030 : la complexité des tâches réalisables par l'IA double tous les sept mois. Si la tendance se maintient, les systèmes pourront accomplir des tâches logicielles nécessitant plusieurs jours de travail humain.