Une coalition improbable
Le 4 mars 2026, le Future of Life Institute a publié la Pro-Human AI Declaration, signée par un groupe improbable : le pionnier de l'IA Yoshua Bengio, l'ancien conseiller de Trump Steve Bannon, l'ex-conseillère à la sécurité nationale de Biden Susan Rice, le milliardaire Richard Branson, le défenseur des consommateurs Ralph Nader et le Nobel d'économie Daron Acemoglu.
Plus de 40 organisations soutiennent la déclaration, des syndicats (AFL-CIO, American Federation of Teachers) aux groupes religieux (Congress of Christian Leaders). Les Big Tech ont été délibérément exclues du processus de rédaction.
Cinq piliers pour encadrer l'IA
1. Garder l'humain aux commandes — Interdire le développement de la superintelligence tant qu'il n'existe pas de consensus scientifique et d'adhésion publique. Boutons d'arrêt obligatoires, interdiction des systèmes auto-répliquants, supervision indépendante.
2. Empêcher la concentration du pouvoir — Pas de monopoles IA, partage des bénéfices économiques, approbation démocratique pour les transitions sociétales majeures.
3. Protéger l'expérience humaine — Tests de sécurité pré-déploiement pour les chatbots (sur le modèle des essais cliniques), protection des enfants contre la manipulation émotionnelle.
4. Agentivité et liberté — Pas de personnalité juridique pour l'IA, droit à la suppression des données d'entraînement, protection contre l'exploitation psychologique.
5. Responsabilité des développeurs — Responsabilité civile pour les défauts, sanctions pénales pour les systèmes ciblant les enfants, transparence obligatoire.
Un soutien populaire massif
Selon des sondages cités par la déclaration, 73 % des Américains soutiennent les mesures de protection des enfants, 72 % veulent la responsabilité des entreprises et 69 % approuvent l'interdiction de la superintelligence. Le ratio en faveur du contrôle humain par rapport à la vitesse de développement est de 8 contre 1.
Des questions ouvertes
La déclaration relance le débat ouvert par la lettre de pause IA de 2023, largement ignorée. Les défis restent : comment définir la « superintelligence », comment traduire le « contrôle humain » en standards testables, et comment réguler sans consolider involontairement les monopoles existants.