Le 18 mars 2026, le gouvernement britannique doit publier deux rapports sur l'intelligence artificielle et le droit d'auteur, conformément au Data (Use and Access) Act 2025. Ces documents devront trancher une question qui divise l'industrie tech et les créateurs : dans quelles conditions les modèles IA peuvent-ils être entraînés sur des œuvres protégées ?
Deux rapports, deux questions clés
Le premier rapport porte sur l'équilibre entre les droits des développeurs IA et ceux des titulaires de droits pour l'entraînement des modèles. Le gouvernement doit notamment se prononcer sur l'extension de l'exception de fouille de texte et de données (text and data mining) et sur un éventuel mécanisme d'opt-out pour les ayants droit.
Le second rapport concerne la protection par le copyright des œuvres générées par IA au Royaume-Uni — une question sans réponse claire dans la plupart des juridictions.
Getty vs Stability AI en toile de fond
Les rapports arrivent dans un contexte juridique tendu. La Cour d'appel britannique doit examiner en 2026 l'appel de Getty Images contre Stability AI pour violation secondaire du droit d'auteur. Le cas test pourrait définir si l'entraînement sur des images protégées constitue une infraction, y compris pour les modèles entraînés à l'étranger.
Les rapports devront aussi aborder la question de la responsabilité lorsqu'un modèle IA produit un contenu qui ressemble à une œuvre existante, et le contrôle des individus sur l'utilisation de leur image par l'IA.
Un débat mondial
Le Royaume-Uni n'est pas isolé. La Commission européenne consulte sur les protocoles de réservation de droits face à la fouille de données. L'Allemagne et la France attendent des décisions judiciaires sur le copyright IA en 2026-2027. Aux États-Unis, le NO FAKES Act et la décision de la Cour suprême refusant le copyright aux œuvres générées par IA dessinent un paysage fragmenté.
La position britannique post-Brexit pourrait devenir un modèle — ou un contre-exemple — pour le reste du monde.