Le 10 mars dernier, le Parlement européen adoptait une résolution sur l’IA générative et le droit d’auteur. Ambitieuse sur le papier et très (trop) prudente dans ses effets. Transparence des données d’entraînement, contrôle des éditeurs de presse, présomption de violation en l’absence de documentation : les intentions sont claires. Ce que la résolution ne fait pas l’est tout autant: aucune obligation contraignante, une Commission européenne à qui il revient de « clarifier », « évaluer », « proposer ». Entre volonté politique affichée et vide exécutif persistant, le texte dessine les contours d’un rapport de force que personne n’a encore tranché.
La résolution au barbare patronyme P10_TA(2026)0066 s’inscrit dans un contexte d’accélération industrielle de l’intelligence artificielle que le droit européen peine à anticiper. Depuis le déploiement massif des modèles de langage et de génération d’images, les industries culturelles et les créateurs eux-mêmes alertent les pouvoirs publics de la captation de leurs travaux. Leurs œuvres alimentent des systèmes à vocation commerciale sans que leurs auteurs n’aient consenti ni aient été rémunérés. Une entourloupe appuyée sur le principe anglo-saxon de fair-use qui permet à OpenAI, Google et les autres d’utiliser le contenu à des fins de recherche. Le Parlement européen, qui le reconnaît explicitement dans le texte, qualifie ces pratiques de « violations généralisées », de collecte non autorisée d’œuvres sur internet, d’exploitation de sources piratées, de non-respect systématique des mécanismes d’opposition. Des constats qui auraient pu appeler une réponse législative immédiate. Ce n’est pourtant hélas pas le chemin retenu.
Transparence exigée, violations documentées
La résolution formule des exigences précises. Tout fournisseur de modèle d’IA générative devrait documenter exhaustivement les œuvres protégées utilisées à des fins d’entraînement ou de génération augmentée par récupération ( ce qu’on désigne sous l’acronyme RAG et qui correspond à une technique qui permet à un système d’IA d’interroger des contenus en temps réel pour enrichir ses réponses). En l’absence de cette transparence, une présomption par défaut d’utilisation d’œuvres protégées s’appliquerait, avec transfert des frais de justice au fournisseur en cas de condamnation. Le mécanisme renverse donc la logique habituelle, toujours défavorable aux créateur·ices qui peinent à démontrer l’utilisation de leurs œuvres dans des boîtes noires algorithmiques.
Mais le texte lui-même documente l’écart entre cette ambition et la réalité. Le Code de bonnes pratiques pour l’IA à usage général, entré en vigueur le 2 août 2025 et salué pour ses orientations sur la documentation des datasets et les mécanismes de plainte, reste d’application volontaire. Tous les fournisseurs ne l’ont pas signé. Meta a refusé de signer l’ensemble du code et XAi a seulement accepté de signer le chapitre sécurité, laissant de côté le chapitre sur les droits d’auteur. Le Parlement reconnaît lui-même que les systèmes d’opt-out sont « souvent peu pratique », insuffisamment transparents, et qu’ils ne couvrent pas l’ensemble des actes d’exploration de textes et de données. La résolution appelle d’ailleurs à des formats standardisés lisibles par machine, éventuellement gérés par l’EUIPO (l’Office de l’Union européenne pour la propriété intellectuelle), sans fixer ni délai ni obligation d’adoption.
La presse, secteur-test d’un pillage légalisé
Le cas des médias d’information révèle avec une acuité particulière ce que la résolution peine à résoudre. Les contenus journalistiques figurent parmi les plus exploités par les systèmes d’IA générative, y compris, précise le texte, en temps réel, pour générer des synthèses d’actualité. Ces systèmes d’IA agrègent, reformulent, répondent à des requêtes d’information en substituant leur propre interface à celle des publications sources. L’audience se déplace vers les plateformes, les recettes publicitaires suivent, et les rédactions qui ont produit l’information se trouvent petit à petit privées de revenus et de moyens de subsister. Les droits voisins ont permis de collecter 21,4 millions d’euros en 2025 (portant le total à 56,3 millions sur trois ans) auprès de Google, Meta et Microsoft. Des montants pourtant insuffisants au regard de la dégradation de la valeur des contenus.
Le Parlement pose un principe sans ambiguïté : contrôle total des éditeurs et journalistes sur ces usages, et indemnisation équitable lorsque l’IA détourne leur audience et leurs recettes, avec une attention explicite aux médias locaux et régionaux, plus vulnérables à ces dynamiques de substitution. Les industries culturelles et créatives représentent environ 4 % de la valeur ajoutée européenne et près de 8 millions d’emplois, des chiffres que la résolution mobilise pour souligner l’enjeu économique systémique, au-delà de la seule question du droit individuel des créateur·ices.
Alors, comment sécuriser les rémunérations? En France, une loi renforçant les droits voisins a été adoptée par l’Assemblée nationale le 26 mars 2026, et une proposition sénatoriale instaurant une présomption d’utilisation, validée par le Conseil d’État le 23 mars dernier, pourrait renverser la charge de la preuve au détriment des fournisseurs d’IA. Ces avancées nationales restent cependant partielles : les mécanismes de rémunération collectifs à l’échelle européenne, et l’indemnisation des usages passés, n’ont toujours pas trouvé leur traduction législative.
Une feuille de route qui attend encore son auteur
La résolution du 10 mars ne crée aucune obligation nouvelle contraignante. Elle semble dessiner une feuille de route politique cohérente, articulée autour de quatre piliers : clarification du cadre de licences, transparence renforcée des données d’entraînement, protection effective du droit d’opt-out, rémunération équitable des titulaires de droits. Mais ces quatre piliers, dont la construction effective incombe à la Commission européenne, non pas encore trouvé de cadre législatif clair pour les transposer dans la réalité.
Le Code de bonnes pratiques lui-même est explicitement décrit dans la résolution comme « un outil temporaire », un document évolutif « non comme un acquis définitif ». Ce glissement sémantique n’est pas anodin : il acte que l’architecture réglementaire actuelle est provisoire, insuffisante, et que les pratiques qu’elle est censée encadrer la précèdent largement.
Dans ce contexte de domination croissante de quelques acteurs non-européens sur les marchés de l’IA générative, et alors que la jurisprudence sur les violations de droits d’auteur en matière d’entraînement de modèles reste contradictoire et qu’une décision harmonisatrice de la CJUE est attendue pour fin 2026, la résolution parlementaire fait figure d’état des lieux plus que d’outil d’action. Elle nomme les violations. Elle identifie les acteurs lésés. Elle formule les principes d’un rééquilibrage. Mais quand un texte aussi précis dans son diagnostic délègue entièrement sa mise en œuvre à des instances qui n’ont pas encore produit le cadre législatif correspondant, on est en droit de se demander si la reconnaissance politique d’un préjudice suffit à protéger ceux qui le subissent.
Soutenez Synth
CET ARTICLE EST DISPONIBLE POUR TOUTES ET TOUS
Face à la domination des GAFAM et de leurs algorithmes opaques, nous vous aidons à reprendre la main sur les récits technologiques qui façonnent notre quotidien.
En soutenant Synth, vous co-construisez une voix forte, libre et indépendante. Vous pouvez faire un don à partir de 1€
Contribuez dès aujourd’hui avec un don défiscalisé à 66 %.
Chaque euro compte, et un engagement mensuel multiplie l’impact.








