EN UN COUP D’OEIL
- IA et dérives pédopornographiques : Les images hyperréalistes d’enfants créées par IA inquiètent, avec des contenus circulant sur le dark web et les réseaux sociaux.
- Un cadre juridique insuffisant : En France, des lois existent mais peinent à s’adapter à ces nouvelles technologies, laissant une zone grise exploitée par les criminels.
- Vers une réponse internationale : La Fondation pour l’enfance appelle à une harmonisation européenne pour mieux lutter contre ces abus transfrontaliers.
Les images générées par intelligence artificielle (IA), à la frontière entre le réel et le virtuel, brouillent les lignes légales en matière de pédocriminalité. En France l’alerte est lancée par la Fondation pour l’enfance pour qui « beaucoup de ses photos et vidéos montrant des mineurs agressés et maltraités sont si réaliste qu’il est presque impossible de les distinguer d’images de vrais enfants. »
Les IA génératives, capables de créer des images hyperréalistes d’enfants à partir de simples prompts, ont trouvé un usage détourné inquiétant : la création de contenus pédopornographiques. Un rapport de la Fondation pour l’enfance 1, présenté au Sénat le 29 octobre, alerte sur l’ampleur de ce phénomène, tout en soulignant l’insuffisance du cadre législatif français pour lutter efficacement contre cette nouvelle menace numérique. Déjà en 2023, l’Internet Watch Foundation (IWF) rapportait une explosion de ces contenus sur les réseaux2 : près de 500 images générées utilisant le même visage d’une petite fille de 9 ans dans différents contextes explicitement sexuels.
Ce phénomène a également été relevé dans un article de Bloomberg 3, paru le 23 mai 2023. Il montre que ces nouvelles technologies sont aussi détournées pour inventer des contenus pédopornographiques, avec un réalisme parfois confondant. Si ce type de contenus générés artificiellement ne représentent pour l’heure qu’une infime partie des images détectées, la Fondation pour l’enfance, vient renforcer les alertes sur les dérives possibles de ces technologies.
« On a vu émerger des communautés dans lesquelles les cyber pédocriminels se lient les uns aux autres pour agrandir leur « collections ». Leurs espaces vont aussi bien de la chatrooms sur le dark web, au réseaux sociaux plus classique sur le clear web », constate Angèle Lefranc, chargée de plaidoyer à la Fondation de l’enfance. Dans ce contexte, la tendance à la déresponsabilisation est amplifiée par des arguments justifiant une distanciation entre l’enfant représenté et la personne qui l’a généré. D’après la Fondation de l’enfance, cela entretient les « distorsions cognitives qui légitiment les actes des pédocriminels, en plus de nier la violence dont ils sont auteurs. »
En France, un cadre législatif encore inadéquat
Si la modération des IA comme Chat GPT, DALL-E, Midjourney empêche en principe la création de contenus inappropriés par leurs conditions d’utilisation, les garde-fous techniques restent limités. Les modèles d’IA génératives en sources ouvertes, tels que Stable Diffusion, offrent peu de contrôle sur les requêtes des utilisateurs, laissant libre cours à des usages détournés. En France, la détention et la diffusion d’images pédopornographiques, y compris celles où le mineur est imaginaire est condamné par l’article 227-23 du code pénal 4 qui prévoit jusqu’à 5 ans de prison et 75 000 euros d’amende pour « l’image ou la représentation d’un mineur » lorsque celle-ci « présente un caractère pornographique ».
D’après Laurent Morlet, avocat pénaliste au barreau de Versailles, « cet article du code pénal s’applique dès que le personnage à l’aspect physique d’un mineur. Peu importe qu’il soit réel ou pas, que l’image soit photoréaliste ou pas : ce qui compte c’est la représentation. » Ce texte pourrait en principe s’appliquer aux contenus générés par IA, comme l’a rappelé une décision de la Cour de cassation en 2017, qui affirmait que « les images non réelles représentant un mineur imaginaire entrent dans le champ d’application » de cet article. Néanmoins, le manque de précision pour les contenus issus de l’IA pose un problème, laissant un flou juridique exploitable.
La Fondation pour l’enfance propose d’actualiser la sanction en punissant « le fait de concevoir, de créer, de diffuser ou de porter à la connaissance du public ou d’un tiers, par quelque voie que ce soit, tout montage, contenu visuel ou sonore à caractère sexuel généré par un traitement algorithmique », quand cela vise la représentation, l’image ou la parole d’un mineur. Le législateur pourrait ensuite déterminer la hauteur des sanctions attachées à ce délit. Le nouvel alinéa pourra renvoyer à un autre article du code pénal, le 226-8-1 5, qui vise à punir la publication d’un deepfake. La France, avec son cadre encore insuffisant, semble ainsi à la traîne par rapport à la vitesse de démocratisation des modèles d’IA génératices.
On ne peut pas traiter ces enjeux à l’échelle nationale
Depuis 2004 et l’adoption de la loi pour la confiance dans l’économie numérique, les hébergeurs de contenus doivent participer à la lutte contre la diffusion de contenus pédopornographiques, mais ces dispositions se heurtent à des limites pratiques. En cas de manquement, les plateformes risquent des sanctions pénales, mais les contenus sont souvent hébergés à l’étranger, échappant ainsi aux restrictions françaises. Cette situation rend d’autant plus complexe la traque et le retrait rapide des contenus incriminés.
La Fondation pour l’enfance suggère la création d’une infraction distincte pour incriminer spécifiquement les modèles d’IA conçus pour générer des contenus pédopornographiques. Selon elle, une mise en œuvre efficace des mesures de contrôle sur l’ensemble de la chaîne de production et de distribution nécessiterait d’importantes ressources humaines et financières. « On ne peut pas traiter ces enjeux à l’échelle nationale, c’est au niveau européen que la coopération policière et judiciaire peut être le plus opérant », estime Mathieu Guillermin, maître de conférence en philosophie et éthique du numérique à l’Université catholique de Lyon. « En Europe, une harmonisation des réglementations permettrait d’éviter les zones de non-droit numériques où les pédocriminels prolifèrent. Une législation européenne unifiée offrirait ainsi une réponse coordonnée, assurant un meilleur suivi des contenus à travers les frontières. »
Sur le vieux continent, des pays comme le Royaume-Uni et l’Allemagne commencent à renforcer leurs législations pour réprimer l’usage criminel de l’IA en matière de pédopornographie. Le cas de Hugh Nelson au Royaume-Uni, condamné à dix-huit ans de prison pour avoir créé des images pédopornographiques avec une intelligence artificielle 6, a ouvert la voie à une jurisprudence qui pourrait inspirer d’autres pays européens. Alors qu’à l’échelle de l’UE l’harmonisation des lois est un chantier en cours, des pays comme les États-Unis 78 et l’Australie ont déjà entrepris de définir des sanctions précises. En Asie, notamment au Japon et en Corée du Sud, la réglementation reste floue, bien que le sujet gagne en importance.
- La Fondation au Sénat pour présenter son dernier rapport sur l’IA et la pédocriminalité, Fondation pour l’enfance, 29 octobre 2024 ↩︎
- Public exposure to ‘chilling’ AI child sexual abuse images and videos increases, Internet Watch Foundation, 18 octobre 2024 ↩︎
- Predators Exploit AI Tools to Generate Images of Child Abuse, Bloomberg, 23 mai 2023 ↩︎
- Article 227-23 du code pénal: Le fait, en vue de sa diffusion, de fixer, d’enregistrer ou de transmettre l’image ou la représentation d’un mineur lorsque cette image ou cette représentation présente un caractère pornographique est puni de cinq ans d’emprisonnement et de 75 000 euros d’amende. ↩︎
- Article 226-8-1 : Est puni de deux ans d’emprisonnement et de 60 000 euros d’amende le fait de porter à la connaissance du public ou d’un tiers, par quelque voie que ce soit, un montage à caractère sexuel réalisé avec les paroles ou l’image d’une personne, sans son consentement. ↩︎
- Un homme condamné à 18 ans de prison pour avoir créé des images pédocriminelles, Next, 28 octobre 2024 ↩︎
- Child Sexual Abuse Material Created by Generative AI and Similar Online Tools is Illegal, FBI, 29 mars 2024 ↩︎
- The Naked Truth: AI Pornography Law, Gamma Law, 4 mars 2024 ↩︎