EN UN COUP D’OEIL
- Les plateformes abandonnent : Meta et Google réduisent leur modération, ouvrant la voie à une prolifération incontrôlée des infox.
- L’IA, levier de manipulation : L’essor des contenus générés par IA menace la capacité des médias à démêler le vrai du faux.
- Réapprendre à s’informer : Former dès le plus jeune âge aux bons réflexes pour naviguer un paysage médiatique saturé et incertain.
Face au désengagement inquiétant de Meta dans la lutte contre la désinformation et à l'explosion des contenus générés par l'IA, Chine Labbe, Rédactrice en chef et SVP Partenariats, Europe et Canada pour Newsguard, alerte sur les risques grandissants de manipulation et plaide pour des solutions concrètes.
Gerald Holubowicz : Avec les annonces en début d’année de Meta et Google concernant l’arrêt du fact-checking et l’évolution de leur politique de modération, quelle est votre analyse de la situation en ce début 2025 ?
Chine Labbe : Ces annonces sont inquiétantes et ne vont clairement pas dans la bonne direction. Chez NewsGuard, nous produisons deux bases de données, dont l’une recense les principales infox qui circulent en ligne. Cette base de données montre bien qu’il y a énormément de récits de propagande russe, chinoise et iranienne qui circulent déjà largement sur les plateformes comme Instagram et Facebook. Ces réseaux sociaux hébergent également de la désinformation ainsi que des informations dangereuses sur la santé.
Avec l’annonce de Mark Zuckerberg qui s’applique à toutes les plateformes du groupe Meta, les vannes risquent de s’ouvrir encore davantage. Le risque est que les équipes de modération maîtrisent encore moins ce flux de fausses infos, et que cela rende le travail des acteurs malveillants, notamment des propagandistes de Moscou pour ne citer qu’un exemple, beaucoup plus facile dans la diffusion et l’amplification de leurs récits.
Le problème également avec cette décision, c’est que cela donne l’impression qu’on devrait globalement réduire nos efforts face à la désinformation. C’est une idée complètement absurde puisqu’aujourd’hui, c’est précisément la désinformation qu’il faut maîtriser, pas nos actions contre elle.
Autre point important, je pense qu’il faut donner du contexte aux informations et c’est ce que fait le fact-checking. Il ne faut pas laisser penser que le fact-checking, qui apporte un supplément d’information, est de la censure – ce n’est pas raisonnable.
Cela dit, il faut aussi reconnaître que les programmes existants, comme celui de Meta, n’étaient pas parfaits. Nous avons d’ailleurs publié un rapport qui montre, en se concentrant sur la désinformation d’État, que le programme n’était pas optimal. Le programme de fact-checking de Meta a été mis en place en 2016 suite à des pressions politiques, et aujourd’hui, son arrêt résulte également de pressions politiques venant simplement d’une direction différente.
Gerald Holubowicz: À propos de l’efficacité des notes communautaires sur les plateformes comme X, quel est votre constat ?
Chine Labbe: Meta a annoncé qu’ils allaient mettre en place des notes communautaires similaires à celles qu’on trouve sur X. Pour évaluer l’efficacité de ce type de système, nous aurions besoin de davantage d’études et de données (NDLR: la London School of Economics offre un premier regard sur le dispositif), mais nous avons déjà pu faire quelques observations préliminaires qui sont préoccupantes.
En octobre 2023, juste après l’attaque d’Israël par le Hamas, nous avons réalisé une étude sur la désinformation circulant sur X pendant la semaine qui a suivi l’attaque du 7 octobre. À l’origine, nous voulions identifier les profils qui relayaient de fausses informations et déterminer quel pourcentage d’entre eux possédait la fameuse certification (coche bleue).
Un autre point tout aussi révélateur est apparu: sur 250 posts diffusant de la désinformation sur ce conflit, seulement 79 avaient reçu une note de la communauté, soit à peine 32% des contenus problématiques. Bien qu’il s’agisse d’un échantillon limité qui nécessiterait d’être complété par d’autres analyses, cela suggère déjà que le fact-checking communautaire n’est malheureusement pas très efficace, ou en tout cas nettement insuffisant face à l’ampleur du problème.
C’est particulièrement inquiétant alors que Meta s’oriente vers ce type de solution qui semble déjà montrer ses limites sur d’autres plateformes.
Le fact-checking seul ne nous prépare pas pleinement à l’afflux de ces contenus générés par l’IA.
Gerald Holubowicz : Quelle est votre analyse de l’explosion des contenus générés par l’IA dans le contexte actuel de désinformation ?
Chine Labbe : L’explosion des contenus générés par l’IA va clairement rendre l’écosystème encore plus complexe à naviguer. Deux points importants à souligner :
Premièrement, le fact-checking seul ne nous prépare pas pleinement à l’afflux de ces contenus générés par l’IA. Nous sommes déjà confrontés à une évolution tellement rapide de la technologie derrière les deepfakes que les fact-checkers ont souvent beaucoup de mal à analyser avec précision si quelque chose est un deepfake ou non. Nous nous appuyons sur des experts et des outils qui ne sont pas non plus satisfaisants à 100%. Le fact-checking seul est donc insuffisant face à ce défi.
Deuxièmement, le problème ne se limite pas à l’IA. Aujourd’hui, beaucoup d’informations virales et dangereuses qui circulent massivement s’appuient sur des techniques artisanales, du “bricolage” qui ne nécessite pas d’IA sophistiquée. Par exemple, pendant les feux en Californie du Sud, une information russe circulait prétendant que neuf villas appartenant à des hauts responsables de l’armée ukrainienne avaient brûlé à Los Angeles, pour une valeur totale de 80 millions de dollars. C’était une variation d’un récit bien connu suggérant que les hauts représentants ukrainiens détournent l’aide occidentale pour s’acheter des produits de luxe. Cette désinformation s’appuyait simplement sur une vidéo de 30 secondes montrant les incendies, avec un texte explicatif et le logo d’une télévision ukrainienne pour donner de la crédibilité.
Le fact-checking seul n’est déjà pas suffisant face au flux de fausses informations que nous voyons aujourd’hui, sans même parler de l’IA générative. Si on considère le volume de fausses informations et leur qualité croissante combiné à une technologie qui va dépasser notre compréhension, à un moment le fact-checking ne suffira plus. Cela nous oblige à repenser nos approches.
Gerald Holubowicz : Comment percevez-vous la menace des sites générés par l’IA pour la presse traditionnelle ?
Chine Labbe : Chez NewsGuard, nous suivons depuis presque deux ans ce que nous appelons les “unreliable AI-generated news sites”, c’est à dire des sites d’information non-fiables générés par l’IA (NDLR: ces sites sont aussi connus sous le nom de Slop ) . Ce sont des sites qui diffusent de l’information principalement ou intégralement générée par l’IA sans aucune ou quasiment aucune supervision humaine. On y trouve souvent des messages d’erreur qui indiquent clairement l’absence de vérification humaine.
Actuellement, nous avons recensé 1250 de ces sites. Pour faire simple, ce sont des fermes de contenu créées généralement pour apparaître en tête des résultats de recherche, générer du trafic et des revenus publicitaires. Ils arrivent parfois à surpasser les sites d’information de qualité dans les moteurs de recherche, parfois même en plagiant leur contenu via des résumés pour se positionner en premier dans les résultats.
De façon générale, le risque que soulèvent ces sites est que même lorsqu’ils résument des articles de sources crédibles, ils peuvent ajouter des erreurs, des “hallucinations”, et ce, même si on leur demande simplement de résumer des articles de l’AFP qui sont de qualité.
Pour simplifier, il existe deux types de sites. Le premier, représentant environ la moitié des sites que nous avons recensés, existe uniquement pour générer des revenus publicitaires. Un exemple frappant est “L’Observatoire de l’Europe”, un site qui traduit en français des articles rédigés en anglais sur Euronews quelques secondes après leur publication, sans aucune mention d’Euronews, présentant le contenu comme le sien avec la signature d’un journaliste dont l’existence semble douteuse. Nous avons publié une newsletter sur ce site en mars 2024, et 1 an plus tard, il continue de gagner de l’argent grâce à des publicités programmatiques tout en recyclant des articles d’Euronews sans autorisation ni attribution.
Le principal levier d’action contre ces sites est de couper leur financement par la publicité programmatique, en convaincant les annonceurs de les exclure de leurs listes et de rediriger leurs investissements vers des sites d’actualité de qualité.
La seconde catégorie, plus difficile à combattre, comprend les sites sans publicité qui existent pour des raisons idéologiques, notamment la propagande. Par exemple, nous avons démasqué un réseau de 171 sites créés grâce à l’IA par un ancien shérif de Floride devenu propagandiste du Kremlin, qui se faisaient passer pour des sites d’actualité locale aux États-Unis. Ces sites reprenaient les contenus les plus polarisants des médias américains et servaient occasionnellement de rampes de lancement pour des récits faux alignés sur la position du Kremlin.
Il faut replacer la question de l’information au cœur de l’éducation, dès le plus jeune âge.
Gerald Holubowicz : Comment les citoyens peuvent-ils s’armer pour mieux discerner les sources fiables dans ce contexte de défiance envers les médias ?
Chine Labbe : Il faut aider les citoyens à développer ce réflexe, et ce, dès le plus jeune âge. Contrairement à l’époque pré-numérique où il y avait un nombre limité de journaux dans les kiosques, aujourd’hui nous sommes confrontés à des milliers de sites internet, et la question de la fiabilité des sources se pose différemment.
Je pense qu’il faut replacer la question de l’information au cœur de l’éducation, dès le plus jeune âge. Et puis, tout au long de la scolarité, il ne s’agit pas seulement de faire de “l’éducation aux médias”, mais d’inclure ce questionnement sur l’importance des sources. J’ai personnellement animé un atelier dans la classe de CP de mon fils il y a quelques années, et même à cet âge, il y a de nombreuses façons de susciter ces questionnements et de sensibiliser au risque de la rumeur, à l’importance de vérifier qui a dit quoi.
Avec l’avènement de l’IA générative, la question de la confiance qu’on accorde à un texte selon sa provenance devient encore plus cruciale. Pour faire comprendre l’importance de l’émetteur, la question de la propagande est particulièrement parlante, car personne ne souhaite en être victime.
Il ne s’agit pas de faire de tous nos enfants des fact-checkers, mais de leur donner les clés pour se poser les bonnes questions et adopter les bons réflexes, comme faire une pause avant de partager une information. La lecture latérale est aussi essentielle : face à une information, vérifier si d’autres sources la rapportent de la même façon, et si personne d’autre ne la mentionne, se demander pourquoi.
Il est crucial de faire comprendre la vertu du doute méthodique, comme l’appelle Gérald Bronner, sans pour autant créer une génération de sceptiques qui remettent tout en cause et ne croient en rien. En encourageant ce questionnement, nous devons aussi fournir des repères pour croire en la science, comprendre la démarche scientifique rigoureuse et savoir la distinguer des vendeurs de remèdes douteux.
D’ailleurs, cette éducation ne doit pas se limiter aux enfants et à l’école. Nous devons réfléchir à d’autres lieux où investir dans l’éducation aux médias et à l’information, car cela concerne tous les âges. Chez NewsGuard, nous offrons notre extension de navigateur gratuitement dans les bibliothèques pour toucher un public plus large. Mais quels autres lieux devrions-nous investir ? Les associations de quartier, les centres sportifs, les entreprises ?
Parallèlement à cette éducation, il faut aussi offrir des outils pour aider les citoyens à naviguer dans un environnement informationnel de plus en plus complexe. C’est ce que nous faisons chez NewsGuard avec notre extension de navigateur qui fournit des analyses détaillées des sources, laissant ensuite à chacun la liberté de s’y référer ou non. D’autres initiatives existent, comme des jeux vidéo sur l’esprit critique, ou la Journalism Trust Initiative de Reporters Sans Frontières. Il est essentiel de faire connaître tous ces outils et de les rendre accessibles au plus grand nombre.
Gerald Holubowicz : Face à tous ces défis, voyez-vous des pratiques émergentes ou des modèles qui pourraient donner de l’espoir dans ce paysage médiatique en mutation ?
Chine Labbe : Il existe de nombreux réseaux sociaux émergents qui se construisent sur la promesse de la qualité et de la fiabilité de l’information et des échanges. Pour l’instant, ils n’arrivent pas à concurrencer les géants du secteur, mais cela donne quand même de l’espoir. Nous suivons ces développements de près chez NewsGuard et avons été intégrés dans certaines de ces plateformes émergentes.
Avec l’arrivée des contenus générés par l’IA et les inquiétudes qu’ils suscitent chez les médias, on voit aussi apparaître de nombreuses initiatives de labellisation des contenus. Au départ, il s’agit d’affirmer la propriété d’un contenu, mais elles pourraient évoluer vers un système de label plus large, indiquant non seulement qu’un contenu appartient à son auteur, mais aussi qu’il n’a pas été modifié et qu’il est crédible car émanant d’un média qui respecte certaines chartes.
C’est une évolution positive : face à l’IA qui nous inquiète, nous ne pourrons pas contenir tous les contenus générés, mais nous pouvons clairement identifier les contenus fiables. Il y a un vrai potentiel pour ce type de solution et encore de nombreuses personnes à convaincre que c’est une voie d’action intéressante pour l’avenir.
Bien sûr, un processus de labellisation volontaire n’a de valeur que s’il est largement adopté et crédible. Le grand enjeu c’est donc que chacun se demande où placer sa confiance et de faire ce choix en connaissance de cause. C’est un chantier majeur pour nous tous : médias, éducateurs et citoyens.