Il y a un brin d’ironie dans le fait que Google, une des plus larges entreprises du numérique qui s’est rendu responsable des plus grosses bourdes réalisées avec l’IA, soit l’auteur d’un rapport sur les mauvaises utilisations de l’IA… et pourtant.
Cette étude publiée récemment par des chercheurs de Google DeepMind et Jigsaw révèle que l’intelligence artificielle générative trouve sa raison d’être principalement dans la manipulation de l’opinion publique et les escroqueries. Vol d’identité, amplification de fausses infos, falsification, création de faux-nez (des comptes permettant de se faire passer pour d’autres) ou utilisation de fausses images intimes (ou pornodivulgation), la liste s’allonge.
L’analyse de 200 cas d’abus entre janvier 2023 et mars 2024 montre donc que les tactiques les plus courantes impliquent l’usurpation d’identité et la fraude.
L’IA pour diviser et diffamer
Dans la majorité des cas, ces abus exploitent des fonctionnalités facilement accessibles au grand public et ne nécessitent pas d’expertise technique avancée. L’étude de Google souligne également que l’IA générative démocratise et amplifie des tactiques de manipulation préexistantes avec notamment près de 27 % des cas rapportés portant sur la manipulation de l’opinion publique. Là-dedans se nichent pour majeure partie les tentatives de désinformation, puis de diffamation, mais ce qui est intéressant c’est la nature des contenus produits et l’identité de ceux qui les produisent.
On retrouve donc dans ces contenus des images de décadence de paysages urbains, de pauvreté et de guerre, montrant le déclin des sociétés occidentales pour attiser les peurs et accroitre les divisions dans le débat démocratique entre celles et ceux qui ont une vision catastrophiste de la situation de leurs sociétés et les moins vulnérables à ces changements.
Les cas de diffamation visent avant tout les personnalités publiques, quelle que soit leur importance sur la scène publique en les mettant dans des positions compromettantes. Il s’agit notamment de personnalités politiques abusant de minorités ou tenant des propos violents à leur encontre.
L’amour du fric
L’autre cas d’usage identifié par Google porte sur l’extorsion d’argent par la fraude et le détournement de trafic pour promouvoir des services plus ou moins fictifs qui comptent pour 21 % des cas rapportés. Détournement d’identité de personnes connues pour promouvoir des services fantômes, extorsion au deep-porn, et content-farming (création de contenu automatisée pour alimenter un site), on ne manque décidément pas d’imagination.
Selon l’Internet Crime Complaint Center (IC3) du FBI, bien que les signalements de cybercriminalité aient diminué de 5 % pour s’établir à 800 944 en 2022, les pertes potentielles liées à ces crimes signalés ont dépassé 10,2 milliards de dollars pour l’année. C’est plus du double des pertes totales signalées en 2020.
Le National Cyber Security Center britannique indique d’ailleurs dans un récent rapport1 que “l’IA offrira principalement aux acteurs de la menace des capacités accrues en matière d’ingénierie sociale. L’IA générative (GenAI) peut déjà être utilisée pour permettre une interaction convaincante avec les victimes, y compris la création de documents de leurre, sans les erreurs de traduction, d’orthographe et de grammaire qui révèlent souvent l’hameçonnage. Il est fort probable que ce phénomène s’amplifie au cours des deux prochaines années, à mesure que les modèles évoluent et que l’adoption augmente.”
Paradoxe
On peut saluer le travail effectué qui informe sur l’usage de l’IA Générative et les chercheurs qui mettent en garde contre l’émergence de nouvelles formes d’abus « de bas niveaux » qui brouillent la frontière entre présentation authentique et tromperie, notamment dans la communication politique. Mais enfin, il y a un paradoxe évident, irréconciliable avec la réalité, de voir Google, principal acteur du secteur pointer du doigt des situations dont il est le direct contributeur. Le pyromane qui dénonce la mauvaise protection contre les dommages incendie en somme.
- “The near-term impact of AI on the cyber threat”, National Cyber Security Center, 2024 https://www.ncsc.gov.uk/report/impact-of-ai-on-cyber-threat ↩︎