Garder un oeil critique sur la tech
Capture règlementaire

Capture règlementaire : le sport favori du cartel de l’IA

EN UN COUP D’OEIL

  • Big Tech à la manœuvre : Les géants de l’IA façonnent des régulations sur-mesure, s’imposant comme leurs propres régulateurs à l’échelle mondiale.
  • Lobbying et apocalypse : Entre discours catastrophistes et infiltrations politiques, l’IA devient un outil d’influence pour les GAFAM.
  • Europe sous influence : L’UE cède aux pressions, vidant l’AI Act de sa substance, au profit des intérêts américains et locaux.
À l’heure où la planète IA se réunit à Paris pour le sommet pour l’action sur l’Intelligence Artificielle, zoom sur le sport favori du cartel des Big Tech : la capture règlementaire ou l’art de devenir son propre régulateur afin de façonner un cadre à sa mesure. Le moins contraignant possible, il va sans dire.

Connaissez-vous l’art de la capture règlementaire ? Cette pratique consiste, pour un secteur économique, à devenir son propre régulateur afin de se mettre simultanément hors de portée de l’État et de la concurrence, en façonnant un cadre règlementaire à sa mesure. Il se trouve que le secteur de l’IA s’illustre en la matière. Profitons des discussions du sommet pour l’action sur l’IA de Paris pour faire le point sur le sport favori du cartel des Big Techs.

Royaume-Uni 2023 : XRisks, doomers et AI safety

Souvenez-vous, en mai 2023 : Sam Altman, le visage encore inconnu de ChatGPT, supplie presque le Sénat étasunien de réguler son secteur, avant d’entamer une tournée mondiale pour prévenir l’humanité des « risques existentiels » posés par l’IA (The Verge). Ce prisme apocalyptique commence alors à infecter les institutions. Tout particulièrement au Royaume-Uni, un pays qui planche début 2023 sur un cadre de régulation plutôt « pro-innovation » (Policy paper Gov.uk).

+ À la suite de ce signal, les tribunes apocalyptiques et les appels à la pause dans le développement de cette technologie se multiplient dans la presse (The Verge). Le ton est messianique : il faut encadrer le développement des machines pensantes hier, sans quoi l’humanité serait bientôt foutue. Le magazine TIME titre en Une : « La Fin de l’Humanité » (TIME). Un vent de panique souffle alors chez les régulateurs. Tout va trop vite, tout est trop complexe, personne ne comprend rien aux « machines pensantes ». Heureusement, Sam Altman et les géants de la Silicon Valley sont là pour nous sauver la mise en proposant d’eux-mêmes de calmer le jeu.

+ Novembre 2023, Bletchley Park, Royaume Uni. Le premier sommet AI Safety Summit réunit tous les grands noms de l’industrie. Rishi Sunak, premier ministre conservateur et fan autoproclamé de la Silicon Valley, s’entretient avec Elon Musk à propos de « risques existentiels » de l’IA. Ensemble, ils devisent sur l’apocalypse qui vient, dans une atmosphère générale dominée par les « doomers » (Bloomberg).

+ Bingo ! L’AI Safety Institute, un « centre de sécurité de l’IA » unique au monde, est créé dans la foulée. À sa tête : Ian Hogarth, capital-risqueur qui compte près de 50 startups d’IA dans son portfolio (dont Anthropic), et qui avertissait en avril 2023 des risques d’une « machine divine ». Son bras droit pour évaluer les différents modèles d’IA ? Jane Leung, responsable de la « gouvernance de l’IA » – comprendre du lobbying – chez OpenAI.

+ L’influence de ce think tank pro-IA est telle qu’en février 2024, le gouvernement britannique tranche. Les entreprises de l’IA sont autorisées à s’auto-réguler (Policy Paper Gov.uk). Depuis, on attend toujours le moindre texte de loi sur la question. Oubliés, les risques pour l’humanité. Première régulation désamorcée : check !

États-Unis : lobbying, dérégulation et réindustrialisation

Entre 2022 et 2023, le nombre de lobbies pro-IA à Washington D.C. a augmenté de 190 % La majorité (85%) des lobbyistes sont payés par l’industrie de la tech (Open Secrets). Plus de 569 millions de dollars sont dépensés les trois premiers trimestres 2023, avec un mot d’ordre : convaincre Washington de laisser les GAFAM s’autoréguler. Et ça marche.

+ Le premier embryon de « régulation », un executive order promulgué en octobre 2023 par Joe Biden, porte la marque de la RAND Corporation, un think tank libéral rallié à OpenAI et Anthropic (Politico). Le texte sur l’IA de l’administration Biden reprend des pans entiers de la déclaration de « bonne volonté » des acteurs de Big Tech reçus quelques mois plus tôt à la Maison-Blanche (AP News). Tout est sous contrôle.

+ En novembre 2023, les États-Unis se dotent à leur tour d’un « centre de sécurité de l’IA » : l’AI Safety Institute ou AISI. Cette structure est chargée d’évaluer et de réguler les systèmes commercialisés par la Silicon Valley. Il est hébergé au sein du National Institute for Science and Technology (NIST). Viellot et sous-doté, le laboratoire bénéficie alors des largesses de Microsoft et Amazon qui s’empressent alors d’y apporter une connexion Wifi et des donations de crédits cloud (Washington Post).

+ Pour gouverner ce nouveau « gendarme  de la Silicon Valley », le gouvernement nomme Paul Christiano, ancien d’OpenAI, bénéficiaire d’une bourse d’Anthropic et prophète de l’IApocalypse (Ars Technica). En février 2024, pour façonner les futures régulations de l’IA, l’AISI dévoile un «consortium » de 200 acteurs du secteur, où l’on retrouve la majorité des entreprises qui développent des systèmes algorithmiques (Politico).

+ En 2025, plus besoin de lobbying. Quelques heures après son intronisation, Donald Trump a révoque le décret et annonce un projet de data center à 500 milliards de dollars avec OpenAI et Microsoft. Dans l’Amérique de Trump, la capture réglementaire atteint son objectif : la Silicon Valley et la Maison-Blanche ne font plus qu’un. Signe de temps, le catastrophisme n’est plus de mise. L’atmosphère est désormais teinté de bellicisme anti-chinois, de souverainisme et d’appels à la réindustrialisation.

Europe : une masterclass d’infiltration des institutions

Le véritable chef-d’oeuvre de Big tech reste néanmoins son infiltration des institutions européennes. À l’été 2023, alors que le brouillon fraîchement adopté de l’« AI Act » européen dévoile une classification des systèmes « à haut risque », un vent de panique souffle chez les fabricants d’IA : aucun des logiciels de Big Tech n’est compatible avec les futures règles. L’heure du blitzkrieg a sonné.

+ Sam Altman, soudainement moins affable lorsque ses produits sont concernés, alterne entre la menace, débrancher ChatGPT si l’UE « sur-régule » (BBC) et la jérémiade, en expliquant qu’il est techniquement impossible d’obéir aux futures règles de transparence et de sécurité. Google propose à Thierry Breton un « AI Pact », sur le modèle de l’engagement volontaire passé avec Joe Biden (Tech Crunch).

+ Pendant la phase des « trilogues », les négociations à portes closes entre Commission, Parlement et Conseil de l’UE, Big Tech intensifie son lobbying. Cette année-là, 86 % des rencontres des membres de la Commission et 66 % des rencontres des parlementaires au sujet de l’IA ont lieu avec des entreprises des Gafam, qui dépensent parallèlement 113 millions d’euros en lobbying – dix fois plus que l’industrie automobile (Euronews).

+ Les PDG de Microsoft et Google, Brad Smith et Sunder Pichai, font le déplacement à Bruxelles pour remettre en mains propres leurs « recommandations » à la Commission, et notamment celle de laisser tomber l’obligation d’indiquer le copyright des textes et images utilisés pour entraîner les systèmes (Reuters ; Reuters). Meta dépose un document de 134 pages, en quatre colonnes, qui résume la position de chaque partie… et sa suggestion pour chaque article du texte.

+ En octobre, alors que le texte original a déjà perdu de sa puissance au profit d’un système de classification des risques par tiers (une idée venue de Google), la Silicon Valley reçoit l’aide des gouvernements français, allemand et italien, qui bloquent les négociations. L’Allemagne défend sa startup Aleph Alpha et la France défend Mistral AI – deux David européens dressés contre le Goliath américain – qu’il faudrait encourager à tout prix. Mistral compte parmi ses lobbyistes et ses actionnaires Cédric O, ancien secrétaire d’État au numérique d’Emmanuel Macron, alors conseiller du gouvernement sur… l’IA générative (La Lettre).

France : revolving doors, David sans Goliath

Dernier pays à bloquer l’avancée du texte, la France ne consentira à le ratifier qu’en février 2024, après que celui-ci ait perdu toutes ses dents lors de 36 heures de négociations en décembre 2023. Le seul logiciel assez puissant pour être concerné par les maigres obligations de transparence restantes, notamment un « code de conduite », est alors GPT4.

+ Cerise sur le gâteau : quelques semaines après, Mistral AI annonce un partenariat avec… Microsoft et décrit le cadre de régulation comme « tout à fait gérable ». La rhétorique du David contre Goliath a fait long feu (Observatoire des multinationales).

+ Logique : adieu respect du copyright des données, évaluation de l’impact environnemental, accès aux paramètres d’entraînement (les « poids ») du modèle par un évaluateur européen : grâce à cette stratégie du « cheval de Troie », OpenAI, Anthropic, Google, Microsoft ou Amazon ont pu s’offrir une régulation sur-mesure, ni vu ni connu (Corporate Europe).

En 2025, les « Sept Magnifiques » de la Silicon Valley peuvent continuent à blitz scaler en paix : la « douve » (une expression empruntée à Warren Buffet) qui les sépare du monde est plus profonde que jamais. Leur forteresse quasi-impénétrable.

Partager cet article
URL partageable
Lire la suite
Abonnez-vous à la newsletter
Gardez un oeil critique sur la tech !