Garder un oeil critique sur la tech

Et si on parlait de pouvoir plutôt que d’intelligence ?

Tous les jours, j’ai la sensation de me réveiller et de vivre la même journée au pays des débats sur la régulation des IA. Sauf que contrairement à Bill Murray dans « le jour sans fin », il n’y a que les débats qui font du surplace, les conséquences dramatiques d’elles, s’accumulent. Et ça continuera d’être le cas tant que nous continuerons de nous tromper de sujet.  


L’évocation du terme « intelligence artificielle » semble déclencher au sein de notre espèce un réflexe défensif violent, comme si une partie de nos représentants se mettait dès lors à brandir des pancartes : « Les “sapiens”, c’est nous ! ». Je ne m’explique pas autrement les crispations autour des débats sur la nature de l’intelligence et l’atteinte ou non atteinte de ce « niveau » par les IAs. Afin de défendre la Bastille humaine, certains en viennent alors à prendre des positions intenables.  Ainsi Raphaël Enthoven 1, rapidement à court d’arguments face à quelqu’un qui a sérieusement étudié la question, invoque un « je-ne-sais-quoi » pour justifier l’unicité de l’intelligence humaine. Ironiquement, une des conclusions découlant de l’écoute des développements vaporeux d’Enthoven, c’est précisément que ceux des LLMs (Large Language Model comme GPT) actuels semblent limpides et bien construits en comparaison.  


Pour ne pas tomber à bras raccourcis dans cette confusion, il nous suffirait pourtant de réécouter ce que répondait Richard Feynman il y a déjà 40 ans quand on lui demandait « s’il y aurait un jour des machines pensantes et intelligentes ». Sa réponse, donnée à une époque où des joueurs d’échecs amateurs pouvaient encore battre le meilleur logiciel d’échec, reste totalement valide alors que les LLMs viennent de définitivement passer le test de Turing : « Les avions ne volent pas comme des oiseaux, ils volent, mais pas comme des oiseaux, ils ne battent pas des ailes (…), c’est différent. Donc en ce sens, il est évident que les machines à venir ne penseront pas comme des humains. Pour l’intelligence, je pense que ce sera la même chose, elles ne feront pas de l’arithmétique comme nous la faisons, mais elles la feront mieux. »   


En voulant à tout prix défendre la magie de l’intelligence humaine, on en devient aveugle. En centrant le débat sur l’intelligence, on refuse de se poser les questions que devrait nous imposer le constat indiscutable suivant : les IAs confèrent aux organisations qui en ont la maîtrise un superpouvoir à un coût modéré 1. Ces superpouvoirs acquis par des entreprises ont d’ores et déjà des conséquences majeures sur nos sociétés et face à elles, le débat sur la nature intelligente ou non de ce superpouvoir est finalement accessoire…

Intéressons-nous à toutes les conséquences


Ne pas prendre ces superpouvoirs au sérieux, car ils ne correspondent pas précisément à l’image qu’on se fait de l’intelligence humaine est équivalent à se dire que des métiers à tisser non intelligents n’allaient pas impacter la société. 

On peut à la fois dénoncer la stratégie marketing des big Techs créant de la hype autour de leur produit 3 en les associant à l’intelligence (ou même pire à la “conscience”) tout en admettant que les récents développements impacteront la société, pour le meilleur et plus probablement pour le pire.

Ce n’est donc qu’une fois le débat posé en termes de « superpouvoir » acquis par certaines entreprises ou bien de « capacités » de logiciels à résoudre des tâches bien plus efficacement que ce que nous savions faire auparavant (et accessoirement bien mieux que la plupart des humains) qu’on pourra analyser ce qu’il se passe avec un minimum de recul. Alors seulement, on pourra commencer à s’intéresser aux conséquences et à faire de la politique. 

La première conséquence qui vient à l’esprit, c’est naturellement l’emploi. Effectivement, les IA génératives risquent d’avoir des conséquences dans de nombreux secteurs économiques 3. Dix minutes d’échange avec Gemini comparées avec votre dernier dialogue avec l’incarnation humaine du SAV du fabricant de votre machine à laver peuvent largement suffire à vous en convaincre. Mais nous focaliser uniquement sur cette question ne serait qu’une nouvelle déclinaison de notre peur, légitime, mais aveuglante, d’être remplacé sur notre dernier pré carré : les tâches cognitives auxquelles les humains s’adonnent. 

Le développement des technologies de l’information a bien d’autres conséquences que notre potentiel remplacement, la question politique qu’il pose est donc bien plus large. L’algorithme de recommandation de Tiktok n’est peut-être pas une entité intelligente stricto sensu et il n’a peut-être pas directement remplacés des humains, il n’en est pas moins un superpouvoir qui permet de capturer l’attention d’un milliard d’êtres humain tous les jours pendant plus d’une heure. Qu’importe si cet algorithme a un QI de 3 ou de 200. Les seules questions politiques qui vaillent sont : qui le contrôle, à quelles fins et pour quelles conséquences ? Comment nous assurer qu’il n’est pas utilisé à de mauvaises fins, voire soyons rêveurs, comment pourrait-il être mis au service de nos sociétés ? 

La même logique s’applique à tous les algorithmes de recommandation, à toutes les technologies de l’information et plus généralement à tous les nouveaux superpouvoirs pour lesquels nos sociétés n’ont aucune régulation. 

Être obnubilé par l’obsolescence de l’intelligence humaine en 2024 face aux récents développements technologiques, c’est comme se préoccuper de la potentielle disparition des usines de dynamite à l’arrivée des bombes nucléaires. 

À force d’avoir une vision anthropocentrée du débat, nous restons sur le banc. À force de vouloir être au centre du jeu, nous risquons finalement de mettre toute notre société hors jeu. Se poser les bonnes questions et y répondre est un enjeu existentiel pour la société humaine globalisée. Pour cela, les journalistes doivent réaliser l’importance de ces questions et arrêter, dès qu’il s’agit d’IA, de donner la parole au premier VRP des big techs venu. Gemini lui-même est plus mesuré que le techno optimiste naïf Yann Lecun lorsque ce dernier conclut un entretien à la contradiction non existante sur RTS par l’affirmation lunaire suivante  : « Amplifier l’intelligence humaine ne peut avoir que des résultats positifs ». 4 

Pour une fois, je préférerais qu’on écoute le LLM.

  1. Il est ici fait référence au Débat — Les limites de l’IA— ENTHOVEN vs M. PHI, La Tronche en Biais, octobre 2024 ↩︎
  2. La puissance des GAFAM. Jacques Fontanel, Natalia Sushcheva. Annuaire français de relations internationales , 2019, XX. ffhal-02196915 ↩︎
  3. Generative AI Hype Feels Inescapable. Tackle It Head On With Education, Wired, septembre 2024 ↩︎
  4. Which U.S. Workers Are More Exposed to AI on Their Jobs?, Pew Research Center, juillet 2023 ↩︎
  5. Entretien avec Yann Le Cun, patron de l’Intelligence artificielle chez Meta, RTS, 10 octobre 2024 ↩︎

Partager cet article
URL partageable
Lire la suite
Abonnez-vous à la newsletter
Gardez un oeil critique sur la tech !