Clarifier les enjeux du présent technologique

L’IA ne réforme pas les institutions démocratiques, elle les détruit

EN UN COUP D’OEIL

  • Neutralité contestée : deux juristes affirment que l’IA, par conception, fragilise les institutions démocratiques, même bien utilisée.
  • Trois “affordances” corrosives : atrophie de l’expertise, décisions morales court-circuitées, isolement social qui mine la contestation et la légitimité.
  • Des preuves déjà là : DOGE, FDA, tribunaux… des cas où l’IA marginalise l’humain et érode le capital social.
C'est l'argument massue des toutes les conversations entre techno-optimistes, l'Intelligence Artificielle n'est qu'un outil de plus dans une trousse déjà bien garnie. Vendue comme un instrument à la neutralité absolue, elle serait au service de celleux qui l'emploie. C'est l'idée que deux professeurs de droit de la Boston University, Woodrow Hartzog et Jessica Silbey, viennent de démolir dans un article publié en ce début d'année dans le UC Law Journal,« How AI Destroys Institutions » 1. 
Leur thèse : les systèmes d'IA sont, par conception, structurellement incompatibles avec la survie des institutions démocratiques. Pas en raison d'un mauvais usage. Par nature.

Pour comprendre pourquoi l’IA détruit les institutions, autant se rafraichir la mémoire précisément en se rappelant le rôle central et structurant que ces institutions ont dans nos sociétés. et ce que les machines ne peuvent pas reproduire. Et pour le dire rapidement, ces institutions – tant décriées en ce moment par nombre de néolibéraux, produisent de la légitimité, transmettent du savoir, permettent la contestation. Elles sont le tissu conjonctif de la vie démocratique qui l’anime et le maintien en vie.

Quand l’efficacité devient poison : les trois affordances destructrices

Dans leur papier, Hartzog et Silbey mobilisent notamment le concept d’« affordances », emprunté au monde du design et de l’ingénérie, pour désigner les propriétés structurelles d’un système qui orientent son usage, souvent à l’insu de ses utilisateurs. Ces affordances exercent trois effets corrosifs, comme une forme de poison que n’aurait pas renié Bernard Stiegler.

Premier effet, l’atrophie de l’expertise. En déléguant à une machine des tâches qui exigent du jugement, on se prive du processus même par lequel ces compétences se construisent. Une étude présentée à CHI 2025 2 documente la réduction de l’engagement cognitif chez les travailleurs du savoir utilisant des IA génératives. Les fameuses « hallucinations » qui ont fait beaucoup parler d’elles ne sont pas des bugs, OpenAI reconnaît d’ailleurs qu’elles sont mathématiquement inévitables, mais des erreurs fondamentalement coûteuses. Quand l’IA se trompe, les institutions paient le coût de la correction et quand elle « réussit », elles s’appauvrissent en expertise.

CET ARTICLE EST GRATUIT ET ACCESSIBLE À TOUTES ET TOUS
Engagez-vous avec nous, faites un don défiscalisé et faites vivre un média indépendant !

Deuxième effet identifié, le court-circuit décisionnel. L’IA automatise des choix fondamentalement moraux, aplatit les hiérarchies institutionnelles et rend invisibles les règles qui donnent leur sens aux institutions. Elle est par ailleurs incapable de prendre des risques intellectuels ni de faire montre d’une forme de désobéissance créatrice.

Enfin, troisième effet pernicieux, l’isolement. En substituant des interfaces algorithmiques flatteuses et passablement obséquieuses aux échanges humains, l’IA érode les liens interpersonnels. Et pourtant c’est bien cette friction qui est la condition même de l’adaptabilité institutionnelle.  Frontiers in Psychology 3 documente que la dépendance aux chatbots affecte durablement les capacités de socialisation.

DOGE, la FDA, les tribunaux : la démonstration par les faits

Le « couloir de la mort » des institutions n’est pas une métaphore prospective. Les exemples documentés s’accumulent.

Le plus emblématique reste DOGE, le fameux « Department of Government Efficiency » mis en place par Elon Musk. L’entité a utilisé l’IA pour surveiller les fonctionnaires fédéraux, cibler des populations immigrées et fusionner des bases de données intentionnellement séparées pour protéger les droits civiques. Selon Reuters,, ce déploiement s’est opéré sans cadre légal clair, l’expertise humaine y a été marginalisée et les rôles institutionnels de résistance, supprimés.

À la FDA, c’est le système d’IA « Elsa » qui a posé problème. Selon des témoignages de fonctionnaires relayés par Engadget en juillet 2025 4, il a halluciné des références à des études scientifiques qui – bien entendu – n’ont jamais existé. Dans les tribunaux, les algorithmes comme COMPAS promettent neutralité tout en reproduisant des biais raciaux documentés dès 2016 par ProPublica 5. Ces cas ne sont pas des accidents : ils manifestent, de façon prévisible, les affordances structurelles de l’IA appliquée à des décisions qui requièrent jugement humain, hiérarchie institutionnelle et possibilité de contestation.

Capital social en péril : ce que l’IA finit par emporter

Derrière la destruction des institutions concrètes se profile une perte plus diffuse : celle du capital social. Robert Putnam, dans Bowling Alone 6, avait montré comment le désengagement civique érode les réseaux de réciprocité nécessaires à toute vie collective. Sa thèse centrale : la confiance généralisée « je fais cela pour toi sans attendre de contrepartie immédiate » est le lubrifiant de la démocratie.

Or l’IA accélère brutalement ce déclin. Elle ne peut pas « payer en retour ». Elle déplace les occasions de connexion humaine vers des interfaces individualisées et réduit la tolérance à la friction sociale cet inconfort productif qui est la condition de l’apprentissage mutuel. Meta, OpenAI et d’autres investissent massivement dans des agents conversationnels émotionnels, repositionnés comme réponse à l’« épidémie de solitude » 7 8. Plus ces agents se substituent aux interactions du quotidien, moins les individus exercent les compétences civiques que requiert la démocratie.

Ce que Hartzog et Silbey laissent entrevoir en creux, c’est le scénario d’une oligarchie technologique progressivement substituée à la représentation démocratique. C’est une forme de glissement que la juriste Julie Cohen documente par ailleurs dans ses travaux sur la concentration des pouvoirs numériques 9. Ce n’est pas la première fois que cve type d’alarme est sonnée, mais si la thèse de Woodrow Hartzog et Jessica Silbey est juste, la question qui s’impose n’est plus « comment réguler l’IA ? » mais davantage que reste-t-il à réguler quand les institutions chargées de le faire ont déjà été vidées de l’intérieur ?

  1. How AI Destroys Institutions, Scholarly Commons at Boston University School of Law, 2026 ↩︎
  2. Conference of Human-Computer Interaction https://chi2025.acm.org/ ↩︎
  3. Impact of media dependence: how emotional interactions between users and chat robots affect human socialization?, Frontiers in Psychology, 2024 ↩︎
  4. FDA employees say the agency’s Elsa generative AI hallucinates entire studies, Engadget, 2025
    ↩︎
  5. Machine Bias, ProPublica, 2016 ↩︎
  6. Bowling Alone: The Collapse and Revival of American Community, Robert D. Putnam, 2000 ↩︎
  7. APA poll reveals a nation suffering from stress of societal division, loneliness, APA, 2025 ↩︎
  8. EU Loneliness Survey, European Commission, 2023 ↩︎
  9. What does a tech oligarchy look like?, Julie Cohen, 2025 ↩︎

CET ARTICLE EST DISPONIBLE POUR TOUTES ET TOUS

Face à la domination des GAFAM et de leurs algorithmes opaques, nous vous aidons à reprendre la main sur les récits technologiques qui façonnent notre quotidien.

En soutenant Synth, vous co-construisez une voix forte, libre et indépendante. Vous pouvez faire un don à partir de 1€

Contribuez dès aujourd’hui avec un don défiscalisé à 66 %.
Chaque euro compte, et un engagement mensuel multiplie l’impact.

Partager cet article
URL partageable
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *


Lire la suite

Don’t cry for me…

Après des mois d’une campagne violente et sans merci, l’Argentine vient de se doter d’un nouveau président.…
Poster de campagne de Sergio Massa généré par IA. Prompt: "Sovietic Political propaganda poster illustration by Gustav Klutsis featuring a leader, masssa, standing firmly" Src: New York Times
Inscrivez-vous à la newsletter
Gardez un oeil critique sur la tech !