Gardez un oeil critique sur la tech

Quand l’IA générative érode la pensée critique

Une confiance accrue dans l'intelligence artificielle générative s'accompagne d'une diminution importante de l'effort cognitif critique chez les professionels. Ces conclusions sont tirées d'une vaste enquête menée auprès de 319 travailleurs du savoir 1, qui questionne fondamentalement notre rapport aux outils d'IA et dessine les contours d'une dépendance technologique aux conséquences potentiellement délétères.

L’ironie formulée par Lisanne Bainbridge en 1983 trouve aujourd’hui une acuité troublante. Cette chercheuse pressentait déjà que l’automatisation, en mécanisant les tâches routinières tout en déléguant la gestion des exceptions à l’humain, priverait ce dernier d’occasions essentielles d’exercer son jugement.

Une intuition adoptée par d’autres penseurs dont Bernard Stiegler qui évoquait quant-à lui, la prolétarisation des cols blancs. Quelques décennies plus tard, une étude menée conjointement par l’université Carnegie Mellon et Microsoft Research — portant sur 936 exemples concrets d’utilisation d’outils génératifs — confirme cette prophétie technologique dans le contexte de l’intelligence artificielle générative.

Les chercheurs Hao-Ping Lee et son équipe révèlent un paradoxe fondamental : alors que 59% des participants déclarent exercer une forme de pensée critique lors de l’usage d’outils comme ChatGPT ou Copilot, cette même pensée critique subit simultanément une érosion mesurable. Par ailleurs, cette dégradation s’intensifie proportionnellement à la confiance accordée aux capacités de l’IA.

La confiance en l’IA, poison de l’esprit critique

L’enquête dévoile une mécanique pernicieuse : lorsque les professionnels développent une confiance excessive envers les outils génératifs, leur vigilance critique s’émousse progressivement. Cette surconfiance technologique — documentée chez 83 participants sur 319 — engendre une acceptation par défaut des productions automatisées, particulièrement pour les tâches perçues comme “simples” ou “secondaires”.

Un phénomène d’autant plus insidieux qu’il s’accompagne d’une auto-dévalorisation des compétences humaines. Certains participants expriment explicitement leur défiance envers leurs propres capacités de vérification — notamment en matière grammaticale ou juridique — préférant s’en remettre aveuglément aux algorithmes. Cette abdication intellectuelle illustre parfaitement les “ironies de l’IA générative” 2 théorisées récemment par Auste Simkute et ses collègues de Microsoft Research.

Trois mutations cognitives fondamentales

L’analyse qualitative révèle une reconfiguration profonde des processus cognitifs selon trois axes distincts. Premier basculement : l’effort mental migre de la collecte d’informations vers leur vérification — 111 participants sur 319 témoignent de cette transformation. Les outils génératifs excellent à agréger et structurer les données, mais impose une vérification accrue.

Deuxième mutation significative : dans les tâches d’application pratique, l’accent se déplace de la résolution de problèmes vers l’intégration des réponses fournies par l’IA. Cette transition — observée chez 77 participants — nécessite des compétences nouvelles d’adaptation et de contextualisation que les formations actuelles n’anticipent pas.

Troisième évolution cruciale : pour les activités d’analyse, de synthèse et d’évaluation, le travail évolue de l’exécution directe vers une forme de “tutelle algorithmique”. Les professionnels endossent désormais un rôle de supervision — 129 participants rapportent cette métamorphose — tout en conservant l’entière responsabilité des résultats finaux.

Comment préserver l’autonomie intellectuelle ?

Ces conclusions demandent une révision de fond de la conception des outils génératifs. Plutôt que de maximiser l’automatisation, les développeurs devraient intégrer des mécanismes de stimulation critique plus forts. L’étude suggère notamment l’implémentation de “fonctions de forçage cognitif”, c’est à dire des interruptions délibérées obligeant l’utilisateur à justifier ses choix avant de recevoir les résultats.

L’enjeu dépasse la simple optimisation technologique. Il s’agit de préserver ce que les chercheurs nomment les “voies de non-dépendance à l’IA” — ces espaces de réflexion autonome indispensables au développement professionnel à long terme. Si l’intelligence artificielle peut nous aider dans certaines de nos tâches cognitives, elle ne doit jamais se substituer à l’exercice fondamental de notre jugement critique.

L’urgence est claire : concevoir des outils qui challengent plutôt qu’ils n’obéissent, qui questionnent nos présupposés, nos biais, nos archétypes plutôt qu’ils ne les confirment. L’alternative ? Voir notre capacité à penser le monde de façon originale, humaine et sensible, se fondre dans un systématisme moyen, une analyse tiède, pour in fine, détruire une partie de la pensée.

  1. The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers, Carnegie Mellon University et Microsoft Research Cambridge, Avril 2025 ↩︎
  2. Ironies of Generative AI: Understanding and mitigating productivity loss in human-AI interactions, Auste Simkute, Lev Tankelevitch, Viktor Kewenig, Ava Elizabeth Scott, Abigail Sellen, and Sean Rintel. 2024. ACM, New York, https://arxiv.org/pdf/2402.11364 ↩︎

Partager cet article
URL partageable
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Lire la suite
Abonnez-vous à la newsletter
Gardez un oeil critique sur la tech !