« Les grands modèles de langage passent le Test de Turing ». Avec un titre pareil, l’article scientifique signé par Cameron Jones et Benjamin Bergen 1 (tous deux membres du département des sciences cognitives de l’université de San Diego) ne pouvait que faire trembler l’écosystème technologique. Les réactions n’ont pas tardé, tout le monde s’enthousiasmant (côté technosolutionnisme) ou s’alarmant (côté techno-collaptioniste), sans jamais, malheureusement, prendre le recul nécessaire que les annonces techniques requièrent pourtant à chaque fois.
Un petit rappel s’impose : tout d’abord, qu’est-ce que le « test de Turing » ? Mis au point par Alan Turing – qui n’a, par ailleurs, jamais eu la prétention d’appeler cela le test de Turing – ce test est un « jeu d’imitation » cherchant à évaluer si une machine peut être capable d’imiter suffisamment bien les capacités conversationnelles d’un être humain pour qu’un observateur soit incapable de distinguer un échange avec un semblable d’un échange avec la machine. Le test de Turing n’est donc pas, comme le mathématicien britannique le disait d’ailleurs lui-même, une évaluation de la capacité de la machine à penser, ni même de son intelligence. Ce n’est qu’un jeu d’imitation 2.
Et à ce petit jeu, d’après Jones et Bergen, il semblerait que, bien prompté, GPT-4.5 soit capable de flouer un observateur humain. L’étude montre que le chatbot d’OpenAI a été jugé « être humain » dans 73% des cas (!!), posant alors de nombreuses questions dans notre rapport à la machine – ce qui justifierait l’enthousiasme ou l’alarme susmentionnés.
Mais si les réactions se sont vite emportées, il est toujours intéressant de prendre un peu de recul. Tout d’abord, ce n’est pas la première fois que l’on déclare que « le test de Turing a été passé » – dès les années 60, avec les travaux sur le chatbot ELIZA notamment, certaines personnes jugeaient que la machine était déjà capable d’imiter suffisamment bien un humain (ou du moins, suffisamment bien pour que ce dernier établisse un lien émotionnel avec la machine). Cela a d’ailleurs poussé de nombreuses personnes à établir leur « propre test de Turing », jugeant que celui d’Alan Turing était déjà dépassé 3.
Dans l’histoire des sciences et du progrès scientifique, il est bon et sain que les théories des uns et des autres soient remises en question avec méthode et esprit critique – et il est dès lors tout naturel que le jeu de l’imitation soit également interrogé. L’une des personnes dont la pensée et les réflexions viennent le plus challenger ce jeu d’imitation se nomme John Searle, philosophe américain, dans un article datant de 1980 intitulé “Minds, Brains, and Programs” publié dans le journal Behavioral and Brain Sciences .4
Dans cet article, Searle développe l’expérience de pensée dite de la « chambre chinoise ». En quelques mots, « Searle imagine une personne qui n’a aucune connaissance du chinois (en l’occurrence, lui-même) enfermée dans une chambre. On met à disposition de cette personne un catalogue de règles permettant de répondre à des phrases en chinois. Ces règles sont parfaitement claires pour l’opérateur. Leur application se base uniquement sur la syntaxe des phrases. Une phrase d’une certaine forme syntaxique en chinois est corrélée avec une phrase d’une autre forme syntaxique. L’opérateur enfermé dans la chambre reçoit donc des phrases écrites en chinois et, en appliquant les règles dont il dispose, il produit d’autres phrases en chinois qui constituent en fait des réponses à des questions posées par un vrai sinophone situé à l’extérieur de la chambre. Du point de vue du locuteur qui pose les questions, la personne enfermée dans la chambre se comporte comme un individu qui parlerait vraiment chinois. Mais, en l’occurrence, cette dernière n’a aucune compréhension de la signification des phrases en chinois qu’elle transforme. Elle ne fait que suivre des règles prédéterminées. » 5
L’objectif de Searle est notamment de démonter l’hypothèse de certains chercheurs en IA selon laquelle le bon programme informatique, avec les inputs et outputs adéquats, aurait dès lors un esprit exactement au même titre que les êtres humains ont un esprit. Naturellement, il n’en est rien, un ordinateur ne restant qu’un sachet d’interrupteurs s’allumant et s’éteignant quand on le leur demande – mais n’allons pas trop vite.
Comme le pointe donc Searle (et il n’est pas le seul), les limites du jeu de l’imitation, ou du test de Turing, sont nombreuses… ce que l’article de Jones et Bergen ne manque d’ailleurs pas de rappeler ! Mais, comme souvent, c’est après plusieurs pages de développement dans lesquelles les amateurs de sensationnalisme ne prennent pas toujours la peine de se plonger. Le titre de l’article, avec son côté légèrement clickbait, en dessert finalement le propos.
Les derniers paragraphes de la partie « Discussion » de l’article portent cependant sur les vraies questions que cette « prouesse » présente : d’une part, quels sont les risques que cela présente en termes de contrefaçons et de « faux interlocuteurs » et, d’autre part, quelle est la place pour notre humanité, rappelant également que si des humains ont pu être floués aujourd’hui, cela n’est pas forcément définitif et il est toujours possible que l’humain se développe pour mieux déceler ce qui fait de lui ou d’elle un être humain – et d’ainsi reprendre la main lors de futures éditions du test de Turing.
Comme (trop) souvent dans le monde de la tech, quand le sage montre la lune, l’imbécile regarde le doigt. Qu’une IA passe le test de Turing n’a, en soi, rien de bien spectaculaire ni de bien neuf. Les questions qu’elle pose, en revanche, méritent toute notre attention.
- Jones, C., et Bergen, B., 2025. « Large Language Models Pass the Turing Test ****», https://arxiv.org/pdf/2503.23674 ↩︎
- Turing, A. M., 1950. Computing Machinery and Intelligence. Mind 49: 433-460 ↩︎
- Pour une revue plus complète de ces nouveaux tests, et de leurs implications, voir de Diesbach, L., 2024, « Bonjour ChatGPT », Mardaga, Bruxelles. Chapitre 1.2, « Entre tests et expériences », pp.29-38 ↩︎
- Searle, J. R., 1980. Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–424 ↩︎
- Wikipédia, « Chambre chinoise », https://fr.wikipedia.org/wiki/Chambre_chinoise ↩︎