Sale temps pour les cols blancs. Deux études récentes, l’une publiée par Coface et l’Observatoire des Emplois Menacés, l’autre signée par Anthropic, cartographient les professions, qui, selon elles, sont les plus exposées à l’automatisation cognitive. Profitant de ce récit catastrophiste, des entreprises florissantes invoquent le déploiement de l’IA pour justifier des coupes injustifiées dans leurs effectifs qu’elles auraient de toute façon effectuées.
Trois ans après le lancement de ChatGPT, les effets de l’IA sur l’emploi demeurent difficiles à lire dans les statistiques. L’étude Coface/OEM, qui a décomposé 923 professions en actions dites « élémentaires », semble pourtant montrer une rupture structurelle inédite. Contrairement à la robotique, qui, dans les années 70/80, ciblait d’abord les tâches manuelles, c’est-à-dire le monde ouvrier, les fameux cols bleus, l’IA agentique s’attaque au cœur des activités cognitives. En gros, les cols blancs, les professions intellectuelles de la classe moyenne éduquée. Dans le scénario principal de l’étude, environ une profession sur huit franchit le seuil de 30 % de tâches automatisables. Un seuil retenu comme indicateur d’une transformation profonde. Ingénierie, droit, finance, fonctions analytiques : précisément les secteurs longtemps tenus pour imperméables à l’automatisation des tâches.
Ce renversement, on le retrouve dans les données publiées en mars 2026 par Anthropic, l’éditeur du concurrent de ChatGPT, Claude. Mesurant l’exposition réelle de ses modèles via les usages observés, l’entreprise américaine note une baisse de 6 à 16 % de l’emploi dans les métiers exposés chez les 22-25 ans. Un ralentissement attribué à un freinage du recrutement aux États-Unis en prévision de la vague IA. Les jeunes diplômés du supérieur sont en première ligne, évidemment. Celles et ceux qui ont contracté des prêts étudiants massifs se retrouvent victimes d’une situation de blocage vqui soulève une question que les institutions tardent à formuler : à quoi sert un diplôme dont les tâches associées sont progressivement confiées par les entreprises aux machines ?
La France en position intermédiaire, mais les métropoles en surexposition
Les lignes de vulnérabilité ne se tracent pas seulement par secteur. L’exposition à cette automatisation non consentie varie de 12 % du contenu du travail en Turquie à près de 20 % au Royaume-Uni. Un écart expliqué par la structure des économies et leur orientation vers les services cognitifs. Avec son profil hybride, entre surreprésentation des fonctions de siège social et métiers de production, la France occupe une position intermédiaire avec un 16 % de risques.
Les grandes métropoles concentrent en particulier les professions les plus exposées. Ce sont elles qui creusent une fracture territoriale que les politiques d’aménagement peinent à anticiper. Au-delà, l’étude pointe une dépendance nouvelle : la concentration des actifs critiques de l’IA du type semi-conducteur, grands modèles de langage, centres de données entre un nombre restreint d’acteurs, dessinant des vulnérabilités géopolitiques que les États n’ont pas encore commencé de traiter.
L’IA comme une excuse
C’est là que le récit technologique faiblit. En février 2026, Jack Dorsey, ex-créateur de Twitter, annonce la suppression de 4 000 postes chez Block, sa nouvelle startup. C’est à peu près 40 % des effectifs de la fintech qui réunit Square et Cash App. Justification avancée par « Jack » : l’IA rend ces emplois superflus. Le contexte financier contredit pourtant ce tableau. Avec un chiffre d’affaires de 2,87 milliards de dollars au quatrième trimestre 229 5362025, en hausse de 24 % sur un an et bénéfice net de 485 millions, l’entreprise ne semble pas en péril. Cerise sur le gâteau, l’annonce de Dorsey faisait bondir l’action de Block de près de 20 %. Une étude d’Oxford Economics va plus loin : certaines Big Tech préféreraient invoquer l’IA plutôt qu’admettre un licenciement économique, Wall Street récompensant l’innovation supposée bien mieux que la rigueur comptable.
En France, l’affaire Onclusive l’illustre déjà : en 2023, cette société de veille médiatique avait justifié un plan social portant sur 217 postes par le déploiement de l’IA, avant d’être contrainte d’y renoncer, l’outil n’étant pas encore opérationnel. Mais clairement, les motivations semblaient dans ce cas toutes autres.
En France, le droit du travail exige qu’un employeur démontre la réalité d’une mutation technologique avant tout licenciement sur ce fondement. Une jurisprudence protectrice, mais insuffisante, car la question de fond reste entière : quand des acteurs non élus reconfigurent le marché du travail sans cadre contraignant, et que l’IA devient simultanément un argument de croissance économique et l’écran de fumée d’une optimisation financière, quel législateur penchera du côté de la protection des travailleurs ?
Soutenez Synth
CET ARTICLE EST DISPONIBLE POUR TOUTES ET TOUS
Face à la domination des GAFAM et de leurs algorithmes opaques, nous vous aidons à reprendre la main sur les récits technologiques qui façonnent notre quotidien.
En soutenant Synth, vous co-construisez une voix forte, libre et indépendante. Vous pouvez faire un don à partir de 1€
Contribuez dès aujourd’hui avec un don défiscalisé à 66 %.
Chaque euro compte, et un engagement mensuel multiplie l’impact.








