Clarifier les enjeux du présent technologique

Comment les IA génératives modèlent nos émotions et façonnent nos sociétés ?

EN UN COUP D’OEIL

  • Des voix sous contrôle : les IA filtrent nos émotions en temps réel, au nom de l’efficacité, du confort relationnel et du management.
  • Le corps aussi est façonné : filtres, voix modifiée, chatbots orientés… nos technologies finissent par modeler notre perception de nous-mêmes.
  • Une bataille politique des affects : derrière la standardisation émotionnelle, Nadia Guerouaou pointe un enjeu culturel, social et démocratique majeur.
Dans son ouvrage « Notre cerveau sous influence : comment les IA génératives modèlent nos émotions et façonnent nos sociétés » publié aux éditions Eyrolles en mars dernier, la neuroscientifique Nadia Guerouaou décortique avec précisions ce que les IA font à nos corps, nos cerveaux, mais surtout nos émotions. Entretien. 

Pauline Ferrari : Vous avez notamment beaucoup travaillé sur les filtres vocaux… Est-ce une technologie si dystopique ? 

Nadia Guerouaou: Ce sont des technologies qui reposent sur l’intelligence artificielle et qui vont transformer en temps réel la tonalité émotionnelle de notre voix, à partir de décennies de travaux en informatique émotionnelle qui ont donné des caractéristiques pour une voix émotionnelle, triste, confiante. Quand on applique ces filtres, s’il s’agit de gommer la colère : on va apprendre au modèle quelles sont les caractéristiques dans la voix qui sont liées à la colère, pour pouvoir les retirer du signal vocal. 

Ce sont des outils déjà utilisés, notamment dans le monde des call centers, parce qu’il y a une dimension économique et commerciale de service. Il y a un intérêt économique à lisser nos interactions, en paramétrant exactement les émotions. Par exemple, quand au Japon, des services utilisent SoftVoice, une IA qui « adoucit les tons agressifs », c’est pour proposer une solution technique à un problème social, qui est le harcèlement des employés de call centers. 

PF: On parle énormément de l’influence des technologies sur nos vies. Dans votre ouvrage, vous développez notamment la notion d’”hyperbodies”, qui parle du rapport au corps… 

NG: Le concept d’ » hyperbody » cherche à remettre le corps en avant dans notre manière d’observer comment les technologies nous affectent. On commence à être plus sensibles au fait que les filtres de beauté puissent avoir un impact sur la manière dont on se perçoit… Mais on n’essaye pas de comprendre pourquoi. 

La limite entre notre image corporelle de nous-mêmes et notre image numérique et digitale est en fait plutôt poreuse. Parce que sinon, il n’y a pas de raison qu’on se mette à douter de soi quand on est exposé à des images sur les réseaux sociaux ! L’image de nous, l’image qu’on se construit de nous, de notre propre corps, se construit à travers ce que l’on va modeler dans notre vie numérique et aussi ce que l’on perçoit dans la vie réelle. 

Il y a un risque d’homogénéisation de nos expressions émotionnelles, et d’impérialisme technologique sur notre sensibilité par les tech bro de la Silicon Valley

PF: Selon vous, les filtres ont un effet sur notre façon de nous présenter au monde… Mais aussi sur la vision qu’on a de nous-mêmes ? 

NG: On parle beaucoup des technologies en externalisant : on leur délègue des choses à faire, comme si ça n’avait jamais d’impact sur nous. D’où le fait que je propose de parler d’un phénomène d’incorporation, de digestion de nos technologies. Le fait d’écrire avec un chatbot sur un sujet, si ce chatbot est orienté, on se rend compte qu’on se conforme à l’opinion du chatbot. Ça montre bien qu’on l’incorpore ! 

Si je m’écoute avec une voix artificiellement transformée, de la même manière, mon état émotionnel, le jugement de mon état émotionnel, il se conforme à ce qui a été produit artificiellement. Donc on intègre, on incorpore ces productions artificielles comme si elles étaient les nôtres. Cela paraît complètement contre-intuitif, mais le design de ces interfaces est fait de telle manière que cette hybridation est de plus en plus présente. Je ne pense pas que notre cerveau fasse la distinction entre ce qui est produit par nous et ce qui est produit par ces technologies. 

PF: On parle assez peu d’émotions dans notre société… Pourtant, comme vous l’expliquez dans votre ouvrage, c’est devenu une ressource pour les entreprises. 

NG: Pour les géants de la tech, il y a une forme d’extractivisme de nos émotions, fondée sur des pseudosciences : par exemple, l’IA conversationnelle de Hume, qui est censée à la fois pouvoir lire nos émotions en analysant nos micro-expressions faciales, en analysant la tonalité émotionnelle de notre voix pour permettre à leur IA de répondre de manière empathique aux utilisateurs. Alors qu’en fait, ces modèles d’IA dites empathiques, elles se fondent sur une conception très réductrice des émotions ! 

On ne parle pas des émotions dans nos sociétés parce qu’on a tendance à opposer émotions et raison. Alors que les émotions jouent un rôle dans les procédés cognitifs, comme la mémoire ou l’attention. On préfère parler, par exemple, de pics de dopamine quand on parle de ce que provoquent les réseaux sociaux, alors qu’en fait, ils jouent sur nos affects. Mais parler des émotions, ça reste quelque chose de l’ordre de la sensibilité, du féminin…

PF: Vous développez la notion d’IAffectivité, qui suppose notamment une domestication et une standardisation émotionnelle… 

NG: L’IAffectivité, c’est cette hybridation de notre sensibilité avec ce que les IA génératives ou les technologies « IAffectives » vont nous proposer et produire. Les émotions, ce n’est pas inné, ce sont des constructions très dépendantes de l’environnement, des codes sociaux… Même quelque chose qui nous paraît aussi spontané que le sourire est une construction ! Les technologies, en tant qu’objet culturel, font partie de la matrice dans laquelle on apprend les émotions. 

Il y a aussi ce que je nomme la normativité « IAffective », ce qu’on va attendre de nous au niveau de l’expressivité de nos émotions. Par exemple, les sourires que les IA génératives nous proposent, ce n’est pas n’importe quel sourire : ce sont des sourires qui sont moulés sur une esthétique nord-américaine. 

Il y a alors un risque d’homogénéisation culturelle de nos expressions émotionnelles, mais aussi une forme d’impérialisme technologique sur notre sensibilité par les tech bro de la Silicon Valley. Petit à petit, le sens que l’on peut donner à des expressions faciales peut bouger avec des injonctions sociétales ou culturelles. Peut-être que le sourire deviendra un indice d’artificialité, de la même manière qu’un texte sans faute avec des tirets est en train d’être associé à ChatGPT… Est-ce qu’à l’avenir, on ne va pas avoir envie de s’exprimer d’une manière qui montre qu’on est bien humain ? 

PF: Ce lissage des émotions, elle ne touche pas tout le monde de la même manière, notamment selon son genre, son origine sociale ou sa couleur de peau… 

NG: Le fait de gommer la colère d’un appel, par exemple, c’est une domestication des affects. Sous couvert de rendre plus fluides nos interactions ou de préserver le bien-être des individus, on va censurer des discours. Et il y a un enjeu pour les femmes par exemple, qui sont déjà moins autorisées à exprimer leurs colères. 

Les émotions sont nécessaires, elles sont un socle indispensable à l’exercice de notre raison et de notre puissance collective d’agir. Réhabiliter les émotions, les affects, dans les discours et en démocratie, c’est important dans une société qui veut neutraliser les affects. La question du contrôle émotionnel, c’est une question politique. 

PF: Notamment, ce filtrage émotionnel par IA s’opère dans le monde du travail : vous parlez de l’utilisation de ces technologies comme continuité d’une vision technosolutionniste dans les entreprises, très hérités de la psychologie positive. 

NG: Il y a cette idée qu’il faudrait policer les interactions pour les rendre plus productives. Le management s’intéresse beaucoup aux émotions des employés. Ce n’est pas uniquement pour éviter les burn-out, mais c’est aussi parce que les émotions sont devenues des marchandises. C’est avec cette idée-là qu’on gomme certaines émotions déplaisantes et qu’on renforce les émotions positives. C’est quelque chose qui est déjà demandé, mais on délègue le travail affectif à des machines.

PF: Face à cet état des lieux plutôt consternant, quelles sont les perspectives de luttes et de résistance ? 

NG: C’est assez difficile d’être optimiste en ce moment. Dans le livre, je parle de la possibilité que ces technologies, qui sont pour l’instant des technologies de domestication et de standardisation, puissent devenir des technologies de soi. Ce qui serait idéal, ce serait des discussions collectives  au sujet des technologies qui nous sont imposées, en entreprise, dans les collectivités ou à l’école. 

Ce qui me donne de l’espoir, c’est l’idée d’une nécessité de décoloniser la Tech. Ce phénomène de standardisation des sensibilités et des discours à l’oeuvre a beaucoup à voir avec ce vieil universalisme blanc qui ne tient aucunement compte de la pluralité et qui cherche à homogénéiser selon le modèle culturel dominant. Il y a pour moi des réflexions à aller puiser. 

CET ARTICLE EST DISPONIBLE POUR TOUTES ET TOUS

Face à la domination des GAFAM et de leurs algorithmes opaques, nous vous aidons à reprendre la main sur les récits technologiques qui façonnent notre quotidien.

En soutenant Synth, vous co-construisez une voix forte, libre et indépendante. Vous pouvez faire un don à partir de 1€

Contribuez dès aujourd’hui avec un don défiscalisé à 66 %.
Chaque euro compte, et un engagement mensuel multiplie l’impact.

Partager cet article
URL partageable
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *


Lire la suite

L’IA c’est la santé

La dernière évolution de ChatGPT qui a été présentée par OpenAI fin septembre donne la vue et la parole au…
Inscrivez-vous à la newsletter
Clarifier les enjeux du présent technologique