Communication & Influence

Filtres émotionnels : quand l’IA redessine nos voix, nos visages… et nos normes. Entretien de Nadia Guerouaou par Didier Noyé

"Notre cerveau sous influence". Nadia Guerouaou. Editions Eyrolles


Jacqueline Sala
Jeudi 19 Février 2026


Les IA génératives émotionnelles ne se contentent plus d’assister nos capacités cognitives : elles modèlent désormais nos expressions, gommant une colère jugée inopportune ou affichant un sourire artificiel en visioconférence. Pour Nadia Guerouaou, ces technologies participent à une « domestication affective » aux implications politiques et culturelles profondes. Entre manipulation possible, uniformisation expressive et reconfiguration de notre rapport au monde, elle appelle à une vigilance lucide plutôt qu’à la panique. Rencontre entre Didier Noyé et Nadia Guerouaou.




Didier Noyé : Nadia Guerouaou, vous êtes neuroscientifique et psychologue clinicienne. J’ai lu avec beaucoup d’intérêt votre essai ; vous faites état de nombreux travaux de recherche très actuels, vous nous introduisez à la philosophie de la technologie. Vous étudiez la mise en œuvre des IA génératives émotionnelles. Pouvez-vous donner des exemples de ce l’on peut faire avec des filtres émotionnels appliqués à la voix, au visage ?

Nadia Guerouaou - On parle beaucoup de la délégation de nos capacités cognitives (mémoire, langage) aux systèmes d'IA générative. On interroge encore trop peu celle de notre expressivité émotionnelle.

Pourtant, des technologies proposent déjà de paramétrer en temps réel l’expression de nos émotions. C’est le cas d’Emotion Canceling Voice Conversation Engine ou Soft Voice du géant Soft Bank qui propose de gommer la colère dans la voix de clients mécontents dans le cadre des calls centers.

On peut également, toujours afin d’« optimiser » nos interactions  afficher un faux sourire sur nos visages ; cela nous rendra plus avenant grâce à des dispositifs qui peuvent être installés dans des logiciels de visio conférence tels que ceux qu’on utilise de plus en plus pour nos échanges professionnels, personnels et même de santé (téléconsultations de plus en plus fréquentes).

DN - Vous parlez de domestication de nos émotions, de standardisation de notre façon de s’exprimer ; nous créons des outils qui eux-mêmes nous façonnent. Il y aura des effets sur nos régulations émotionnelles, sur nos valeurs, sur notre identité… Cela va-t-il nous rendre plus humain ou moins humain ?

NG – Aujourd’hui comme hier, le contrôle émotionnel dont ces systèmes d’IA s’emparent n’est pas neutre, mais profondément politique et hiérarchisant. La régulation des émotions exprimées n’a jamais été un simple souci d’hygiène psychique. Elle constitue, historiquement, un instrument de gouvernementalité des individus. Or, c’est bien cette logique qu’on retrouve dans certaines technologies actuelles de paramétrage algorithmique de nos expressions émotionnelles. Prenons la colère. Ces technologies doivent nous amener à nous questionner : Qui a le droit d’être en colère ? Qui verrait son discours tue par le « mute » algorithmique ? Et, bien évidemment, qui décide de ce qu’est une émotion acceptable et pour qui ?

La colère est un bon exemple car sa légitimité est, entre autres, genrée.
La « standardisation » de l’expressivité émotionnelle est également une possibilité à envisager. Nos expressions faciales, que nous croyons spontanées, ont toujours subi un formatage culturel profond. L’histoire du sourire montre que même cette manifestation que l’on pense « naturelle » de la joie fait en réalité l’objet de codifications sociales et culturelles strictes. Avec les technologies d’IAgen le masque social et la standardisation qu’il génère devient automatique, il est appliqué sur les visages sans aucune conscience des normes qu’il applique. Et pourtant le sourire artificiel produit par les IA génératives crée des modèles expressifs uniformes qui pourraient s’imposer comme nouvelles normes dans nos interactions faisant fi de la diversité culturelle des régimes d’expression humains.

Faites l’essai, demander à une IA générative d’image de vous générer un selfie de vous et vous verrez ce à quoi ressemble votre sourire ; il y a de très fortes probabilités qu’il suive les codes esthétiques du « smile design américain ».
J’aime beaucoup votre question, cela va-t-il nous rendre plus humain car il me semble que ces technologies posent en creux la question de l’humanisme. Quelle définition de l’humain pourrait justifier par exemple la nécessité d’un contrôle absolu de nos émotions ? Il me semble que cela a fort à voir avec l’idée d’une « part naturelle » animale, passionnée, pas assez raisonnée, que nous avons à rendre docile. D’où mon choix d’appeler cela de la domestication affective.

Les IA génératives émotionnelles contrôlent les expressions émotionnelles, créent une norme implicite du discours acceptable ; elles produisent des discours et des sujets lisses, heureux, optimisés, parfaitement adaptés aux exigences des sociétés dans lesquelles nous vivons.
 
 

DN - Voyez-vous avec ces technologies des risques de manipulation, des risques éthiques ?

NG - Assurément, il y a des risques de manipulation et la question éthique est présente en filigrane tout au long de l’essai, je crois. Le paramétrage algorithmique des émotions pourrait renforcer l’instrumentalisation des émotions qui existe déjà. Les IA génératives pourraient être utilisées pour générer une note vocale synthétique ou alors « augmenter » une voix réelle afin d’en ajuster la tonalité émotionnelle selon les attentes ou les vulnérabilités d’un destinataire donné.

Ce serait un profilage du message qui ne se limiterait pas à l’information véhiculée mais qui en ajusterait la forme ; le but serait de la rendre, par exemple, la plus convaincante possible eu égards aux différentes informations que l’on aura par ailleurs pu récolter sur des destinataires. Une forme de micro-ciblage émotionnel.
 

DN – En fait vous nous invitez à la vigilance, à la réflexion sur le genre d’humains que l’on souhaite développer

NG – C’est exactement le propos du livre : l’anthropotechnie – ce processus fondateur par lequel l’humanité se produit et se transforme elle-même.… Le fait que ces technologies ne soient pas simplement au service de transformations ponctuelles de notre apparence mais bien des technologies qui contribuent à modeler, notre perception de nous-même, des autres, du monde. Ce qui nous indigne, nous affecte également.

Les hommes font leurs propres émotions, mais ils ne savent pas qu’ils les font. Lorsque des algorithmes modifient nos expressions faciales et vocales, ils sont à̀ même de reconfigurer l’environnement affectif à partir duquel notre cerveau construit nos émotions. Cette reconfiguration produit une forme d’affectivité́ hybride que je nomme l’IAffectivité. Un concept qui a pour but de « mettre au jour » ce phénomène dont nous ne sommes pas conscients et que la seule grille de lecture en termes de délégation de nos capacités ne permet pas d’appréhender directement.

Cette IAffectivité n’est pas un déterminisme technique. Sa forme dépendra de nos choix de société́, des rapports de pouvoir en place et des normes qui orienteront son design.
J’essaie et je ne sais pas si ça se sent, de ne pas traiter ces questions de manière anxiogène car je pense que c’est trop souvent le cas. Je crois sincèrement que les individus peuvent se sentir concernés par ces questions sans agiter la menace existentielle.
 

Didier Noyé. Je recommande votre livre qui est très riche. J’ai découvert l’histoire du sourire, j’ai compris l’importance de la pensée transcendentale dans la construction de notre identité, j’ai été impressionné par votre recherche expérimentale qui vise à anticiper les effets comportementaux et sociaux des technologies.


Notre cerveau sous influence Comment les IA génératives façonnent nos émotions Auteur(s) : Nadia Guerouaou

Nadia Guerouaou, docteure en neurosciences cognitives et psychologue clinicienne, explore les transformations de la voix et leur rôle dans le traitement du stress post‑traumatique. Responsable des études TraumacoustiK et TraumaVoice, elle a aussi mené des recherches au Japon sur l’éthique des deepfakes vocaux. Enseignante et conférencière, elle intervient régulièrement sur les enjeux éthiques des technologies affectives.
  • Thèse de doctorat : L’objet “filtre vocal”, du laboratoire à la clinique : vers l’anthropotechnie de nos cognitions sociales (CHRU de Lille – CNRS FEMTO‑ST – IRCAM).

  • Article scientifique (co‑auteur) : travaux sur les transformations vocales et leur usage dans le traitement du stress post‑traumatique, publiés dans des revues de neurosciences et de psychologie clinique.


Didier Noyé

Didier Noyé est membre de l’association Défense de la langue française. Didier Noyé est un spécialiste du développement des ressources humaines et auteur de nombreux livres sur la communication et le management. Il confesse avoir peu de followers et recevoir peu de likes.