<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/"  xmlns:media="http://search.yahoo.com/mrss/" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:itunes="http://www.itunes.com/dtds/podcast-1.0.dtd" xmlns:geo="http://www.w3.org/2003/01/geo/wgs84_pos#" xmlns:georss="http://www.georss.org/georss" xmlns:photo="http://www.pheed.com/pheed/">
 <channel>
  <title>www.veillemag.com</title>
  <description><![CDATA[Depuis 1996, le magazine Veille s'est imposé comme le 1er titre de presse entièrement consacré à la  maîtrise stratégique de l'information et des connaissances.]]></description>
  <link>https://www.veillemag.com/</link>
  <language>fr</language>
  <dc:date>2026-04-08T15:34:13+02:00</dc:date>
  <atom10:link xmlns:atom10="http://www.w3.org/2005/Atom" rel="alternate" href="https://www.veillemag.com/xml/atom.xml" type="text/xml" />
  <item>
   <guid isPermaLink="false">tag:https://www.veillemag.com,2026:rss-95872115</guid>
   <title>Focus I.A #6 . Ce que l’IA apporte et va apporter de bien. Emmanuel Frénod. Mars 2026</title>
   <pubDate>Mon, 06 Apr 2026 15:12:00 +0200</pubDate>
   <dc:language>fr</dc:language>
   <dc:creator>Jacqueline Sala</dc:creator>
   <dc:subject><![CDATA[Intelligence artificielle]]></dc:subject>
   <description>
   <![CDATA[
   Dans ce nouvel épisode de ma chronique sur l’intelligence artificielle (IA), j’évoque une dernière fois les interventions à l'événement « Que faire de bien avec l'IA ? » que nous avons organisé, Cédric Villani et moi-même, à l’Université Bretagne Sud, à Vannes, le 30 janvier 2026.     <div style="position:relative; text-align : center; padding-bottom: 1em;">
      <img src="https://www.veillemag.com/photo/art/default/95872115-66922647.jpg?v=1775481014" alt="Focus I.A #6 . Ce que l’IA apporte et va apporter de bien. Emmanuel Frénod. Mars 2026" title="Focus I.A #6 . Ce que l’IA apporte et va apporter de bien. Emmanuel Frénod. Mars 2026" />
     </div>
     <div>
      <blockquote>(L’événement est disponible en replay sur la chaîne YouTube de l’UBS (<a class="link" href="https://www.youtube.com/watch?v=mF_BjhtzEe8">https://www.youtube.com/watch?v=mF_BjhtzEe8</a>  et <a class="link" href="https://www.youtube.com/watch?v=L4C2sR1bado">https://www.youtube.com/watch?v=L4C2sR1bado</a>.) Je me focalise cette fois sur les éléments moins vertueux de l’IA qui ont été pointés et sur certaines questions qu’elle pose.</blockquote>  
     </div>
     <br style="clear:both;"/>
     <div><b>Sobriété numérique et risques de concentration du pouvoir</b></div>
     <div>
      <div style="margin-left: 40px;"><a class="link" href="https://www.linkedin.com/in/lou-welgryn-460434b0/" target="_blank">Lou Welgryn</a>  a rappelé que l’IA est maîtrisée par quelques organisations puissantes qui ne sont ni altruistes ni soucieuses de l’application du droit. <br />  Elle a également mentionné que, dans de nombreuses situations, l’utilisation de l’IA n’est absolument pas indispensable&nbsp;: réfléchir, regarder ses données et les traiter par de l’analyse statistique classique apportent des réponses pertinentes en consommant nettement moins d’énergie que les IA. <br />  Elle invite ainsi à une utilisation parcimonieuse, réfléchie, rationnelle et prudente de l’IA.</div>  
     </div>
     <br style="clear:both;"/>
     <div><b>Géopolitique et militarisation : enjeux stratégiques et domination technologique</b></div>
     <div>
      <div style="margin-left: 40px;"><span style="white-space: pre-wrap;"><a class="link" href="https://www.linkedin.com/in/bertrandrdp/" target="_blank">Bertrand Rondepierre</a>  a expliqué que l’IA permet de faire des armes de guerre et amène les armées à opérer. Il a également abordé les spécificités de l’IA pour les applications militaires : la fiabilité et la capacité à fonctionner de manière autonome, en particulier quand les infrastructures sont très dégradées.</span> <br />   <br />  <span style="white-space: pre-wrap;"><a class="link" href="https://www.linkedin.com/in/philippe-clerc-26638219b/" target="_blank">Philippe Clerc</a>  a expliqué que ce qui est nouveau dans notre époque c’est que la coopération entre les puissances n’existe plus. Les relations entre ces puissances ne répondent plus qu’à la compétition et à l’affrontement. L’IA, qui est le sujet de notre époque, est donc un sujet de puissance et de domination. Ceci est assumé par toutes les grandes puissances (états et entreprises).</span></div>  
     </div>
     <br style="clear:both;"/>
     <div><b>Créativité humaine et éducation numérique : enjeux culturels et sociétaux</b></div>
     <div>
      <div style="margin-left: 40px;"><a class="link" href="https://www.linkedin.com/in/laurence-devillers-4041899/" target="_blank">Laurence Devillers </a>  et <a class="link" href="https://www.linkedin.com/in/marie-paule-cani-993726170/" target="_blank">Marie-Paule Cani</a>  ont échangé sur les aspects de l’IA en lien avec le développement artistique et personnel. Elles sont tombées d’accord sur le fait que la machine ne doit pas être considérée comme meilleure que nous (les humains) en matière de création - ce qui est un biais fréquemment rencontré -. Par exemple, les IA ne savent pas bien donner du sens aux silences dans une discussion. Ce passage de leur échange a été l’occasion d’insister sur la différence fondamentale entre « création » et « apprentissage ». Elles ont de plus insisté sur le fait qu’il faut éduquer (à tous les âges) à l’utilisation de l’IA et à l’acquisition du recul sur ce que produisent les IA, pour réduire le risque de "manipulation de l’intérieur". <br />   <br />  Elles ont abordé la question de la standardisation extrême que l’IA pourrait apporter. Elles ont pointé les risques en lien avec des délégations en cascades de tâches aux IA (des IA agentiques qui pilotent des IA agentiques qui pilotent des IA agentiques etc.) car ces cascades ne sont absolument ni comprises, ni maîtrisées, ni même précisément décrites. Elles sont également tombées d’accord sur le fait L’IA permet de répliquer des tâches un grand nombres de fois. Elles ont également rappelé de se poser systématiquement la question de l’utilité des questions que l’on pose à l’IA et de celle d’utiliser l’IA face à un problème donné.</div>  
     </div>
     <br style="clear:both;"/>
     <div><b>Biais, discriminations et transformation du travail : perspectives sociétales</b></div>
     <div>
      <div style="margin-left: 40px;"><span style="white-space: pre-wrap;">Selon <a class="link" href="https://www.linkedin.com/in/isabelle-collet-33859510/" target="_blank">Isabelle Collet</a>, l’IA est très majoritairement développée par des hommes blancs, occidentaux et d’un bon niveau social, donc, sans volonté malveillante, elle est porteuse de discrimination : elle est plus performante sur des données d’entrées "proches" de ces développeurs et, dans les contextes où elle sélectionne, elle avantage les personnes "proches" de ces développeurs. De plus, l’IA ne sait pas représenter certaines catégories de la population. Isabelle Collet a aussi pointé que l’IA peut être un « vecteur indésirable d’égalité » : par exemple, elle mets la capacité à générer des Fake News à la portée de tous, alors qu’avant l’IA, seul les puissants pouvaient en générer.</span> <br />   <br />  <span style="white-space: pre-wrap;"><a class="link" href="https://www.linkedin.com/in/ericbothorel/" target="_blank">Éric Botherel</a>  a mis en évidence les incohérences qui génèrent la bulle de l’IA : c’est un serpent (d’investissement) qui se mord la queue et qu’elle a tendance « transformer l’or en plomb à coût de métaux rares ». Il argumenté sur le fait que Sérendipité est mis à mal par l’IA car l’IA enferme ses utilisateurs dans leur zone de confort. Avant de parler de « l’IA projet de société », il a rappelé que l’IA ne s’occupe que d’argent ; pas d’amour, ni d’oxygène ni d’eau. Il nous a ensuite enjoint à considérer que la question la plus importante est « que faire de notre temps libre, de nos rêves, de nos doutes ? » et à réfléchir à comment l’IA pourra permettre de répondre à cette question. En matière de « projet de société » il a expliqué que depuis quelques décennies, le travail est l’élément le plus structurant de notre société. Or l’IA va bouleverser le travail. Il faudra donc adapter notre rapport au travail, la rétribution du travail et la fiscalité à ce bouleversement.</span></div>  
     </div>
     <br style="clear:both;"/>
     <div><b>Actualité récente de l’IA</b></div>
     <div>
      <ul>  	<li class="list">2026&nbsp;: Les états généraux de le bioéthique incluent un volet IA&nbsp;:</li>  </ul>    <div class="list">&nbsp;</div>    <div class="list" style="margin-left: 40px;"><a class="link" href="https://www.ccne-ethique.fr/fr/etats-generaux-de-la-bioethique-2026/comprendre-les-etats-generaux">https://www.ccne-ethique.fr/fr/etats-generaux-de-la-bioethique-2026/comprendre-les-etats-generaux</a> </div>    <div class="list">&nbsp;</div>    <div class="list" style="margin-left: 40px;"><a class="link" href="https://www.liberation.fr/societe/sante/pma-ia-et-autres-questions-sensibles-lancement-des-etats-generaux-de-la-bioethique-20260121_SS5PPJ7IGNDZJLQEGGIGGFLOEY/">https://www.liberation.fr/societe/sante/pma-ia-et-autres-questions-sensibles-lancement-des-etats-generaux-de-la-bioethique-20260121_SS5PPJ7IGNDZJLQEGGIGGFLOEY/</a>  <br />  &nbsp;</div>    <div class="list" style="margin-left: 40px;"><a class="link" href="https://www.sciencesetavenir.fr/politique/pma-ia-et-autres-questions-sensibles-lancement-des-etats-generaux-de-la-bioethique_190501">https://www.sciencesetavenir.fr/politique/pma-ia-et-autres-questions-sensibles-lancement-des-etats-generaux-de-la-bioethique_190501</a>  <br />  &nbsp;</div>    <ul>  	<li class="list">Fin mars 2026&nbsp;: GitHub Copilot&nbsp;- Changement de l’ordre des choses, les données seront utilisées pour entrainer l’IA (sauf refus explicite) <br />  	 <br />  	<a class="link" href="https://www.lesnumeriques.com/intelligence-artificielle/github-copilot-microsoft-va-utiliser-vos-donnees-pour-alimenter-son-ia-sauf-si-vous-refusez-n253540.html">https://www.lesnumeriques.com/intelligence-artificielle/github-copilot-microsoft-va-utiliser-vos-donnees-pour-alimenter-son-ia-sauf-si-vous-refusez-n253540.html</a>  <br />  	&nbsp;</li>  	<li class="list">Mars 2026&nbsp;: Certaine IA semble acquérir des capacités inattendues si rapidement <br />  	 <br />  	<a class="link" href="https://www.lesnumeriques.com/intelligence-artificielle/cette-ia-vient-de-resoudre-en-quelques-secondes-un-probleme-de-physique-vieux-d-un-siecle-n253152.html">https://www.lesnumeriques.com/intelligence-artificielle/cette-ia-vient-de-resoudre-en-quelques-secondes-un-probleme-de-physique-vieux-d-un-siecle-n253152.html</a>  <br />  	 <br />  	<a class="link" href="https://www.lesnumeriques.com/intelligence-artificielle/c-est-maintenant-jensen-huang-patron-de-nvidia-affirme-que-l-humanite-a-atteint-l-agi-n253426.html">https://www.lesnumeriques.com/intelligence-artificielle/c-est-maintenant-jensen-huang-patron-de-nvidia-affirme-que-l-humanite-a-atteint-l-agi-n253426.html</a>  <br />  	 <br />  	<a class="link" href="https://www.slate.fr/sciences/intelligence-artificielle-revolution-mathematiques-theoreme-humain-machine-recherche-militaire-defense">https://www.slate.fr/sciences/intelligence-artificielle-revolution-mathematiques-theoreme-humain-machine-recherche-militaire-defense</a> </li>  </ul>  
     </div>
     <br style="clear:both;"/>
     <div><b>A propos de ...</b></div>
     <div>
      <blockquote>  <div class="photo shadow left"><a class="link" href="https://www.linkedin.com/in/emmanuel-frenod-13368a11/?originalSubdomain=fr" target="_blank"><img alt="Gardez le contact" class="not-responsive" src="https://www.veillemag.com/photo/art/default/92523364-64853873.jpg?v=1762965793" title="Gardez le contact" /></a>   <div class="legende legende_64853873"><a class="link" href="https://www.linkedin.com/in/emmanuel-frenod-13368a11/?originalSubdomain=fr" target="_blank">Gardez le contact</a> </div>  </div>    <div class="texte">  <div class="access firstletter">  <div style="margin-left: 40px;"><a class="link" href="https://www.linkedin.com/in/emmanuel-frenod-13368a11/?originalSubdomain=fr" target="_blank">Emmanuel Frénod</a>  est Professeur en Mathématiques Appliquées à l'Université Bretagne Sud, dont il est le Vice-Président en charge du Pilotage, du Système d'Information et de l'Intelligence Artificielle. Il est membre du Laboratoire de Mathématiques de Bretagne Atlantique (LMBA UMR6205). <br />   <br />  Il est également le fondateur de l'entreprise See-d (ses-d.fr) qui réalise des outils au pilotage des activités des entreprises à base d'IA et de Mathématiques. <br />   <br />  Il est spécialiste des équations aux dérivées partielles et des méthodes numériques pour simuler des phénomènes avec des oscillations à haute fréquence. <br />   <br />  En matière d'intelligence artificielle, en plus de ce qu'il fait dans le cadre de See-d, il fait de la Recherche sur les concepts mathématiques qui sont sous-jacents à l'intelligence artificielle et sur l'utilisation l'intelligence artificielle dans le cadre de la physique nucléaire et de la fusion nucléaire.</div>  </div>  </div>  </blockquote>  
     </div>
     <br style="clear:both;"/>
   ]]>
   </description>
   <photo:imgsrc>https://www.veillemag.com/photo/art/imagette/95872115-66922647.jpg</photo:imgsrc>
   <link>https://www.veillemag.com/Focus-I-A-6-Ce-que-l-IA-apporte-et-va-apporter-de-bien-Emmanuel-Frenod-Mars-2026_a7336.html</link>
  </item>

  <item>
   <guid isPermaLink="false">tag:https://www.veillemag.com,2026:rss-94613079</guid>
   <title>Filtres émotionnels : quand l’IA redessine nos voix, nos visages… et nos normes. Entretien de Nadia Guerouaou par Didier Noyé</title>
   <pubDate>Thu, 19 Feb 2026 14:07:00 +0100</pubDate>
   <dc:language>fr</dc:language>
   <dc:creator>Jacqueline Sala</dc:creator>
   <dc:subject><![CDATA[Communication &amp; Influence]]></dc:subject>
   <description>
   <![CDATA[
   Les IA génératives émotionnelles ne se contentent plus d’assister nos capacités cognitives : elles modèlent désormais nos expressions, gommant une colère jugée inopportune ou affichant un sourire artificiel en visioconférence. Pour Nadia Guerouaou, ces technologies participent à une « domestication affective » aux implications politiques et culturelles profondes. Entre manipulation possible, uniformisation expressive et reconfiguration de notre rapport au monde, elle appelle à une vigilance lucide plutôt qu’à la panique. Rencontre entre Didier Noyé et Nadia Guerouaou.     <div style="position:relative; text-align : center; padding-bottom: 1em;">
      <img src="https://www.veillemag.com/photo/art/default/94613079-66086146.jpg?v=1771506336" alt="Filtres émotionnels : quand l’IA redessine nos voix, nos visages… et nos normes. Entretien de Nadia Guerouaou par Didier Noyé" title="Filtres émotionnels : quand l’IA redessine nos voix, nos visages… et nos normes. Entretien de Nadia Guerouaou par Didier Noyé" />
     </div>
     <div>
      <div style="text-align: center;"><a class="link" href="https://www.editions-eyrolles.com/livre/notre-cerveau-sous-influence">Source&nbsp;</a>  <br />  <a class="link" href="https://www.editions-eyrolles.com/livre/notre-cerveau-sous-influence" target="_blank"><strong>Notre cerveau sous influence Comment les IA génératives façonnent nos émotions</strong></a> </div>  
     </div>
     <br style="clear:both;"/>
     <div><b>Didier Noyé : Nadia Guerouaou, vous êtes neuroscientifique et psychologue clinicienne. J’ai lu avec beaucoup d’intérêt votre essai ; vous faites état de nombreux travaux de recherche très actuels, vous nous introduisez à la philosophie de la technologie. Vous étudiez la mise en œuvre des IA génératives émotionnelles. Pouvez-vous donner des exemples de ce l’on peut faire avec des filtres émotionnels appliqués à la voix, au visage ?</b></div>
     <div>
      <div style="margin-left: 40px;"><strong>Nadia Guerouaou - </strong>On parle beaucoup de la délégation de nos capacités cognitives (mémoire, langage) aux systèmes d'IA générative. On interroge encore trop peu celle de notre expressivité émotionnelle. <br />   <br />  Pourtant, des technologies proposent déjà de paramétrer en temps réel l’expression de nos émotions. C’est le cas d’<em>Emotion Canceling Voice Conversation Engine </em>ou <em>Soft Voice</em> du géant <em>Soft Bank</em> qui propose de gommer la colère dans la voix de clients mécontents dans le cadre des <em>calls centers.</em> <br />   <br />  On peut également, toujours afin d’«&nbsp;optimiser&nbsp;» nos interactions&nbsp; afficher un faux sourire sur nos visages&nbsp;; cela nous rendra plus avenant grâce à des dispositifs qui peuvent être installés dans des logiciels de visio conférence tels que ceux qu’on utilise de plus en plus pour nos échanges professionnels, personnels et même de santé (téléconsultations de plus en plus fréquentes).</div>  
     </div>
     <br style="clear:both;"/>
     <div><b>DN - Vous parlez de domestication de nos émotions, de standardisation de notre façon de s’exprimer ; nous créons des outils qui eux-mêmes nous façonnent. Il y aura des effets sur nos régulations émotionnelles, sur nos valeurs, sur notre identité… Cela va-t-il nous rendre plus humain ou moins humain ? </b></div>
     <div>
      <div style="margin-left: 40px;"><strong>NG –</strong> Aujourd’hui comme hier, le contrôle émotionnel dont ces systèmes d’IA s’emparent n’est pas neutre, mais profondément politique et hiérarchisant. La régulation des émotions exprimées n’a jamais été un simple souci d’hygiène psychique. Elle constitue, historiquement, un instrument de gouvernementalité des individus. Or, c’est bien cette logique qu’on retrouve dans certaines technologies actuelles de paramétrage algorithmique de nos expressions émotionnelles. Prenons la colère. Ces technologies doivent nous amener à nous questionner&nbsp;: Qui a le droit d’être en colère ? Qui verrait son discours tue par le «&nbsp;mute&nbsp;» algorithmique ? Et, bien évidemment, qui décide de ce qu’est une émotion acceptable et pour qui ? <br />   <br />  La colère est un bon exemple car sa légitimité est, entre autres, genrée. <br />  La « standardisation » de l’expressivité émotionnelle est également une possibilité à envisager. Nos expressions faciales, que nous croyons spontanées, ont toujours subi un formatage culturel profond. L’histoire du sourire montre que même cette manifestation que l’on pense «&nbsp;naturelle&nbsp;» de la joie fait en réalité l’objet de codifications sociales et culturelles strictes. Avec les technologies d’IAgen le masque social et la standardisation qu’il génère devient automatique, il est appliqué sur les visages sans aucune conscience des normes qu’il applique. Et pourtant le sourire artificiel produit par les IA génératives crée des modèles expressifs uniformes qui pourraient s’imposer comme nouvelles normes dans nos interactions faisant fi de la diversité culturelle des régimes d’expression humains. <br />   <br />  Faites l’essai, demander à une IA générative d’image de vous générer un selfie de vous et vous verrez ce à quoi ressemble votre sourire&nbsp;; il y a de très fortes probabilités qu’il suive les codes esthétiques du <em>«&nbsp;smile design américain&nbsp;».</em> <br />  J’aime beaucoup votre question, cela va-t-il nous rendre plus humain car il me semble que ces technologies posent en creux la question de l’humanisme. Quelle définition de l’humain pourrait justifier par exemple la nécessité d’un contrôle absolu de nos émotions&nbsp;? Il me semble que cela a fort à voir avec l’idée d’une «&nbsp;part naturelle » animale, passionnée, pas assez raisonnée, que nous avons à rendre docile. D’où mon choix d’appeler cela de la domestication affective. <br />   <br />  Les IA génératives émotionnelles contrôlent les expressions émotionnelles, créent une norme implicite du discours acceptable&nbsp;; elles produisent des discours et des sujets lisses, heureux, optimisés, parfaitement adaptés aux exigences des sociétés dans lesquelles nous vivons. <br />  &nbsp; <br />  &nbsp;</div>  
     </div>
     <br style="clear:both;"/>
     <div><b>DN - Voyez-vous avec ces technologies des risques de manipulation, des risques éthiques ?</b></div>
     <div>
      <div style="margin-left: 40px;"><strong>NG -</strong> Assurément, il y a des risques de manipulation et la question éthique est présente en filigrane tout au long de l’essai, je crois. Le paramétrage algorithmique des émotions pourrait renforcer l’instrumentalisation des émotions qui existe déjà. Les IA génératives pourraient être utilisées pour générer une note vocale synthétique ou alors « augmenter » une voix réelle afin d’en ajuster la tonalité émotionnelle selon les attentes ou les vulnérabilités d’un destinataire donné. <br />   <br />  Ce serait un profilage du message qui ne se limiterait pas à l’information véhiculée mais qui en ajusterait la forme&nbsp;; le but serait de la rendre, par exemple, la plus convaincante possible eu égards aux différentes informations que l’on aura par ailleurs pu récolter sur des destinataires. Une forme de micro-ciblage émotionnel. <br />  &nbsp;</div>  
     </div>
     <br style="clear:both;"/>
     <div><b>DN – En fait vous nous invitez à la vigilance, à la réflexion sur le genre d’humains que l’on souhaite développer</b></div>
     <div>
      <div style="margin-left: 40px;"><strong>NG –</strong> C’est exactement le propos du livre&nbsp;: l’anthropotechnie – ce processus fondateur par lequel l’humanité se produit et se transforme elle-même.… Le fait que ces technologies ne soient pas simplement au service de transformations ponctuelles de notre apparence mais bien des technologies qui contribuent à modeler, notre perception de nous-même, des autres, du monde. Ce qui nous indigne, nous affecte également. <br />   <br />  Les hommes font leurs propres émotions, mais ils ne savent pas qu’ils les font. Lorsque des algorithmes modifient nos expressions faciales et vocales, ils sont à̀ même de reconfigurer l’environnement affectif à partir duquel notre cerveau construit nos émotions. Cette reconfiguration produit une forme d’affectivité́ hybride que je nomme l’IAffectivité. Un concept qui a pour but de «&nbsp;mettre au jour&nbsp;» ce phénomène dont nous ne sommes pas conscients et que la seule grille de lecture en termes de délégation de nos capacités ne permet pas d’appréhender directement. <br />   <br />  Cette IAffectivité n’est pas un déterminisme technique. Sa forme dépendra de nos choix de société́, des rapports de pouvoir en place et des normes qui orienteront son design. <br />  J’essaie et je ne sais pas si ça se sent, de ne pas traiter ces questions de manière anxiogène car je pense que c’est trop souvent le cas. Je crois sincèrement que les individus peuvent se sentir concernés par ces questions sans agiter la menace existentielle. <br />  &nbsp;</div>  
     </div>
     <br style="clear:both;"/>
     <div><b>Didier Noyé. Je recommande votre livre qui est très riche. J’ai découvert l’histoire du sourire, j’ai compris l’importance de la pensée transcendentale dans la construction de notre identité, j’ai été impressionné par votre recherche expérimentale qui vise à anticiper les effets comportementaux et sociaux des technologies.</b></div>
     <div>
      
     </div>
     <br style="clear:both;"/>
     <div><b>Notre cerveau sous influence Comment les IA génératives façonnent nos émotions Auteur(s) :  Nadia Guerouaou</b></div>
     <div style="position:relative; float:left; padding-right: 1ex;">
      <img src="https://www.veillemag.com/photo/art/default/94613079-66086338.jpg?v=1771506384" alt="Filtres émotionnels : quand l’IA redessine nos voix, nos visages… et nos normes. Entretien de Nadia Guerouaou par Didier Noyé" title="Filtres émotionnels : quand l’IA redessine nos voix, nos visages… et nos normes. Entretien de Nadia Guerouaou par Didier Noyé" />
     </div>
     <div>
      <div class="texte">  <div class="access firstletter">  <blockquote><a class="link" href="https://www.linkedin.com/in/nadia-guerouaou-phd-004b28224/" target="_blank">Nadia Guerouaou</a>, docteure en neurosciences cognitives et psychologue clinicienne, explore les transformations de la voix et leur rôle dans le traitement du stress post‑traumatique. Responsable des études TraumacoustiK et TraumaVoice, elle a aussi mené des recherches au Japon sur l’éthique des deepfakes vocaux. Enseignante et conférencière, elle intervient régulièrement sur les enjeux éthiques des technologies affectives.  <ul>  	<li style="white-space: normal;">  	<p style="white-space: normal;"><span style="white-space: pre-wrap;"><strong style="white-space: pre-wrap;">Thèse de doctorat</strong> : <em style="white-space: pre-wrap;">L’objet “filtre vocal”, du laboratoire à la clinique : vers l’anthropotechnie de nos cognitions sociales</em> (CHRU de Lille – CNRS FEMTO‑ST – IRCAM).</span>   	</li>  	<li style="white-space: normal;">  	<p style="white-space: normal;"><span style="white-space: pre-wrap;"><strong style="white-space: pre-wrap;">Article scientifique</strong> (co‑auteur) : travaux sur les <strong style="white-space: pre-wrap;">transformations vocales</strong> et leur usage dans le traitement du <strong style="white-space: pre-wrap;">stress post‑traumatique</strong>, publiés dans des revues de neurosciences et de psychologie clinique.</span>   	</li>  </ul>  </blockquote>  </div>  </div>  
     </div>
     <br style="clear:both;"/>
     <div><b>Didier Noyé</b></div>
     <div>
      <div class="texte">  <div class="access firstletter">  <blockquote><a class="link" href="https://www.linkedin.com/in/didier-noy%C3%A9-43044029/" target="_blank"><strong>Didier Noyé</strong> </a>  est membre de l’<a class="link" href="https://www.langue-francaise.org/" target="_blank">association Défense de la langue française</a>. Il est spécialiste du développement des ressources humaines et auteur de nombeux livres sur la communication et le management</blockquote>  </div>  </div>  
     </div>
     <br style="clear:both;"/>
     <div>
      
     </div>
     <br style="clear:both;"/>
   ]]>
   </description>
   <photo:imgsrc>https://www.veillemag.com/photo/art/imagette/94613079-66086146.jpg</photo:imgsrc>
   <link>https://www.veillemag.com/Filtres-emotionnels-quand-l-IA-redessine-nos-voix-nos-visages-et-nos-normes-Entretien-de-Nadia-Guerouaou-par-Didier_a7069.html</link>
  </item>

  <item>
   <guid isPermaLink="false">tag:https://www.veillemag.com,2026:rss-94774443</guid>
   <title>Filtres émotionnels : quand l’IA redessine nos voix, nos visages… et nos normes. Entretien de Nadia Guerouaou par Didier Noyé</title>
   <pubDate>Thu, 19 Feb 2026 14:07:00 +0100</pubDate>
   <dc:language>fr</dc:language>
   <dc:creator>Jacqueline Sala</dc:creator>
   <dc:subject><![CDATA[Communication &amp; Influence]]></dc:subject>
   <description>
   <![CDATA[
   Les IA génératives émotionnelles ne se contentent plus d’assister nos capacités cognitives : elles modèlent désormais nos expressions, gommant une colère jugée inopportune ou affichant un sourire artificiel en visioconférence. Pour Nadia Guerouaou, ces technologies participent à une « domestication affective » aux implications politiques et culturelles profondes. Entre manipulation possible, uniformisation expressive et reconfiguration de notre rapport au monde, elle appelle à une vigilance lucide plutôt qu’à la panique. Rencontre entre Didier Noyé et Nadia Guerouaou.     <div style="position:relative; text-align : center; padding-bottom: 1em;">
      <img src="https://www.veillemag.com/photo/art/default/94774443-66312996.jpg?v=1771506336" alt="Filtres émotionnels : quand l’IA redessine nos voix, nos visages… et nos normes. Entretien de Nadia Guerouaou par Didier Noyé" title="Filtres émotionnels : quand l’IA redessine nos voix, nos visages… et nos normes. Entretien de Nadia Guerouaou par Didier Noyé" />
     </div>
     <div>
      <div style="text-align: center;"><a class="link" href="https://www.editions-eyrolles.com/livre/notre-cerveau-sous-influence">Source&nbsp;</a>  <br />  <a class="link" href="https://www.editions-eyrolles.com/livre/notre-cerveau-sous-influence" target="_blank"><strong>Notre cerveau sous influence Comment les IA génératives façonnent nos émotions</strong></a> </div>  
     </div>
     <br style="clear:both;"/>
     <div><b>Didier Noyé : Nadia Guerouaou, vous êtes neuroscientifique et psychologue clinicienne. J’ai lu avec beaucoup d’intérêt votre essai ; vous faites état de nombreux travaux de recherche très actuels, vous nous introduisez à la philosophie de la technologie. Vous étudiez la mise en œuvre des IA génératives émotionnelles. Pouvez-vous donner des exemples de ce l’on peut faire avec des filtres émotionnels appliqués à la voix, au visage ?</b></div>
     <div>
      <div style="margin-left: 40px;"><strong>Nadia Guerouaou - </strong>On parle beaucoup de la délégation de nos capacités cognitives (mémoire, langage) aux systèmes d'IA générative. On interroge encore trop peu celle de notre expressivité émotionnelle. <br />   <br />  Pourtant, des technologies proposent déjà de paramétrer en temps réel l’expression de nos émotions. C’est le cas d’<em>Emotion Canceling Voice Conversation Engine </em>ou <em>Soft Voice</em> du géant <em>Soft Bank</em> qui propose de gommer la colère dans la voix de clients mécontents dans le cadre des <em>calls centers.</em> <br />   <br />  On peut également, toujours afin d’«&nbsp;optimiser&nbsp;» nos interactions&nbsp; afficher un faux sourire sur nos visages&nbsp;; cela nous rendra plus avenant grâce à des dispositifs qui peuvent être installés dans des logiciels de visio conférence tels que ceux qu’on utilise de plus en plus pour nos échanges professionnels, personnels et même de santé (téléconsultations de plus en plus fréquentes).</div>  
     </div>
     <br style="clear:both;"/>
     <div><b>DN - Vous parlez de domestication de nos émotions, de standardisation de notre façon de s’exprimer ; nous créons des outils qui eux-mêmes nous façonnent. Il y aura des effets sur nos régulations émotionnelles, sur nos valeurs, sur notre identité… Cela va-t-il nous rendre plus humain ou moins humain ? </b></div>
     <div>
      <div style="margin-left: 40px;"><strong>NG –</strong> Aujourd’hui comme hier, le contrôle émotionnel dont ces systèmes d’IA s’emparent n’est pas neutre, mais profondément politique et hiérarchisant. La régulation des émotions exprimées n’a jamais été un simple souci d’hygiène psychique. Elle constitue, historiquement, un instrument de gouvernementalité des individus. Or, c’est bien cette logique qu’on retrouve dans certaines technologies actuelles de paramétrage algorithmique de nos expressions émotionnelles. Prenons la colère. Ces technologies doivent nous amener à nous questionner&nbsp;: Qui a le droit d’être en colère ? Qui verrait son discours tue par le «&nbsp;mute&nbsp;» algorithmique ? Et, bien évidemment, qui décide de ce qu’est une émotion acceptable et pour qui ? <br />   <br />  La colère est un bon exemple car sa légitimité est, entre autres, genrée. <br />  La « standardisation » de l’expressivité émotionnelle est également une possibilité à envisager. Nos expressions faciales, que nous croyons spontanées, ont toujours subi un formatage culturel profond. L’histoire du sourire montre que même cette manifestation que l’on pense «&nbsp;naturelle&nbsp;» de la joie fait en réalité l’objet de codifications sociales et culturelles strictes. Avec les technologies d’IAgen le masque social et la standardisation qu’il génère devient automatique, il est appliqué sur les visages sans aucune conscience des normes qu’il applique. Et pourtant le sourire artificiel produit par les IA génératives crée des modèles expressifs uniformes qui pourraient s’imposer comme nouvelles normes dans nos interactions faisant fi de la diversité culturelle des régimes d’expression humains. <br />   <br />  Faites l’essai, demander à une IA générative d’image de vous générer un selfie de vous et vous verrez ce à quoi ressemble votre sourire&nbsp;; il y a de très fortes probabilités qu’il suive les codes esthétiques du <em>«&nbsp;smile design américain&nbsp;».</em> <br />  J’aime beaucoup votre question, cela va-t-il nous rendre plus humain car il me semble que ces technologies posent en creux la question de l’humanisme. Quelle définition de l’humain pourrait justifier par exemple la nécessité d’un contrôle absolu de nos émotions&nbsp;? Il me semble que cela a fort à voir avec l’idée d’une «&nbsp;part naturelle » animale, passionnée, pas assez raisonnée, que nous avons à rendre docile. D’où mon choix d’appeler cela de la domestication affective. <br />   <br />  Les IA génératives émotionnelles contrôlent les expressions émotionnelles, créent une norme implicite du discours acceptable&nbsp;; elles produisent des discours et des sujets lisses, heureux, optimisés, parfaitement adaptés aux exigences des sociétés dans lesquelles nous vivons. <br />  &nbsp; <br />  &nbsp;</div>  
     </div>
     <br style="clear:both;"/>
     <div><b>DN - Voyez-vous avec ces technologies des risques de manipulation, des risques éthiques ?</b></div>
     <div>
      <div style="margin-left: 40px;"><strong>NG -</strong> Assurément, il y a des risques de manipulation et la question éthique est présente en filigrane tout au long de l’essai, je crois. Le paramétrage algorithmique des émotions pourrait renforcer l’instrumentalisation des émotions qui existe déjà. Les IA génératives pourraient être utilisées pour générer une note vocale synthétique ou alors « augmenter » une voix réelle afin d’en ajuster la tonalité émotionnelle selon les attentes ou les vulnérabilités d’un destinataire donné. <br />   <br />  Ce serait un profilage du message qui ne se limiterait pas à l’information véhiculée mais qui en ajusterait la forme&nbsp;; le but serait de la rendre, par exemple, la plus convaincante possible eu égards aux différentes informations que l’on aura par ailleurs pu récolter sur des destinataires. Une forme de micro-ciblage émotionnel. <br />  &nbsp;</div>  
     </div>
     <br style="clear:both;"/>
     <div><b>DN – En fait vous nous invitez à la vigilance, à la réflexion sur le genre d’humains que l’on souhaite développer</b></div>
     <div>
      <div style="margin-left: 40px;"><strong>NG –</strong> C’est exactement le propos du livre&nbsp;: l’anthropotechnie – ce processus fondateur par lequel l’humanité se produit et se transforme elle-même.… Le fait que ces technologies ne soient pas simplement au service de transformations ponctuelles de notre apparence mais bien des technologies qui contribuent à modeler, notre perception de nous-même, des autres, du monde. Ce qui nous indigne, nous affecte également. <br />   <br />  Les hommes font leurs propres émotions, mais ils ne savent pas qu’ils les font. Lorsque des algorithmes modifient nos expressions faciales et vocales, ils sont à̀ même de reconfigurer l’environnement affectif à partir duquel notre cerveau construit nos émotions. Cette reconfiguration produit une forme d’affectivité́ hybride que je nomme l’IAffectivité. Un concept qui a pour but de «&nbsp;mettre au jour&nbsp;» ce phénomène dont nous ne sommes pas conscients et que la seule grille de lecture en termes de délégation de nos capacités ne permet pas d’appréhender directement. <br />   <br />  Cette IAffectivité n’est pas un déterminisme technique. Sa forme dépendra de nos choix de société́, des rapports de pouvoir en place et des normes qui orienteront son design. <br />  J’essaie et je ne sais pas si ça se sent, de ne pas traiter ces questions de manière anxiogène car je pense que c’est trop souvent le cas. Je crois sincèrement que les individus peuvent se sentir concernés par ces questions sans agiter la menace existentielle. <br />  &nbsp;</div>  
     </div>
     <br style="clear:both;"/>
     <div><b>Didier Noyé. Je recommande votre livre qui est très riche. J’ai découvert l’histoire du sourire, j’ai compris l’importance de la pensée transcendentale dans la construction de notre identité, j’ai été impressionné par votre recherche expérimentale qui vise à anticiper les effets comportementaux et sociaux des technologies.</b></div>
     <div>
      
     </div>
     <br style="clear:both;"/>
     <div><b>Notre cerveau sous influence Comment les IA génératives façonnent nos émotions Auteur(s) :  Nadia Guerouaou</b></div>
     <div style="position:relative; float:left; padding-right: 1ex;">
      <img src="https://www.veillemag.com/photo/art/default/94774443-66313002.jpg?v=1771506384" alt="Filtres émotionnels : quand l’IA redessine nos voix, nos visages… et nos normes. Entretien de Nadia Guerouaou par Didier Noyé" title="Filtres émotionnels : quand l’IA redessine nos voix, nos visages… et nos normes. Entretien de Nadia Guerouaou par Didier Noyé" />
     </div>
     <div>
      <div class="texte">  <div class="access firstletter">  <blockquote><a class="link" href="https://www.linkedin.com/in/nadia-guerouaou-phd-004b28224/" target="_blank">Nadia Guerouaou</a>, docteure en neurosciences cognitives et psychologue clinicienne, explore les transformations de la voix et leur rôle dans le traitement du stress post‑traumatique. Responsable des études TraumacoustiK et TraumaVoice, elle a aussi mené des recherches au Japon sur l’éthique des deepfakes vocaux. Enseignante et conférencière, elle intervient régulièrement sur les enjeux éthiques des technologies affectives.  <ul>  	<li style="white-space: normal;">  	<p style="white-space: normal;"><span style="white-space: pre-wrap;"><strong style="white-space: pre-wrap;">Thèse de doctorat</strong> : <em style="white-space: pre-wrap;">L’objet “filtre vocal”, du laboratoire à la clinique : vers l’anthropotechnie de nos cognitions sociales</em> (CHRU de Lille – CNRS FEMTO‑ST – IRCAM).</span>   	</li>  	<li style="white-space: normal;">  	<p style="white-space: normal;"><span style="white-space: pre-wrap;"><strong style="white-space: pre-wrap;">Article scientifique</strong> (co‑auteur) : travaux sur les <strong style="white-space: pre-wrap;">transformations vocales</strong> et leur usage dans le traitement du <strong style="white-space: pre-wrap;">stress post‑traumatique</strong>, publiés dans des revues de neurosciences et de psychologie clinique.</span>   	</li>  </ul>  </blockquote>  </div>  </div>  
     </div>
     <br style="clear:both;"/>
     <div><b>Didier Noyé</b></div>
     <div>
      <div class="texte">  <div class="access firstletter">  <blockquote><a class="link" href="https://www.linkedin.com/in/didier-noy%C3%A9-43044029/" target="_blank"><strong>Didier Noyé</strong> </a>  est membre de l’<a class="link" href="https://www.langue-francaise.org/" target="_blank">association Défense de la langue française</a>. Il est spécialiste du développement des ressources humaines et auteur de nombeux livres sur la communication et le management</blockquote>  </div>  </div>  
     </div>
     <br style="clear:both;"/>
     <div>
      
     </div>
     <br style="clear:both;"/>
   ]]>
   </description>
   <photo:imgsrc>https://www.veillemag.com/photo/art/imagette/94774443-66312996.jpg</photo:imgsrc>
   <link>https://www.veillemag.com/Filtres-emotionnels-quand-l-IA-redessine-nos-voix-nos-visages-et-nos-normes-Entretien-de-Nadia-Guerouaou-par-Didier_a7089.html</link>
  </item>

  <item>
   <guid isPermaLink="false">tag:https://www.veillemag.com,2026:rss-94331403</guid>
   <title>Métiers et IA : la grande bascule des compétences. Cécile Dejoux</title>
   <pubDate>Fri, 13 Feb 2026 16:33:00 +0100</pubDate>
   <dc:language>fr</dc:language>
   <dc:creator>Jacqueline Sala</dc:creator>
   <dc:subject><![CDATA[Intelligence artificielle]]></dc:subject>
   <description>
   <![CDATA[
   Dans cet article signé par Cécile Dejoux, professeure des universités au CNAM et fondatrice du Learning Lab Human Change, l’intelligence artificielle apparaît comme le moteur d’une transformation profonde du travail. Loin d’une simple automatisation, elle redéfinit les métiers, les compétences et l’organisation même des entreprises. Une révolution silencieuse mais irréversible.     <div style="position:relative; text-align : center; padding-bottom: 1em;">
      <img src="https://www.veillemag.com/photo/art/default/94331403-65790679.jpg?v=1770996095" alt="Métiers et IA : la grande bascule des compétences. Cécile Dejoux" title="Métiers et IA : la grande bascule des compétences. Cécile Dejoux" />
     </div>
     <div>
      <div style="text-align: center;"><a class="link" href="https://www.linkedin.com/feed/update/urn:li:activity:7427237619123761152/" target="_blank">Source</a> </div>  
     </div>
     <br style="clear:both;"/>
     <div>
      
     </div>
     <br style="clear:both;"/>
     <div>
      
     </div>
     <br style="clear:both;"/>
     <div>
      
     </div>
     <br style="clear:both;"/>
     <div>
      
     </div>
     <br style="clear:both;"/>
     <div><b>La fin des métiers figés : place aux compétences évolutives</b></div>
     <div>
      <div style="margin-left: 40px;">  <p style="white-space: normal;"><span style="white-space: pre-wrap;">En quelques années, l’intelligence artificielle — et plus encore l’IA générative — est passée du statut d’outil technique à celui de partenaire stratégique. Dans la logistique, ces robots collaboratifs accélèrent la préparation de commandes. Dans la finance, les algorithmes détectent les fraudes en temps réel. Dans les ressources humaines, des plateformes comme Beamery ou Eightfold cartographient les compétences et anticipent les trajectoires professionnelles. Même les industries créatives s’en emparent, à l’image d’Ubisoft qui utilise l’IA pour générer des scénarios ou tester des concepts publicitaires.</span> <br />    <p style="white-space: normal;"><span style="white-space: pre-wrap;">Cette montée en puissance ne se limite plus à l’exécution. Les dirigeants eux-mêmes s’appuient sur l’IA pour analyser des risques, simuler des scénarios ou identifier les compétences dont ils auront besoin demain. Comme le souligne <a class="link" href="https://www.linkedin.com/feed/update/urn:li:activity:7427237619123761152/" target="_blank">Cécile Dejoux</a>  dans ses travaux au sein de l’Observatoire des transformations managériales et RH, l’IA devient un levier d’innovation autant qu’un accélérateur de décision.</span> <br />   <br />  <span style="white-space: pre-wrap;">Cette mutation impose une rupture majeure : l’entreprise ne peut plus fonctionner sur des fiches de poste statiques. Elle doit évoluer vers une <em style="white-space: pre-wrap;">skilled based organization</em>, où la valeur repose sur les capacités réelles et actualisées des collaborateurs. Et l’urgence est réelle : 65 % des compétences demandées en 2015 seront obsolètes d’ici 2030.</span> <br />    <p style="white-space: normal;"><span style="white-space: pre-wrap;">De nouveaux métiers émergent — data scientists, prompt engineers, spécialistes en cybersécurité, responsables de l’éthique de l’IA — tandis que les professions existantes se recomposent. Mais la véritable révolution est ailleurs : <strong>ce sont les soft skills qui deviennent la clé de voûte de la performance humaine</strong>. <br />  Esprit critique, éthique, intelligence émotionnelle, capacité de négociation… autant de qualités impossibles à automatiser et essentielles pour superviser des systèmes de plus en plus puissants.</span> <br />  </div>  
     </div>
     <br style="clear:both;"/>
     <div><b>Souveraineté numérique : la bataille mondiale est lancée</b></div>
     <div>
      <div style="margin-left: 40px;">Face à cette transformation, les États s’organisent. La France accuse encore un retard d’adoption, avec seulement 10 % des entreprises de plus de dix salariés utilisant l’IA en 2024. Mais les investissements s’accélèrent : France 2030, IA Clusters, plan « Osez l’IA »… L’Europe, de son côté, mise sur une stratégie mêlant innovation et régulation, avec l’IA Act, le DSA et le DMA, tout en soutenant l’open source pour préserver sa souveraineté.  <p style="white-space: normal;"><span style="white-space: pre-wrap;"><strong style="white-space: pre-wrap;">Au fond, la question n’est plus de savoir si l’IA va transformer le travail, mais comment accompagner cette transition.</strong> Les organisations qui réussiront seront celles qui investiront massivement dans la formation et feront de leurs collaborateurs des acteurs pleinement « IA-compatibles ». Car l’avenir ne se jouera pas entre l’humain et la machine, mais dans leur capacité à collaborer intelligemment.</span> <br />    <div style="white-space: normal;">&nbsp;</div>  </div>  
     </div>
     <br style="clear:both;"/>
     <div>
      
     </div>
     <br style="clear:both;"/>
     <div>
      
     </div>
     <br style="clear:both;"/>
     <div><b>A propos de...</b></div>
     <div style="position:relative; float:left; padding-right: 1ex;">
      <img src="https://www.veillemag.com/photo/art/default/94331403-65791267.jpg?v=1770995496" alt="Métiers et IA : la grande bascule des compétences. Cécile Dejoux" title="Métiers et IA : la grande bascule des compétences. Cécile Dejoux" />
     </div>
     <div>
      <blockquote><a class="link" href="https://www.linkedin.com/in/ceciledejoux-management-transformation-innovation/" target="_blank">Cécile Dejoux</a>  est professeure des universités au CNAM, spécialiste des transformations managériales et de l’impact de l’IA sur le travail. Fondatrice et directrice du Learning Lab Human Change, elle dirige l’Observatoire des transformations managériales et RH. Conférencière reconnue, elle analyse l’évolution des compétences et accompagne les organisations dans la transition vers l’IA.</blockquote>  
     </div>
     <br style="clear:both;"/>
   ]]>
   </description>
   <photo:imgsrc>https://www.veillemag.com/photo/art/imagette/94331403-65790679.jpg</photo:imgsrc>
   <link>https://www.veillemag.com/Metiers-et-IA-la-grande-bascule-des-competences-Cecile-Dejoux_a7041.html</link>
  </item>

 </channel>
</rss>
