
Le rapport de Gartner paru en Juin 2025 souligne qu’une grande part des projets d’intelligence artificielle dite « agentique » bute sur des difficultés imprévues et finit souvent par être stoppée. L’enthousiasme initial se heurte à une réalité financière et opérationnelle plus complexe qu’il n’y paraît, quand les coûts de mise en œuvre grimpent sans que la valeur concrète pour l’entreprise ne soit clairement démontrée, et que la gouvernance autour de ces agents autonomes reste insuffisamment structurée. Anushree Verma, directrice de recherche chez Gartner, explique que la majorité de ces projets sont encore à l’état expérimental, souvent lancés sous l’effet d’un engouement technologique excessif.
Pour transformer cette promesse en succès pérenne, Gartner insiste sur l’impératif de ne pas greffer des agents IA sur des processus déjà bien rodés sans revoir la conception même des workflows. Il convient de privilégier des scénarios où l’autonomie véritable de l’agent crée un avantage mesurable pour l’organisation, de renforcer les contrôles et la traçabilité des actions de l’IA, et de résister à la tentation du « rebranding » technologique qui, sous couvert d’innovation, recycle des solutions existantes.
Au-delà de l’effervescence médiatique, la clé tient dans l’intégration réfléchie de ces agents dès l’étape de conception des systèmes d’information, dans une vision où l’IA devient un moteur de transformation. L’enjeu consiste finalement à passer de l’expérimentation technologique à une adoption structurée, capable de générer une vraie valeur métier et d’accompagner les organisations vers une autonomie intelligente et responsable.
Pour transformer cette promesse en succès pérenne, Gartner insiste sur l’impératif de ne pas greffer des agents IA sur des processus déjà bien rodés sans revoir la conception même des workflows. Il convient de privilégier des scénarios où l’autonomie véritable de l’agent crée un avantage mesurable pour l’organisation, de renforcer les contrôles et la traçabilité des actions de l’IA, et de résister à la tentation du « rebranding » technologique qui, sous couvert d’innovation, recycle des solutions existantes.
Au-delà de l’effervescence médiatique, la clé tient dans l’intégration réfléchie de ces agents dès l’étape de conception des systèmes d’information, dans une vision où l’IA devient un moteur de transformation. L’enjeu consiste finalement à passer de l’expérimentation technologique à une adoption structurée, capable de générer une vraie valeur métier et d’accompagner les organisations vers une autonomie intelligente et responsable.
Gartner vient de lancer une mise en garde : d’ici fin 2027, plus de 40 % des projets d’IA agentique pourraient être abandonnés.
Ce chiffre n’est pas anodin et renvoie à une réalité industrielle : nombreuses sont les entreprises qui ont exploré ces technologies sans vraiment savoir ce qu’est un agent autonome ni comment en tirer une valeur durable pour leur activité.
Selon plusieurs experts cette période de désillusion est nécessaire.
Les « agents washing » – ces fausses solutions dopées aux grands modèles de langage mais incapables de tenir leurs promesses – touchent à leur fin. Gartner précise que plus de la moitié des initiatives en IA agentique échoueront dans les 18 mois : un agent opérationnel ne peut pas se permettre d’halluciner ou d’improviser, il doit impérativement savoir raisonner, décider, s’intégrer et garantir une fiabilité totale.
Au-delà de cette remise à plat, c’est tout l’écosystème économique qui devrait y gagner. La vague actuelle d’enthousiasme a souvent fait croire qu’un bon prompt suffisait à automatiser des fonctions entières. Industrialiser l’IA, c’est autre chose : répondre à des enjeux concrets comme la qualité d’exécution, la gestion de la charge opérationnelle, les délais de traitement et l’efficacité commerciale. C’est sur ces points que l’IA agentique, conçue méthodiquement, peut apporter de vraies solutions.
Cette phase de rationalisation peut être une chance pour remettre au centre du débat la valeur réelle, la solidité des solutions et leur impact terrain. Nous entrons dans une ère où les agents intelligents devront être à la fois utiles, explicables et véritablement prêts pour l’échelle.
Selon plusieurs experts cette période de désillusion est nécessaire.
Les « agents washing » – ces fausses solutions dopées aux grands modèles de langage mais incapables de tenir leurs promesses – touchent à leur fin. Gartner précise que plus de la moitié des initiatives en IA agentique échoueront dans les 18 mois : un agent opérationnel ne peut pas se permettre d’halluciner ou d’improviser, il doit impérativement savoir raisonner, décider, s’intégrer et garantir une fiabilité totale.
Au-delà de cette remise à plat, c’est tout l’écosystème économique qui devrait y gagner. La vague actuelle d’enthousiasme a souvent fait croire qu’un bon prompt suffisait à automatiser des fonctions entières. Industrialiser l’IA, c’est autre chose : répondre à des enjeux concrets comme la qualité d’exécution, la gestion de la charge opérationnelle, les délais de traitement et l’efficacité commerciale. C’est sur ces points que l’IA agentique, conçue méthodiquement, peut apporter de vraies solutions.
Cette phase de rationalisation peut être une chance pour remettre au centre du débat la valeur réelle, la solidité des solutions et leur impact terrain. Nous entrons dans une ère où les agents intelligents devront être à la fois utiles, explicables et véritablement prêts pour l’échelle.
Articles en références à l'IA Agentique - Journalistes
1. "Les agents autonomes : révolution ou danger pour les entreprises en 2025 ?"
Guillaume Degans, 28 janvier 2025
2. "IA Agentique : vers une nouvelle ère de l’Intelligence Artificielle autonome ?"
Diane Galoo, 8 avril 2025
3. Multimodale, locale, agentique... quelle IA en 2025 ?
Clément Bohic, décembre 2024
Guillaume Degans, 28 janvier 2025
2. "IA Agentique : vers une nouvelle ère de l’Intelligence Artificielle autonome ?"
Diane Galoo, 8 avril 2025
3. Multimodale, locale, agentique... quelle IA en 2025 ?
Clément Bohic, décembre 2024
Référence Expert Rachid Alami
Directeur de Recherche at LAAS-CNRS, Chair on Cognitive and Interactive Robotics at Artificial and Natural Intelligence Toulouse Institute (ANITI)
Rachid Alami situe l’IA agentique à la croisée de la robotique cognitive et de l’interaction homme-machine, où le cœur du dispositif repose sur ce qu’il appelle « l’action conjointe ». Pour qu’un robot ou un agent logiciel collabore réellement avec un humain, il ne suffit pas de lui donner des objectifs : il doit partager et maintenir une intention commune, percevoir l’état de son partenaire et anticiper ses mouvements.
Plutôt que de se limiter à des algorithmes de planification opaques, il préconise une architecture décisionnelle modulaire associant une planification stratégique à une exécution en temps réel, le tout pensé pour rester transparent et vérifiable. Cette fondation technique intègre un apprentissage continu qui permet à l’agent d’affiner ses compétences relationnelles à chaque interaction, tout en garantissant la traçabilité et l’auditabilité de ses choix.
Enfin, il met l’accent sur la richesse des échanges multimodaux — combiner gestes, langage naturel et retours visuels — pour informer l’utilisateur des intentions de l’agent et établir une coordination fluide. C’est cette alliance entre cognition, adaptabilité et dialogue qui dessine, selon lui, la feuille de route pour transformer des prototypes isolés en agents autonomes réellement fiables et opérationnels.
Référence Expert Olivier Pietquin
Olivier Pietquin
Chief Scientist @Earth Species Project | Ex Google DeepMind | On leave of Prof @ULille
Olivier Pietquin fait de l’apprentissage par renforcement le moteur central de l’IA agentique, en cherchant avant tout à faire converger les décisions des agents avec les objectifs et préférences humaines tout en simplifiant les algorithmes. Il critique l’usage systématique du Proximal Policy Optimization, qu’il juge trop lourd et complexe, et démontre qu’une variante inspirée de REINFORCE peut rivaliser ou même surpasser PPO en termes de stabilité et de performance.
Sa méthode de Contrastive Policy Gradient marque une autre avancée : elle permet d’entraîner des politiques optimales sans recours aux techniques coûteuses d’échantillonnage d’importance, ce qui réduit les besoins en calcul et les instabilités. En appliquant ces principes à des dialogues multimodaux—où gestes, langage et retours visuels se combinent—Pietquin montre comment un agent peut apprendre par essais itératifs, affiner sa stratégie et communiquer clairement ses intentions. Ses travaux dessinent ainsi une voie vers des agents autonomes plus efficients, adaptatifs et transparents, mieux alignés sur les usages réels.