Découvrez comment un analyste peut surmonter le brouillard VUCA, éviter les biais cognitifs et structurer une analyse réellement utile à la décision. Une approche pragmatique pour transformer l’information en action.
Le paradoxe du déluge informationnel
Selon le cabinet IDC, nous pourrions atteindre 527 zettaoctets de données créées d’ici 2029. Même en empilant des livres ou des tours Eiffel, ce chiffre dépasse notre entendement, et la simple possession d’informations, même qualifiées de stratégiques ou, a minima, d’utiles, ne suffit pas. La finalité reste l’action : il nous faut basculer du « je veux tout savoir sur… » au « je veux faire ».
La qualité de l’information se mesure donc moins à son volume qu’à sa capacité à réduire l’incertitude pour le décideur : plus elle est « économique » (peu d’infos, beaucoup de sens), plus elle devient actionnable. À l’inverse, trop d’information tue… la décision.
Robert Salmon et Yolaine de Linares, responsables de la veille stratégique chez L’Oréal dans les années 90 avaient bien perçu les effets pervers de cette surabondance : l’information permet parfois « de se rendre indispensable, de se justifier après coup, de se protéger et finalement… d’éviter de décider ».
La qualité de l’information se mesure donc moins à son volume qu’à sa capacité à réduire l’incertitude pour le décideur : plus elle est « économique » (peu d’infos, beaucoup de sens), plus elle devient actionnable. À l’inverse, trop d’information tue… la décision.
Robert Salmon et Yolaine de Linares, responsables de la veille stratégique chez L’Oréal dans les années 90 avaient bien perçu les effets pervers de cette surabondance : l’information permet parfois « de se rendre indispensable, de se justifier après coup, de se protéger et finalement… d’éviter de décider ».
VUCA : un nouveau paradigme pour l’analyste
L’acronyme VUCA (pour Volatilité, Incertitude, Complexité, Ambiguïté) a été forgé en 1991, en contexte militaire. Il décrivait alors un changement de paradigme dans le management stratégique : « Plus on progresse dans le leadership d’une organisation, plus les tâches deviennent complexes. »
Pour l’analyste, ce cadre redéfinit la nature même de son travail. La volatilité impose une réactivité accrue. L’incertitude complique toute prédiction fiable. La complexité multiplie les facteurs à prendre en compte. L’ambiguïté autorise des interprétations contradictoires d’un même signal. Dans ce contexte, comme le dit Randy Pherson, « penser clairement n’est plus seulement un avantage compétitif, mais devient une nécessité existentielle ».
Pour l’analyste, ce cadre redéfinit la nature même de son travail. La volatilité impose une réactivité accrue. L’incertitude complique toute prédiction fiable. La complexité multiplie les facteurs à prendre en compte. L’ambiguïté autorise des interprétations contradictoires d’un même signal. Dans ce contexte, comme le dit Randy Pherson, « penser clairement n’est plus seulement un avantage compétitif, mais devient une nécessité existentielle ».
Le cerveau : allié et ennemi de l’analyste
L’économiste et prix Nobel Daniel Kahneman a montré que la pensée humaine alterne deux modes : un Système 1, rapide et intuitif, et un Système 2, lent et délibératif. Le premier permet le tri initial (saisie de signaux, reconnaissance de formes, détection de ruptures,…). Mais il expose aussi l’analyste à ses biais : ancrage, disponibilité, confirmation.
Ces biais ne sont pas des défauts, il faut insister sur ce point : ce sont les raccourcis cognitifs qui ont permis à l’espèce humaine de survivre en simplifiant des situations complexes à partir d’un minimum d’informations. Le problème survient lorsque ces automatismes s’appliquent à des situations qui exigeraient une réflexion approfondie.
Prenons un exemple concret : un veilleur repère une augmentation d’offres d’emploi techniques publiées par un concurrent. Son Système 1 suggère immédiatement l’ouverture d’un nouveau site. Mais le Système 2, mobilisé par des analystes, propose des hypothèses alternatives : les postes sont-ils en présentiel ou en distanciel ? S’agit-il de republications ? Existe-t-il une saisonnalité dans ce secteur ?
Comme je l’explique, l’exploration des hypothèses relève d’un exercice d’“imagination structurée” : il s’agit d’ouvrir toutes les possibilités, même quand elles paraissent peu probables. Cela demande de la créativité, de la disponibilité et du temps, soit précisément ce qui manque le plus souvent. Quand ce travail est écourté, l’analyste se laisse plus facilement guider par ses intuitions. Le chercheur Franck Bulinge a une belle formule pour pointer ce risque. Il explique que les intuitions nous tendent des pièges esthétiques, : nous nous racontons de belles histoires, cohérentes et dont l’apparente clarté nous fait oublier des hypothèses ou des faits qui contredisent ce récit.
Ces biais ne sont pas des défauts, il faut insister sur ce point : ce sont les raccourcis cognitifs qui ont permis à l’espèce humaine de survivre en simplifiant des situations complexes à partir d’un minimum d’informations. Le problème survient lorsque ces automatismes s’appliquent à des situations qui exigeraient une réflexion approfondie.
Prenons un exemple concret : un veilleur repère une augmentation d’offres d’emploi techniques publiées par un concurrent. Son Système 1 suggère immédiatement l’ouverture d’un nouveau site. Mais le Système 2, mobilisé par des analystes, propose des hypothèses alternatives : les postes sont-ils en présentiel ou en distanciel ? S’agit-il de republications ? Existe-t-il une saisonnalité dans ce secteur ?
Comme je l’explique, l’exploration des hypothèses relève d’un exercice d’“imagination structurée” : il s’agit d’ouvrir toutes les possibilités, même quand elles paraissent peu probables. Cela demande de la créativité, de la disponibilité et du temps, soit précisément ce qui manque le plus souvent. Quand ce travail est écourté, l’analyste se laisse plus facilement guider par ses intuitions. Le chercheur Franck Bulinge a une belle formule pour pointer ce risque. Il explique que les intuitions nous tendent des pièges esthétiques, : nous nous racontons de belles histoires, cohérentes et dont l’apparente clarté nous fait oublier des hypothèses ou des faits qui contredisent ce récit.
De la quête de vérité à la recherche du « good enough »
Face à ces limites cognitives, quelle posture adopter ? Dans les années 60, le psychologue George A. Miller montrait que notre mémoire de travail est limitée à environ sept éléments simultanés. L’ancien analyste de la CIA Richards J. Heuer en tire une conclusion opérationnelle : « La complexité augmente géométriquement avec le nombre de variables. Il est très difficile d’effectuer une analyse sans erreur uniquement dans notre tête. »
D’où la nécessité de décomposer les problèmes en éléments constitutifs et de les formaliser sur papier ou écran (listes, matrices, cartes mentales,…) pour rendre visibles les interrelations entre données.
Mais au-delà des outils, c’est la posture même de l’analyste (ou du veilleur qui en a la charge) qui doit évoluer. C’est, je crois, l’un des apports de cette thèse que de positionner la philosophie pragmatiste comme soubassement épistémologique de l’analyse, afin de déplacer la question du « vrai » vers le « utile pour décider ». Dans cette perspective, comme l’écrit William James, l’un des pères fondateurs de ce courant, « posséder des pensées vraies, c’est posséder de précieux instruments pour l’action » : la vérité n’est pas une propriété abstraite à contempler, mais un outil pour agir dans le monde.
Plutôt que de viser une vérité pure et parfaite, c’est à dire inaccessible en contexte VUCA, l’analyste a tout intérêt à rechercher ce qui « fonctionne » dans une situation donnée. Dans ce cadre, l’analyse devient un processus d’essais, de recoupements et de révisions : formuler des hypothèses testables, se demander « ce qui arriverait si… », observer les effets produits, puis conserver, provisoirement, ce qui résiste suffisamment pour éclairer l’action, tout en restant ouvert à la révision.
D’où la nécessité de décomposer les problèmes en éléments constitutifs et de les formaliser sur papier ou écran (listes, matrices, cartes mentales,…) pour rendre visibles les interrelations entre données.
Mais au-delà des outils, c’est la posture même de l’analyste (ou du veilleur qui en a la charge) qui doit évoluer. C’est, je crois, l’un des apports de cette thèse que de positionner la philosophie pragmatiste comme soubassement épistémologique de l’analyse, afin de déplacer la question du « vrai » vers le « utile pour décider ». Dans cette perspective, comme l’écrit William James, l’un des pères fondateurs de ce courant, « posséder des pensées vraies, c’est posséder de précieux instruments pour l’action » : la vérité n’est pas une propriété abstraite à contempler, mais un outil pour agir dans le monde.
Plutôt que de viser une vérité pure et parfaite, c’est à dire inaccessible en contexte VUCA, l’analyste a tout intérêt à rechercher ce qui « fonctionne » dans une situation donnée. Dans ce cadre, l’analyse devient un processus d’essais, de recoupements et de révisions : formuler des hypothèses testables, se demander « ce qui arriverait si… », observer les effets produits, puis conserver, provisoirement, ce qui résiste suffisamment pour éclairer l’action, tout en restant ouvert à la révision.
En pratique : trois réflexes à cultiver
1. Questionner ses hypothèses de départ. Avant de se lancer dans la collecte, expliciter les postulats implicites qui orientent la recherche. Pour chacun, se poser la question : et si c’était faux ?
2. Chercher à réfuter plutôt qu’à confirmer. C’est, selon Randy Pherson « l’habitude la plus difficile à maîtriser, mais potentiellement la plus bénéfique ». Rechercher activement les données qui invalideraient l’hypothèse privilégiée permet de déjouer le biais de confirmation.
3. Accepter le « good enough ». Définir explicitement ce qui est suffisant pour prendre une décision dans un contexte donné, plutôt que de viser une certitude illusoire et chronophage.
À retenir : L’analyse n’est pas un don inné réservé à quelques esprits brillants. C’est une discipline qui s’apprend et se structure. La première étape consiste à reconnaître ses propres limites cognitives — non comme une faiblesse, mais comme le point de départ d’une pratique plus rigoureuse. Dans mon enquête de terrain, ce basculement revient souvent sous une forme très concrète : ce qui aide le plus n’est pas un « gadget » méthodologique, mais la prise de conscience que l’ennemi principal se trouve dans nos automatismes.
Un analyste, évoquant les techniques d’analyse structurées qu’il avait découvertes en formation, me l’a formulé sans détour : « C’est sans doute l’outil qui m’a le plus aidé. Pas l’outil en soi, mais comprendre qu’il faut se battre contre son cerveau. »
2. Chercher à réfuter plutôt qu’à confirmer. C’est, selon Randy Pherson « l’habitude la plus difficile à maîtriser, mais potentiellement la plus bénéfique ». Rechercher activement les données qui invalideraient l’hypothèse privilégiée permet de déjouer le biais de confirmation.
3. Accepter le « good enough ». Définir explicitement ce qui est suffisant pour prendre une décision dans un contexte donné, plutôt que de viser une certitude illusoire et chronophage.
À retenir : L’analyse n’est pas un don inné réservé à quelques esprits brillants. C’est une discipline qui s’apprend et se structure. La première étape consiste à reconnaître ses propres limites cognitives — non comme une faiblesse, mais comme le point de départ d’une pratique plus rigoureuse. Dans mon enquête de terrain, ce basculement revient souvent sous une forme très concrète : ce qui aide le plus n’est pas un « gadget » méthodologique, mais la prise de conscience que l’ennemi principal se trouve dans nos automatismes.
Un analyste, évoquant les techniques d’analyse structurées qu’il avait découvertes en formation, me l’a formulé sans détour : « C’est sans doute l’outil qui m’a le plus aidé. Pas l’outil en soi, mais comprendre qu’il faut se battre contre son cerveau. »
Christophe Deschamps : Conseil et formation en veille, intelligence économique, social KM et mindmapping
Christophe Deschamps est chercheur associé et doctorant en sciences de l'information et de la communication au CEREGE (Université de Poitiers). Consultant-formateur spécialisé dans la veille stratégique, il explore depuis plus de vingt ans les liens entre technologies, usages et circulation de l'information, tant dans leurs dimensions personnelles que professionnelles.
Actif dans le champ de la veille et de l'analyse de l'information, il a été parmi les premiers en France à aborder la question de l'e-réputation (2006) et à publier sur l'émergence des IA génératives (2018). En 2023, il conçoit la première formation française dédiée à leur usage par les professionnels de l'information, suivie depuis par près d'un millier de participants.
Depuis 2004, il anime le blog outilsfroids.net, espace d'observation et d'expérimentation autour des technologies de l'information. Il y teste et documente des outils de veille, d'OSINT et de gestion des connaissances, en cherchant à comprendre comment leurs usages transforment nos pratiques quotidiennes. Par cette approche pragmatique et réflexive il souhaite éclairer la manière dont les innovations, depuis le web 2.0 jusqu'aux IA génératives, modifient en profondeur nos façons d'apprendre, de collaborer et de produire du sens.
C'est cette même approche, empirique et analytique, qui a guidé la rédaction de cette étude exploratoire : observer avant de conclure, comprendre avant de juger."
Publications :
- La boîte à outils de l'intelligence économique. Dunod. 2011
- Organisez vos données personnelles. L'essentiel du Personal Knowledge Management. Eyrolles. 2011
- Le nouveau management de l'information. FYP. 2009
Sur le blog Outils Froids Informer en 2025 (IVb) : les raisons de la défiance (France)

Accueil