POPPER N'ÉTAIT PAS UN VEILLEUR. POURTANT, IL L’AVAIT ANTICIPE.
Karl Popper publie en 1934 Logik der Forschung — traduit en anglais sous le titre The Logic of Scientific Discovery — et pose le principe qui va fracasser trois siècles d'empirisme naïf : une théorie n'est pas scientifique parce qu'elle est vérifiée, elle l'est parce qu'elle est falsifiable. Ce n'est pas l'accumulation de preuves confirmatoires qui valide une hypothèse — c'est l'existence d'un signal capable de la réfuter. « Il ne nous est pas donné d'observer la nature, nous ne pouvons que l'interroger », écrit-il. En d'autres termes : ce que vous ne cherchez pas à détruire, vous ne le comprenez pas vraiment.
Ce principe, l'Intelligence Économique l'a toujours contourné — gentiment, presque inconsciemment. La veille, le principal volet mis en œuvre dans les organisations, souvent le seul, confirme. Elle collecte des signaux qui confortent un scénario existant, alimente des rapports que leurs destinataires souhaitent lire, et circule dans des organisations où l'angle mort structurel est précisément la remise en cause du narratif dominant. Le Rapport Martre de 1994 posait déjà les bases d'une démarche rigoureuse. Trente ans plus tard, la rigueur épistémologique — la vraie — reste le parent pauvre de la discipline.
C'est ici qu'intervient le Professeur Isaac Ben Israel, général, député, mathématicien et philosophe du renseignement. Dans son ouvrage Philosophie du renseignement : logique et morale de l'espionnage (1999, traduit aux Éditions de l'Éclat), il formule une thèse qui devrait figurer en exergue de tous les cours d'IE (à condition d’assumer sa filiation avec le Renseignement) : « La philosophie du renseignement et la philosophie des sciences relèvent d'un seul et même débat. ». Ben Israel démontre que le processus estimatif — l'acte de produire une analyse à partir de sources incomplètes — est structurellement hypothético-déductif. On ne part pas des faits pour remonter à la vérité ; on formule des hypothèses et on les soumet à l'épreuve des faits. Tout analyste qui croit faire autrement se raconte une histoire. La méthode ACH de Heur, nous y incitait pourtant.
Ce principe, l'Intelligence Économique l'a toujours contourné — gentiment, presque inconsciemment. La veille, le principal volet mis en œuvre dans les organisations, souvent le seul, confirme. Elle collecte des signaux qui confortent un scénario existant, alimente des rapports que leurs destinataires souhaitent lire, et circule dans des organisations où l'angle mort structurel est précisément la remise en cause du narratif dominant. Le Rapport Martre de 1994 posait déjà les bases d'une démarche rigoureuse. Trente ans plus tard, la rigueur épistémologique — la vraie — reste le parent pauvre de la discipline.
C'est ici qu'intervient le Professeur Isaac Ben Israel, général, député, mathématicien et philosophe du renseignement. Dans son ouvrage Philosophie du renseignement : logique et morale de l'espionnage (1999, traduit aux Éditions de l'Éclat), il formule une thèse qui devrait figurer en exergue de tous les cours d'IE (à condition d’assumer sa filiation avec le Renseignement) : « La philosophie du renseignement et la philosophie des sciences relèvent d'un seul et même débat. ». Ben Israel démontre que le processus estimatif — l'acte de produire une analyse à partir de sources incomplètes — est structurellement hypothético-déductif. On ne part pas des faits pour remonter à la vérité ; on formule des hypothèses et on les soumet à l'épreuve des faits. Tout analyste qui croit faire autrement se raconte une histoire. La méthode ACH de Heur, nous y incitait pourtant.
LA VEILLE EN 2026 : PUISSANTE, RAPIDE, AUTOMATISEE ET TOUJOURS AUSSI BORGNE
Véronique Mesguich, consultante, formatrice et auteure de Rechercher l'information stratégique sur le web : sourcing, veille et analyse à l'ère de l'IA (De Boeck Supérieur, 2024), l'a dit sans détour dans un entretien récent accordé à Veille Mag : « Les biais algorithmiques peuvent être accentués par l'IA. On constate une tendance à enfermer l'utilisateur dans des "bulles de filtres". Une vérification systématique des réponses peut contribuer à réduire ce risque. » Ce diagnostic est juste — et il est inquiétant.
Car si les outils de nouvelle génération (agents IA, plateformes no-code, modèles génératifs multimodaux) décuplent la capacité de collecte et de synthèse, ils amplifient mécaniquement les biais de leurs données d'entraînement.
Car si les outils de nouvelle génération (agents IA, plateformes no-code, modèles génératifs multimodaux) décuplent la capacité de collecte et de synthèse, ils amplifient mécaniquement les biais de leurs données d'entraînement.
« La rapidité n'est pas la rigueur. Et la synthèse n'est pas l'analyse ».
C'est précisément ce paradoxe que le démonstrateur SMIST-GPT — issu des travaux de recherche sur le Système de Management de l'Information Stratégique (SMISt) développé pour illustrer par des cas concrets le livre « Intelligence Économique 3.0 : Le SMISt » — tente de résoudre.
L'ouvrage, dont la postface est signée Isaac Ben Israel lui-même, plaide pour une révolution méthodologique : rendre l'IE scientifique, mesurable, éthique et auditable. Le SMISt mobilise la psychologie cognitive et sociale pour structurer un dispositif opérationnel capable de contrer la saturation informationnelle, les biais humains et l'effet de groupe. L’IE3.0 développe une histoire universelle, une généalogie assumée et des limites éthiques, une définition simple, des apports concrets pour les décideurs, un schéma de mise en œuvre scalable dans les organisations.
Mais aussi une méthode universelle, la falsification poppérienne pour décliner le cycle du renseignement. Une fois que ce dernier sera augmenté par une nouvelle phase, l’étude de la prise en compte dans la décision des livrables, il ne lui restera plus qu’à définir les KPI pour piloter l’IE et proposer une méthode de calcul simple de son ROI pour mesurer sa rentabilité. Tous les prérequis attendus pour l’enseigner en science de gestion seront alors posés.
L'ouvrage, dont la postface est signée Isaac Ben Israel lui-même, plaide pour une révolution méthodologique : rendre l'IE scientifique, mesurable, éthique et auditable. Le SMISt mobilise la psychologie cognitive et sociale pour structurer un dispositif opérationnel capable de contrer la saturation informationnelle, les biais humains et l'effet de groupe. L’IE3.0 développe une histoire universelle, une généalogie assumée et des limites éthiques, une définition simple, des apports concrets pour les décideurs, un schéma de mise en œuvre scalable dans les organisations.
Mais aussi une méthode universelle, la falsification poppérienne pour décliner le cycle du renseignement. Une fois que ce dernier sera augmenté par une nouvelle phase, l’étude de la prise en compte dans la décision des livrables, il ne lui restera plus qu’à définir les KPI pour piloter l’IE et proposer une méthode de calcul simple de son ROI pour mesurer sa rentabilité. Tous les prérequis attendus pour l’enseigner en science de gestion seront alors posés.
CE QUE LE DÉMONSTRATEUR TENTE DE FALSIFIER — ET CE QU'IL RÉVÈLE
La falsification avancée ne se limite pas à détecter le faux : elle anticipe la manipulation avant qu'elle ne se propage ; quelle qu’en soit l’origine. Les modèles d'IA peuvent désormais interroger leurs propres biais, tester leurs points aveugles, identifier où ils seraient vulnérables à la désinformation. C'est une forme d'auto-critique systémique : l'algorithme examine ses propres prédictions, cherche où il pourrait se tromper, signale ses zones d'incertitude.
Cette capacité d'auto-falsification transforme l'IA en auditeur de ses propres erreurs potentielles fondée sur sa propre rationalité ; celle à laquelle elle ne peut pas déroger. Plutôt que d'affirmer, elle questionne. Plutôt que de conclure, elle délimite. Dans un écosystème saturé de propagande générée automatiquement, cette humilité computationnelle devient une nécessité éthique. « Le doute devient un avantage stratégique » comme conclut Christophe Stalla-Bourdillon. L'outil qui reconnaît ses limites surpasse celui qui prétend tout savoir sur tout ; ce que le décideur attend. Il permet d’offrir à l’analyste un protocole de traçabilité totale : chaque affirmation porte son identifiant de source, chaque inférence est justifiée, chaque hypothèse doit tenter d’être testée, chaque jugement est présenté comme tel, chaque angle mort est identifié. Le décideur humain redevient l’acteur central d’une décision plus rationnelle.
Le cas iranien l'illustre : 10 jours plus tard, face à la réalité des faits qui se sont produits (ou pas), la rétro-analyse SMIST-GPT mesure 72% de pertinence du contenu du rapport initial ayant conduit à donner l’alerte. 14 tests de falsification, 1 hypothèse réfutée — « la succession Khamenei anticipée en 4-8 semaines, réalisée en 8 jours ». L'erreur n'est pas un échec : elle est la preuve que le système fonctionne. Parce qu'elle est documentée, mesurée, elle s’intègre dans la version suivante du modèle pour l’améliorer.
L’étude de cas sur le conflit russo-ukrainien révèle la même logique : 20 itérations, 100 sources, 7 langues — et un score de fiabilité affiché à 36% ! Ce n'est pas une défaillance. C'est l'honnêteté analytique imposée par le protocole sur un conflit aux innombrables variables que le conflit en Iran complexifie encore. Le plafond réaliste pour ce type d'analyse reste autour de 55%. L'IA ne prétend pas tout savoir : elle structure ce qu'elle sait, trace ce qu'elle ignore, signale où elle peut se tromper, le veilleur identifie ce que l’IA suggère de compléter, l’analyste humain reprend le livrable qu’il dépasse, augmente et transcende, qu’il soit expert ou non du domaine traité. Il est guidé.
S'auto-évaluer par falsification de ses propres outputs : voilà comment progresse SMIST-GPT. Non pas en masquant ses limites, mais en les documentant comme des données. Le veilleur recherche de nouvelles sources sur la base d’un plan de renseignement généré par l’outil. L’analyste apprend des erreurs du modèle, ce qui lui permet de réduire ses propres biais. Le décideur prend une décision sur la base d’un livrable augmenté dont les biais psychologiques et cognitifs ont été réduits dans toutes les phases précédentes du cycle du renseignement. Si sa décision reste politique, ce n’est pas la faute d’un renseignement biaisé.
C'est exactement ce que Donald Trump lui-même illustrait le 15 mars 2026 dans une interview sur ABC, dénonçant l'utilisation par l'Iran de l'IA pour injecter des images de synthèse — navires en flammes, porte-avions en perdition — dans le flux médiatique mondial. Des fake news générées en secondes, virales en minutes, démenties en heures. Mais déjà vues par des millions de personnes, relayées par les médias supposés fiables. Pourtant SMIST-GPT les a ignorées.
« On combat la désinformation avec des modèles entraînés sur de la désinformation. Le remède ressemble pourtant bien au mal ».
Cette capacité d'auto-falsification transforme l'IA en auditeur de ses propres erreurs potentielles fondée sur sa propre rationalité ; celle à laquelle elle ne peut pas déroger. Plutôt que d'affirmer, elle questionne. Plutôt que de conclure, elle délimite. Dans un écosystème saturé de propagande générée automatiquement, cette humilité computationnelle devient une nécessité éthique. « Le doute devient un avantage stratégique » comme conclut Christophe Stalla-Bourdillon. L'outil qui reconnaît ses limites surpasse celui qui prétend tout savoir sur tout ; ce que le décideur attend. Il permet d’offrir à l’analyste un protocole de traçabilité totale : chaque affirmation porte son identifiant de source, chaque inférence est justifiée, chaque hypothèse doit tenter d’être testée, chaque jugement est présenté comme tel, chaque angle mort est identifié. Le décideur humain redevient l’acteur central d’une décision plus rationnelle.
Le cas iranien l'illustre : 10 jours plus tard, face à la réalité des faits qui se sont produits (ou pas), la rétro-analyse SMIST-GPT mesure 72% de pertinence du contenu du rapport initial ayant conduit à donner l’alerte. 14 tests de falsification, 1 hypothèse réfutée — « la succession Khamenei anticipée en 4-8 semaines, réalisée en 8 jours ». L'erreur n'est pas un échec : elle est la preuve que le système fonctionne. Parce qu'elle est documentée, mesurée, elle s’intègre dans la version suivante du modèle pour l’améliorer.
L’étude de cas sur le conflit russo-ukrainien révèle la même logique : 20 itérations, 100 sources, 7 langues — et un score de fiabilité affiché à 36% ! Ce n'est pas une défaillance. C'est l'honnêteté analytique imposée par le protocole sur un conflit aux innombrables variables que le conflit en Iran complexifie encore. Le plafond réaliste pour ce type d'analyse reste autour de 55%. L'IA ne prétend pas tout savoir : elle structure ce qu'elle sait, trace ce qu'elle ignore, signale où elle peut se tromper, le veilleur identifie ce que l’IA suggère de compléter, l’analyste humain reprend le livrable qu’il dépasse, augmente et transcende, qu’il soit expert ou non du domaine traité. Il est guidé.
S'auto-évaluer par falsification de ses propres outputs : voilà comment progresse SMIST-GPT. Non pas en masquant ses limites, mais en les documentant comme des données. Le veilleur recherche de nouvelles sources sur la base d’un plan de renseignement généré par l’outil. L’analyste apprend des erreurs du modèle, ce qui lui permet de réduire ses propres biais. Le décideur prend une décision sur la base d’un livrable augmenté dont les biais psychologiques et cognitifs ont été réduits dans toutes les phases précédentes du cycle du renseignement. Si sa décision reste politique, ce n’est pas la faute d’un renseignement biaisé.
C'est exactement ce que Donald Trump lui-même illustrait le 15 mars 2026 dans une interview sur ABC, dénonçant l'utilisation par l'Iran de l'IA pour injecter des images de synthèse — navires en flammes, porte-avions en perdition — dans le flux médiatique mondial. Des fake news générées en secondes, virales en minutes, démenties en heures. Mais déjà vues par des millions de personnes, relayées par les médias supposés fiables. Pourtant SMIST-GPT les a ignorées.
« On combat la désinformation avec des modèles entraînés sur de la désinformation. Le remède ressemble pourtant bien au mal ».
L'INTELLIGENCE ÉCONOMIQUE 3.0 : UNE DISCIPLINE QUI DOIT CHOISIR
La question posée ici n'est pas technique. Elle est épistémologique — et donc, stratégique. L'Intelligence Économique peut continuer à se définir comme un ensemble de pratiques de collecte et d'analyse plus ou moins bien orchestrée, outillées par l'IA comme elles l'était hier par les bases de données et les requêtes sur les moteurs de recherche. Ou elle peut franchir le pas que Popper avait tracé il y a quatre-vingt-dix ans, que Ben Israel appelait de ses vœux il y a vingt-cinq ans et que le Mossad a expérimenté avec le concept du 10ème homme -sans pour autant l’appliquer avant le 7 octobre ; conduisant au nouvel échec que l’on connait.
Se doter de standards de traçabilité, d’un protocole de falsification systématique, d'une métrique de fiabilité déclarée (bien que stochastique, ce n’est pas pire que la matrice d’évaluation des sources et de l’information qui conduit à un abaque de pourcentage) — et l’enseigner tout comme une science, (de gestion à part entière lorsqu’il s’agit d’IE), et non comme un art subtil décliné en « métiers »; faute de consensus.
Se doter de standards de traçabilité, d’un protocole de falsification systématique, d'une métrique de fiabilité déclarée (bien que stochastique, ce n’est pas pire que la matrice d’évaluation des sources et de l’information qui conduit à un abaque de pourcentage) — et l’enseigner tout comme une science, (de gestion à part entière lorsqu’il s’agit d’IE), et non comme un art subtil décliné en « métiers »; faute de consensus.
« En effet s’il n’existe pas de consensus, autant essaimer, disséminer, diversifier ».
Véronique Mesguich nous dit : « l'efficacité de l'aide à la décision dépend moins de la puissance de l'outil que de la compétence analytique du veilleur. » nous dirions plutôt « de la compétence falsificatrice du veilleur ». Mais la compétence analytique ne s'improvise pas. Christophe Deschamps nous dit « Le protocole F-T-T (Formuler → Tester → Tracer) [vise] à guider les analystes dans le fait de générer des hypothèses plausibles, les confronter et les discriminer par une recherche ciblée, et surtout, à rendre le raisonnement traçable et opposable aux décideurs en conservant les preuves et les arbitrages effectués. » Cela se conçoit donc, se structure, et si automatisé cela peut être désormais systématisé. Demain certifié.
L'espoir est toujours au fond de la boîte. Il s'appelle esprit critique. Il ne s'installe pas. Il se cultive — trente ans après le Rapport Martre, à l'heure où l'IA nous tend le miroir que nous avions jusqu'ici soigneusement évité de regarder. Le temps est donc venu pour que les processus de veille soient systématiquement, tracés, complétés et les faits systématiquement tentés d’être infirmés avant d’être retenus dans l’analyse. L’analyse peut se fonder sur des hypothèses, y compris adversariales, pour tenter d’être falsifiées, et les traitements documentée puis leur résultat mesurés dans le temps. Cela suppose aussi d'accepter que 68 %, voire 38% soient un résultat honnête ; fusse-t-il estimé par une IA stochastique — et que 100 % soit un mensonge.
« Ne serait-ce que pour prendre en compte la part d’incertitude dans la décision finale, histoire de ne pas totalement se tromper ».
L'espoir est toujours au fond de la boîte. Il s'appelle esprit critique. Il ne s'installe pas. Il se cultive — trente ans après le Rapport Martre, à l'heure où l'IA nous tend le miroir que nous avions jusqu'ici soigneusement évité de regarder. Le temps est donc venu pour que les processus de veille soient systématiquement, tracés, complétés et les faits systématiquement tentés d’être infirmés avant d’être retenus dans l’analyse. L’analyse peut se fonder sur des hypothèses, y compris adversariales, pour tenter d’être falsifiées, et les traitements documentée puis leur résultat mesurés dans le temps. Cela suppose aussi d'accepter que 68 %, voire 38% soient un résultat honnête ; fusse-t-il estimé par une IA stochastique — et que 100 % soit un mensonge.
« Ne serait-ce que pour prendre en compte la part d’incertitude dans la décision finale, histoire de ne pas totalement se tromper ».
A propos de
Thierry Lafon est co-auteur avec Stéphanie Brochot de « Intelligence Économique 3.0 — Le Système de Management de l'Information Stratégique (SMISt) », Connaissances et Savoirs, 2024. Préface Christophe Stalla-Bourdillon, Postface d'Isaac Ben Israel.
Références
- Karl Popper, Logik der Forschung, 1934 (La Logique de la découverte scientifique, Payot, 1973)
- Isaac Ben Israel, Philosophie du renseignement : logique et morale de l'espionnage, Éditions de l'Éclat, 1999
- Véronique Mesguich, Rechercher l'information stratégique sur le web, De Boeck Supérieur, 2024
- Stéphanie Brochot & Thierry Lafon, Intelligence Économique 3.0 — SMISt, Connaissances et Savoirs, 2024
- Richards Heuer, Psychology of Intelligence Analysis, CIA, 1999
- Christophe Deschamps — Docteur en Sciences de l'information et de la communication (CEREGE, Université de Poitiers, 2025). Consultant-formateur spécialisé en veille stratégique. Auteur de La boîte à outils de l'intelligence économique (Dunod, 2011), animateur depuis 2004 du blog outilsfroids.net. Sa thèse est disponible sur Thèses.fr (parution prévue courant 2026).
#intelligenceéconomique #analysestratégique #falsifiabilité #espritcritique #IAetdécision #méthodologieanalytique #veillestratégique #incertitudegéopolitique #gouvernancedelinformation #protocoleFTT

Accueil