Christian Harbulot signe la préface de votre ouvrage, et il y insiste sur la nécessité de rompre avec les illusions narratives pour revenir à une lecture stratégique du réel. En quoi son regard a t il influencé votre démarche, et qu’apporte t il selon vous à la compréhension des dérives actuelles de l’analyse ?
La préface de Christian Harbulot a une double signification pour moi.
D'abord une dette intellectuelle. Depuis le rapport Martre et la fondation de l'École de Guerre Économique, il porte une idée simple mais qui dérange encore : l'information n'est jamais un espace neutre, et toute lecture naïve des rapports de force est une vulnérabilité stratégique. Il avait anticipé la « victoire » d’Huntington sur Fukuyama...
Cet ebook prolonge ce geste sur un terrain plus restreint mais central, celui des sources elles-mêmes et de la manière dont nous nous les interdisons pour des raisons idéologiques. Ce que son regard apporte aux dérives actuelles, c'est précisément une mémoire longue : il a vu ces mécanismes à l'œuvre depuis quarante ans, ce qui permet de relativiser le caractère prétendument inédit de la guerre informationnelle contemporaine. Y compris de la guerre cognitive sur laquelle il publiait déjà en 2002.
Mais sa préface pousse mon propos plus loin que je ne l'avais envisagé. Mon constat de départ est très concret : chaque année, mes étudiants en veille stratégique remettent des projets où, en caricaturant un peu, ils n’ont surveillé que les sources avec lesquelles ils sont en accord idéologique. Ce sont d'abord les veilleurs et les étudiants, plus que les analystes, conscients de la valeur décisionnelle de leurs propositions, qui se limitent ainsi l'accès au réel.
Christian Harbulot, en fait une question qui dépasse le cercle des futurs professionnels de l’information. Il en fait, une « question d'instruction civique », et appelle à initier les jeunes dès le secondaire à cette compréhension critique des mots, des paroles, des images.
D'abord une dette intellectuelle. Depuis le rapport Martre et la fondation de l'École de Guerre Économique, il porte une idée simple mais qui dérange encore : l'information n'est jamais un espace neutre, et toute lecture naïve des rapports de force est une vulnérabilité stratégique. Il avait anticipé la « victoire » d’Huntington sur Fukuyama...
Cet ebook prolonge ce geste sur un terrain plus restreint mais central, celui des sources elles-mêmes et de la manière dont nous nous les interdisons pour des raisons idéologiques. Ce que son regard apporte aux dérives actuelles, c'est précisément une mémoire longue : il a vu ces mécanismes à l'œuvre depuis quarante ans, ce qui permet de relativiser le caractère prétendument inédit de la guerre informationnelle contemporaine. Y compris de la guerre cognitive sur laquelle il publiait déjà en 2002.
Mais sa préface pousse mon propos plus loin que je ne l'avais envisagé. Mon constat de départ est très concret : chaque année, mes étudiants en veille stratégique remettent des projets où, en caricaturant un peu, ils n’ont surveillé que les sources avec lesquelles ils sont en accord idéologique. Ce sont d'abord les veilleurs et les étudiants, plus que les analystes, conscients de la valeur décisionnelle de leurs propositions, qui se limitent ainsi l'accès au réel.
Christian Harbulot, en fait une question qui dépasse le cercle des futurs professionnels de l’information. Il en fait, une « question d'instruction civique », et appelle à initier les jeunes dès le secondaire à cette compréhension critique des mots, des paroles, des images.
Vous suggérez que ce réflexe d'autocensure dépasse le seul cadre professionnel et touche à quelque chose de plus profond. Pouvez-vous préciser ?
Oui, et c'est un point qui me tient à cœur parce qu'il déborde largement le périmètre de la veille stratégique.
Le réflexe « on ne va quand même pas lire ce truc » n'est pas seulement une faute professionnelle. C'est le symptôme d'une confusion beaucoup plus profonde, où lire une idée qu'on désapprouve est devenu une forme de blasphème civil. Comme si exposer son esprit à un texte adverse revenait à s'en rendre complice. Comme si le texte était un acte au même titre qu'un geste physique.
Il y a là une erreur de catégorie fondamentale. Une caricature n'est pas équivalente à une balle dans la tête. Un pamphlet n'est pas un coup de couteau. Entre le texte et l'acte, il y a toujours l'espace irréductible de la conscience du lecteur : le temps de lire, d'interpréter, de peser, d'accepter ou de refuser. Cet espace, c'est ce que la liberté d'expression a pour fonction de protéger. C'est aussi, accessoirement, l'espace dans lequel l'analyste travaille. Le fermer, c'est renoncer aux deux en même temps : à la liberté de penser et à la possibilité d'analyser.
Ce qui me frappe, c'est que ce réflexe se présente très souvent comme une défense de la démocratie contre le « poison » des idées toxiques. Mais une démocratie qui ne supporte plus d'être exposée à ce qui la conteste a déjà renoncé à se penser elle-même. Elle ne se protège pas mais s'anesthésie.
Le réflexe « on ne va quand même pas lire ce truc » n'est pas seulement une faute professionnelle. C'est le symptôme d'une confusion beaucoup plus profonde, où lire une idée qu'on désapprouve est devenu une forme de blasphème civil. Comme si exposer son esprit à un texte adverse revenait à s'en rendre complice. Comme si le texte était un acte au même titre qu'un geste physique.
Il y a là une erreur de catégorie fondamentale. Une caricature n'est pas équivalente à une balle dans la tête. Un pamphlet n'est pas un coup de couteau. Entre le texte et l'acte, il y a toujours l'espace irréductible de la conscience du lecteur : le temps de lire, d'interpréter, de peser, d'accepter ou de refuser. Cet espace, c'est ce que la liberté d'expression a pour fonction de protéger. C'est aussi, accessoirement, l'espace dans lequel l'analyste travaille. Le fermer, c'est renoncer aux deux en même temps : à la liberté de penser et à la possibilité d'analyser.
Ce qui me frappe, c'est que ce réflexe se présente très souvent comme une défense de la démocratie contre le « poison » des idées toxiques. Mais une démocratie qui ne supporte plus d'être exposée à ce qui la conteste a déjà renoncé à se penser elle-même. Elle ne se protège pas mais s'anesthésie.
Vous affirmez que la donnée brute est supérieure au récit. Or, dans la pratique, la donnée brute est souvent inaccessible, manipulée, ou techniquement illisible pour la plupart des analystes. N’y a t il pas un risque de créer une illusion de maîtrise technique qui masque d’autres vulnérabilités ?
Avant de répondre, une précision : je ne dis pas que la donnée brute est « supérieure » au récit. Les deux ont des fonctions distinctes et complémentaires. Le récit médiatique apporte la mise en perspective, la hiérarchisation, la contextualisation. C'est précieux. La donnée brute, elle, permet la vérification d'un fait. Ma règle est plutôt : le plus proche des données brutes l'emporte pour établir un fait, à condition que ces données soient techniquement vérifiables. Ce n'est pas une hiérarchie de valeur, plutôt un ordre méthodologique.
Cela dit, votre objection pointe un risque réel, et je dirais même qu'il a deux aspects.
Le premier, c'est l'illusion de maîtrise pour l'analyste. Avoir géolocalisé une vidéo ne dit rien de ce qui s'y joue vraiment : des intentions des acteurs, du contexte politique dans lequel la scène s'inscrit, de ce qui se passe hors-cadre. Une donnée peut être parfaitement authentique et en même temps totalement trompeuse si on ignore la logique des acteurs qui l'ont produite ou diffusée. C'est exactement ce que j'essaie de montrer dans le troisième chapitre avec la notion de vérité opératoire : comprendre comment un acteur voit le monde est parfois plus important que d'établir si ce qu'il dit est vrai.
Le second aspect du risque, c'est ce que j'appellerais la fétichisation de la preuve technique. Une dérive où seul ce qui se vérifie par métadonnées compterait, et où tout le reste (témoignages, connaissance historique d'un dossier, compréhension fine d'un acteur) serait relégué au rang d'impression subjective. C'est une forme de scientisme appliqué au renseignement, aussi dangereuse que l'illusion narrative qu'elle prétend combattre.
Ma méthode cherche précisément à articuler ces deux risques, et elle le fait sur deux plans distincts. Sur le plan de la solidité d'une affirmation, je propose dans le dernier chapitre une approche en quatre couches : on commence par chercher qui est le plus proche de l'événement, puis on regarde ce que le contenu lui-même permet de vérifier techniquement, puis on cherche une corroboration par des sources réellement indépendantes. La réputation d'une source ne sert qu'en bout de chaîne, comme guide d'allocation de l'effort de vérification, jamais comme conclusion qui en dispenserait. Ce dispositif protège de l'illusion narrative. Soit l’inverse de ce qu’on fait habituellement…
Mais il y a un second plan, fonctionnel celui-là, que je traite séparément : médias et données brutes ne font pas la même chose. Les données brutes servent à établir ou contester un fait. Les médias, eux, apportent quelque chose que les données brutes ne peuvent évidemment fournir : une mise en perspective, une hiérarchisation, la connaissance accumulée d'un dossier par un journaliste qui le suit depuis des années. Dans le deuxième chapitre je formule ainsi la règle d'usage : ne pas demander à un média ce qu'on doit demander aux données brutes, ne pas demander aux données brutes ce que seul un média peut apporter.
C'est cette seconde règle qui protège de l'illusion technicienne.
La vulnérabilité que vous décrivez est donc bien réelle, mais pour un analyste qui ne mobiliserait qu'un seul de ces deux plans et ne ferait ainsi que la moitié du chemin.
Cela dit, votre objection pointe un risque réel, et je dirais même qu'il a deux aspects.
Le premier, c'est l'illusion de maîtrise pour l'analyste. Avoir géolocalisé une vidéo ne dit rien de ce qui s'y joue vraiment : des intentions des acteurs, du contexte politique dans lequel la scène s'inscrit, de ce qui se passe hors-cadre. Une donnée peut être parfaitement authentique et en même temps totalement trompeuse si on ignore la logique des acteurs qui l'ont produite ou diffusée. C'est exactement ce que j'essaie de montrer dans le troisième chapitre avec la notion de vérité opératoire : comprendre comment un acteur voit le monde est parfois plus important que d'établir si ce qu'il dit est vrai.
Le second aspect du risque, c'est ce que j'appellerais la fétichisation de la preuve technique. Une dérive où seul ce qui se vérifie par métadonnées compterait, et où tout le reste (témoignages, connaissance historique d'un dossier, compréhension fine d'un acteur) serait relégué au rang d'impression subjective. C'est une forme de scientisme appliqué au renseignement, aussi dangereuse que l'illusion narrative qu'elle prétend combattre.
Ma méthode cherche précisément à articuler ces deux risques, et elle le fait sur deux plans distincts. Sur le plan de la solidité d'une affirmation, je propose dans le dernier chapitre une approche en quatre couches : on commence par chercher qui est le plus proche de l'événement, puis on regarde ce que le contenu lui-même permet de vérifier techniquement, puis on cherche une corroboration par des sources réellement indépendantes. La réputation d'une source ne sert qu'en bout de chaîne, comme guide d'allocation de l'effort de vérification, jamais comme conclusion qui en dispenserait. Ce dispositif protège de l'illusion narrative. Soit l’inverse de ce qu’on fait habituellement…
Mais il y a un second plan, fonctionnel celui-là, que je traite séparément : médias et données brutes ne font pas la même chose. Les données brutes servent à établir ou contester un fait. Les médias, eux, apportent quelque chose que les données brutes ne peuvent évidemment fournir : une mise en perspective, une hiérarchisation, la connaissance accumulée d'un dossier par un journaliste qui le suit depuis des années. Dans le deuxième chapitre je formule ainsi la règle d'usage : ne pas demander à un média ce qu'on doit demander aux données brutes, ne pas demander aux données brutes ce que seul un média peut apporter.
C'est cette seconde règle qui protège de l'illusion technicienne.
La vulnérabilité que vous décrivez est donc bien réelle, mais pour un analyste qui ne mobiliserait qu'un seul de ces deux plans et ne ferait ainsi que la moitié du chemin.
Vous expliquez que l’analyste doit comprendre ce que les acteurs croient vrai, même si c’est faux. Où place t on la limite entre comprendre et légitimer ? Comment éviter la dérive ?
La formule que j'utilise dans l'ebook est, je crois, explicite : l'empathie cognitive n'est pas l'empathie morale. Comprendre n'est pas approuver. Modéliser la logique d'un acteur pour anticiper ses actions n'a rien à voir avec adhérer à ses valeurs, c'est même souvent l'inverse : c'est précisément parce qu'on prend ses croyances au sérieux comme donnée opérationnelle qu'on peut les contrer efficacement. Kennedy a compris Khrouchtchev sans le légitimer, et c'est ce qui a permis d'éviter l'escalade nucléaire en 1962. À l'inverse, le FBI à Waco a refusé de lire les sermons de Koresh comme une source de renseignement sur sa logique décisionnelle ; il les a traités comme du « charabia religieux ». Résultat : 76 morts.
La limite que vous évoquez existe, bien sûr, mais elle se loge dans la finalité de la lecture, pas dans l'objet étudié. Un analyste qui lit le manifeste d'un mouvement radical pour anticiper ses prochaines cibles fait son métier. Un analyste qui le lirait pour s'en inspirer ou le diffuser ferait autre chose, et ce serait un autre métier, ou l’absence de métier... Le même texte, lu avec deux intentions différentes, produit deux usages différents.
Ce qui permet de tenir la ligne, ce n'est donc pas un interdit de lecture, mais la discipline d'une posture professionnelle : on lit pour comprendre, et on comprend pour permettre à un décideur d'agir. Cette chaîne de responsabilité, directe et traçable, est la meilleure protection contre la dérive. Bien meilleure en tout cas que le réflexe d'évitement qui consiste à ne pas lire « pour ne pas se salir ».
La limite que vous évoquez existe, bien sûr, mais elle se loge dans la finalité de la lecture, pas dans l'objet étudié. Un analyste qui lit le manifeste d'un mouvement radical pour anticiper ses prochaines cibles fait son métier. Un analyste qui le lirait pour s'en inspirer ou le diffuser ferait autre chose, et ce serait un autre métier, ou l’absence de métier... Le même texte, lu avec deux intentions différentes, produit deux usages différents.
Ce qui permet de tenir la ligne, ce n'est donc pas un interdit de lecture, mais la discipline d'une posture professionnelle : on lit pour comprendre, et on comprend pour permettre à un décideur d'agir. Cette chaîne de responsabilité, directe et traçable, est la meilleure protection contre la dérive. Bien meilleure en tout cas que le réflexe d'évitement qui consiste à ne pas lire « pour ne pas se salir ».
Vous présentez l’OSINT comme une rupture méthodologique fondée sur la preuve technique. Votre modèle repose sur la vérification technique, mais la technique elle même devient un terrain de guerre informationnelle. Comment tenir la ligne ?
Le risque que vous pointez est réel, mais je crois qu'il se résout par une distinction que les historiens connaissent depuis longtemps : celle entre critique externe et critique interne d'un document. La technique excelle dans la critique externe (authentifier une image, dater une prise de vue, géolocaliser une scène, …). Et elle est appelée à progresser encore. Mais elle est, et restera longtemps, faible sur la critique interne : pourquoi cette source diffuse-t-elle cette information à ce moment précis ? Quel est son intérêt ? Que cherche-t-elle à faire croire ? Or c'est précisément cette critique interne que vise la guerre informationnelle la plus efficace, celle qui n'utilise pas de faux mais des éléments authentiques placés dans un contexte trompeur. Aucune accumulation d'outils techniques ne suffit, à elle seule, à tenir la ligne : elle se tient en gardant l'analyste humain comme arbitre final du sens. L'outil traite l'image, l'humain traite l'intention.
Cela dit, il faut résister à la tentation inverse. On entend parfois l'argument : « puisque la technique est devenue un terrain de guerre, on ne peut plus s'y fier ». C'est un piège, et c'est exactement le résultat que cherche celui qui pollue l'espace informationnel : produire une équivalence sceptique généralisée où plus rien n'est vérifiable, donc où tout se vaut, donc où le récit le plus fort finit par l'emporter. Renoncer à la vérification technique sous prétexte qu'elle est vulnérable, c'est offrir la victoire à l'attaquant sans combattre. Tenir la ligne, c'est au contraire continuer à vérifier tout en sachant qu'on peut être trompé, et le dire au décideur. L'incertitude assumée vaut mille fois mieux que la certitude factice ou que le renoncement.
Cela dit, il faut résister à la tentation inverse. On entend parfois l'argument : « puisque la technique est devenue un terrain de guerre, on ne peut plus s'y fier ». C'est un piège, et c'est exactement le résultat que cherche celui qui pollue l'espace informationnel : produire une équivalence sceptique généralisée où plus rien n'est vérifiable, donc où tout se vaut, donc où le récit le plus fort finit par l'emporter. Renoncer à la vérification technique sous prétexte qu'elle est vulnérable, c'est offrir la victoire à l'attaquant sans combattre. Tenir la ligne, c'est au contraire continuer à vérifier tout en sachant qu'on peut être trompé, et le dire au décideur. L'incertitude assumée vaut mille fois mieux que la certitude factice ou que le renoncement.
Si vous deviez résumer en une idée directrice ce que les analystes, les décideurs, les citoyens devraient absolument retenir de votre démarche, quelle serait elle, et pourquoi est elle si urgente aujourd’hui ?
S'il fallait n'en retenir qu'une, ce serait celle qui donne son titre à ce petit livret : lire n'est pas croire. Cette distinction paraît évidente, et pourtant nous sommes collectivement en train de la perdre. Le réflexe contemporain, chez les étudiants comme chez beaucoup de professionnels, consiste à confondre les deux gestes, et donc à s'interdire l'un par crainte de l'autre. On ne lit plus ce qui dérange parce qu'on craint que la lecture vaille adhésion. Cette confusion est un appauvrissement intellectuel majeur, et elle est peut-être l'un des symptômes les plus inquiétants du moment que nous traversons.
L'idée directrice tient en réalité dans une formule que je propose dans l'avant-propos, qui fusionne deux expressions de la sagesse populaire : faire feu de tout bois, sans rien prendre pour argent comptant. Tout l'ebook tient dans cette tension. Lire largement, contre les biais idéologiques qui nous amputent l'accès au réel ; vérifier rigoureusement, contre la crédulité qui ferait de nous des relais. Les deux exigences vont ensemble et ne valent rien séparément. Or ce que j'observe, c'est qu'elles sont en train de se dissocier : ceux qui « font feu de tout bois » prennent souvent tout pour argent comptant, et ceux qui ne prennent rien pour argent comptant refusent de lire la moitié de l'information disponible. Recoller les deux moitiés, c'est tout l'enjeu de ce que j'essaie de transmettre ici.
Si je devais formuler cela comme un changement de réflexe à acquérir, je dirais qu'il s'agit de remplacer une question par une autre. Cesser de se demander « qui dit la vérité ? », une question tribale, qui aligne le lecteur sur un camp avant même qu'il ait lu quoi que ce soit. Et commencer à se demander « qu'est-ce que je peux vérifier moi-même, et qu'est-ce qui reste hors de portée ? », une question analytique, qui oblige à réfléchir et à creuser. Le problème aujourd'hui, c'est que se demander « qui est dans mon camp ? » remplace trop souvent « qu'est-ce que je peux vérifier ? ».
L'idée directrice tient en réalité dans une formule que je propose dans l'avant-propos, qui fusionne deux expressions de la sagesse populaire : faire feu de tout bois, sans rien prendre pour argent comptant. Tout l'ebook tient dans cette tension. Lire largement, contre les biais idéologiques qui nous amputent l'accès au réel ; vérifier rigoureusement, contre la crédulité qui ferait de nous des relais. Les deux exigences vont ensemble et ne valent rien séparément. Or ce que j'observe, c'est qu'elles sont en train de se dissocier : ceux qui « font feu de tout bois » prennent souvent tout pour argent comptant, et ceux qui ne prennent rien pour argent comptant refusent de lire la moitié de l'information disponible. Recoller les deux moitiés, c'est tout l'enjeu de ce que j'essaie de transmettre ici.
Si je devais formuler cela comme un changement de réflexe à acquérir, je dirais qu'il s'agit de remplacer une question par une autre. Cesser de se demander « qui dit la vérité ? », une question tribale, qui aligne le lecteur sur un camp avant même qu'il ait lu quoi que ce soit. Et commencer à se demander « qu'est-ce que je peux vérifier moi-même, et qu'est-ce qui reste hors de portée ? », une question analytique, qui oblige à réfléchir et à creuser. Le problème aujourd'hui, c'est que se demander « qui est dans mon camp ? » remplace trop souvent « qu'est-ce que je peux vérifier ? ».
Peut-être une remarque plus personnelle, une recommandation de lecture, un rendez-vous…
Deux livres, donc, qui m'ont marqué :
Le premier est La Désinformation, arme de guerre (2004), de Vladimir Volkoff (oui, le Lieutenant X auteur des Langelot). Un ouvrage de référence sur la désinformation comme méthode, construit comme une anthologie commentée qui se lit très bien et reste d'actualité plus de vingt ans après sa parution. Volkoff écrit depuis une expérience du renseignement et avec une plume de romancier, ce qui donne un ouvrage rigoureux et vivant.
Le second est La Fabrication du consentement de Noam Chomsky et Edward Herman (1988). C'est l'analyse, devenue classique, de la manière dont les médias dits mainstream filtrent l'information au service de structures de pouvoir qu'ils n'interrogent jamais. Le modèle de propagande à cinq niveaux qu'y proposent les auteurs est un outil analytique que tout veilleur devrait connaître.
Les lire tous les deux, c'est s'offrir deux angles de vue peu conciliables, et donc précieux, sur un même objet, la fabrique de l'information. Et tenter d’apprendre à penser dans l'espace restant.
Le premier est La Désinformation, arme de guerre (2004), de Vladimir Volkoff (oui, le Lieutenant X auteur des Langelot). Un ouvrage de référence sur la désinformation comme méthode, construit comme une anthologie commentée qui se lit très bien et reste d'actualité plus de vingt ans après sa parution. Volkoff écrit depuis une expérience du renseignement et avec une plume de romancier, ce qui donne un ouvrage rigoureux et vivant.
Le second est La Fabrication du consentement de Noam Chomsky et Edward Herman (1988). C'est l'analyse, devenue classique, de la manière dont les médias dits mainstream filtrent l'information au service de structures de pouvoir qu'ils n'interrogent jamais. Le modèle de propagande à cinq niveaux qu'y proposent les auteurs est un outil analytique que tout veilleur devrait connaître.
Les lire tous les deux, c'est s'offrir deux angles de vue peu conciliables, et donc précieux, sur un même objet, la fabrique de l'information. Et tenter d’apprendre à penser dans l'espace restant.
Découvrir l'ebook
A propos de l'auteur
Christophe Deschamps, Intelligence Économique Ph.D , est chercheur et docteur en sciences de l'information et de la communication au CEREGE (Université de Poitiers). Consultant-formateur spécialisé dans la veille stratégique, il explore depuis plus de vingt ans les liens entre technologies, usages et circulation de l'information, tant dans leurs dimensions personnelles que professionnelles.
Depuis 2004, il anime le blog outilsfroids.net, espace d'observation et d'expérimentation autour des technologies de l'information. Il y teste et documente des outils de veille, d'OSINT et de gestion des connaissances, en cherchant à comprendre comment leurs usages transforment nos pratiques quotidiennes. Par cette approche pragmatique et réflexive il souhaite éclairer la manière dont les innovations, depuis le web 2.0 jusqu'aux IA génératives, modifient en profondeur nos façons d'apprendre, de collaborer et de produire du sens.
Publications :
- La boîte à outils de l'intelligence économique. Dunod. 2011
- Organisez vos données personnelles. L'essentiel du Personal Knowledge Management. Eyrolles. 2011
- Le nouveau management de l'information. FYP. 2009
Auteur sur Linkedin : https://www.linkedin.com/in/chdeschamps/
Thèse : "La phase d’analyse dans le cycle de la veille stratégique : conditions d’une mise en œuvre pertinente dans le cadre d’organisations françaises " Lien Thèses.fr
#OSINT #analyse stratégique #veille #biais cognitifs #guerre informationnelle #vérification des sources #Christophe Deschamps #renseignement et médias #esprit critique #données brutes #méthodologie analytique #intelligence économique #Christian Harbulot

Accueil
