veillemag

#searchday • Le 360° de l'information stratégique. Comprendre. Anticiper. Décider








Data Intelligence et I.A.

Le monstre « big data » facteur de crise. Tribune libre de Didier Heiderich.


Didier Heiderich (Observatoire International des Crises. Cabinet Heiderich)


Data et Intelligence artificielle seront abordés dans plusieurs conférences et ateliers lors de la 10ème édition de Search-Day. Quelle place tiennent-ils dans les innovations en cours ? Générent-ils déjà de nouveaux usages ? de nouveaux métiers ? Retrouvons nous les 17 et 18 octobre pour faire le point sur ces évolutions majeures. Le débat est ici lancé par Didier Heiderich.



Pour aller plus loin ...
Pour aller plus loin ...

Big data, au départ ça sonne mal. Traduit en français, ce serait « la grosse donnée », donnant le sentiment d’un néologisme gauche, d’une pensée maladroite. Et pourtant, ce n’est pas idiot, car ce que cache « Le big data », c’est l’utilisation du singulier, au point que plus personne ne s’interroge sur le pourquoi de cette unicité.

L’unicité recèle pourtant en elle une réalité, celle de la capacité de stockage quasi infinie de l’ensemble des données, du croisement des données, celui-là même qui est autorisé par les usagers d’internet pressés que nous sommes et qui ne lisent pas les conditions d’utilisation des applications.

Le big data, au-delà du signifié est un signifiant, celui de la volonté de récupérer chaque donnée de l’univers et de les mettre en boite, tout comme l’univers contient l’ensemble des atomes qui le compose.
 

Assez étrangement, dans une époque où le marketing précède le contenu, pour le big data, c’est l’inverse : le big data, c’est d’abord une découverte qui s’est opérée progressivement. On peut le trouver en 1961, bien avant internet et les likes dans « Science Since Babylon », article de Derek Price qui décrivait l’explosion des connaissances scientifiques.

Puis tout s’est accéléré, et alors que Usenet permettait déjà depuis 4 ans de communiquer par claviers interposés, en 1983, Ithiel de Sola Pool signait la génèse de l’étude de la gestion des flux d’informations électroniques dans « Tracking the Flow of Information ». La suite vous la connaissez, avec Google et Facebook qui transforment nos flux de données en flux financiers.

Ainsi le big data existait avant ses promesses et celles-ci semblent monstrueuses au point de pouvoir nous échapper.  C’est simple comme la différence entre savoir et connaissance : puisque nous ne pouvons plus embrasser tous les savoirs utilisons les données. Sauf qu’ici, les données c’est nous. Et l’idée est de donner une forme et une trajectoire à ces données.

Car agencer des données ou des particules élémentaires revient à définir les lois de l’univers. Alors que les particules élémentaires composent les arbres que nous observons, ici c’est l’observateur qui décide quelle forme il émergera des données selon ce qu’il recherche. Et les possibilités sont infinies.

Dans ses combinaisons, elles-mêmes infinies, le big data, peut faire le lien entre des habitudes de consommation, l’évolution des autoportraits postés sur Facebook, un changement de fonction décelé sur LinkedIn, les dernières recherches sur internet pour déterminer les risques cardio-vasculaires d’un individu ou son désir secret de manger un hamburger dans exactement 42 minutes et 23 secondes.
 

« Don't be evil »

Si on peut considérer que la transparence est par certains aspects totalitaire, le big data, parce qu’il se prétend prédictif et donc déterministe, qu’il prospère dans une société délétère où chacun livre docilement de multiples données aux réseaux sociaux, celui-ci détient en lui les germes du totalitarisme. Cette ivresse présente un risque incommensurable pour les individus et la société.

Et je ne citerai pas Hannah Arendt, sur le totalitarisme, Google le fera mieux que moi.  Pour Dominique Cardon : « En calculant nos traces, les algorithmes reproduisent les inégalités entre les individus".

Si le big data est utilisé pour nous réduire à ce que nous sommes et non nous ouvrir à ce que nous devenons ,  ce risque mutera, sans doute, en crise dès demain matin. Pour ceux qui en sont les acteurs, la responsabilité est aussi considérable que celle des aventuriers de l’atome ou des biotechnologies : il y a un Robert Oppenheimer (3) dans l’ombre de chacun d’entre eux.

Big data, risques et signaux faibles

La gestion des risques a pour obsession la traque des signaux faibles, Graal de l’évitement des crises, et pour rêve la détection des cygnes noirs. Le cygne noir, c’est l’idée développée par Nassim Nicholas Taleb en 2007 (1) de l’improbable qui vous tombe dessus, avec bien souvent, pour conséquence une crise. Notons que l’ironie veut que le succès de ce livre provienne sans en douter de cet énorme cygne noir que fut la crise financière de 2008 : Taleb était Trader à l’origine.

Le big data, pour ce qu’il est capable de révéler, peut être outil majeur d’innovation dans la recherche de risques inexplorés auxquels nous serons confrontés demain. Il réside cependant cette limite récurrente de la gestion des risques : on ne voit que ce que l’on regarde. Et parce dans le big data nous révèle que ce que nous cherchons, il semble seulement pouvoir affiner la résolution des données sur les risques. Comme en photographie, la résolution peut augmenter, mais c’est l’œil du photographe qui détermine le sujet : la détection de risques inconnus a pour exigence la liberté d’explorer les zones clandestines du big data, sans forcément savoir ce que l’on cherche.
 
1. Nassim Nicholas Taleb, Le Cygne noir, la puissance de l’imprévisible, 2007

Nous pourrions imaginer confier ce travail à une Intelligence Artificielle (IA). Mais cantonnées dans des systèmes spécialisés, entraînées avec un certain type de données, les intelligences artificielles ne sont pas prêtes d’explorer l’inconnu, faute de capacité de conceptualisation, condition fondamentale pour s’émanciper de tâches spécialisées.

Et même TrueNorth, le premier processeur d’Intel à réseau de neurones (dites neuromorphique dans les dîners en ville), entré en fonction en 2014, se destine à des tâches spécialisées, comme la reconnaissance de contenus à l’intérieur d’une image ou la reconnaissance vocale. Autrement dit, et pour reprendre les propos de Gérard Berry, professeur au Collège de France, membre de l’Académie des sciences et de l’Académie des technologies – excusez du peu - « L’ordinateur est complètement con" et la capacité d’innovation des IA est proche du zéro absolu.

Tout ceci pour dire que si finalement, dans le big data les cygnes noirs se cachent bien au chaud et que de toute façon, il est inutile de chercher les signaux faibles alors que nous sommes le plus souvent aveugles aux signaux forts. Quoi que l’on pense de Taleb, il expliquait en 2007 que le problème ne vient pas de la capacité à détecter les signaux faibles, mais surtout que « l’on essaye d’appliquer des méthodes d’analyse de la réalité beaucoup trop simplistes pour expliquer des phénomènes très complexes qui leur échappent complètement. »

Ne nous en déplaise, le big data s’alimente chaque jour et à moins que Trump et Kim Jong-un se lancent dans une joute nucléaire, nous sommes destinés à vivre avec.
Il ouvre des perspectives gigantesques dans la prévision des crises mais encore faudra-t-il explorer ses continents inconnus et si possible, cesser les bricolages savants.

 

L'auteur : Didier Heiderich

Directeur Général, fondateur et associé. Ingénieur.

Didier Heiderich est un pionniers de la gestion des enjeux sensibles, gestion de crise et communication de crise en Europe.
Avec plusieurs livres et de nombreux articles de références à son actif, depuis 1998, il a modelé le paysage de la gestion de crise et il est une référence internationale pour les experts du domaine.

Il a plus de 19 ans d'expérience dans le conseil  international en entreprise, institutions privées, institutions publiques et gouvernementales.

Auparavant, plus de 12 ans d'expérience dans des postes opérationnels ou de direction dans des industries internationales et dans les services.

• Directeur Général du cabinet
Ingénieur du Centre d'Etudes Supérieures Industrielles
Président de l'Observatoire International des Crises (OIC)
Direction des enseignements de communication des organisations à l’Université Technologique de Troyes depuis 2005.
• Auteur de "Plan de gestion de crise", Dunod (2010) et de "Rumeur sur Internet"', Village Mondial (2004)
• Formateur à l'ENA, l'lHEDN, l'IRIS et ponctuellement à l'INHESJ, l'ENSOSP et l'Université de Genève.
Ingénieur du Centre d'Etudes Supérieures  Industrielles
• Membre du Comité Scientifique du CERISC (Centre d’études et de recherches interdisciplinaires sur la sécurité civile) de l’ENSOSP.
• Directeur de la publication du Magazine de la communication de crise et sensible