Derrière le halo technologique et les slogans marketing, se dessine une réalité plus nuancée : celle d’une « intelligence » très artificielle, c’est-à-dire une construction algorithmique qui mime certaines performances cognitives humaines sans en reproduire la profondeur, la plasticité ni la finalité.
L’intelligence : raisonner et relier
La première est cognitive : c’est la capacité à raisonner, à interpréter, à relier les informations pour produire du sens. Aristote y voit la noèsis, faculté de saisir les causes premières ; Kant en fait une fonction de synthèse des représentations ; Bergson, une adaptation orientée vers l’action.
La seconde est relationnelle : « être en intelligence avec autrui », c’est comprendre les intentions, les émotions, les contextes ; c’est ajuster son comportement à celui des autres. Cette forme d’intelligence, que la psychologie sociale nomme empathique ou intersubjective, suppose la reconnaissance de l’autre comme sujet, pas seulement comme variable.
Ces deux versants — raisonner et relier — coexistent chez l’humain et font de son intelligence une faculté profondément incarnée, affective et finalisée. Or, les systèmes d’IA actuels ne possèdent ni corps, ni affects, ni intention. Ils ne « comprennent » pas, ils calculent ; ils ne dialoguent pas, ils imitent ; ils ne s’ajustent pas, ils s’adaptent statistiquement. Ce que l’on nomme intelligence dans l’IA relève donc d’une métaphore, séduisante pour les décideurs, mais trompeuse sur le plan philosophique.
De plus, en anglais, « intelligence » est un faux-ami. Le mot renvoie autant au « renseignement » (intelligence service) qu’à la capacité cognitive. Ce glissement sémantique n’est pas anodin. Il alimente un malentendu fondamental. Dans la culture anglo-saxonne technologique, « intelligence » évoque d’abord la collecte et le traitement de l’information, non pas la compréhension au sens humaniste. Ce décalage explique pourquoi les ingénieurs parlent de « machine intelligence » sans se soucier de conscience, de jugement ou d’intention à la différence des chefs d’entreprise, des journalistes ou du grand public.
La projection des dirigeants : entre fascination et croyance technicienne
Cette représentation relève d’une forme de transfert cognitif : le décideur projette sur la machine la capacité qu’il souhaiterait posséder lui-même, celle de traiter la complexité sans incertitude ni émotion. Mais la décision humaine, comme l’ont montré Crozier ou Bourdieu, reste traversée par des logiques de pouvoir, de statut et de reconnaissance symbolique.
L’IA ne les efface pas : elle les prolonge dans un langage algorithmique où les biais deviennent invisibles, donc plus pernicieux.
Les limites méthodologiques : biais, opacité et dépendance contextuelle
La promesse d’objectivité se heurte donc à une reproductibilité des biais. Pire encore, l’opacité des algorithmes — ces « boîtes noires » — empêche de comprendre pourquoi une décision a été prise. Le machine learning n’est pas une science explicative mais une technique d’ajustement statistique : il apprend à reconnaître des régularités en lissant les données exceptionnelles ou hors normes, alors que justement, les signaux d’alerte ou les points d’entrée dans des raisonnements créatifs sont précisément dans cette frange des données atypiques.
L’illusion d’une raison sans relation
L’IA, par sa précision apparente, apaise l’anxiété décisionnelle. Mais cette délégation cognitive crée une nouvelle dépendance : celle à un outil dont on ne maîtrise ni les tenants, ni les aboutissants.
Les travaux de Daniel Kahneman sur les biais cognitifs trouvent ici une résonance inattendue : l’IA prétend corriger nos biais, mais elle en introduit de nouveaux, d’autant plus dangereux qu’ils sont invisibles. Le biais de confiance dans la machine (automation bias) conduit à la tentation de suivre ses recommandations même lorsqu’elles sont manifestement absurdes. Ici l’IA se substitue à la « blouse blanche » de l’expérience de Milgram.
En somme, en nous laissant accroire qu’une intelligence « purement rationnelle » sans affect, serait supérieure, l’usage de l’IA nous expose au risque d’éroder notre intelligence relationnelle : notre capacité à douter, à écouter, à coopérer, à
Pour une intelligence augmentée, pas suppléée
L’enjeu n’est pas de rejeter l’usage de l’IA, mais de le recontextualiser. L’IA peut devenir un auxiliaire précieux de l’intelligence humaine à condition que son usage reste conscient de ses limites. Les organisations les plus lucides développent des modèles d’IA explicables (explainable AI) et instituent des comités éthiques interdisciplinaires qui participent à la supervision éthique du développement et du déploiement des systèmes IA, veillant à ce que les technologies soient utilisées de manière responsable, en respectant des normes d'équité, de transparence, de protection des données et d'absence de biais.
Mais une question centrale demeure : que devient le management lorsque la perception de la réalité opérationnelle repose sur des analyses produites par une IA ?
Une matrice SWOT (forces, faiblesses, opportunités, menaces) élaborée par algorithme reflète nécessairement les biais de son corpus d’apprentissage et les hypothèses de ses concepteurs. Elle offre une illusion de rationalité, mais sans la profondeur contextuelle, ni la sensibilité humaine aux dynamiques d’équipe, aux signaux faibles ou aux affects collectifs.
Dans le monde de l’entreprise, cette illusion de rationalité a un pouvoir immense. Les dirigeants, soumis à la pression de la complexité et de l’incertitude, voient dans l’IA un outil d’aide à la décision quasi oraculaire : le moyen de trancher « objectivement ».
Mais la délégation du discernement à une machine pose une question philosophique redoutable : qui décide vraiment ?
La psychologie du leadership montre que plus la responsabilité d’un arbitrage est diluée, plus la propension à se défausser augmente. Derrière l’argument « c’est l’IA qui l’a dit », se profile un renoncement à la responsabilité morale.
Sociologiquement, cette tendance nourrit une dépendance technocratique : le manager cesse d’être stratège pour devenir simple exécutant d’un modèle prédictif. Le risque est alors d’installer une nouvelle forme d’hétéronomie : une gouvernance où la norme décisionnelle est dictée non par la raison humaine, mais par l’algorithme.
Le risque est alors celui d’un management par procuration, où le cadre, rassuré par la sophistication apparente de l’analyse, abdique une part de son jugement propre. La responsabilité managériale se dilue derrière la machine, et la décision cesse d’être un acte de discernement pour devenir un acte de conformité.
A propos de ...
Dr Jan-Cédric Hansen
Praticien hospitalier, expert en pilotage stratégique de crise, vice-président de GloHSA et de WADEM Europe, Administrateur de StratAdviser Ltd - http://www.stratadviser.com
Lien : https://www.linkedin.com/in/jancedrichansen/?originalSubdomain=fr

Accueil