Intelligence Décisionnelle

Qui porte le risque quand l’algorithme se trompe ? L’Intelligence Artificielle dans le Management. © Pr Jean-Marie Carrara


Jacqueline Sala
Vendredi 30 Janvier 2026


Alors que l’intelligence artificielle s’impose au cœur des décisions managériales, les entreprises découvrent la face cachée d’outils aussi puissants que faillibles. L’affaire Air Canada, où un chatbot a induit un client en erreur avant que la justice ne sanctionne la compagnie, rappelle que l’IA n’exonère jamais de la responsabilité humaine. Un signal fort pour les dirigeants, sommés de repenser en urgence la gouvernance de ces technologies à haut risque.



Qui porte le risque quand l’algorithme se trompe ? L’Intelligence Artificielle dans le Management. © Pr Jean-Marie Carrara
L’intégration de l’intelligence artificielle dans les processus décisionnels des entreprises n’est plus une option : elle est devenue une réalité opérationnelle.

Allocation de ressources, gestion des risques, recrutement ou tarification dynamique : l’IA s’insère au cœur de la chaîne de management. Pourtant, lorsqu’une erreur algorithmique entraîne un manquement contractuel, les conséquences se révèlent multidimensionnelles – juridiques, financières, réputationnelles et humaines.

Le cas d’Air Canada en 2024 illustre cruellement ce basculement : un chatbot a induit un client en erreur sur une politique de tarifs pour motifs de décès familial, et le tribunal canadien a tenu la compagnie responsable des informations erronées délivrées par son outil IA (Moffatt v. Air Canada, Civil Resolution Tribunal de Colombie-Britannique, 2024).

Ce précédent, parmi d’autres, invite les dirigeants à repenser leur rapport à l’IA non comme un substitut infaillible, mais comme un outil à haut risque dont la maîtrise exige une gouvernance hybride, audacieuse et résolument humaine.
 

Les pièges d’une délégation excessive à l’IA

L’IA promet efficacité et objectivité. Pourtant, sa capacité à traiter des volumes massifs de données cache une vulnérabilité majeure : la dépendance à la qualité des inputs.

Une base biaisée ou incomplète suffit à produire des outputs déviants.

L’affaire Amazon de 2018 reste emblématique : l’entreprise a abandonné un outil de recrutement automatisé après avoir constaté qu’il pénalisait systématiquement les candidatures féminines, car il avait été entraîné sur des CV majoritairement masculins des dix années précédentes (Reuters, 10 octobre 2018).

Ce cas démontre que l’IA n’est pas neutre : elle amplifie les biais humains présents dans les données historiques.

En management, les conséquences peuvent être bien plus graves qu’un simple recrutement raté : une erreur dans un modèle de scoring de crédit ou de gestion de la supply chain peut générer des pertes financières massives, des ruptures contractuelles et des contentieux coûteux.
 

Qui répond de l’erreur algorithmique ?

La fragmentation de la chaîne causale complique l’imputation de responsabilité.

Une défaillance peut provenir d’un défaut de conception (données biaisées), d’un paramétrage erroné (déploiement), ou d’une utilisation inadéquate (opérateur).

Les régimes juridiques traditionnels – responsabilité contractuelle ou du fait des produits défectueux – peinent à s’adapter aux systèmes « boîtes noires».

L’Union européenne tente d’y répondre avec l’AI Act, entré en vigueur progressivement depuis 2024, qui impose des obligations de traçabilité, d’audit et de transparence pour les systèmes à haut risque, et rééquilibre la charge de la preuve en faveur des victimes.

Pourtant, dans la pratique, les tribunaux commencent à trancher : dans l’affaire Uber de 2018, où un véhicule autonome a causé la mort d’une piétonne à Tempe (Arizona), la responsabilité a été partagée entre l’exploitant et le constructeur, mais le backup driver humain a été condamné pour négligence (CNN, 29 juillet 2023).

Ces précédents soulignent une réalité : l’entreprise qui déploie l’IA reste le premier responsable vis-à-vis de ses clients, actionnaires et salariés.
 

Conséquences au-delà du bilan financier

Les impacts dépassent les indemnisations ou les amendes.

Une défaillance algorithmique érode la confiance des parties prenantes.

Après le scandale Amazon, l’image de l’entreprise en a souffert durablement, et le projet a été purement et simplement abandonné.

Sur le plan managérial, la légitimité des dirigeants est fragilisée : comment justifier une décision stratégique prise par un algorithme opaque ?

Les équipes opérationnelles, quant à elles, développent une défiance croissante, freinant l’adoption de nouveaux outils (chilling effect).

Les coûts réputationnels s’avèrent souvent plus élevés que les pertes directes : décote boursière, boycott, turnover des talents.

La théorie de l’agence éclaire ces tensions : les dirigeants, incités à innover rapidement, exposent parfois les actionnaires à des risques qu’ils ne contrôlent pas pleinement.

À l’échelle sociétale, l’erreur d’IA est jugée plus sévèrement que celle d’un humain, car elle rompt avec l’attente d’objectivité absolue.
 

La qualité des données : l’angle mort stratégique

Aucun algorithme n’est meilleur que les données qui le nourrissent.

Or, la doxa actuelle valorise la quantité et la vitesse d’entraînement au détriment de la qualité.

C’est une erreur stratégique majeure.

Une base incomplète, obsolète ou biaisée produit inévitablement des prédictions erronées.

Les dirigeants doivent imposer une vérification rigoureuse et continue des datasets : audits indépendants trimestriels par des experts métier (et non seulement par des data scientists), croisement systématique avec des sources externes certifiées, et traçabilité exhaustive de chaque input.

À contre-courant des pratiques dominantes, il convient de ralentir les cycles d’entraînement pour privilégier la robustesse.

L’exemple de la faillite partielle de Zillow en 2021, où un modèle IA de prédiction immobilière surestimait les prix d’achat et a conduit à des pertes de 569 millions de dollars, rappelle que la précipitation coûte cher.

La qualité des données n’est pas un coût : c’est un investissement dans la résilience.
 

Propositions audacieuses pour préserver le savoir-faire humain

À rebours de la tentation de tout automatiser, nous proposons trois leviers originaux.

Le premier consiste à instaurer une « double validation humaine obligatoire » pour toute décision critique — qu’il s’agisse d’un recrutement final, d’une tarification contractuelle ou d’une allocation de ressources dépassant un certain seuil. L’IA propose, mais l’humain dispose et signe, un choix qui ralentit légèrement le processus tout en préservant la qualité et la responsabilité.

 

Le deuxième levier vise à créer un statut de « challengeur IA » au sein des équipes : des salariés experts métier, formés à l’intelligence artificielle, chargés de tester, contester et corriger les outputs algorithmiques. Leur contribution pourrait être reconnue par un bonus indexé sur la réduction des erreurs, renversant ainsi la logique habituelle : l’IA n’augmente pas seulement l’humain, c’est l’humain qui élève l’IA.
 

Enfin, le troisième levier consiste à mettre en place un « droit à la déconnexion IA ». Pour les décisions stratégiques ou créatives, les managers pourraient désactiver temporairement les outils automatisés afin de préserver la réflexion autonome et le jugement professionnel. Une mesure iconoclaste dans une ère obsédée par la productivité augmentée, mais qui protège le savoir-faire unique des collaborateurs et évite la standardisation stérile.


Vers une gouvernance résiliente et innovante

L’IA ne doit pas devenir un amplificateur de vulnérabilités, mais un levier de robustesse.

Cela exige d’intégrer le coût global du risque dans les business plans (méthode Total Cost of Risk), de développer des clauses contractuelles spécifiques (audits tiers, obligations d’explicabilité) et de former massivement les équipes aux biais algorithmiques.

La création d’un « responsable algorithmique », inspiré du DPO, pourrait structurer cette gouvernance interne.

L’objectif n’est pas de freiner l’innovation, mais de la rendre soutenable : une IA maîtrisée, supervisée et nourrie de données de haute qualité deviendra un avantage compétitif durable.

À défaut, les entreprises risquent de voir leur ambition technologique se retourner contre elles, au prix d’une perte de confiance et de valeur bien plus élevée que les gains espérés.
 

A propos de...

Né en 1958 à Rabat (Maroc), le Professeur Jean-Marie CARRARA a effectué toutes ses études à Lille (France). D’abord attiré par la santé de l’Homme, il devient Docteur en Pharmacie et diplômé de Biologie Humaine.
Comme la santé des entreprises et des organisations sont essentielles pour l’Homme, il compléta sa formation par un DESS d’Administration des Entreprises et un DESS de Finance et de Fiscalité Internationales.
Il est auditeur en Intelligence Economique et Stratégique à l'Institut des Hautes Etudes de Défense Nationale (IHEDN). Gardez le lien.