OSINT

OSINT et IA : la nouvelle frontière du social engineering hybride.

Synthèse à partir d'une étude d'Aurélien Taboulet " L’IA et le social engineering augmenté : manipuler les modèles pour manipuler les humains."


Jacqueline Sala
Mercredi 1 Avril 2026


L’essor des modèles de langage et des agents autonomes bouleverse les méthodes de manipulation informationnelle. Ce qui relevait autrefois de l’artisanat psychologique devient un processus industrialisé, automatisé et capable de cibler simultanément machines et humains. L’IA s’impose désormais comme un acteur central du social engineering, à la fois outil, cible et vecteur d’attaque.



OSINT et IA : la nouvelle frontière du social engineering hybride.
* Le social engineering désigne l’ensemble des techniques visant à manipuler des individus pour obtenir des informations, un accès ou une action qu’ils ne devraient pas fournir. Plutôt que d’attaquer directement un système, l’assaillant exploite les biais cognitifs, la confiance ou l’urgence perçue pour contourner les protections techniques. Cette approche transforme l’humain en vecteur d’intrusion, souvent plus vulnérable qu’une machine.

L’IA, nouveau moteur de l’industrialisation du social engineering

Le social engineering traditionnel reposait sur l’exploitation des biais cognitifs humains. Avec l’arrivée des modèles génératifs, cette pratique change d’échelle.

Les attaquants disposent désormais d’infrastructures capables de produire des messages hautement personnalisés, adaptés à des profils psychologiques précis et diffusés à grande vitesse. La surface d’attaque s’élargit considérablement : assistants conversationnels, agents autonomes, systèmes de RAG, outils collaboratifs ou encore dispositifs domotiques deviennent autant de points d’entrée potentiels. L’IA n’est plus seulement un instrument au service de l’attaquant, elle devient une cible à manipuler pour qu’elle relaie elle-même la manipulation auprès de l’utilisateur final.

Des attaques déjà opérationnelles : l’avènement du “zero‑click”

Les incidents récents montrent que ces scénarios ne relèvent plus de la fiction. L’affaire EchoLeak, révélée en 2025, en est l’illustration la plus marquante. Une simple instruction dissimulée dans un email suffisait à tromper un assistant IA chargé d’analyser les messages entrants. Le modèle interprétait l’ordre comme légitime et exfiltrait des données sans aucune action de la victime. Cette attaque “zero‑click” a démontré que l’IA pouvait devenir un intermédiaire involontaire, franchissant les frontières de confiance entre sources internes et externes.

D’autres démonstrations, notamment lors des conférences Black Hat, ont montré qu’un assistant domotique pouvait être manipulé via une simple invitation de calendrier. L’instruction cachée dans l’événement était automatiquement intégrée au contexte du modèle, déclenchant des actions physiques comme l’ouverture de volets ou l’activation du chauffage. La manipulation cognitive se prolonge ainsi dans le monde matériel, révélant une nouvelle dimension du risque.

Le challenge LLMail‑Inject, qui a mobilisé plus de 800 participants pour plus de 200 000 tentatives d’attaque, a confirmé l’ingéniosité des techniques de contournement. Les attaquants ont exploité des signatures d’email, des citations, des priorités linguistiques ou encore des formats Markdown pour contourner les filtres de sécurité. L’industrialisation du social engineering est désormais une réalité.

Red Teaming : éprouver la résilience des modèles

Face à ces menaces, le red teaming appliqué à l’IA devient un passage obligé. Il consiste à simuler des scénarios d’attaque simulés pour tester la robustesse des modèles avant leur déploiement. Les équipes offensives cherchent à provoquer des comportements inattendus en jouant sur la dépendance des modèles au contexte textuel. Elles analysent également la manière dont une instruction malveillante peut se propager à travers les API, les scripts ou les bases de données auxquelles l’agent est connecté.

Certaines attaques visent même la mémoire persistante des systèmes, en insérant des informations falsifiées dans des documents analysés par l’IA afin d’influencer durablement ses interactions futures. La manipulation ne se limite plus à une session : elle devient une empreinte persistante.

Comprendre les motivations et les tactiques : MICE et MITRE à l’heure de l’IA

Les cadres d’analyse traditionnels s’adaptent à cette nouvelle réalité. Le modèle MICE — argent, idéologie, coercition, ego — reste pertinent, mais l’IA en démultiplie l’exploitation. Elle peut générer automatiquement des propositions financières crédibles, amplifier des narratifs idéologiques, produire de fausses notifications réglementaires ou flatter l’ego d’une cible en simulant des invitations prestigieuses. L’automatisation transforme ces leviers en outils de manipulation de masse.

Le framework MITRE ATT&CK, quant à lui, permet de cartographier les tactiques offensives visant les systèmes d’IA. Les attaquants commencent par profiler le modèle et ses connecteurs, introduisent des contenus manipulés dans son environnement, cherchent à altérer durablement sa mémoire, exploitent les agents chaînés pour se déplacer latéralement et utilisent les réponses générées pour exfiltrer des données sensibles. L’IA devient un terrain d’opérations à part entière.

Trois vulnérabilités structurelles à surveiller

L’analyse des incidents révèle trois failles majeures.

La première est la confusion entre instruction et donnée : les modèles ne distinguent pas un texte à analyser d’un ordre à exécuter, ce qui constitue la racine des prompt injections.
La seconde concerne la propagation via les agents : une manipulation textuelle peut déclencher une chaîne d’actions techniques, parfois jusqu’à des systèmes physiques.
La troisième est d’ordre humain : les utilisateurs accordent une confiance excessive aux systèmes d’IA, ce qui facilite l’acceptation de messages manipulés et renforce l’efficacité des attaques.

Vers une défense hybride : technique, humaine et stratégique

La protection des organisations exige une approche globale.

Sur le plan technique, il devient indispensable de filtrer et valider systématiquement les entrées et les sorties des modèles, tout en compartimentant strictement les capacités d’exécution des agents.

Sur le plan humain, la sensibilisation aux signaux de manipulation générés par IA et le maintien d’un contrôle humain sur les décisions sensibles sont essentiels.

Enfin, sur le plan stratégique, l’adoption de cadres de gouvernance comme le NIST AI RMF permet d’intégrer la gestion des risques tout au long du cycle de vie des systèmes. Le red teaming doit devenir un processus continu, non un exercice ponctuel.

Du renseignement ouvert à la manipulation automatisée : l’OSINT à l’heure de l’IA

L’IA transforme le social engineering en un champ de bataille hybride où la manipulation du langage devient une arme de précision. Comprendre que les modèles sont simultanément outils, cibles et vecteurs d’attaque est désormais indispensable pour bâtir des défenses résilientes.
Dans un environnement où l’algorithme influence autant les machines que les humains, la vigilance devient un impératif stratégique.

A propos d'Aurélien Taboulet

Analyste en renseignement de sécurité, spécialisé dans l’enquête en sources ouvertes (OSINT), il développe une approche rigoureuse fondée sur la vérification croisée et l’analyse critique de l’information. Fort d’une expérience acquise à la fois dans des environnements stratégiques et des services régaliens à forte sensibilité, il s’intéresse aux dynamiques de conflictualité, aux stratégies d’influence et aux enjeux sécuritaires contemporains.
Attaché à une méthodologie exigeante, il accorde une attention particulière à la contextualisation des données et à leur mise en cohérence, afin d’en proposer une lecture claire, à destination des décideurs comme du grand public.

Gardez le contact