Personnalités

Rencontre avec Thomas Parisot, Président du GF2I. Souveraineté numérique : l’heure des choix assumés.


David Commarmond
Dimanche 1 Février 2026


Thomas Parisot, président du GF2I, a partagé sa vision pour 2026 lors de la cérémonie des vœux. Entre innovation, enjeux sectoriels et ambitions collectives, il revient sur les défis à relever et les opportunités à saisir pour renforcer la filière. Un échange inspirant pour l’année à venir.



DC : En plaçant 2026 sous le signe de la confiance, comment le GF2I compte-t-il transformer le « mirage » de l'IA en un levier de décision humaine responsable et transparent ?

En plaçant 2026 sous le signe de la confiance, le gf2i peut précisément s’attacher à démystifier l’IA pour en faire non plus un mirage technologique, mais un outil de décision au service de l’humain, responsable et transparent. Cette transformation repose sur plusieurs leviers complémentaires.
 
D’abord, réaffirmer la primauté de la décision humaine. Le GF2I peut promouvoir une vision claire : l’IA n’est ni un oracle ni un substitut au jugement, mais un instrument qui doit aider à la décision, dont les résultats doivent toujours être contextualisés, expliqués et discutés par des professionnels responsables. Cette approche permet de rompre avec le fantasme de l’automatisation totale et de replacer la responsabilité là où elle doit rester : entre des mains humaines identifiables.
 
Ensuite, faire de la qualité des données un socle de confiance. En tant qu’acteur historique de l’économie de l’information, le GF2I est légitime pour rappeler que la fiabilité des décisions algorithmiques dépend avant tout de la traçabilité, de la gouvernance et de l’intégrité des données. Transformer le mirage de l’IA en réel levier d’amélioration informationnel passe par un discours exigeant sur les sources, les biais, les chaînes de traitement et les conditions d’actualisation des données.
 
Troisièmement, exiger la transparence des systèmes. Le GF2I peut encourager le développement et l’adoption d’IA explicables : documentation des modèles, explicitation des critères utilisés, auditabilité des résultats. Cette transparence n’est pas seulement technique ; elle est aussi juridique, éthique et organisationnelle, afin que les décideurs puissent comprendre pourquoi une recommandation est produite — et quand il convient de ne pas la suivre.
 
Par ailleurs, accompagner la montée en compétence des décideurs est essentiel. Transformer l’IA en levier responsable suppose de former les dirigeants, juristes, documentalistes et managers à une culture critique de l’IA, capable de distinguer promesse marketing, limites réelles et usages pertinents. Le GF2I peut jouer ici un rôle de passeur entre experts techniques et utilisateurs métiers.
 
Enfin, installer une gouvernance collective de la confiance. En fédérant éditeurs, producteurs de données, utilisateurs et autorités de régulation, le GF2I peut contribuer à définir des référentiels de bonnes pratiques, des chartes éthiques et des cadres de responsabilité partagée, inscrivant l’IA dans une logique de long terme plutôt que de performance immédiate. 
 
Ainsi, en 2026, le GF2I peut transformer le « mirage » de l’IA en un horizon maîtrisé, où la technologie éclaire la décision sans jamais l’effacer, et où la confiance naît non de la fascination, mais de la compréhension, de la Souveraineté numérique : l’heure des choix assumés responsabilité et de la transparence.

DC : Vous déplorez que 85 % de l'hébergement des projets de données s'effectue hors d'Europe. Quelles sont vos priorités pour restaurer une souveraineté numérique réaliste au sein des organisations cette année ?

Avec 85 % des projets de données européens encore hébergés hors du continent, le GF2I veut faire de 2026 un moment de bascule vers une souveraineté numérique réellement opérationnelle. L’enjeu n’est plus de proclamer un principe, mais de permettre aux organisations de comprendre leurs dépendances technologiques et d’intégrer ces critères dans leurs décisions au même titre que la performance ou la cybersécurité.

Cette souveraineté passe par une hiérarchisation des données plutôt que par un rapatriement massif. Les plus sensibles doivent être traitées dans des environnements européens maîtrisés, tandis que d’autres usages peuvent rester hybrides. Pour que cette stratégie soit crédible, les solutions européennes doivent gagner en lisibilité, en certification et en interopérabilité, afin de rivaliser plus clairement avec les hyperscalers extra‑européens.

La maîtrise du cadre juridique devient tout aussi essentielle : extraterritorialité, accès aux données, réversibilité des services. Les organisations doivent comprendre les risques liés aux législations non européennes et renforcer leur autonomie contractuelle. Rien de tout cela n’est possible sans une montée en compétence interne, car la souveraineté numérique se joue autant dans les directions générales que dans les équipes techniques ou juridiques.

En 2026, il ne s’agit pas de se couper du monde, mais de rééquilibrer un rapport de force devenu trop asymétrique. Le GF2I veut aider les organisations à reprendre la maîtrise de leurs données et de leurs choix, condition indispensable pour instaurer une confiance numérique durable.

 

DC : Le 28 janvier prochain au CNAM, vous traitez du droit d'auteur à l’ère de l’Open Science. Quels sont 3 enjeux majeurs de cette rencontre pour redéfinir la place du chercheur face à la fouille de textes et de données (TDM) ?

Cette rencontre du 28 janvier au CNAM, organisée avec d'autres organisations comme le SNE, la FNPS et le CFC au nom de la Commission européenne, constitue un moment clé pour repositionner le chercheur dans l’écosystème de la fouille de textes et de données (ou Text and Data Mining, TDM), à l’intersection du droit d’auteur, de l’Open Science et de l’IA.

L’un des enjeux centraux est de dissocier le TDM au service de la recherche scientifique de le TDM à des fins commerciales ou d’entraînement de systèmes d’IA généralistes. Redéfinir la place du chercheur, c’est garantir que les exceptions prévues par le droit européen ne deviennent pas un cheval de Troie permettant une captation massive des contenus scientifiques au bénéfice d’acteurs tiers. Il s’agit de préserver un cadre où le chercheur reste légitime, identifiable et protégé, et où la recherche n’est pas instrumentalisée pour contourner le droit d’auteur.

La rencontre doit aussi permettre de dépasser une vision naïve de l’Open Science comme « ouverture sans conditions ». L’enjeu est de rappeler que l’ouverture des résultats n’efface ni les droits des auteurs ni le rôle des éditeurs, ni la responsabilité scientifique du chercheur. Le TDM pose ici une question structurante : comment maintenir la reconnaissance, la traçabilité et l’intégrité des travaux scientifiques lorsque ceux-ci deviennent des matières premières pour des traitements automatisés à grande échelle ?
 
Enfin, le TDM interroge la place du chercheur non plus seulement comme producteur de connaissances, mais comme acteur de la gouvernance des usages de ses travaux. L’enjeu est de lui redonner une capacité de choix et de compréhension : savoir qui fouille, à quelles fins, avec quelles garanties de transparence et de réutilisation loyale. Cette responsabilisation est essentielle pour éviter une dépossession silencieuse de la recherche au profit d’algorithmes opaques.
 
En réunissant le GF2I, le SNE, la FNPS, le CFC et les institutions européennes, cette rencontre peut ainsi contribuer à un message fort : le TDM n’est légitime et durable que s’il renforce la recherche et le rôle du chercheur, au lieu de les diluer dans une exploitation automatisée sans responsabilité ni contrepartie.

A propos de...

Thomas Parisot est directeur général du GF2I, où il pilote les travaux sur la souveraineté numérique et la maîtrise des infrastructures de données.

Il est également directeur des opérations chez Cairn.info, plateforme francophone de référence pour les sciences humaines et sociales.

Son parcours l’ancre au croisement de la stratégie numérique, de la gouvernance des données et des politiques d’indépendance technologique.


Thomas Parisot défend publiquement la protection du droit d’auteur, notamment dans le contexte de l’IA générative et du compromis autour de l’AI Act.