Solutions & Experts

Informatique quantique : mesure d'un avantage aux implications stratégiques. Valentin Gilbert


Jacqueline Sala
Jeudi 2 Avril 2026


Née de l’intuition visionnaire de Richard Feynman, l’informatique quantique a progressivement quitté le champ de la spéculation scientifique pour devenir un enjeu technologique mondial. Entre percées algorithmiques, menaces sur la cryptographie et défis d’ingénierie colossaux, elle cristallise aujourd’hui les ambitions de souveraineté des États et des grandes organisations. Alors que les machines restent limitées, la question centrale devient celle de la mesure : comment identifier, qualifier et atteindre un véritable avantage quantique.



Informatique quantique : mesure d'un avantage aux implications stratégiques. Valentin Gilbert

Origine : La remarquable idée du Dr. Richard Feynman

L’idée d’utiliser des systèmes quantiques pour simuler des phénomènes physiques complexes est popularisée grâce à la conférence de 1981 de Richard Feynman au MIT intitulée « Simulating physics with computers » (simulation de physique à l’aide d’ordinateurs). Il y souligne une limite structurelle des ordinateurs classiques : la simulation de systèmes quantiques devient rapidement impossible à mesure que la taille de ces systèmes augmente, du fait de l’augmentation extrêmement rapide des ressources nécessaires pour un simulateur classique.

Richard Feynman formalise alors l’alternative suivante : utiliser des dispositifs reposant eux-mêmes sur des lois de mécanique quantique, capables de reproduire de manière directe et à moindre coût le comportement de tels systèmes sans passer par une modélisation classique coûteuse.

Années 1990 : Bascule algorithmique

Au cours des années 1990, les recherches s’étendent au-delà de la simulation physique. L’informatique quantique commence à être envisagée comme un paradigme de calcul général.

En 1994, Peter Shor propose un algorithme capable de factoriser efficacement de grands nombres entiers. Cette capacité remet en question la robustesse de plusieurs systèmes cryptographiques asymétriques, dont le protocole RSA, largement utilisé dans les infrastructures numériques. 
Cette avancée marque un changement de perspective : l’informatique quantique ne relève plus uniquement de la physique théorique, mais s’inscrit dans un champ technologique aux implications directes pour la sécurité des communications.

Vers des enjeux de souveraineté

La possibilité théorique de fragiliser des systèmes cryptographiques largement déployés confère à l’informatique quantique une dimension stratégique. Les États et les grandes organisations industrielles considèrent désormais cette technologie comme un levier potentiel de souveraineté. Parallèlement, des travaux sur la cryptographie dite « post-quantique » émergent afin de concevoir des protocoles résistants à des attaques utilisant des ordinateurs quantiques.

Ces développements traduisent une anticipation des effets potentiels de cette technologie sur les infrastructures numériques globales. D’autres domaines d’application sont également explorés comme l’optimisation combinatoire, l’apprentissage automatique ou encore la résolution de problèmes d’algèbre linéaire. Ces domaines sont associés à des enjeux de souveraineté liés à la maîtrise des capacités de calcul avancées, à l’autonomie technologique et à la compétitivité industrielle des entreprises. La maturité des systèmes quantiques pour ces usages reste hétérogène et dépend fortement du progrès matériel des systèmes quantiques actuels.

Limitations des machines actuelles

L’ensemble des promesses offertes par les ordinateurs quantiques repose sur une condition centrale: la fiabilité de l’exécution de l’algorithme.

Un algorithme quantique est constitué d’une succession d’opérations élémentaires appelées portes quantiques. Chaque porte introduit un risque d’erreur, qui s’accumule au fil du calcul. À mesure que le nombre de portes augmente, les exigences sur le taux d’erreur deviennent particulièrement strictes. Pour y répondre, des schémas de correction d’erreurs sont développés, reposant sur des formes de redondance de l’unité d’information quantique.
Ces approches impliquent toutefois un surcoût matériel significatif. Selon les méthodes envisagées, le nombre d’unités d’information quantique peut être multiplié par un facteur allant de 100 à 1000. Cette contrainte transforme la question de la correction d’erreurs en défi d’ingénierie majeur, tant du point de vue de l’architecture des dispositifs que de leur capacité à passer à l’échelle. Par ailleurs, ces mécanismes tendent à allonger les temps de calcul et à complexifier les systèmes physiques, ce qui limite, à ce stade, l’exécution d’algorithmes de grande ampleur.

L’évaluation des performances des ordinateurs quantiques constitue un champ en structuration.

L’identification d’un éventuel avantage quantique ne repose pas sur un critère unique, mais sur un ensemble de dimensions interdépendantes :
  • Temps de calcul
  • Qualité des résultats
  • Consommation énergétique du calculateur

Ces indicateurs doivent être analysés en regard des progrès continus des méthodes classiques. Dans certains cas, des avancées algorithmiques classiques peuvent réduire, voire annuler, l’avantage attendu d’un algorithme quantique. Un second axe d’analyse concerne l’estimation des ressources nécessaires pour atteindre un avantage concret. Il s’agit notamment d’évaluer les ressources et hypothèses nécessaires à la réalisation d’un avantage quantique pour des cas d’usage spécifiques.

Ces travaux participent à clarifier les conditions dans lesquelles l’informatique quantique pourrait dépasser le stade expérimental pour s’inscrire dans des usages opérationnels.

A propos de ...

Valentin Gilbert est un consultant indépendant spécialisé en informatique quantique. Après un doctorat axé sur l’évaluation de la performance des ordinateurs quantiques au CEA, il fonde la société Qounselor spécialisée dans le conseil pour l’évaluation et l’adoption des technologies quantiques.
Auteur de nombreuses publications scientifiques sur l’évaluation de performance des ordinateurs quantiques, il est également fondateur de l’initiative Quantum Benchmark Zoo qui vise à répertorier les outils et bonnes pratiques pour évaluer la performance des ordinateurs quantiques.

Gardez le contact