De la cryptographie à l’intelligence artificielle, l’informatique quantique pourrait-elle changer le monde ?

Pour mieux comprendre l’ordinateur quantique et la course technologique qu’il génère, nous vous proposons ici le quatrième opus de notre série. Celui-ci examine comment les ordinateurs quantiques pourraient changer la donne en cryptographie et en intelligence artificielle – deux domaines qui pourraient paraître spécifiques mais qui imprègnent déjà complètement nos vies numériques. Il fait suite à des articles sur la naissance du concept d’ordinateur quantique, sur les défis techniques à relever pour en construire « en vrai », et sur la consommation énergétique de tels futurs ordinateurs.


Après l’intelligence artificielle, l’étoile naissante de l’informatique est l’ordinateur quantique.

Il pourrait changer la donne – une fois qu’on saura le fabriquer – notamment en cryptographie, la science des codes secrets. Discrètement, celle-ci imprègne déjà tous les domaines de notre vie numérique et permet d’assurer notre cybersécurité, par exemple avec le chiffrement des cartes bancaires, des signatures électroniques et des communications sécurisées sur Internet – vitales pour toute personne qui habite dans un régime totalitaire et qui ne plaît pas au régime.

Améliorer la sécurité des échanges chiffrés est au cœur des recherches en cryptographie. Et notamment, les problèmes cryptographiques sont de ceux qui pourraient démontrer une potentielle « suprématie » des ordinateurs quantiques sur les ordinateurs classiques.

En effet, il n’est pas facile de démontrer que les ordinateurs quantiques sont avantageux par rapport aux ordinateurs que nous utilisons actuellement. On envisage deux voies : gagner plusieurs ordres de grandeur en efficacité sur l’ordinateur classique au prix de grands centres de calcul quantique, ou simplement calculer plus vite avec des ordinateurs petits qui verront le jour plus tôt.

Par exemple, quand Google a affirmé avoir atteint la suprématie quantique avec son ordinateur Sycamore en 2019, les critiques ont démontré que l’on pouvait trouver un meilleur algorithme classique. De nouveau, pour prouver la suprématie quantique d’un ordinateur à photons en 2020, ses auteurs ont implanté et testé le meilleur algorithme classique sur un superordinateur afin d’offrir une comparaison juste… mais un des auteurs a précisé que la facture des calculs classiques a été de l’ordre d’un million d’euros, et que la décision de pousser les calculs si loin a été prise suite à des demandes de chercheurs d’autres universités.

Cette question est celle de l’« optimalité des algorithmes ». Pour l’instant, on ne connaît aucun problème pour lequel on a à la fois un algorithme quantique plus rapide que le meilleur algorithme classique connu, et une preuve que ledit algorithme classique est effectivement optimal dans le monde classique.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Certains problèmes informatiques sont dits « difficiles mais sans preuve d’optimalité » : alors qu’ils sont utilisés par de nombreux programmes informatiques et que des centaines de chercheurs et ingénieurs travaillent dessus depuis des décennies, on ne trouve pas de meilleur algorithme.

Ces problèmes sont pertinents pour l’industrie comme ceux de la planification de la flotte d’une compagnie aérienne. Si l’ordinateur quantique accélère un de ses problèmes, on aura une preuve « industrielle » de son efficacité plutôt qu’une preuve théorique.

Des problèmes cryptographiques pour démontrer la suprématie quantique

La cryptographie est une bonne source de tels problèmes « difficiles ».

Par exemple, la factorisation est le problème qui, étant donné le résultat de la multiplication de deux nombres premiers (par exemple 17 fois 11 égal 187), demande de trouver ces nombres. C’est un procédé très important car il sous-tend le codage informatique de nombreux échanges cryptés actuels, à commencer par le protocole « RSA » qui est actuellement utilisé pour la quasi-totalité des cartes bancaires et par le protocole Internet « https ».

La factorisation a été présentée comme un problème difficile par Friedrich Gauss dès 1801 dans son livre Disquisitiones arithmeticae et a fait l’objet de publications scientifiques tout au long du XXe siècle. Au…

La suite est à lire sur: theconversation.com
Auteur: Razvan Barbulescu, Docteur en informatique, Inria