L'un des premiers algorithmes quantiques presentes au debut des annees 80 montrait un gain theorique absolu par rapport a un algorithme classique mais n'avait pas d'application pratique ce qui n'interessait qu'un petit cenacle de specialistes. Par la suite le developpement de l'informatique quantique a connu une acceleration considerable avec la publication de l'algorithme quantique de Peter Shor permettant la factorisation des grands entiers dans un temps polynomial (raisonnable). Cet algorithme qui fragilisait theoriquement les systemes de protection de donnee a incite les fabricants et les centres de recherche a developper des ordinateurs quantiques capables d'effectuer ces algorithmes. Mais de nombreuses difficultes technologiques liees au caractere quantique des qubits comme la decoherence ont eu pour consequence qu'il n'existe pas a ce jour d'ordinateur quantique capable de casser les systemes de protection de donnees. C'est pourquoi, constatant ces difficultes, des chercheurs ont defini de nouvelles etapes tenant compte des difficultes de mise au point technologique et ont donc limite les ambitions du domaine autour des principes NISQ et de la notion de suprematie quantique. Cela consiste a definir dans le cadre des processeurs actuellement disponibles, une superiorite par rapport a un processeur classique pour un calcul algorithmique specifique non necessairement utile et permet de definir des etapes realistes dans les developpements des processeurs et des algorithmes. Ces derniers sont un enjeu crucial pour l'avenir de l'informatique quantique.
展开▼