L’informatique fait partie intégrante de la vie moderne, on en retrouve absolument partout. Depuis ses débuts, on observe une croissance des performances des nouvelles technologies avec notamment la création de processeurs de plus en plus puissants (Cf. Loi de Moore). Cependant, l’informatique commence à atteindre ses limites et c’est là que l’informatique quantique entre en jeu.

L'informatique quantique : qu'est-ce que c'est ?

Vous en avez peut-être déjà entendu parler, il s’agit d’un domaine de l’informatique qui va faire appel à des concepts de physiques quantiques. Un ordinateur moderne utilise des composants électroniques pour effectuer des successions d’actions logiques. Un ordinateur “quantique” va manipuler des entités répondant aux lois de la physique quantique (telles que des particules) afin d’effectuer ses calculs.

Pour faire simple, l’utilisation des lois de la physique quantique permet la création de nouveaux types d’algorithmes plus performants que leur équivalents classiques* (= utilisé pour l’informatique de nos jours).

Si on arrive à créer les ordinateurs adaptés, on aurait alors à disposition une force de calcul permettant de répondre à davantage de problèmes et de façon ultra performante.

C’est un enjeu de taille notamment dans les domaines suivants :

  • la cryptographie, avec le craquage de clés et création de nouvelles manières de sécuriser une connexion
  • le data-mining et l'exploitation de big-data
  • la pharmacologie, avec la simulation de molécules
  • etc.

Quantum

L'informatique quantique, c'est pour quand ?

Maintenant qu’on a une idée de ce que cette innovation peut nous apporter, on est en droit de se demander : est-ce pour bientôt ?

Les premiers ordinateurs quantiques ont vu le jour dans les années 2000 et ont continué d’évoluer depuis. Divers laboratoires de recherche issus d’universités et d’entreprises s’intéressent à ce sujet.

Google et Intel étant parmi ceux qui font le plus parler d’eux. En France, un plan de fond de recherche a été lancé en 2021 pour les labos de Paris-Saclay. Cependant actuellement, (fin 2021) les technologies développées ne sont pas encore assez fiables et puissantes pour répondre aux besoins auxquels l’informatique classique répond.

Hélas, diverses études estiment que ces évolutions majeures ne se feront pas avant au moins 20 ans.