Après le digital, le quantique ?

La révolution du digital semble à peine démarrée que se préfigure la prochaine révolution : l’ordinateur quantique.

Les révolutions s’accélèrent : la révolution du néolithique (agriculture, sédentarisation :-14000), du métal (-4000), de la machine et de l’électricité (XIXème), de l’atome et de l’électronique (moitié du XXème), de l’internet et du digital (années 1980), et bientôt (années 2020) les ordinateurs quantiques. Pour les passionnés d’épistémologie et de progrès scientifiques et pour les Schumpétériens qui pensent que chaque révolution destructrice apporte de nouveaux emplois, c’est une aubaine.

Ordinateur quantique, kezako ?

Les ordinateurs actuels fonctionnent avec des « pas » de programme, astuce cartésienne qu’A. Turing avait faite en marchant dans Bletchley Park. Les ordinateurs ont des mémoires et des programmes, selon la pensée de J. Von Neumann de 1945. Les ordinateurs classiques sont binaires, tout y est enregistré en bit (0 ou 1 en électronique). R. Feynman (prix Nobel 1965) a eu l’intuition que l’on pourrait construire des ordinateurs « quantiques », où les éléments ne seraient pas binaires mais probabilistes.

Depuis L. de Broglie, on sait que les particules sont aussi des ondes, c’est-à-dire des fonctions de probabilité qui peuvent ici être dans 2 états, qui peuvent se superposer. Cela peut être une certaine probabilité d’être égal à 0 versus 1 pour un ordinateur. En assurance vie, ce pourrait être une probabilité d’être vivant ou mort (comme le chat de Schrödinger). A. Einstein n’aimait pas cette idée que « Dieu joue aux dés ».

Dans un ordinateur quantique, au lieu d’additionner des Bits (soit 0 soit 1), on combinerait des Qubits (probabilités d’être 0 et 1). On pourrait ainsi « superposer » autant de calculs de combinaisons possibles de Qubits. 70 Qubits combinés couvriraient le champ de la connaissance universelle (quelques zettabytes, soit 10 puissance 21 bytes).

Encore mieux, si deux particules ont été « intriquées », si on connaît l’état de l’une, on en déduit l’état de l’autre, fusse telle de l’autre côté de la terre. Pratique pour communiquer discrètement et immédiatement.

Qui peut le développer ?

Les petites Fintechs pensaient disrupter le monde financier depuis quelques appartements du sentier ou divers clusters qui fleurissent (la station F est désormais ouverte à la halle Freyssinet). Mais on assiste à une réaction des géants, soit par rachats (par exemple BNPP qui a racheté Compte Nickel) soit par développements de Labs en interne.

Coté informatique, c’est un géant –Atos- qui présente une « simulation » d’ordinateur quantique, car il faut des budgets technologiques, financiers et humains énormes. En fait, il reste beaucoup de chemin à parcourir, notamment:

–          Etre à température proche du 0 absolu, pour éviter les perturbations (décohérences), alors que les ordinateurs classiques chauffent.

–          Développer des algorithmes spécifiques au calcul quantique (comme l’algorithme de Shor pour la cryptographie)

L’assurance serait bouleversée :

–          La capacité de données permettrait d’avoir des prévisions météorologiques décourageant soit l’assureur agricole soit l’assuré. En revanche, cela favoriserait la prévention.

–          On assiste au passage de l’assurance de la propriété à l’assurance de l’usage. Avec la prochaine étape, par géolocalisation, aurait-on besoin de déclarer où l’on va puisque l’assureur pourrait le savoir ?

–          Le data mining puis le big data se sont développés pour connaître le client. Avec des bases de données pratiquement infinies et de l’intelligence artificielle, on saurait déjà pratiquement tout du client.

–          Certains risques seraient largement démasqués : menace terroriste, cyber-attaques,… Quoique pour ce dernier l’attaque et la défense se développent de pair.

–          L’approche des risques deviendrait beaucoup plus fine et plus exhaustive, rendant les formules standards de solvabilité complètement obsolètes.

–          La valeur serait dans la connaissance du client du risque et des prestataires de service, et non plus dans le capital couvrant les risques. Seuls les intermédiaires, gestionnaires, prestataires correctement connectés pourraient apporter une plus-value.

La menace de big brother :

–          Quelle confidentialité, si les réseaux connaissent tout des individus ?

–          Comment financer ou assurer un risque quasi-certain (problèmes décelables par la génétique par exemple), ou même mutualiser des personnes alors que l’on connaîtrait leur profil de risque à l’euro près ?

 

Partager l'article

Commenter