L’informatique Quantique


De la santé à l’automobile

en passant par la finance :

les promesses de l’informatique quantique


L’informatique est à l’aube d’une nouvelle ère avec le quantique. Le domaine sort des laboratoires de recherche pour s’attaquer à ses premières applications concrètes.

Il convient d’oublier la loi de Moore car nous entrons dans un nouveau monde…

Exécuter en quelques minutes des traitements que les meilleurs supercalculateurs actuels mettraient des centaines d’années à réaliser, telle est la promesse de l’informatique quantique. Le secteur digital s’est déjà lancé dans la course. Outre-Atlantique, Google, IBM, Intel ou Microsoft mobilisent leurs ingénieurs. Côté asiatique, le géant chinois Alibaba se positionne. En France, Atos planche avec le CEA et le CNRS sur le sujet. Tout comme l’écosystème grenoblois des semi-conducteurs, autour de Soitec et STMicroelectronics.

Pourquoi un cabinet conseil en banque, finance et assurance comme Xénium Partners s’intéresse-t-il à l’intelligence artificielle ?

Tout simplement, d’une manière générale, nous tenons à être « à la pointe » de ce qui va impacter notre domaine et nos métiers dans le future, la veille technologique est indispensable.
Nous laissons le lecteur imaginer l’effet des traitements quantiques sur le Trading à Hautes Fréquences
Nous aurions pu faire un exposé très académique mais il est plus simple de donner une suite d’articles ouverts permettant de ce faire une idée sur les changements en cours.
De nombreux progrès ont été fait ces dernières années, chaque acteur majeur battant tour à tour le record :
– 2 qubits en 1998 (IBM),
– 7 en 2001 (IBM),
– 14 en 2011 (Université d’Innsbruck),
– 17 en mai 2017 (IBM) puis
– 17 en septembre 2017 (Intel).
Et 72 qubits pour Google en 2018 !
Au cours du XIXe siècle, les cristallographes et les chimistes essaient de prouver l’existence des atomes, mais ce n’est qu’au début du XXe siècle qu’ils seront définitivement mis en évidence, grâce à la diffraction des rayons X. Pour les modéliser, la quantification de la matière est un passage obligé, ce qui donne naissance à la physique quantique. En 1900, Max Planck émet l’hypothèse que les échanges d’énergie avec la matière se font par petites quantités : les « quanta « .
Louis de Broglie initie alors la mécanique quantique qui permet de modéliser correctement l’atome. La physique quantique finit par absorber tous les domaines de la physique classique en une seule discipline. Les accélérateurs de particules montrent alors que les atomes sont composés de particules plus élémentaires, comme le proton ou le neutron, eux-mêmes composés de quarks. C’est la théorie quantique des champs, construite à partir de l’électrodynamique quantique qui décrira l’ensemble des particules élémentaires.

Stop     Stop     Stop     Stop    

Pour les scientifiques, rendez-vous sur : La physique quantique.
Nous ne sommes pas ici pour faire de la physique quantique, mais pour voir les évolutions prévisibles (ou non) de son application dans l’informatique quantique en devenir…

Sur une seule page :

toutes les informations.

Démocrite : « Si tout corps est divisible à l’infini, de deux choses l’une : ou il ne restera rien, ou il restera quelque chose. Dans le premier cas, la matière n’aurait qu’une existence virtuelle, dans le second cas on se pose la question : que reste-t-il ? La réponse la plus logique, c’est l’existence d’éléments réels, indivisibles et insécables appelés donc atomes »
Notre plan de présentation sera le suivant :
    1. Histoire de la physique Quantique
    2. Les Ordinateurs Quantiques – Science étonnante
    3. La naissance du numérique
    4. L’informatique … Toute une histoire
    5. Les avancées promises de l’informatique quantique
    6. Ordinateur quantique : Prochaine révolution informatique
    7. Ingénierie quantique 2.0 : quelles technologies ?
    8. Surveillance de masse (vidéo)
    9. Comprendre l’informatique quantique
    10. How it Works: Quantum Computing
    11. Une introduction aux algorithmes et applications quantiques
    12. Comment les poids lourds des technologies se préparent à l’informatique quantique
    13. L’incroyable casse-tête pour créer le premier ordinateur quantique
    14. Google et la NASA testent leur ordinateur quantique
    15. L’Europe ne doit plus être la colonie du monde numérique
    16. La vision Microsoft
    17. Du coté de Google
    18. L’ordinateur quantique, une puissance sans égal mais en devenir
    19. Les startups de l’informatique quantique
    20. Science du qubit, science des données
    21. La physique quantique pourrait rendre nos mots de passe inviolables
    22. L’ informatique Quantique et la Finance
    23. Le monde étrange des Qbits à l’assaut de la finance
    24. L’ordinateur quantique est-il une menace pour la finance mondiale ?
    25. Physique quantique et finance
    26. Comprendre (simplement) le deep learning avec un directeur de Google
    27. Le deep learning — Science étonnante #27
    28. Un cours de « Math for Quantum Physics »
    29. Liens supplémentaires pour le plaisir


Histoire de la physique Quantique

L’histoire de la mécanique quantique commence essentiellement par les évènements suivants : en 1838 avec la découverte des rayons cathodiques par Michael Faraday, durant l’hiver 1859-1860 avec l’énoncé du problème du corps noir par Gustav Kirchhoff, la suggestion en 1877 de Ludwig Boltzmann que les états d’énergie d’un système physique puissent être discrets, et l’hypothèse quantique de Max Planck stipulant que tout système atomique irradiant de l’énergie peut être divisé en « éléments d’énergie discrets ε tels que chacun de ces éléments est proportionnel à la fréquence avec laquelle chacun irradie individuellement son énergie, comme défini dans la formule suivante :
h est une valeur numérique appelée constante de Planck. En 1905, afin d’expliquer l’effet photoélectrique (connu depuis 1839), c’est-à-dire que l’irradiation lumineuse de certains matériaux puissent en éjecter des électrons, Albert Einstein postula, en se basant sur l’hypothèse quantique de Planck, que la lumière elle-même se composait de particules individuelles quantifiées, appelées par la suite photons (à partir de 1926). L’expression de « mécanique quantique » fut utilisée pour la première fois en 1924 par Max Born dans son article Zur Quantenmechanik. Dans les années qui suivirent, cette base théorique commença à être appliquée à la structure, à la réactivité et à la liaison chimiques.
La suite sur  : Histoire de la mécanique quantique
 

Les Ordinateurs Quantiques – Science étonnante

Une excellent vidéo pour faire le lien entre la théorie quantique et l’informatique quantique :
Diffusé sur la chaine Science Étonnante (youtube)

Publié le 16 juillet 2018.

La naissance du numérique

Il y a 70 ans, à l’université de Manchester, un ordinateur fonctionnait pour la première fois dans l’histoire. Le Manchester Museum of Science and Industry célèbre cet exploit par une exposition et une série de conférences sur les débuts de l’informatique. Le clou de cette manifestation est une réplique du Baby computer de 1948, construite à l’identique avec ses lampes radio et sa mémoire à tube cathodique, qui effectue des calculs sur des logiciels d’époque. Un historien, Pierre Mounier-Kuhn, nous raconte cette histoire, soulignant que la Grande-Bretagne sait admirablement mettre en valeur son patrimoine numérique. Binaire.
En 1945, tirant les leçons des réalisations électroniques secrètes menées pendant la guerre, deux documents ont défini une structure de machine radicalement nouvelle : le calculateur numérique à programme enregistré en mémoire — auquel les Français donneront plus tard le nom bien pratique d’ordinateur (dont ne disposent pas les anglo-saxons qui doivent se contenter du terme computer soit calculateur).

Du concept à l’ordinosaure

Le premier, le rapport Von Neumann, publié dès juin 1945, aura un large impact en raison même de sa disponibilité (on peut l’acheter à Washington pour une poignée de dollars) et de la notoriété de son auteur : John von Neumann, l’un des esprits les plus brillants et les plus universels du XX e siècle, est bien connu dans le monde scientifique et a ses entrées chez les dirigeants civils et militaires.
Le deuxième, élaboré quelques mois plus tard à Londres, est un plan beaucoup plus détaillé d’ordinateur conçu par le mathématicien Alan Turing pour le National Physical Laboratory. Il cite d’ailleurs le rapport Von Neumann comme référence principale.
La dématérialisation complète du programme, passant de cartes perforées ou de bandes de papier à des impulsions électroniques, permet d’accélérer énormément le traitement des instructions et ouvre de nouvelles possibilités algorithmiques : il est beaucoup plus facile, dans une machine, d’accéder à n’importe quelle adresse mémoire électronique que de dérouler et rembobiner en permanence une bande de papier !
Si l’architecture définie par Von Neumann constitue potentiellement une solution élégante et prometteuse, elle commence par poser un problème technique ardu : comment réaliser les mémoires ? Cet organe essentiel pour stocker les instructions et les données est en principe au cœur de la nouvelle machine. Mais il n’existe rien de tel dans les technologies matérielles disponibles à l’époque, pour mémoriser des impulsions binaires.
Au cours des années qui suivent, une dizaine d’équipes à travers le monde se lancent dans le développement d’ordinateurs, surtout en Angleterre et aux États-Unis. Elles expérimentent divers procédés de mémorisation, empruntés souvent au radar et aux télécommunications.
L’une de ces équipes se rassemble à l’université de Manchester. Elle est issue en partie de Blechtley Park et du laboratoire des Télécommunications britanniques, qui a participé au développement de machines secrètes pendant la 2ème guerre mondiale. Les responsables du département de génie électrique, Frederic C. Williams et Tom Kilburn, parient sur la possibilité d’enregistrer des données sur l’écran d’un tube cathodique – d’un écran de télévision. En simplifiant beaucoup, disons que chaque bit d’information serait représenté sur l’écran par un pixel, inscrit, renouvelé ou lu à chaque balayage de l’écran par le faisceau cathodique. Un peu comme, pendant la bataille d’Angleterre, les opératrices radar voyaient sur leur écran s’afficher des points lumineux représentant les avions ennemis, et qui bougeaient à chaque balayage du radar.
Pour tester cette idée, ils construisent une maquette de laboratoire : un « tube de Williams » avec ses circuits de commande, connecté à un calculateur électronique minimal. Chaque tube cathodique peut mémoriser entre 512 et 2048 bits, régénérés chaque milliseconde. Le processeur ne sait faire qu’une opération : la soustraction !
Nous avons tous appris à l’école qu’en combinant deux soustractions on obtient une addition (« moins par moins fait plus »), qu’en combinant des additions on obtient une multiplication et qu’en soustrayant plusieurs fois on effectue une division… Un processeur arithmétique réduit au minimum permet donc de calculer ce que l’on veut en économisant le matériel, si l’on accepte une certaine lenteur d’opération. C’est suffisant pour vérifier la faisabilité pratique de la mémorisation dans des tubes cathodiques, but de cette Manchester Small-Scale Experimental Machine, surnommée “Baby” par ses développeurs.
Le 21 juin 1948, pour la première fois dans l’histoire, un programme enregistré servant de test effectue un calcul dans cette machine. Tom Kilburn a écrit et codé en binaire un algorithme, une simple recherche du plus grand facteur propre de 2¹⁸.
L’intérêt de ce calcul banal n’est pas mathématique, mais technique : nécessitant beaucoup d’opérations, il prend beaucoup de temps… donc permettra de vérifier si la machine est fiable. Après 52 minutes et 3,5 millions d’instructions exécutées, le système produit la réponse correcte (131 072). On peut dater de ce jour la naissance de l’ordinateur, en considérant que l’enregistrement d’un programme dans une mémoire directement accessible par le processeur est l’innovation qui va permettre les développements algorithmiques ultérieurs.

Le premier programme enregistré de l’histoire : 17 instructions (ici, la version modifiée en juillet 1948). Photo School of Computer Science, The University of Manchester., CC BY
 

De l’expérience de laboratoire à l’ordinateur commercial

La Baby Machine sera la base d’un grand ordinateur, Manchester Mark I, construit l’année suivante et industrialisé ensuite par une grande entreprise locale de matériels électriques, Ferranti.
Le mathématicien qui a initié et supervisé tout le projet, Max Newman, n’est autre que le professeur de Cambridge qui avait enseigné la logique au jeune Turing en 1936, puis l’avait rejoint au service de cryptanalyse. À la rentrée 1948, il invite Alan Turing à Manchester pour prendre en charge la programmation du nouvel ordinateur. Turing ne se contentera pas de développer des méthodes de codage et de vérification de programmes : il y testera ses modèles mathématiques de morphogenèse et spéculera sur les possibilités de simuler la pensée.
Dès octobre 1949, le département de philosophie de l’université accueille un colloque de cogitations cybernéticiennes sur «
The Mind and the Computing Machines ».
Alan Turing (à gauche) et la console du Ferranti Mark I. Photo Ferranti / School of Computer Science, The University of Manchester., CC BY
La suite sur : La naissance du numérique

L’informatique… toute une histoire !

Publié le 21 août 2017.
L’informatique a bouleversé la société tant dans le monde professionnel que dans notre vie de tous les jours. De nombreuses innovations ont été créées dans ce secteur à un rythme très soutenu avec notamment la création de la fameuse loi de Moore bien que celle-ci ait connu plusieurs variantes au fil de l’histoire et qu’elle ne soit pas vraiment stable (on la résume souvent de manière approximative au doublement de la puissance des processeurs à coût constant).
Ce secteur continue à innover depuis plusieurs siècles et ce mouvement ne semble pas prêt de s’arrêter donnant lieu à de nombreuses attentes parfois infondées en raison des effets de communication et des mythes propagés par certains acteurs de l’industrie.
L’Automatic Sequence-Controlled Calculator (Harvard Mark I), la première machine à réaliser seule de longs calculs. Sara D./Flickr, CC BY

Des combinatoires d’innovations au travers des siècles

On a tendance à oublier que les innovations sont le fruit d’une histoire même si certaines apparaissent comme révolutionnaires (Internet, le big data, l’intelligence artificielle, etc…). Par exemple, Howard Aiken, l’un des fondateurs de l’ordinateur Mark I d’IBM en 1944, s’est inspiré pour la conception de la machine de Babbage découverte à Harvard et a contraint son équipe d’ingénieurs à lire les notes et travaux de la mathématicienne Ada Lovelace rédigés dans la première partie du XIXe siècle. Cela fut un moment important dans la conception des ordinateurs que nous connaissons actuellement.
Machine de Babbage, conçue en 1849 par Charles Babbage – Ici au Computer History Museum de San Jose, en Californie. Atomic Taco/Flickr, CC BY-SA
Beaucoup d’avancées technologiques dans le secteur informatique ont également été le fruit de recherches menées pendant des périodes de conflits (notamment la première et seconde guerre mondiale) qui se sont révélées propices à une forme de concurrence entre les nations (les ordinateurs, le radar, le réseau Internet, etc.). Il existe donc des étapes et des inventions en grappe qui sont déterminantes dans le succès des innovations. Pour l’informatique par exemple, les avancées dans le domaine du transistor ou de la miniaturisation des circuits intégrés ont été déterminantes dans les possibilités de calculs des ordinateurs.
Robert Noyce, qui co-inventa le circuit intégré, avec le motherboard en 1959. Intel Free Press/Flickr, CC BY-SA

L’importance des lieux d’innovation et de la complémentarité des profils d’innovateurs

Les innovations ont été souvent le fruit de rencontres entre des expertises différentes mais complémentaires. Les équipes de recherche les plus innovantes dans le secteur informatique ont été celles qui regroupaient le plus large spectre de spécialités, l’une des illustrations les plus célèbres étant celle des laboratoires Bell aux États-Unis en 1925.
Le management de ces équipes fut et reste encore un véritable challenge managérial qui ne peut fonctionner souvent d’ailleurs qu’avec un appariement très subtil de visionnaires et de gestionnaires (dont le plus fameux duo actuel est sans doute Larry page et Serge Brin, les deux fondateurs de Google).
Or, ce travail collaboratif n’est rendu possible que par l’existence des lieux physiques tels que les laboratoires Bell ou des centres de recherches universitaires. En effet que serait l’informatique aujourd’hui sans la rencontre de Von Neumann et Turing à Princeton après la Seconde Guerre mondiale ? Les innovations sont également apparues dans des lieux grâce à un renouvellement des pratiques managériales et des structures d’organisation singulières pour leur époque dont l’emblème est la Silicon Valley. La culture et l’histoire des individus sont également des facteurs explicatifs de ces évolutions.
Sur la photo de gauche, les fondateurs d’INTEL devant le masque du premier microprocesseur de l’entreprise : le 4004.
Par exemple, Robert Noyce, l’un des co-fondateurs d’Intel dans les années 1960, a été très influencé par la religion. Venant d’une famille congrégationaliste, il rejetait les principes de la hiérarchie et les signes qui s’y apparentaient. Il a ainsi cherché à créer à l’époque des lieux de travail déstructurés et plus ouverts pour favoriser les échanges d’idées.
Graphique de la loi de Moore (base INTEL):
Cela peut paraître surprenant mais il est ainsi parfois extrêmement difficile d’attribuer la paternité de certaines innovations de manière claire aux individus. Cela est dû en partie au fait que les innovations proviennent souvent d’un effort collectif, en termes de compétences techniques, mais aussi de visions sur ce que doit être l’innovation. C’est le cas pour John Mauchly et John Eckert à qui on a attribué (bien que cela fasse débat) la paternité de l’ordinateur notamment grâce à leur capacité de s’entourer d’une équipe compétente.
L’UNIVAC 1232 utilisé de 1967 à 1990 par l’US Air Force’s Satellite Control Facility à Sunnyvale, California. UNIVAC était une division de Remington Rand provenant de l’achat en 1950 de l’Eckert-Mauchly Computer Corporation, créée en 1946 par les inventeurs J. Presper Eckert et John Mauchly. Bernt Rostad/Flickr, CC BY
N’oublions pas le Micral conçu par la société R2E commercialisé en 1973.
Le tout premier modèle de cette gamme, nommé « Micral », possède la caractéristique d’être basé sur un microprocesseur et d’avoir des dimensions réduites. Il est ainsi reconnu comme étant le premier micro-ordinateur de l’histoire.

Aller contre les idées reçues : une nécessité dans le secteur informatique ?

La réussite des innovations dans le secteur informatique repose aussi sur une mise en tension permanente entre les besoins de s’adapter au marché (et donc au comportement des consommateurs) et des approches plus disruptives souvent portées par quelques fondateurs mythiques. Steve Jobs était et reste encore la figure emblématique du chef d’entreprise capable d’aller à l’encontre de ses propres équipes pour innover, voire même de les mettre en concurrence. Pour autant, il est loin d’être le seul et le secteur informatique regorge d’exemples. Mais n’oublions pas son alter-égo des débuts : Steve Wozniak.
Xerox fut l’un des meilleurs exemples lorsque ses propres cadres ne daignèrent pas accorder d’importance à l’interface homme-machine via la souris et le clavier considérant que cela était « un truc de secrétaire » dans les années 1970.
Xerox Corp
Cette invention fut reprise ensuite par Bob Taylor qui fut un acteur majeur du développement du réseau Arpanet, l’ancêtre d’Internet. On peut aussi citer l’adage des fondateurs de Google, Serge Brin et Larry Page, qui cultivent « un sain mépris de l’impossible ».
Ce petit « mulot » impressionna tant Steeve Jobs lors de sa visite au Palo Alto Research Center qu’il décida de l’incorporer de suite au Lisa puis au Macintosh, l’histoire informatique fit un nouveau bond en avant…
Source :

Ordinateur quantique : Prochaine révolution informatique


Ingénierie quantique 2.0 : quelles technologies ?

Toujours depuis Theconversation.com Publié le 7 juillet 2018.
Depuis une trentaine d’années, l’intérêt soulevé par les technologies quantiques n’a fait que croître. L’Europe investit fortement pour leur développement auquel les équipes du CEA prennent toute leur part.
Depuis sa création, notre institution (le CEA) s’est intéressée à de nombreux domaines de pointe en recherche fondamentale ou technologique qui sont ou peuvent se révéler importants pour l’accomplissement de ses missions régaliennes et la souveraineté de la France. Alain Aspect aime ainsi à rappeler l’histoire des équipes de la rue d’Ulm venant au CEA/Saclay dans la 2 CV de Claude Cohen-Tannoudji pour apprendre la mécanique quantique grâce au cours d’Albert Messiah, jeune théoricien tout juste rentré des États-Unis où il avait été le disciple de deux piliers du Manhattan Project : Niels Bohr et Richard Oppenheimer. La mécanique quantique, science théorisée dans les années vingt, prenait alors son essor, bouleversant la science et la technologie. C’était le début de la première révolution quantique qui allait conduire à l’invention du laser, du transistor, des ordinateurs, des horloges atomiques et autres GPS ou téléphones portables.
Ainsi, dans de nombreux domaines, le CEA a été pionnier et est devenu une institution de référence. C’est notamment le cas pour la microélectronique, l’électronique quantique, les nanosciences et le calcul haute performance.

Calculateur quantique

Un cours d’Alain Aspect.
École Polytechnique/Jérémy Barande, CC BY-SA
 
Dans les années 1980, de nouvelles idées iconoclastes ont été lancé par des physiciens comme Alain Aspect et son expérience historique sur l’intrication et la non-localité des photons ou Richard Feynman et son article séminal « Simulating Physics with Computers », introduisant la notion de calculateur quantique. C’était le début de la deuxième révolution quantique. Cette émergence n’est pas passée inaperçue de plusieurs équipes du CEA qui s’intéressaient alors déjà au transport électrique quantique dans les nanostructures et plus globalement aux circuits électriques en régime quantique.
Elles sont ainsi devenues des pionnières de ce nouveau champ à la fois scientifique et technologique.
L’intérêt croissant pour les technologies quantiques a conduit toute la communauté scientifique à porter en 2016 un « Quantum Manifesto » auprès de la Commission européenne pour que soit lancé un programme d’envergure. Un FET flagship (technologies futures et émergentes), doté d’un milliard d’euros sur 10 ans, a alors été décidé par Bruxelles. Les premiers appels à projets, réalisés dès 2017, sont actuellement en cours d’évaluation.
Voici un premier aperçu des technologies quantiques, en suivant le découpage standard en quatre domaines d’activité que le flagship a adopté.
Le premier pilier porte sur les communications quantiques. La démonstration théorique puis expérimentale dès les années 1980 de protocoles de cryptographie dont l’inviolabilité est garantie par les lois de la physique quantique a ouvert un nouveau champ de recherche en cryptographie. Dans l’un de ces protocoles assez directement inspiré des expériences ayant caractérisé les propriétés de l’intrication quantique, on transmet en deux lieux éloignés les photons de paires dont les polarisations sont intriquées. Toute tentative de mesure de ces photons par une partie adverse détruit l’intrication quantique présente, ne fournit aucune information utile et devient même détectable.

Cryptographies

Les systèmes de cryptographie quantique commerciaux comme ceux de la compagnie suisse ID-Quantique permettent déjà de transmettre des messages, mais pas d’encoder des communications à grande échelle car le débit de transmission de bits sécurisés reste encore faible.
La mise au point de protocoles permettant un fort débit est donc un enjeu important. De plus, les pertes de photons dans les fibres limitent la portée des transmissions à une distance dépendant du protocole, mais au plus de quelques dizaines de kilomètres sur fibre télécom. La route pour réaliser des réseaux à grand débit passe donc par la mise au point de protocoles optimisés associés à des répéteurs quantiques fidèles capables de transmettre l’information quantique en dépit des pertes sur les fibres.
Les recherches effectuées au CEA en photonique quantique se rattachent notamment à ce pilier, mais pas seulement.

Le deuxième pilier du flagship concerne le calcul quantique.

Richard Feynman avait fait remarquer dès 1982 que l’évolution d’un système quantique est un problème rendu très difficile par la croissance exponentielle avec sa taille de l’espace de Hilbert de ses états quantiques. Il en avait conclu que seul un autre système quantique contrôlable pourrait parvenir à la déterminer. Le nombre maximum de systèmes quantiques couplés les plus simples, soit les systèmes à deux niveaux, qu’on peut simuler avec le calculateur haute performance le plus puissant à ce jour n’est que de 46 qbits, ce qui donne entièrement raison à Richard Feynman !
Mais la manipulation de l’état quantique d’un registre de bits quantiques (Qbits) au lieu d’un registre de bits classiques constitue une ressource puissante pour résoudre des problèmes difficiles fut une belle surprise.
Tous les ordinateurs ne sont pas des machines de Turing plus ou moins rapides. Les classes de complexité des problèmes numériques établies pour les ordinateurs classiques ne s’appliquent pas aux ordinateurs quantiques, et, plus intéressant, certains problèmes inattaquables avec des ordinateurs classiques seraient à la portée d’un ordinateur quantique. L’invention par Peter Shor en 1994 d’un algorithme quantique de factorisation des nombres entiers, une tâche dont la difficulté est à la base des méthodes de cryptage universellement utilisées, a marqué les esprits. Un registre de N bits quantiques (qubits) a 2N états de base correspondant aux 2N valeurs du registre classique, et son état quantique peut être une superposition arbitraire de ces états.

Algorithmes quantiques

Un algorithme quantique consiste en l’application d’une succession de portes logiques quantiques qui implémente l’évolution voulue par l’algorithme. À ce stade, la linéarité intrinsèque de la mécanique quantique permet d’appliquer ces phases d’évolutions à une superposition arbitraire des états de base, voire à leur somme complète. Comme la lecture du registre ne fournit qu’une valeur 0 ou 1 pour chaque bit, soit un des états de base du registre, tout l’art de l’algorithmique quantique consiste à concentrer l’évolution vers les états donnant une/la solution du problème cherché. Cet art est difficile, et un ordinateur quantique n’est pas une machine universelle qui résoudrait tous les problèmes plus rapidement qu’un ordinateur conventionnel, mais plutôt une machine capable de résoudre efficacement certains problèmes hors de portée des machines conventionnelles.

Simulation

Le troisième pilier du flagship s’intéresse à l’évolution d’un système quantique. Il s’agit de le résoudre en faisant de la simulation quantique « à la Feynman » avec un autre système quantique. Il faut, pour cela, trouver une bonne adéquation entre des problèmes quantiques intéressants et des systèmes physiques plus facilement réalisables, ajustables, contrôlables et mesurables. La simulation d’hamiltoniens importants de la matière condensée, comme celui d’Hubbard décrivant la dynamique d’électrons en interaction sur un réseau, peut ainsi s’effectuer avec des atomes ultra-froids sur réseau optique. Il n’y a pas encore de problème quantique pour lequel la simulation a apporté des informations inconnues auparavant mais cela pourrait arriver prochainement. Un grand intérêt de la simulation est de donner accès à l’échelle la plus intime d’un phénomène quantique, ce qui est en général impossible sur le système d’origine.

Le quatrième pilier est baptisé « Métrologie et senseurs quantiques ».

Il vise à exploiter un ensemble de phénomènes quantiques connus mais restés encore peu exploités pour réaliser des mesures plus précises, tout comme l’était l’intrication quantique avant la prise de conscience de son intérêt pour l’information quantique. Considérons l’exemple des horloges atomiques. Dans une horloge atomique, des atomes suivant des trajectoires dans un interféromètre sont interrogés par des impulsions optiques induisant des transitions entre niveaux atomiques et le signal d’interférence obtenu permet de caler la fréquence d’excitation sur celle d’une raie atomique extrêmement fine, même très précisément sur son sommet. L’utilisation d’états quantiques collectifs d’ensembles d’atomes à la place d’états d’atomes indépendants ouvre déjà des perspectives pour améliorer la sensibilité des horloges atomiques.

Voir également : Capteurs quantiques et métrologie

Détecter les signaux

Par ailleurs, dans les détecteurs d’ondes gravitationnelles comme LIGO et VIRGO, l’utilisation de faisceaux de lumière dont le bruit sur la phase de mesure des interférences optiques est comprimé aux dépens du bruit sur l’autre phase améliore maintenant la sensibilité des détecteurs et devrait augmenter d’un facteur 4 le volume effectif de détection dans l’univers de signaux gravitationnels. La compression du bruit sur la phase de mesure d’un signal est ainsi une technologie quantique qui améliore le rapport signal à bruit d’une mesure électromagnétique. Les recherches menées au CEA dans le domaine des senseurs quantiques portent notamment sur la résonance magnétique pour laquelle des progrès spectaculaires ont été réalisés. Cela pourrait à terme révolutionner les mesures en chimie et biologie en allant vers des sensibilités ultimes, détection de molécule unique ou résolution accrue.
Source et article complet : Ingénierie quantique 2.0 Quelles technologies ?
Voir aussi (pour ceux qui aiment vraiment) : Senseurs quantiques intégrés


Surveillance de masse

( l’ordinateur quantique , arme du N.O.M ? )


Les avancées promises par l’informatique quantique.

Journal du Net
Article publié le 2 juillet 2018 par :
Pour le JDN

Plusieurs types d’application sont concernés, même si « leur nombre reste limité pour l’instant », explique Philippe Duluc, directeur technique big data et sécurité chez Atos. Le laboratoire pharmaceutique américain Biogen étudie cette piste pour mettre au point de nouveaux traitements des maladies d’Alzheimer ou Parkinson. La simulation de molécules se classe en tête des domaines envisagés. « La puissance informatique nécessaire à ce type de traitements croît de manière exponentielle avec la taille de la molécule. Du coup, les capacités numériques actuelles sont largement insuffisantes pour en venir à bout. D’où l’idée de faire appel au quantique », résume Maud Vinet, en charge du sujet au CEA. La chimie, l’énergie et la santé, donc, sont concernées. La banque pourrait également bénéficier du calcul quantique, notamment pour aider ou automatiser les prises de décision, dans le trading par exemple.
La suite sur :

Les promesses de l’informatique quantique



How it Works : Quantum Computing


Blog Opinions Libres

Comprendre l’informatique quantique

Depuis le site Opinions Libres de M. Olivier Ezratty :

Première Partie : Pourquoi ?

Cela fait déjà quelques années que l’informatique quantique m’intrigue.
Je l’évoque souvent aux fins fonds de la rubrique des composants électroniques du Rapport du CES de Las Vegas depuis l’édition 2015 tout en admettant, à l’époque, n’y rien comprendre et en mettant sérieusement en doute la compréhension du sujet par les médias relayant diverses annonces sur le sujet.
Je m’étais donné alors comme objectif de comprendre les enjeux scientifiques, technologiques et économiques de cette branche passionnante de l’informatique avec une échéance précise : ma conférence traditionnelle du Web2Day à Nantes en juin. Il y a un an donc, était planifiée la conférence Le quantique, c’est fantastique que j’ai eu l’immense plaisir de délivrer en plénière avec Fanny Bouton le 14 juin 2018. Le Web2day est la grande messe festive du numérique de Nantes et elle fêtait sa dixième édition en fanfare. C’est un lieu unique d’expérimentation de nouveaux contenus et formats. Donc l’endroit rêvé !
J’avais eu l’occasion d’y défricher d’autres sujets associant les sciences, l’innovation et l’entrepreneuriat : le merveilleux monde des semiconducteurs (2014), les promesses du séquençage de l’ADN (2015), la biologie de la prise de parole en public, en duo avec Annabelle Roberts (2016) puis l’astronomie et l’entrepreneuriat (2017). Je n’ai pas pu y traiter de l’intelligence artificielle mais je me suis rattrapé ailleurs.
Le top du top de l’imbitabilité
Tous ces épisodes peuvent être positionnés sur une échelle exponentielle d’imbitabilité. Après avoir balayé ces différents pans de la science, je peux résolument positionner l’informatique quantique, et la mécanique quantique qui la sous-tend, au top du top de cette échelle. On pourrait juste ajouter un niveau 10 pour un cas particulier de l’informatique quantique, le quantique topologique, que nous aurons l’occasion d’essayer d’expliquer. Echelle imbitabilite
Comme l’indiquait il y plusieurs décennies Richard Feynman, lorsque l’on étudie la mécanique quantique, si l’on croit que l’on a tout compris, c’est que l’on n’a pas tout compris.
La suite sur : Pourquoi ?

Seconde Partie : Les bases scientifiques

Chaque épopée scientifique et technologique est avant tout une grande Histoire humaine. Celles de la mécanique quantique et de l’informatique quantique n’y échappent pas. Je vais ici rendre hommage aux grands scientifiques qui ont rendu tout cela possible et continuent encore de plancher dessus pour ceux qui sont encore de ce monde.
La physique ou mécanique quantique s’intéresse à l’infiniment petit et à ses différences par rapport à la mécanique classique, souvent dite newtonienne, qui régit de manière prédictible le fonctionnement des objets de taille raisonnable, au-delà de quelques microns jusqu’à la taille des planètes et des étoiles. Dans l’infiniment grand, on fait appel à la théorie de la relativité et à son lien avec la gravitation qui explique la courbure de l’espace-temps. Elle est indispensable pour interpréter les phénomènes extrêmes que sont les trous noirs ou les étoiles à neutrons. Elle permet d’interpréter l’Histoire de l’Univers, mais pas entièrement.
La physique n’est toujours pas complète ni totalement unifiée. Certains phénomènes physiques observables lui résistent encore. On ne sait pas expliquer précisément l’origine précise de la gravitation et on cherche toujours la matière et l’énergie noires qui expliqueraient la cohésion des galaxies. L’Homme aimerait bien tout savoir et tout expliquer mais il est fort probable que cette quête sera toujours en devenir, ne serait-ce que sur la forme qu’avait l’Univers avant le big bang.
La suite sur : Les bases scientifiques

Troisième Partie : Les Basiques

Après avoir fait le tour des plus grands contributeurs de la mécanique et de l’informatique quantique, passons aux grands fondamentaux de la physique quantique qui nous permettront de comprendre la suite et notamment le fonctionnement des qubits et de leurs diverses techniques de mise en œuvre.
Plusieurs années d’études sont nécessaires pour comprendre les arcanes de la mécanique quantique et ceux qui sont passés par là sont toujours dans l’interrogation à son sujet. Mais on peut se contenter de quelques basiques ici présents pour se préparer à comprendre le fonctionnement des calculateurs quantiques.
Le point essentiel est de bien appréhender la notion de superposition d’états qui est à la base du fonctionnement des qubits et de l’énorme capacité de traitement des calculateurs quantiques. L’intrication vient juste après et permet d’expliquer comment fonctionnent les portes quantiques dans les calculateurs quantiques, que nous verrons dans la partie dédiée au fonctionnement de ces derniers.
La mécanique quantique est apparue il y a un peu plus d’un siècle pour expliquer le fonctionnement et la dynamique des particules élémentaires. Les principales particules élémentaires à qui s’appliquent les principes de la mécanique quantique sont les photons et les électrons. Les effets quantiques les plus connus se manifestent sur la phase des photons ainsi que sur les niveaux d’énergie ou les spins d’électrons, ces derniers étant liés en approximation à leur orientation magnétique.
Tous les qubits connus d’ordinateurs quantiques s’appuient sur l’une de ces deux particules. A part le cas des qubits réalisés à base de photons, tous les autres sont à base de différents comportements quantiques d’électrons. C’est le cas des qubits à base de supraconducteurs à effet Josephson qui exploitent des effets très particuliers que nous expliquerons plus tard, reposant sur le comportement des électrons de matériaux supraconducteurs. Les ions piégés, les cavité de diamants, les qubits CMOS et même les qubits à base d’anyons et des hypothétiques fermions de Majorana exploitent eux-aussi les effets quantiques des électrons.
Des phénomènes quantiques peuvent se manifester avec d’autres particules élémentaires comme les atomes, les neutrons et les protons mais ce ne sont pas à ce jour des pistes explorées par les chercheurs dans le contexte du calcul quantique.
La suite sur : Les Basiques

Dernière partie : Comprendre l’informatique quantique – complexité

Avertissement : le début de cette partie est très technique.
Le calcul quantique est parfois présenté comme étant une solution miracle aux limites du calcul sur supercalculateurs. Il permettrait de résoudre des problèmes dits “intractables (impossibles)” sur des ordinateurs classiques. Mais au juste, quelle est la nature des problèmes qui peuvent être résolus avec un ordinateur quantique et qui ne peuvent pas l’être avec des ordinateurs classiques ? Et surtout, quelles sont les limites des ordinateurs quantiques ? Comment se situent-elles par rapport aux limites de l’intelligence artificielle ?
Nous allons voir que ces limites sont plutôt floues et mouvantes. Elles sont traitées dans un champ complet et méconnu de la science, celui des théories de la complexité. C’est un monde on ne peut plus abstrait où les spécialistes parlent un langage abscons fait de P, NP, BQP et autres complétudes. Ils gambergent depuis près d’un demi-siècle pour déterminer si P = NP ou pas, une question aussi importante que le rôle exact du nombre 42 dans le fonctionnement de l’Univers. C’est la science des classes de complexité de problèmes. Derrière ces mathématiques de la complexité se cachent des considérations techniques mais aussi philosophiques fondamentales pour l’Homme et son désir de toute puissance.
La suite sur : Complexité

Les stratégies industrielles

Depuis frenchweb.fr par M. Olivier Ezratty
L’informatique quantique au sens large du terme est un secteur technologique stratégique à différents titres. Dans la cryptographie, il en va de la souveraineté avec l’enjeu de la protection des communications sensibles. Le calcul quantique est pour sa part porteur d’applications critiques qui vont étendre le champ du numérique au-delà de ce qui est faisable aujourd’hui, notamment dans le domaine de la santé, de l’environnement et de l’intelligence artificielle, prise dans une définition large.
En termes de maturité, la cryptographie quantique et post-quantique sont des champs plus établis avec des acteurs économiques et des solutions, même si la standardisation de la cryptographie post-quantique n’est pas achevée. Elle comporte cependant peu d’inconnues scientifiques fondamentales.
Le calcul quantique est moins mature. Si l’incertitude scientifique semble en partie levée pour ce qui est de la faisabilité des ordinateurs quantiques exploitables commercialement, les obstacles technologiques restent encore importants à surmonter pour y arriver, notamment l’épineuse question du bruit dans les qubits et de la correction d’erreurs quantiques.
Les avis sont partagés sur la vitesse de la levée de ces incertitudes : elle va de quelques années pour certains comme chez Google ou Microsoft, à quelques décennies pour des scientifiques comme Alain Aspect, pour atteindre le “jamais” pour des chercheurs tels que l’Israélien Gil Kalai.
C’est donc un domaine à cheval entre l’incertitude scientifique et l’incertitude technologique. La recherche est pour l’instant issue essentiellement du secteur public dans les grands pays qui s’y investissent, puis de très grands acteurs du numérique qui ont de quoi faire plein de paris technologiques en parallèle (Google, Intel, Microsoft, IBM, Alibaba) puis de quelques startups plus ou moins bien financées ou avancées, essentiellement en Amérique du Nord (D-Wave, IonQ, Rigetti).
L’industrie des logiciels destinés aux ordinateurs quantiques est balbutiante. La majeure partie des “pure players” de ce secteur sont dédiés aux ordinateurs quantiques adiabatiques du Canadien D-Wave, tels que QxBranch et 1QBit qui sont respectivement Américains et Canadiens. Les grands acteurs et startups qui planchent sur les calculateurs quantiques ont tous investi dans le logiciel, à commencer par les outils de développement d’algorithmes et d’applications quantiques. Chacun ambitionne évidemment de créer des plateformes logicielles leaders. Certaines sont déjà disponibles dans le cloud, comme chez IBM. D’autres, tels le Français Atos et Microsoft proposent l’accès via le cloud à des simulateurs quantiques à base d’ordinateurs traditionnels.
Les investissements mondiaux dans l’informatique quantique
Qu’en est-il des investissements mondiaux dans l’informatique quantique ? Une étude de McKinsey de 2015 faisait un tour d’horizon des investissements qui compilaient sans doute des budgets de recherche publique. Il y avait alors 1500 chercheurs dans le monde dotés d’un budget total de $1,5B. Même si ce nombre dû augmenter depuis, il est très faible. Nous en sommes en 2018 à l’état où l’informatique traditionnelle en était en 1955 !
Les USA et la Chine y figuraient évidemment en tête. Mais la répartition de ces investissements, qui intègrent probablement aussi bien la cryptographie quantique que les calculateurs quantiques est intrigante pour les autres pays. La France y était en neuvième position, derrière l’Allemagne, le Royaume Uni, le Canada, le Japon la Suisse et l’Australie. Sachant que ces données ont dû évoluer depuis, avec, notamment, un accroissement significatif de l’effort de la recherche de la Chine.
Une étude européenne produite en 2016 reprenait les mêmes chiffres en y ajoutant les effectifs. Avec donc 224 chercheurs en France à comparer à 1217 chercheurs aux USA, ce qui est un ratio tout à fait normal de 1 à 6.
Les pouvoirs publics de ces différents pays se sont mobilisés de manière très différenciée sur le quantique. La plupart des pays développés se sont mobilisés au niveau de leurs pouvoir publics pour coordonner les efforts dans le quantique. Un pays fait curieusement défaut dans ce panorama : la France. Nous verrons ce qu’il en est plus loin.
Une évaluation des publications scientifiques dans l’informatique quantique est présentée cette intéressante étude VC investment analysis Quantum Computing, produite par des étudiants de l’Insead en 2018 (18 slides). On y découvre sans surprise que les USA, le Canada et la Chine sont les premiers pays à publier. C’est l’effet de la masse. Mais la première Université est celle de Waterloo au Canada. Ce dernier pays est un véritable pionnier dans l’informatique quantique, et pas seulement grâce à D-Wave.
De son côté, l’IDA, l’Institute for Defense Analyses, une organisation parapublique US qui gère trois fonds d’investissements financés par l’état fédéral, a publié Assessment of the Future Economic Impact of Quantum Information Science en 2017 (133 pages). Ils y font un bon tour d’horizon des domaines d’applications du quantique, y compris dans le petit marché de la métrologie quantique.
On y trouve cet intéressant tableau qui classifie les principaux pays par dépense, publications scientifiques et dépôts de brevets, les données datant de 2016. La France y arrive en 8e à 10e position selon les indicateurs. C’est un classement habituel. On a cependant plusieurs pays dont le PIB est inférieur à celui de la France qui arrivent devant elle : le Canada et l’Australie ! Et la Corée du Sud est devant la France en termes de dépôt de brevets, ce qui n’est pas une grande surprise au vu de la force de son industrie électronique, dominée par Samsung qui représente près du cinquième du PIB du pays. Une bonne partie de l’inventaire des projets financés par les gouvernements de nombreux pays cités dans cet article proviennent de ce document de l’IDA.
La recherche dans le quantique est-elle juste une affaire de gros sous ? Pas seulement. Il ne suffit pas d’aligner des milliards de dollars pour résoudre les problèmes de la matière condensée des qubits supraconducteurs. La réussite dans le quantique est aussi une question d’intégration de disciplines scientifiques nombreuses, puis de valorisation industrielle.
La suite, avec le détail pays par pays est disponible sur :
Comprendre l’informatique quantique : strategie industrielles


The Mathematics of Quantum Computers


Ajoutons, toujours depuis le blogOpinions Libres

de M. Olivier Ezratty :

Partie plus théorique sur la physique quantique.
On peut comprendre le fonctionnement d’un ordinateur quantique sans trop se plonger dans la mécanique quantique au-delà de la compréhension de ses mécanismes de base, vus dans dans l’épisode précédent de cette série d’articles, et surtout celui de l’intrication. Par contre, il faut se plonger un peu dans quelques éléments de mathématiques, d’algèbre linéaire et de trigonométrie, ce que nous allons commencer à faire ici. Le premier élément de base d’un ordinateur quantique est l’inévitable qubit. Vous avez certainement déjà entendu parler de cet objet mystérieux capable d’être simultanément dans la valeur 0 et 1. Les explications courantes s’arrêtent le plus souvent là et vous tombez immédiatement dans l’expectative, vous demandant comment cela peut ensuite bien fonctionner. Nous allons donc commencer ici par expliquer le fonctionnement logique, mathématique et matériel de ces qubits. Dans la partie suivante de cette série d’articles, nous irons plus loin en décrivant tour à tour les registres, les portes, l’organisation et l’architecture complète d’un ordinateur quantique. A chaque fois, lorsque nécessaire, nous ferons le parallèle avec les ordinateurs traditionnels. Pour pouvoir suivre cette partie, il faut connaître quelques basiques mathématiques : la trigonométrie, les vecteurs et matrices et avoir déjà entendu parler des nombres complexes.
La suite sur : Les Qubits
Blog Opinions Libres
Toujours depuis le site Opinions Libre

Comprendre l’informatique quantique – algorithmes et applications

Maintenant que nous avons désossé un ordinateur quantique avec ses qubits, ses registres, ses portes et son frigo, voyons-donc comment on peut exploiter cette belle quincaillerie. L’ordinateur quantique utilise des algorithmes dits quantiques qui ont la particularité d’être bien plus efficaces que leurs équivalents conçus pour des ordinateurs traditionnels. Mais ces algorithmes ne sont pas très nombreux et leur performance relative aux algorithmes traditionnels pas toujours évidente à prouver. Elle est même parfois contestée.
Richard Feynman avait décrit l’idée de créer des simulateurs quantiques en 1982 dans Simulating Physics with Computers (22 pages). Son idée consistait à créer des dispositifs exploitant les effets de la mécanique quantique pour les simuler tandis que cette simulation serait quasiment impossible avec des ordinateurs traditionnels. Cela correspond aujourd’hui à l’un des usages des ordinateurs quantiques, comprenant notamment la simulation des interactions atomiques dans des structures inertes ou biologiques. On peut même faire la distinction entre simulateurs quantiques analogiques et simulateurs quantiques numériques, à base de qubits et de portes quantiques.
Des mathématiciens planchent depuis le milieu et la fin des années 1980 sur la création d’algorithmes adaptés aux simulateurs et ordinateurs quantiques, bien avant que l’on en ait vu l’ombre de la couleur. Les premiers algorithmes quantiques ont été publiés au début des années 1990 et les chercheurs en créent régulièrement de nouveaux depuis 25 ans. Le Quantum Algorithm Zoo en identifie une soixantaine dans la littérature scientifique ! C’est un nombre encore modeste au regard des algorithmes non quantiques qui se comptent en milliers.
Leur création est un travail de recherche parallèle avec la partie matérielle des ordinateurs quantiques. Ce n’est pas la première fois dans l’Histoire qu’il en est ainsi. L’emblématique Ada Lovelace planchait sur la création des premiers algorithmes et lignes de code devant tourner sur la machine de Charles Babbage, qui ne vit jamais le jour. Elle avait annoté en 1842/1843 une traduction de son cru d’un papier de l’Italien Luigi Federico Menabrea qui décrivait la machine de Babbage. Il fallut attendre 102 ans pour que les premiers ordinateurs voient le jour à la fin de la seconde guerre mondiale ! Cela rappelle dans un autre domaine les dessins d’hélicoptères de Léonard de Vinci qui datent de 1487-1490. Un premier hélicoptère propulsé par l’énergie humaine et créé par l’Université de Toronto a volé en 2013, AeroVelo (vidéo) suivi d’un autre spécimen assez voisin issu de l’Université de Maryland qui vient tout juste de voler en 2018 (vidéo) ! Donc, avec plus de cinq siècles de décalage ! Cette même Université de Maryland est d’ailleurs l’une des plus en pointe dans le monde dans les ordinateurs quantiques à base d’ions piégés ! Comme quoi !
Programme Ada Lovelace
Après-guerre, l’Histoire se répéta en partie pour nombre de travaux du vaste champ de l’intelligence artificielle, où les chercheurs planchaient également sur des algorithmes, notamment à base de réseaux de neurones, avant que les ordinateurs puissent les exécuter convenablement. L’essor du deep learning depuis 2012 est en partie lié à la puissance des machines et des GPU à même d’entraîner de tels réseaux de neurones. Le matériel a une fois encore rejoint les algorithmes qui étaient en avance sur leur temps.
Aujourd’hui, une bonne part des algorithmes quantiques qui sont inventés ne sont pas encore exécutables sur les ordinateurs quantiques disponibles ni même sur des simulateurs quantiques à base d’ordinateurs traditionnels. Les qubits sont disponibles dans un nombre bien trop faible pour qu’ils servent à quelque chose et surtout, qu’ils soient plus performants que ordinateurs traditionnels. Les supercalculateurs émulent difficilement plus de 50 qubits.
Comme dans le passé de l’Histoire de l’informatique, nous en sommes dans le quantique à naviguer dans les couches basses du logiciel. Un peu comme pour les programmeurs en langage machine ou en assembleur d’il y a 30 à 50 ans. Les algorithmes quantiques sont les couches les plus basses des solutions logicielles qui restent à inventer puis à assembler. Les algorithmes quantiques exploitent les portes quantiques que nous avons vues dans la partie précédente.
La création d’algorithmes quantiques requiert une capacité d’abstraction sans commune mesure avec celle des algorithmes et programmes traditionnels. Une nouvelle génération de mathématiciens et développeurs capables de raisonner en mode quantique devra se développer au gré de la maturation des ordinateurs quantiques. Ils devront être capables de conceptualiser des algorithmes qui ne sont pas faciles à se représenter physiquement. Qui plus est, ces algorithmes devront aussi, c’est la moindre des choses, être bien plus efficaces que leurs équivalents pour ordinateurs traditionnels ou supercalculateurs.
La suite sur : Informatique quantique algorithmes et applications
Blog Opinions Libres

Un condensé des ces articles est disponible sur :

Comprendre l’informatique quantique – basiques

Publié sur FrenchWeb.fr le 05 juillet 2018.
FrenchWeb.fr


Comment l’ordinateur quantique va révolutionner l’IA, l’informatique et l’industrie

Publié sur cnetfrance le mercredi 01 août 2018 par Fabien Soyez.
En démultipliant le potentiel de calcul des systèmes d’IA, les futurs ordinateurs quantiques pourraient bien révolutionner de nombreux secteurs industriels. Et plus largement, l’informatique et l’intelligence artificielle.
L’avenir de l’informatique, du Big Data et de l’IA est-il dans les ordinateurs quantiques ? En s’appuyant sur les propriétés quantiques de la matière, ces calculateurs surpuissants, qui restent encore à construire réellement, devraient dans un avenir plus ou moins proche nous permettre de réaliser des calculs complexes, irréalisables avec les machines actuelles.
À la différence du système numérique classique, qui repose sur des données codées en chiffres binaires, le calcul quantique utilise le “bit quantique”, ou “qubit”. Contrairement au “bit”, qui prend soit la valeur d’un 0, soit la valeur d’un 1, le “qubit” est une combinaison linéaire. Il peut prendre la valeur 0 ou 1, mais aussi les deux ensemble. Ainsi, un ordinateur quantique devrait permettre de réaliser des calculs parallèles, en simultané, et plus de manière séquentielle comme avec nos machines actuelles.
Dans une telle perspective, en démultipliant le potentiel de calcul, les applications pratiques d’une telle technologie sont forcément nombreuses, de la santé à la chimie, en passant par l’industrie, la sécurité informatique, les voitures autonomes, l’énergie, ou encore les transports et la gestion du trafic. Les promesses du qubit semblent illimités – au point que l’on parle un peu partout d’une “révolution” quantique.
La suite sur Comment l’ordinateur quantique…

Un Monde sans mécanique quantique

Publié le 20 juil. 2018 Par sur Médiapart.
Cet article est une interprétation en français considérablement simplifiée de l’article du NewScientist mentionné ci dessous en référence.
La physique quantique, vérifiée par un nombre incalculables d’expériences et de réalisations dans le domaine des technologies de l’information, prévoit que chacune des particules élémentaires ou des atomes qui sont les briques de base à partir desquels se construit le monde matériel dans lequel nous vivons et dont nous sommes nous-mêmes des éléments, peuvent se trouver au même moment simultanément dans plusieurs lieux de l’univers ou adopter des états différents superposés.
Plus précisément elle repose sur quatre principes :
– la quantification : les particules isolées ne peuvent prendre leur valeur que dans un ensemble d’éléments ou points dits discrets, c’est-à-dire soit séparés les uns les autres. Au contraire, la mécanique classique prévoit qu’elles peuvent prendre continûment n’importe quelle valeur.
– la dualité onde-particule. Ces deux notions, qui sont séparées en mécanique classique, deviennent deux aspect d’un même phénomène, décrit de manière mathématique par sa fonction d’onde. l’ensemble onde-particules peut à certains moments se comporter soit comme des particules soit comme une onde .
– le principe d’indétermination dit de Heisenberg : il n’est pas possible d’obtenir la mesure exacte simultanée de deux grandeurs conjuguées. Il est notamment impossible d’obtenir une grande précision sur la mesure de la vitesse d’une particule sans obtenir une mauvaise précision sur sa position, et réciproquement. Cette incertitude est structurelle, c’est-à-dire qu’elle est liée à la nature de l’univers. Elle ne dépend pas de la précision de l’observation.
– le rôle de la « mesure » : L’interprétation de la mécanique quantique dite de Copenhague assure que c’est la « mesure » , autrement dit ce sont les observations qui lèvent l’indétermination des représentation d’un phénomène quantique.
Jusqu’à présent ce sont ces principes qui forment la base de la physique quantique et par extension de la physique classique. Celle-ci ne peut donc pas décrire avec précision les états de la nature qu’elle observe, malgré ses ambitions.
Une nouvelle expérience
Aujourd’hui cependant une nouvelle expérience semble montrer que la physique quantique ne peut prétendre au plan fondamental représenter les bases du monde physique. La physique macroscopique traditionnelle ne devrait plus être écartée, tout au moins après une profonde adaptation.
Le physicien Philip Pearle du Hamilton College à Clinton, New York,  remarque que personne ne peut aujourd’hui définir ce qu’est une « observation ». Ce n’est en tout cas pas  l’observation résultant de l’intervention d’un physicien alors que la fonction d’onde existe quasiment depuis les origines du monde physique.
Les physiciens quantiques répondent que cela n’a pas d’importance. La physique n’a pas pour objectif de décrire un monde tel qu’il serait « en soi », mais de décrire les phénomènes du monde tels que la physique peut les observer ici et maintenant. Cela suffit pour réaliser toutes les nouvelles technologies, depuis les lasers jusqu’aux calculateurs.
D’autres ne se satisfont pas de ces explications. Si l’interprétation dominante de la théorie quantique, l’interprétation de Copenhague, ne peut nous dire ce qui se passe au sein des molécules et des atomes, il faut rechercher d’autres approches, proposant des interprétations plus précises. Ces interprétations en fait ont été proposées depuis longtemps. On peut citer celle dite des mondes multiples, selon laquelle le monde n’est pas unique, mais constitué d’une infinité de mondes, chacun de ceux-ci pouvant respecter les fondements de la physique classique. Mais aucun accord à leur sujet n’a été enregistré.
Stephen Adler de l’Institute for Advanced Study à Princeton, New Jersey, propose une autre approche: « Puisque les différences entre le monde macroscopique et le monde quantique sont reconnues, il faut rechercher la raison de ces différences à un niveau situé entre l’échelle de la particule et celle du monde que nous connaissons ».
Ce lien pourrait être fourni par un mécanisme qui réduirait la fonction d’onde des particules quantiques, autrement dit les fera collapser, sans faire appel à une observation. Le concept existe depuis les années 1970 sous le nom de réduction objective de la fonction d’onde (objective collapse). Dans ce sens, l’hypothèse a été faite qu’il existe en permanence dans l’espace une sorte de bruit, analogue au champ électromagnétique, dont les éléments percutent en permanence les particules quantiques entraînant le collapse de leur fonction d’onde. On a parlé d’un réseau ou matrice de petits détecteurs répandus dans le cosmos.
Ceci pourrait expliquer pourquoi des particules subatomiques telles que les protons échappent par leur petitesse au réseau dense de ces petits détecteurs, alors que des objets macroscopiques n’auraient aucune chance vu leur taille d’y échapper plus d’une fraction de seconde afin de survivre en superposition.
L’hypothèse semble aujourd’hui pouvoir être testée expérimentalement. On connaît l’expérience dite des fentes de Young permettant de mettre en évidence la double nature des particules en superposition, tantôt ondes et tantôt particules individualisées. La théorie quantique dit que cela peut être observé même dans des objets constitués de plusieurs particules quantiques. Pour l’hypothèse du collapse objectif, cette possibilité est très faible, les objets constitués de particules quantiques rencontreraient très rapidement le réseau de détecteurs. Ils rejoindraient le monde macroscopique où ils ne seraient plus observables.
Encore faut-il pouvoir mesurer le temps nécessaire pour qu’une particule quantique rencontre le réseau de détecteurs afin de collapser spontanément. Andrea Vinante de l’université de Southampton et ses collègues ont imaginé une expérience simple permettant d’évaluer le temps pour qu’une particule quantique rencontre une molécule du monde physique avant de s’effondrer,  « collapser » spontanément, c’est-à-dire de voir son caractère quantique disparaître sans intervention d’un éventuel événement du monde physique jouant le rôle d’observateur. Le collapse devrait en théorie se produire sans limite de temps.
Or cette expérience, simple mais d’une grande ingéniosité, montre qu’une très petite pièce de métal, progressivement refroidie vers le zéro absolu, cesse à un certain moment de vibrer, autrement dit de se refroidir. Tout se passe comme si elle rencontrait une barrière infranchissable. Celle-ci ne serait-elle pas due aux forces encore inconnues qui empêchent à un certain stade le collapse de se produire, autrement dit qui empèchent une particule du monde physique de devenir quantique dans certains conditions. Dans ce cas, l’on pourrait comprendre pourquoi il existe une barrière infranchissable entre le monde quantique et le monde physique.
Les résultats de l’expérience sont encore en discussion afin d’en expliquer la cause. Mais la Commission européenne vient d’attribuer un crédit de 4,4 millions d’euro pour renouveler cette expérience, cette fois-ci dans l’espace. Elle est désigné par le nom de TEQ, pour  TEsting the large-scale limit of Quantum mechanics, Elle demandera 3 ans pour devenir opérationnel.
En cas de résultats positifs, elle balaiera toutes les théories opposant depuis longtemps la Relativité d’Einstein aux bases de la mécanique quantique. Ceci pourrait signifier qu’à un niveau fondamental, la nature pourrait être décrite par une théorie unique. Celle-ci devrait être précisée, mais sans attendre,  la révolution fondamentale introduite par ces hypothèses ne pourrait plus être écartée .
Référence :
The Newscientist.com : 100 is this our first clue to a world beyond quantum theory
Publié le 20 juil. 2018 Par sur Médiapart.

Publié sur La Tribune par Olivier Ezratty le 25 juillet 2018.

Le quantique, la prochaine révolution de l’informatique ?

Qubit or not qubit ? Telle est la question à l’âge de l’informatique quantique. Cette technologie pourrait résoudre des problèmes que même les ordinateurs les plus puissants ne savent pas résoudre. Son potentiel de disruption est gigantesque, à condition que cela marche…
Cela fait déjà quelques années que l’informatique quantique occupe de temps en temps l’actualité. Elle intrigue, mais elle est difficile à appréhender. Comme l’indiquait il y plusieurs décennies le chercheur américain Richard Feynman, lorsque l’on étudie la mécanique quantique, si l’on croit que l’on a tout compris, c’est que l’on n’a pas tout compris.
L’une des motivations de l’informatique quantique est de pouvoir traiter des problèmes que les ordinateurs traditionnels ne savent pas résoudre. Il s’agit des problèmes de nature exponentielle, dont la complexité augmente exponentiellement avec la dimension des données à traiter. Lorsque la combinatoire à optimiser est très grande, les algorithmes classiques trouvent leurs limites sur les ordinateurs traditionnels. C’est le cas de l’optimisation du trafic de parcs de véhicules autonomes des villes intelligentes du futur. Avec une flotte intégralement autonome, on devrait pouvoir théoriquement optimiser le trajet individuel de chaque véhicule en fonction du lieu de départ et de destination. Les algorithmes classiques pourraient fonctionner avec une centaine de véhicules mais, au-delà, les capacités de calcul traditionnelles seraient saturées.
Le quantique arriverait alors à la rescousse !
L’autre grand domaine d’application de l’informatique quantique est la simulation du fonctionnement de la matière au niveau atomique. Elle est régie par les règles de la mécanique quantique et d’équations connues. Leur résolution est un problème d’optimisation ultra-complexe à résoudre, particulièrement pour comprendre l’interaction de nombreux atomes dans des molécules ou des structures cristallines de plus d’une demi-douzaine d’atomes. Cela concerne aussi bien la simulation chimique que celle du vivant. L’informatique quantique pourrait ainsi servir à simuler le quantique du monde réel dans l’infiniment petit et permettre d’inventer de nouveaux matériaux pour la création de batteries à forte densité ou des techniques avancées de captation du carbone. En biologie, cela ouvrirait la porte à la création de thérapies révolutionnaires comme pour traiter des maladies neuro-dégénératives. Cela n’ira pas au point de simuler un être vivant en entier. Cela sera déjà une prouesse fantastique que de le faire un niveau du repliement d’une seule protéine sur elle-même ! Enfin, nous pouvons citer la factorisation de nombres entiers, qui intéresse notamment les services de renseignement pour casser les codes de sécurité sur Internet de type RSA, qui reposent sur l’envoi de clés publiques.
D’autres applications pourront émerger pour différents marchés comme la finance ou l’assurance. Nombre d’applications métiers sont concernées par les problèmes d’optimisation complexes et restent à inventer, notamment à destination du grand public.
L’informatique quantique n’est donc pas juste là pour aller plus vite que l’informatique traditionnelle dans son champ opératoire actuel. Elle sert à résoudre des problèmes inaccessibles aux ordinateurs classiques, même en s’appuyant éventuellement sur un mouvement perpétuel de la loi de Moore, qui, on le sait, n’est pas du tout assuré. Le potentiel de disruption de l’informatique quantique est en quelque sorte « multimooresque ».
L’informatique quantique est une histoire qui en est à peu près au stade de l’informatique dans les années 1950. Nous ne sommes qu’aux débuts d’une longue histoire qui va voir la science et l’industrie se sédimenter, avec la création de nouveaux leaders, et le développement d’un écosystème d’acteurs. Avec des fournisseurs et des utilisateurs, des gagnants et des perdants. La France va une fois encore se poser la question de son leadership supposé ou mérité sur le sujet. Sur un sujet encore jeune, sommes-nous prêts à relever le défi ? Que faudrait-il faire pour y arriver ? Ce sont des questions lancinantes qui ont eu leur lot de réponses sur l’intelligence artificielle, avec plus ou moins de bonheur comme nous avons pu le constater avec le rapport de la mission Villani, publié en mars 2018. L’histoire va-t-elle se répéter avec l’informatique quantique ?
Atos (Le français Atos est un des rares entreprises en Europe à s’être lancée dans le quantique et à vouloir devenir un acteur des supercalculateurs. Crédit : Atos)
Article original : Le quantique, la prochaine révolution de l’informatique ?
INFORMATION : Cette partie est un peu plus technique
Passer directement à la suite

De la mécanique quantique aux qubits

La mécanique quantique s’intéresse à l’infiniment petit et à ses différences par rapport à la mécanique classique, dite newtonienne, qui régit de manière prédictible le fonctionnement des objets de taille raisonnable : au-delà de quelques nanomètres jusqu’aux planètes et étoiles. Dans l’infiniment grand, on fait appel à la théorie de la relativité et à son lien avec la gravitation qui explique la courbure de l’espace-temps. Elle est indispensable pour comprendre les phénomènes extrêmes que sont les trous noirs ou les étoiles à neutrons. Les physiciens cherchent encore à unifier toutes ces théories !
La mécanique quantique est une science qui a pris forme aux débuts du XXe siècle. Elle résulte des travaux de très nombreux scientifiques et chercheurs comme Max Planck, Albert Einstein, Niels Bohr, Erwin Schrödinger, Werner Heisenberg et Max Born, pour n’en citer que quelques-uns.
L’histoire de la mécanique quantique est une aventure humaine qui a rassemblé des talents immenses qui se sont confrontés et ont fait évoluer pas à pas leur compréhension de l’infiniment petit. Cette compréhension a associé des physiciens et des mathématiciens. Les physiciens ont mené de nombreuses expériences pour identifier des paradoxes, des inconnues, bâtir des théories, puis les vérifier par l’expérience, parfois avec plusieurs décennies de latence.
Les mathématiciens ont bâti des modèles de représentation des données, comme les matrices et l’algèbre linéaire, qui jouent un très grand rôle dans la mécanique quantique pour décrire les états des systèmes quantiques et leurs évolutions. Cette algèbre linéaire est au cœur du fonctionnement des qubits des ordinateurs quantiques. Elle relève, pour simplifier, de calculs matriciels.
Au cœur des ordinateurs quantiques se trouvent les qubits, des équivalents quantiques des bits de l’informatique classique. Avec eux, on passe d’un monde déterministe à un monde probabiliste.
Les bits correspondent à des charges électriques qui traduisent le passage d’un courant électrique ou son absence. Un bit est donc soit à 1 soit à 0 selon que le courant passe ou pas. Sa lecture donne 1 ou 0 et est donc déterministe.
Dans un qubit, les états 0 et 1 sont superposés. Ils peuvent être à la fois de 0 et 1 au même moment. Ils correspondent à deux états quantiques possibles d’une particule élémentaire, comme le niveau d’énergie d’un électron autour du noyau d’un atome. On doit pouvoir initialiser cet état, le modifier avec des portes quantiques, mais sans le lire, puis, à la fin des opérations, en évaluer la valeur par approximation, en général, en répétant l’opération plusieurs fois pour faire ensuite une moyenne des résultats obtenus.

« La mécanique quantique s’intéresse à l’infiniment petit et est indispensable pour comprendre des phénomènes extrêmes comme les trous noirs »

Les principaux types de qubits qui sont étudiés et expérimentés actuellement sont :

Aucune de ces techniques n’est pour l’instant éprouvée à grande échelle. Elles ont toutes leurs avantages et inconvénients qui se situent dans plusieurs dimensions : la durée de stabilité des qubits à l’état de superposition, la possibilité de les intriquer (en clair : synchroniser), le niveau d’erreurs, la température de fonctionnement, la miniaturisation et leur processus de fabrication, qui est moins cher lorsque c’est du silicium en technologie CMOS identique à celle des processeurs du marché.

L’architecture d’un ordinateur quantique

Dans la pratique, les ordinateurs quantiques sont des coprocesseurs d’ordinateurs traditionnels. Ces derniers les alimentent en données et en algorithmes. Ils interprètent les programmes destinés aux processeurs quantiques pour les traduire en opérations physiques à réaliser sur les qubits et à en lire ensuite les résultats.
Un ordinateur quantique comprend notamment les composants suivants :
(1) Les registres quantiques. Ce sont des ensembles de qubits. Ceux-ci pouvant osciller entre la valeur 0 et 1, selon le principe de la superposition des états quantiques. Un registre de n qubits peut avoir toutes les valeurs possibles à un moment donné, soit 2 puissance n valeurs différentes . Dans un registre de 3 qubits pourront cohabiter par superposition toutes les valeurs possibles de ce registre, qui sont au nombre de 2 puissance 3, soit 8 allant de 000 à 111, en binaire. C’est une combinaison qui devient énorme rien qu’avec n=50. C’est ce qui permet de faire des calculs à combinatoire exponentielle bien plus rapidement qu’avec des ordinateurs qui vont tester chaque combinaison de manière séquentielle. En appliquant des calculs simultanément à toutes ces valeurs superposées !
(2) Les portes quantiques. Ce sont des dispositifs physiques qui agissent sur les qubits des registres quantiques, à la fois pour les initialiser et pour y effectuer des opérations de calcul mais sans lire leur valeur. Ces portes sont appliquées de manière itérative, au gré des algorithmes à exécuter.
(3) À la fin du processus d’exécution séquentielle des portes quantiques, des dispositifs physiques de mesure de l’état des qubits modifiés permettent d’obtenir le résultat des calculs.
(4) Les registres quantiques, les portes quantiques et les dispositifs de mesure sont généralement intégrés dans un chipset.
(5) Les qubits physiques peuvent être regroupés en qubits logiques pour permettre une mise en œuvre de systèmes de correction d’erreurs.
(6) L’électronique de commande et les chipsets quantiques sont généralement situés dans une enceinte cryogénisée à une température voisine du zéro absolu (15 mK), pour éviter de générer des perturbations empêchant les qubits de fonctionner. Le Graal serait de pouvoir faire fonctionner des qubits à température ambiante, mais les architectures correspondantes ne sont pas encore au point.
Schéma quantique

(L’architecture d’un ordinateur quantique. Source : Olivier Ezratty)

Les nombreux types d’ordinateurs quantiques

Il y a ordinateur quantique et ordinateur quantique. On oppose souvent les ordinateurs quantiques adiabatiques de l’entreprise canadienne D-Wave aux ordinateurs quantiques universels d’IBM ou Google. Il faut compter en tout avec au moins quatre catégories d’ordinateurs quantiques, que voici :
Enfin, l’expression ambiguë de simulateur quantique est principalement accolée aux ordinateurs quantiques analogiques qui sont consacrés à la simulation de phénomènes quantiques. Elle est aussi applicable aux trois autres catégories d’ordinateurs quantiques qui ont aussi la capacité de simuler les effets quantiques de la matière
INFORMATION : Fin de la partie technique

Qui gagnera la bataille de l’ordinateur quantique ?

Publié sur La Tribune par Olivier Ezratty le 25 juillet 2018.

Quels pays investissent le plus dans le quantique ?

L’informatique quantique est un secteur technologique stratégique à différents titres. C’est l’un des grands domaines d’application du quantique avec la cryptographie quantique qui sécurise les liaisons et la cryptographie post-quantique qui évite les effets du cassage de clés publiques par le fameux algorithme quantique de Peter Shor de 1994, qui factorise les nombres entiers en nombres premiers. Le calcul quantique est porteur d’applications critiques qui vont étendre le champ du numérique au-delà de ce qui est faisable aujourd’hui, notamment dans le domaine de la santé, de l’environnement, de l’intelligence artificielle et de nombreux problèmes d’optimisation complexes.
Ses perspectives sont cependant incertaines. On navigue entre les optimistes et les pessimistes. Google, IBM et Microsoft pensent atteindre relativement rapidement la suprématie quantique, correspondant à la capacité à réaliser des traitements quantiques totalement inaccessibles aux ordinateurs traditionnels, avec des ordinateurs quantiques de plus de 100 qubits d’ici à quelques années. Les pessimistes comprennent notamment le chercheur israélien Gil Kalai qui pense que l’on n’arrivera jamais à créer des ordinateurs quantiques opérationnels avec un grand nombre de qubits et un faible taux d’erreurs.
Entre les deux se situent des scientifiques comme le Français Alain Aspect, connu pour son expérience de 1982 ayant prouvé l’intrication de photons à distance. Selon lui, il n’y aurait pas d’obstacle scientifique à la création d’ordinateurs quantiques fiables. Il pense que l’incertitude est uniquement technologique et qu’il faudra quelques décennies pour la lever.
Ce lot d’incertitudes pose des questions existentielles sur la manière de gérer un tel cycle d’innovation au long cours. Quand faut-il investir ? Quand les positions sont-elles prises ? À quel moment la recherche fondamentale passe-t-elle à l’industrialisation ?
Les grands industriels américains et chinois tels que IBM, Google, Intel, Microsoft ou Alibaba peuvent se permettre d’investir en R & D dans le quantique avec une vision à très long terme. Des startups plus ou moins bien financées au Canada et aux États-Unis, comme D-Wave, Rigetti ou IonQ, peuvent aussi adopter une vision à assez long terme, même si elle dépend toujours de leur capacité à commercialiser des prototypes d’ordinateurs quantiques et à trouver des investisseurs à même de les accompagner sur de nombreuses années avant de voir la couleur de leur retour sur investissement. Les montants correspondants ne sont pas forcément délirants. Rigetti a levé à ce jour 70 millions de dollars, un montant maintenant accessible à des startups françaises dans les biotechs ou le numérique en général.
L’industrie des logiciels destinés aux ordinateurs quantiques est balbutiante. La majeure partie des éditeurs de ce secteur est consacrée aux ordinateurs quantiques adiabatiques du canadien D-Wave, tels que l’australien QxBranch et le canadien 1QBit. Les grands acteurs et startups qui planchent sur les calculateurs quantiques ont tous investi dans le logiciel, à commencer par les outils de développement d’algorithmes et d’applications quantiques. Chacun ambitionne évidemment de créer des plateformes logicielles leaders. Certaines sont déjà disponibles dans le cloud, comme chez IBM, Microsoft, Google, Rigetti et Alibaba. Comme le domaine est immature, les places restent à prendre en adoptant une approche à long terme.

La mobilisation des États

Les pouvoirs publics de ces différents pays se sont mobilisés de manière très différenciée sur le quantique. C’est le Royaume-Uni qui semble s’être mobilisé le premier en Europe, et ce, avec un plan publié dès 2013.
Aux États-Unis, la coordination inter-agences fédérales des recherches sur le quantique a démarré en octobre 2014. La Maison Blanche s’est intéressée au sujet en 2016. Le département de l’énergie est très actif dans la recherche sur les différentes applications du quantique, sans compter l’inévitable NSA. Les États-Unis sont très inquiets des avancées de la Chine dans le quantique.
Le Japon investit sur le long terme dans l’exploration de l’informatique quantique, dans la lignée de leurs efforts dans les supercalculateurs. Le fonds d’investissement de Softbank, abondé par la famille Saoud, est doté de 100 B$ et doit investir tous azimuts dans le quantique.
La Chine affirme haut et fort ses ambitions dans le secteur du quantique. Elle s’est aussi lancée dans des efforts tous azimuts, touchant la cryptographie, les télécommunications, la simulation et le calcul quantiques. Les premiers plans ont été annoncés en 2013. Leur projet le plus ambitieux est l’annonce d’un centre de recherche de 10 milliards de dollars qui doit ouvrir en 2020. Plusieurs laboratoires publics chinois ont déjà annoncé la création de divers prototypes d’ordinateurs quantiques à supraconducteurs ou optique linéaire. Alibaba s’intéresse à la cryptographie quantique et propose déjà l’accès dans le cloud à un ordinateur quantique originaire de la recherche publique avec 22 qubits.

« Les États-Unis sont très inquiets des avancées de la Chine »

L’Union européenne se mobilise autour d’un « flagship project » lancé en 2018 pour financer de la recherche collaborative sur l’ensemble des pans du quantique avec la métrologie, la communication, le calcul et la simulation quantiques, à raison, théoriquement, de 1,2 milliard d’euros étalés sur dix ans dans des programmes de recherche collaborative. Mais peu d’entreprises semblent prêtes à prendre le relais, à part de nombreux industriels américains qui collaborent avec les laboratoires européens. Microsoft a recruté à l’université de Delft. Intel a aussi chassé à Delft et IBM est partenaire de l’ETH Zurich qui abrite pas mal de spécialistes du quantique. Est-ce le scénario souhaité ? La France dispose pour sa part d’une recherche de qualité, notamment avec des équipes du CEA dirigées à Saclay par Daniel Estève et à Grenoble par Maud Vinet ainsi que de nombreuses équipes du CNRS. Nous avons quelques startups dans les couches basses physiques du quantique comme Muquans et ses outils de métrologie quantique, Cryoconcept et ses systèmes de cryogénie, et Quandela avec ses sources de photons. Et aucune dans le logiciel !
Seul Atos sort du lot en France et même à l’échelle européenne. Ils veulent devenir un acteur des supercalculateurs et du logiciel dans le calcul quantique. Ils développent des compétences dans les algorithmes et la programmation de calculateurs quantiques avec le langage aQasm, qui peut fonctionner sur tout ordinateur quantique présent ou futur. Ils ont développé un simulateur quantique sur serveurs à base de processeurs Intel Xeon. Ils collaborent avec le CEA et l’équipe de Daniel Estève, se préparant à construire à terme un ordinateur quantique une fois la technologie mise au point par ses partenaires. Ils travaillent aussi sur la cryptographie post-quantique. La société semble visionnaire sur le quantique mais un peu seule dans le concert européen. Il leur faudra rapidement adopter une stratégie de plateforme et d’écosystème, et séduire les développeurs d’applications !

Quelles stratégies industrielles pour le quantique ?

Les analystes situent la taille du marché de l’informatique quantique entre 500 millions de dollars et 10 milliards de dollars entre 2023 et 2024, un horizon de temps peut-être un peu trop proche. C’est un montant modeste au regard des 590 milliards de dollars de l’informatique traditionnelle, grand public et professionnelle.
Les États sont motivés à investir dans le quantique pour des raisons stratégiques : à la fois dans l’idée de pouvoir décrypter les télécommunications existantes ou passées dans le cadre de l’activité de leurs services de renseignement, et de protéger les leurs. Le quantique est donc, plus que presque toute autre technologie numérique, un outil de souveraineté stratégique des États. Mais l’informatique quantique est aussi un outil extraordinaire pour créer des solutions inaccessibles aux ordinateurs classiques afin de faire avancer la science et la recherche.
Quel serait le meilleur timing de l’investissement privé dans l’informatique quantique ? Malgré la belle dynamique autour des deep tech que l’on sent en Europe et en France, ce type de financement semble pour l’instant accessible uniquement en Amérique du Nord. Il nous faut inventer des modèles entrepreneuriaux et de financement permettant de conduire des aventures au long cours dans le secteur privé, à l’image de la longue histoire du canadien D-Wave, créé en 1999, ayant commercialisé ses premiers ordinateurs quantiques approximatifs dix ans après, et ayant levé en tout près de 200 millions de dollars. Comme d’habitude se posent les habituelles questions de la création de startups par des chercheurs ou de l’exploitation de leurs travaux par des entrepreneurs qui ne sont pas des chercheurs. À part Atos, quelles autres entreprises européennes et françaises établies et orientées produit pourraient se lancer dans le quantique ?
Nous avons l’opportunité de créer un écosystème logiciel avec des outils de modélisation, de développement et des applicatifs métiers, le tout s’appuyant sur des compétences mathématiques qui ne manquent pas.
Il faut donc s’activer si l’on veut éviter de se voir une fois de plus dominés par des acteurs américains ou canadiens. Le syndrome de l’émergence des Gafa peut se reproduire facilement dans le quantique. Si la France annonçait la couleur sur le sujet, il vaudrait mieux que cela se fasse très rapidement. Et pas dans cinq ans avec un « plan de rattrapage » comme l’est le rapport Villani pour ce qui est de l’intelligence artificielle.

La physique quantique, l’avenir de l’économie ?

Publié sur La Tribune par Fabien Piliu le 9 octobre 2018.
En France, on n’a pas de pétrole…. Né dans les années 70 dans le sillage du premier choc pétrolier, ce dicton populaire se vérifie tout particulièrement ce mardi avec l’attribution du prix Nobel de physique au français Serge Haroche, prix partagé avec l’américain, David Wineland. Experts en optique quantique, tous les deux sont récompensés pour leurs travaux. « Le jury les récompense pour leurs méthodes expérimentales novatrices qui permettent la mesure et la manipulation des systèmes quantiques individuels. Ils ont ouvert une nouvelle ère d’expérimentation dans la physique quantique en démontrant l’observation directe de particules quantiques individuelles sans les détruire, a précisé l’Académie royale des Sciences de Suède dans un communiqué.
La physique quantique ? La physique quantique décrit le comportement des atomes et des particules d’une façon complètement novatrice à partir du XXe siècle, avec les travaux du physicien allemand Max Planck. Science parfaitement logique sur le papier, elle est souvent inconcevable dans ses implications concrètes, contrairement à la science physique classique.
Bientôt des applications dans la vie réelle
Pourtant, ses applications économiques sont réelles. Les travaux des deux chercheurs ouvrent la voie à des ordinateurs surpuissants et d’une rapidité inédite et des horloges d’une précision extrême. « Leurs recherches peuvent conduire à la construction d’horloges extrêmement précises qui pourraient devenir la base future d’une nouvelle norme de temps, avec une précision cent fois plus grande que les horloges actuelles au césium », explique le comité de l’académie des sciences.
« La mécanique quantique est probablement une des aventures intellectuelles les plus fertiles de l’humanité. Elle a permis de déterminer la structure des noyaux, des atomes, des molécules, d’élucider la nature de la lumière, et elle constitue un outil indispensable pour comprendre la physique moderne, des particules élémentaires jusqu’aux étoiles et au Big Bang. Son impact économique est tout aussi important : la plupart des produits de haute technologie [électronique, lasers et optronique, nanotechnologies, télécommunications] sont directement issus de concepts quantiques », explique le département de physique de l’Ecole Polytechnique.

De la physique quantique à l’ordinateur quantique

Publié le 25 juillet 2018 sur FRENCHWEB.FR
Etienne Klein est physicien, directeur de recherche au sein du CEA (Commissariat à l’Énergie atomique et aux Énergies alternatives) et docteur en philosophie des sciences. Il faisait partie des intervenants de la dernière édition de la conférence USI sur le thème « De la physique quantique au quantum computing ».
De quoi s’agit-il exactement ? « Quantum, cela veut dire mécanique quantique. Donc on s’appuie sur des ressources qui nous sont données par la physique quantique pour inventer de nouvelles façons de calculer avec de nouvelles sortes d’ordinateurs qu’on appelle des ordinateurs quantiques », résume Etienne Klein.

De verrous technologiques

Ce dernier parle d’une révolution. « Il y a énormément de dispositifs qui utilisent la physique quantique à commencer par les lasers ou les ordinateurs. Mais dans les années 80, on a fait des découvertes qui portent sur ce que l’on appelle l’intrication. À savoir que des particules qui ont interagi dans le passé restent intriquées à distance quel que soit la distance qui les séparent. C’est ce que l’on appelle la non-localité ou l’intrication quantique. Cela a déconstruit beaucoup de préjugés que l’on pouvait avoir sur la nature du réel ».
« Et puis nous nous sommes rendu compte que même si on ne comprenait pas très bien ce que cela signifie, c’était quand même une ressource que l’on pouvait utiliser pour beaucoup d’opérations ». Et parmi celles-ci se trouve le calcul quantique. « Un bit quantique peut contenir une infinité d’informations et si on sait bien les manipuler alors on peut faire un calcul massivement parallèle et imaginer un ordinateur qui ferait des calculs que les machines classiques ne peuvent pas faire ».
La réalité d’un tel ordinateur est cependant encore loin « parce qu’il y a beaucoup de verrous technologiques », explique Etienne Klein. Mais les problèmes qu’il pourrait résoudre sont eux déjà bien réels, par exemple en chimie quantique. « Il s’agit d’un système très complexe. Aujourd’hui, on peut calculer les états d’énergie des électrons dans une molécule par des calculs plein d’approximations, qui ne sont pas très fiables. Avec un ordinateur quantique, on pourrait , s’il marche et s’il est puissant, résoudre ce problème ».
Mais plutôt que de spéculer sur l’avenir de l’ordinateur quantique, intéresser le grand public à ce sujet est aussi une façon, pour Etienne Klein, de les initier à la physique quantique. « Pour moi, l’intérêt premier aujourd’hui est plutôt pédagogique. Comme le monde est quantique, c’est toujours bien de comprendre ce que la physique qui le décrit nous permet de comprendre sur le monde ».

Vidéo liée à cet article :



Comment les poids lourds des technologies se préparent à l’informatique quantique

D’ici l’arrivée de prototypes fonctionnels d’ordinateurs quantiques, les professionnels des nouvelles technologies préparent les futurs logiciels et applications.
L’informatique quantique promet une démultiplication phénoménale de la puissance de calcul des appareils (en encodant l’information non pas sous forme de bit simplement binaire et admettant pour valeurs 0 ou 1, mais de qubit, un bit quantique qui permet en plus une superposition linéaire entre le 0 et le 1). Même si les premiers prototypes restent limités, les industriels et analystes placent de grands espoirs dans cette technologie. Les chercheurs misent en effet sur les propriétés quantiques de la matière pour dépasser les limites des ordinateurs actuels qui arrivent à une limite de performance, afin d’aider les secteurs nécessitant de grandes quantités de données, comme la gestion des stocks d’une entreprise ou encore la réalisation de calculs complexes permettant de créer de nouvelles molécules.
La suite sur : Se préparer à l’informatique quantique.
Par Sciences et Avenir avec Reuters le 20 juillet 2018.

Ordinateur quantique : le CEA mise sur le silicium

L’organisme public de recherche a présenté sa stratégie en matière d’informatique quantique. Il privilégie la compatibilité avec l’informatique classique.

Publié sur Les Echos.fr le 19 juillet 2018.
« Transformer une physique quantique étrange en une ingénierie quantique révolutionnaire. » Dans la bouche de Philippe Chomaz, directeur scientifique exécutif à la direction de la recherche fondamentale du CEA, cette jolie formule ne relève plus du vœu pieux. Car l’organisme public de recherche est désormais en ordre de bataille pour se lancer à l’assaut de l’ordinateur quantique universel. Après avoir remporté une série de succès expérimentaux dans son laboratoire grenoblois du Leti, dédié aux micro et nanotechnologies, puis annoncé, fin mai, la création, avec Atos, d’ une nouvelle chaire industrielle dédiée à l’informatique quantique , il a officiellement présenté le mois dernier sa stratégie en la matière.
La suite sur : Le CEA mise sur le silicium.
En complément une présentation (PDF) réalisée par le CEA :
Opportunités et défis de la recherche sur le calcul quantique.
A lire également :

L’incroyable casse-tête pour créer le premier ordinateur quantique

Ions piégés, photons intriqués, circuits supraconducteurs, isotopes de silicium, fermions de Majorana… Les voies technologiques que les scientifiques explorent pour concevoir le premier ordinateur quantique sont multiples. Mais personne ne sait quelle est réellement la bonne approche.

Publié sur 01net.com le 07 juillet 2018.
01net.com
Depuis toujours se déroule à l’international une véritable course à l’armement en matière d’avancées technologiques. L’informatique quantique est devenue le nouveau Graal et mobilise des investissements massifs des grandes puissances… excepté pour l’Europe en passe de manquer un des virages technologiques les plus importants.
Publié sur zdnet.fr le 05 juillet 2018.
ZDnet
A l’aube d’avancées technologiques majeures, causes de mutations profondes dans nos sociétés, il en est une qui va jouer un rôle d’accélérateur de particules et décupler de façon exponentielle la vitesse de progression de toutes les autres : l’informatique quantique. Désormais investie par les géants du secteur comme Google, IBM, Microsoft et Atos côté français, cette technologie est en mesure de démultiplier la puissance de calcul au point de parvenir à résoudre en quelques minutes des problèmes qui prendraient des milliards d’années aux machines actuelles.
Bristlecone : Le processeur quantique de google publié par Tom’s Hardware
Google dévoile un nouveau processeur quantique Bristlecone à 72 qubits à faible taux d’erreur qui poursuit les efforts pour créer de futurs ordinateurs quantiques. L’une des prochaines évolutions de l’informatique porte sur la création d’une informatique quantique capable de résoudre de nouveaux types de problèmes loin du cadre binaire traditionnel.
Bristlecone : Le processeur qubit publié par Génération Nouvelles Technologie

Google travaille depuis des années sur l’informatique quantique. En mars, il a présenté un processeur, Bristlecone, qui vise améliorer la fiabilité et la stabilité des calculs impliquant un grand nombre de qubits. Ce faisant, Google cherche à se rapprocher de la « suprématie quantique ». Dans le domaine de l’informatique quantique, Intel investit des dizaines de millions de dollars et enregistre des avancées notables, en particulier sur la stabilité et la fiabilité des calculs, grâce à l’invention d’une technique innovante pour la conception des processeurs quantiques. Mais le spécialiste du CPU a de la concurrence : Google, par exemple, est aussi impliqué dans ce domaine.

Bristlecone : Google tente de se rapprocher de la « suprématie quantique » par Numerama
IMAGE
Il y a quelques semaines, Quantum AI Lab de Google présentait un tout nouveau processeur quantique : le Bristlecone. Si ce n’est pas le premier du genre, deux records viennent d’être battus haut la main : le nombre de qubits que peut atteindre le processeur et son taux d’erreur très faible, sur lesquels nous allons revenir. Qu’est-ce qu’un processeur quantique, en quoi est-ce une révolution et où allons-nous avec cette nouvelle technologie ?
Un nouveau processeur quantique pour Google : Bristlecone  par Penseeartificielle.fr




Julia Kempe. CDS, CC BY
Représentation d’un qubit par une sphère de Bloch. Binaire, Author provided
Les ordinateurs ont bouleversé notre existence. Nous pouvons passer un moment avec des amis situés à l’autre bout du monde, être en affaires par courriel ou par vidéoconférence avec des personnes que nous n’avons jamais rencontrées auparavant, gérer nos finances en temps réel à plusieurs milliers de kilomètres de distance et travailler depuis chez nous, depuis une gare, depuis notre siège dans un avion ou depuis la plage (si cela ne peut pas attendre). Tout serait merveilleux si ne se posait le problème de la sécurité de la connexion.
La suite sur : Physique quantique et mots de passes.

Le monde étrange des Qbits à l’assaut de la finance

Article publié le 30 août 2016.
Au-delà de l’informatique binaire traditionnelle avec ses 0 et ses 1 se niche l’informatique quantique. En partant sur des principes totalement différents, cette informatique promet une puissance de calcul incroyable. Et pourrait trouver des débouchés du côté de la finance et du trading.
Il n’est pas surprenant que la finance et la Bourse en particulier portent une affection toute particulière aux nouvelles technologies. Dans les années soixante, bien avant l’avènement de l’ordinateur personnel, Wall Street était déjà un client privilégié des sociétés de haute technologie, dont certaines étaient dans ce qui deviendrait bientôt la Silicon Valley. On pourra par exemple citer Quotron, une société de Los Angeles fondée par Jack Scantlin qui développa l’un des tout premiers systèmes d’affichage électronique en temps réel − c’est-à-dire à la minute près − dans les années soixante, des cotations des valeurs boursières à destination des traders. La firme est d’ailleurs devenue tellement iconique qu’on retrouve l’écran du Quotron, produit éponyme de la marque, dans le bureau de Michael Douglas, alias Gordon Gekko dans le film Wall Street de 1987. Et l’appétit de la finance pour des systèmes informatiques toujours plus efficaces, plus rapides et plus sûrs ne s’est pas démenti depuis. La finance est un secteur d’activité qui n’a eu de cesse d’attirer à lui les esprits les plus brillants, depuis qu’il s’est découvert une passion pour les mathématiques et de concrétiser des investissements technologiques conséquents, que ce soit pour gagner quelques précieuses microsecondes dans une transaction boursière numérisée ou pour améliorer, encore et toujours, la capacité des centres de calcul à modéliser le comportement d’un marché.
La suite sur : Qbits à l’assaut de la finance

L’ordinateur quantique est-il une menace pour la finance mondiale ?

Publié sur Challenges par Paul Loubière le 17 février 2018.

Les ordinateurs quantiques ont fait de gigantesques progrès et pourraient bientôt réaliser des tâches impossibles pour un ordinateur classique. Cette suprématie quantique menace la sécurité des principaux systèmes de chiffrement. Mais il existe déjà des algorithmes « post-quantiques » qui devraient garantir la sûreté du web. 

« Le jour où il y aura un ordinateur quantique, RSA sera cassé et internet pourrait s’effondrer », prophétise Philippe Duluc, directeur technique de la division Big Data & Cybersécurité chez Atos. RSA, l’un des codes secrets les plus utilisés, assure la confidentialité de la plupart des échanges sur la toile. Les autres systèmes de chiffrement ne sont guère plus sûrs. Dès que la puissance quantique sera disponible, les ordinateurs seront capables de casser la plupart des codes actuels. Les transactions financières sont concernées, tout comme les secrets industriels et la sûreté des données. Ce scenario apocalyptique, digne d’un film hollywoodien, va-t-il vraiment se produire ? Pour les spécialistes du secteur, il n’y a pas de doute, les ordinateurs quantiques sont en train de faire de gigantesques progrès. « La loi de Moore a atteint ses limites physiques dans l’informatique classique. L’informatique quantique va prendre le relais », résume Philippe Duluc.


Physique quantique et finance

Un article publié sur sophteamdev.blogspot.com
Les progrès considérables dans différents domaines et notamment technologiques de ces derniers temps s’appuient en partie sur une révolution conceptuelle qui prend le nom de physique quantique. 
« Non-localité », « Principe d’incertitude », remise en cause du « déterminisme », autant de termes nouveaux qui heurtent les fondements de la physique « classique », mais dont on ne peut pratiquement plus se passer pour tenter d’expliquer puis « contrôler » certains processus. Physique des particules, chimie, physique nucléaire, astrophysique,..Mathématique, informatique, tout est concerné.
La suite sur : Physique quantique et finance

Comprendre (simplement) le deep learning avec un directeur de Google

Vous aimeriez bien comprendre concrètement ce qu’est le deep learning en intelligence artificielle ? Emmanuel Mogenet, directeur de Google Research Europe, en explique très clairement les enjeux à Sciences et Avenir dans cette interview filmée.

Publié par Sciences et Avenirs
Par Sarah Sermondadaz le 14 avril 2017
Quelle différence entre informatique traditionnelle et deep learning (apprentissage machine profond à l’aide de réseaux neuronaux) ? Si vous n’y comprenez rien, lisez (ou écoutez, grâce à notre vidéo ci-dessus) les explications très claires apportées par Emmanuel Mogenet, directeur de Google Research Europe, qui intervenait à l’occasion du deuxième sommet des start-up organisé par Sciences et Avenir et Challenges. L’occasion pour ce dernier de détailler les thématiques de recherche au cœur de Google Research Europe, dont les équipes sont basées à Zurich, en Suisse. « Nos recherches fondamentales s’articulent autour de trois questions principales : la compréhension du langage naturel, la perception par ordinateur, et enfin le deep learning« , détaille-t-il.

Un moteur de recherche qui comprend vraiment les requêtes

La sémantique, ou compréhension du sens des mots, est à cet égard essentielle à Google afin de perfectionner son moteur de recherche. « Lorsqu’un internaute nous soumet une requête, pour répondre le mieux possible nous devons la comprendre. Or jusqu’à peu, même si on parvenait à y associer une réponse, le sens profond de la question nous échappait. »
SENS COMMUN
Une frontière qui vole actuellement en éclats, notamment grâce au deep learning. « Notre plus grand défi, c’est d’enseigner aux ordinateurs le sens commun, auquel notre langage naturel fait en permanence référence. Nous partageons une représentation du monde grâce à laquelle nous nous comprenons, mais que ne partagent pas les ordinateurs. Pour nous, il est implicite de trouver une vache dans l’herbe, ou de ne jamais rencontrer de girafe sur les ailes d’un avion. » Autant de distinctions entre ce qui est sensé et ce qui ne l’est pas qui ne vont pas de soi pour les machines.

Le deep learning, révolution de l’apprentissage par l’exemple

« Au cours des 10 dernières années, le deep learning a considérablement changé la donne en informatique, se souvient Emmanuel Mogenet. Auparavant, c’est à dire dans les années 1980 et 1990, apprendre quelque chose à un ordinateur, c’était le programmer. » Mais un programme peut-être compliqué à écrire, donner lieu à des bugs… et surtout, il doit contenir des instructions explicites, qu’il n’est pas toujours aisé de fournir sur certains sujets complexes. « Lorsque je marche, je suis incapable de décrire précisément le mouvement de chacun de mes muscles », constate le chercheur. « La vraie révolution du deep learning, c’est l’apprentissage par l’exemple », décrypte-t-il. De quoi permettre aux machines de reproduire les comportements cognitifs que l’être humain lui-même ne sait pas expliquer ! « Par exemple, en montrant à l’algorithme des images comportant un chat, puis d’autres sans, et en lui signalant à chaque fois la bonne réponse attendue, l’ordinateur apprend à reconnaître les chats parmi une bibliothèque d’images. Au bout d’un certain nombre d’images, la magie opère : le système se met à généraliser, et sait reconnaître l’animal sur des photos qu’il n’a jamais vues. »
Note : La Vidéo est disponible sur la page de l’article.


Le deep learning — Science étonnante #27


Un cours de « Math for Quantum Physics »



Quelques liens supplémentaires pour le plaisir

Pour se détendre : un petit quiz sur la physique quantique.
Publié par Libération le par Erwan Cario.

Quantique de Nobel



N’oublions pas L’Institut Quantique de l’université de Sherbrooke.
Un peu d’histoire des personnage de l’informatique : Figures de l’informatique
Une nouvelle approche expérimentale pour tester les modèles quantiques
Quantum Information Science and Quantum Computing
Depuis le site Luxorion :
L’ordinateur Quantique (en trois parties) :
Un peu d’histoire : Le double héritage de Bletchley Park.
6 inventions qui n’existeraient pas sans les femmes.
Mémoire : Introduction à l’information quantique
Par : Y. Leroyer et G. Senizergues
Thèse : Marches quantiques généralisées pour l’algorithmique quantique Par : Olga Lopez Acevedo

Les États-Unis se dotent d’une stratégie nationale dans l’information quantique

L’administration américaine a publié sa stratégie nationale sur l’information quantique, qui vise à prendre la tête dans ces technologies critiques, enjeu d’une course avec la Chine.

Source officielle : National Strategic Overview for Quantum Information Science

La Darpa lance un plan de 1,5 milliard de dollars dans les puces pour préparer l’après loi de Moore

l’Europe n’a aucun retard technique en comparaison avec les GAFA …
Intelligence artificielle et Europe : une histoire qui s’accélère
Publié sur Le siècle digital le 3 octobre 2018.


Quelques vidéos pour terminer cette étude


La physicienne londonienne Michelle Simmons, « reine du quantique »


De la physique quantique au Quantum Computing – Etienne Klein


Un ordinateur quantique, c’est quoi ?


Dix choses à savoir sur l’informatique quantique


Un petit détour par le japon :


L’ordinateur quantique – L’atome au service de nos machines


Comment fonctionne un ordinateur quantique ?


Découverte – L’ordinateur quantique


Comprendre l’ordinateur quantique (sans Léa Salamé) – Ramène ta science

(Attention : un peu d’humour ne fait pas de mal …)

A Beginner’s Guide To Quantum Computing


Petit manège (Le spin des électrons)