L’informatique Quantique



De la santé à l’automobile en passant par la finance :
Les promesses de l’informatique quantique




L’informatique est à l’aube d’une nouvelle ère avec le quantique. Le domaine sort des laboratoires de recherche pour s’attaquer à ses premières applications concrètes.
Il convient d’oublier la loi de Moore car nous entrons dans un nouveau monde…
Passons à loi de Roze :
« La puissance de l’ordinateur quantique double tous les ans. À la différence près, et contrairement à la loi de Moore, que le doublement des qubits entraîne également une multiplication de la puissance de calcul des machines »


Exécuter en quelques minutes des traitements que les meilleurs supercalculateurs actuels mettraient des centaines d’années à réaliser, telle est la promesse de l’informatique quantique. Le secteur digital s’est déjà lancé dans la course. Outre-Atlantique, Google, IBM, Intel ou Microsoft mobilisent leurs ingénieurs. Côté asiatique, le géant chinois Alibaba se positionne. En France, Atos planche avec le CEA et le CNRS sur le sujet. Tout comme l’écosystème grenoblois des semi-conducteurs, autour de Soitec et STMicroelectronics.

Pourquoi un cabinet conseil en banque, finance et assurance comme Xénium Partners s’intéresse-t-il à l’intelligence artificielle ?

Tout simplement, d’une manière générale, nous tenons à être « à la pointe » de ce qui va impacter notre domaine et nos métiers dans le futur
st-ce que l’informatique quantique remet en cause , la veille technologique est indispensable.

Nous laissons le lecteur imaginer l’effet des traitements quantiques sur le Trading à Hautes Fréquences

Nous aurions pu faire un exposé très académique mais il est plus simple de donner une suite d’articles ouverts permettant de ce faire une idée sur les changements en cours.

De nombreux progrès ont été fait ces dernières années, chaque acteur majeur battant tour à tour le record :

– 2 qubits en 1998 (IBM),
– 7 en 2001 (IBM),
– 14 en 2011 (Université d’Innsbruck),
– 17 en mai 2017 (IBM) puis
– 17 en septembre 2017 (Intel).

Et 72 qubits pour Google en 2018 !

Au cours du XIXe siècle, les cristallographes et les chimistes essaient de prouver l’existence des atomes, mais ce n’est qu’au début du XXe siècle qu’ils seront définitivement mis en évidence, grâce à la diffraction des rayons X. Pour les modéliser, la quantification de la matière est un passage obligé, ce qui donne naissance à la physique quantique. En 1900, Max Planck émet l’hypothèse que les échanges d’énergie avec la matière se font par petites quantités : les « quanta « .

Louis de Broglie initie alors la mécanique quantique qui permet de modéliser correctement l’atome. La physique quantique finit par absorber tous les domaines de la physique classique en une seule discipline. Les accélérateurs de particules montrent alors que les atomes sont composés de particules plus élémentaires, comme le proton ou le neutron, eux-mêmes composés de quarks. C’est la théorie quantique des champs, construite à partir de l’électrodynamique quantique qui décrira l’ensemble des particules élémentaires.

Stop     Stop     Stop     Stop    


Pour les scientifiques, rendez-vous sur : La physique quantique.

Nous ne sommes pas ici pour faire de la physique quantique, mais pour voir les évolutions prévisibles (ou non) de son application dans l’informatique quantique en devenir…

Sur une seule page :

toutes les informations.


Démocrite : « Si tout corps est divisible à l’infini, de deux choses l’une : ou il ne restera rien, ou il restera quelque chose. Dans le premier cas, la matière n’aurait qu’une existence virtuelle, dans le second cas on se pose la question : que reste-t-il ? La réponse la plus logique, c’est l’existence d’éléments réels, indivisibles et insécables appelés donc atomes »

Notre plan de présentation sera le suivant :


Attention : un menu sera ultérieurement disponible


Histoire de la physique Quantique


L’histoire de la mécanique quantique commence essentiellement par les évènements suivants : en 1838 avec la découverte des rayons cathodiques par Michael Faraday, durant l’hiver 1859-1860 avec l’énoncé du problème du corps noir par Gustav Kirchhoff, la suggestion en 1877 de Ludwig Boltzmann que les états d’énergie d’un système physique puissent être discrets, et l’hypothèse quantique de Max Planck stipulant que tout système atomique irradiant de l’énergie peut être divisé en « éléments d’énergie discrets ε tels que chacun de ces éléments est proportionnel à la fréquence avec laquelle chacun irradie individuellement son énergie, comme défini dans la formule suivante :

où h est une valeur numérique appelée constante de Planck. En 1905, afin d’expliquer l’effet photoélectrique (connu depuis 1839), c’est-à-dire que l’irradiation lumineuse de certains matériaux puissent en éjecter des électrons, Albert Einstein postula, en se basant sur l’hypothèse quantique de Planck, que la lumière elle-même se composait de particules individuelles quantifiées, appelées par la suite photons (à partir de 1926). L’expression de « mécanique quantique » fut utilisée pour la première fois en 1924 par Max Born dans son article Zur Quantenmechanik. Dans les années qui suivirent, cette base théorique commença à être appliquée à la structure, à la réactivité et à la liaison chimiques.

La suite sur  : Histoire de la mécanique quantique

 

Les Ordinateurs Quantiques – Science étonnante


Une excellente vidéo pour faire le lien entre la théorie quantique et l’informatique quantique


Diffusé sur la chaine Science Étonnante (youtube)


La naissance du numérique

Publié le 16 juillet 2018.

Il y a 70 ans, à l’université de Manchester, un ordinateur fonctionnait pour la première fois dans l’histoire. Le Manchester Museum of Science and Industry célèbre cet exploit par une exposition et une série de conférences sur les débuts de l’informatique. Le clou de cette manifestation est une réplique du Baby computer de 1948, construite à l’identique avec ses lampes radio et sa mémoire à tube cathodique, qui effectue des calculs sur des logiciels d’époque. Un historien, Pierre Mounier-Kuhn, nous raconte cette histoire, soulignant que la Grande-Bretagne sait admirablement mettre en valeur son patrimoine numérique.

En 1945, tirant les leçons des réalisations électroniques secrètes menées pendant la guerre, deux documents ont défini une structure de machine radicalement nouvelle : le calculateur numérique à programme enregistré en mémoire — auquel les Français donneront plus tard le nom bien pratique d’ordinateur (dont ne disposent pas les anglo-saxons qui doivent se contenter du terme computer soit calculateur).

Du concept à l’ordinosaure


Le premier, le rapport Von Neumann, publié dès juin 1945, aura un large impact en raison même de sa disponibilité (on peut l’acheter à Washington pour une poignée de dollars) et de la notoriété de son auteur : John von Neumann, l’un des esprits les plus brillants et les plus universels du XX e siècle, est bien connu dans le monde scientifique et a ses entrées chez les dirigeants civils et militaires.

Le deuxième, élaboré quelques mois plus tard à Londres, est un plan beaucoup plus détaillé d’ordinateur conçu par le mathématicien Alan Turing pour le National Physical Laboratory. Il cite d’ailleurs le rapport Von Neumann comme référence principale.

La dématérialisation complète du programme, passant de cartes perforées ou de bandes de papier à des impulsions électroniques, permet d’accélérer énormément le traitement des instructions et ouvre de nouvelles possibilités algorithmiques : il est beaucoup plus facile, dans une machine, d’accéder à n’importe quelle adresse mémoire électronique que de dérouler et rembobiner en permanence une bande de papier !

Si l’architecture définie par Von Neumann constitue potentiellement une solution élégante et prometteuse, elle commence par poser un problème technique ardu : comment réaliser les mémoires ? Cet organe essentiel pour stocker les instructions et les données est en principe au cœur de la nouvelle machine. Mais il n’existe rien de tel dans les technologies matérielles disponibles à l’époque, pour mémoriser des impulsions binaires.

Au cours des années qui suivent, une dizaine d’équipes à travers le monde se lancent dans le développement d’ordinateurs, surtout en Angleterre et aux États-Unis. Elles expérimentent divers procédés de mémorisation, empruntés souvent au radar et aux télécommunications.

L’une de ces équipes se rassemble à l’université de Manchester. Elle est issue en partie de Blechtley Park et du laboratoire des Télécommunications britanniques, qui a participé au développement de machines secrètes pendant la 2ème guerre mondiale. Les responsables du département de génie électrique, Frederic C. Williams et Tom Kilburn, parient sur la possibilité d’enregistrer des données sur l’écran d’un tube cathodique – d’un écran de télévision. En simplifiant beaucoup, disons que chaque bit d’information serait représenté sur l’écran par un pixel, inscrit, renouvelé ou lu à chaque balayage de l’écran par le faisceau cathodique. Un peu comme, pendant la bataille d’Angleterre, les opératrices radar voyaient sur leur écran s’afficher des points lumineux représentant les avions ennemis, et qui bougeaient à chaque balayage du radar.

Pour tester cette idée, ils construisent une maquette de laboratoire : un « tube de Williams » avec ses circuits de commande, connecté à un calculateur électronique minimal. Chaque tube cathodique peut mémoriser entre 512 et 2048 bits, régénérés chaque milliseconde. Le processeur ne sait faire qu’une opération : la soustraction !

Nous avons tous appris à l’école qu’en combinant deux soustractions on obtient une addition (« moins par moins fait plus »), qu’en combinant des additions on obtient une multiplication et qu’en soustrayant plusieurs fois on effectue une division… Un processeur arithmétique réduit au minimum permet donc de calculer ce que l’on veut en économisant le matériel, si l’on accepte une certaine lenteur d’opération. C’est suffisant pour vérifier la faisabilité pratique de la mémorisation dans des tubes cathodiques, but de cette Manchester Small-Scale Experimental Machine, surnommée “Baby” par ses développeurs.

Le 21 juin 1948, pour la première fois dans l’histoire, un programme enregistré servant de test effectue un calcul dans cette machine. Tom Kilburn a écrit et codé en binaire un algorithme, une simple recherche du plus grand facteur propre de 2.

L’intérêt de ce calcul banal n’est pas mathématique, mais technique : nécessitant beaucoup d’opérations, il prend beaucoup de temps… donc permettra de vérifier si la machine est fiable. Après 52 minutes et 3,5 millions d’instructions exécutées, le système produit la réponse correcte (131 072). On peut dater de ce jour la naissance de l’ordinateur, en considérant que l’enregistrement d’un programme dans une mémoire directement accessible par le processeur est l’innovation qui va permettre les développements algorithmiques ultérieurs.


Le premier programme enregistré de l’histoire : 17 instructions (ici, la version modifiée en juillet 1948). Photo School of Computer Science, The University of Manchester., CC BY

De l’expérience de laboratoire à l’ordinateur commercial

La Baby Machine sera la base d’un grand ordinateur, Manchester Mark I, construit l’année suivante et industrialisé ensuite par une grande entreprise locale de matériels électriques, Ferranti.

Le mathématicien qui a initié et supervisé tout le projet, Max Newman, n’est autre que le professeur de Cambridge qui avait enseigné la logique au jeune Turing en 1936, puis l’avait rejoint au service de cryptanalyse.

À la rentrée 1948, il invite Alan Turing à Manchester pour prendre en charge la programmation du nouvel ordinateur. Turing ne se contentera pas de développer des méthodes de codage et de vérification de programmes : il y testera ses modèles mathématiques de morphogenèse et spéculera sur les possibilités de simuler la pensée.

Dès octobre 1949, le département de philosophie de l’université accueille un colloque de cogitations cybernéticiennes sur « The Mind and the Computing Machines ».

Alan Turing (à gauche) et la console du Ferranti Mark I. Photo Ferranti / School of Computer Science, The University of Manchester., CC BY

La suite sur : La naissance du numérique


L’informatique… toute une histoire !

Opératrices sur machine mécanographique


Publié le 21 août 2017.

Après la mécanographie, l’informatique a bouleversé la société tant dans le monde professionnel que dans notre vie de tous les jours. De nombreuses innovations ont été créées dans ce secteur à un rythme très soutenu avec notamment la création de la fameuse loi de Moore bien que celle-ci ait connu plusieurs variantes au fil de l’histoire et qu’elle ne soit pas vraiment stable (on la résume souvent de manière approximative au doublement de la puissance des processeurs à coût constant).

Ce secteur continue à innover depuis plusieurs siècles et ce mouvement ne semble pas prêt de s’arrêter donnant lieu à de nombreuses attentes parfois infondées en raison des effets de communication et des mythes propagés par certains acteurs de l’industrie.

L’Automatic Sequence-Controlled Calculator (Harvard Mark I), la première machine à réaliser seule de longs calculs. Sara D./Flickr, CC BY

Des combinatoires d’innovations au travers des siècles

On a tendance à oublier que les innovations sont le fruit d’une histoire même si certaines apparaissent comme révolutionnaires (Internet, le big data, l’intelligence artificielle, etc…). Par exemple, Howard Aiken, l’un des fondateurs de l’ordinateur Mark I d’IBM en 1944, s’est inspiré pour la conception de la machine de Babbage découverte à Harvard et a contraint son équipe d’ingénieurs à lire les notes et travaux de la mathématicienne Ada Lovelace rédigés dans la première partie du XIXe siècle. Cela fut un moment important dans la conception des ordinateurs que nous connaissons actuellement.

Beaucoup d’avancées technologiques dans le secteur informatique ont également été le fruit de recherches menées pendant des périodes de conflits (notamment la première et seconde guerre mondiale) qui se sont révélées propices à une forme de concurrence entre les nations (les ordinateurs, le radar, le réseau Internet, etc.). Il existe donc des étapes et des inventions en grappe qui sont déterminantes dans le succès des innovations. Pour l’informatique par exemple, les avancées dans le domaine du transistor ou de la miniaturisation des circuits intégrés ont été déterminantes dans les possibilités de calculs des ordinateurs.

[

L’importance des lieux d’innovation et de la complémentarité des profils d’innovateurs


Les innovations ont été souvent le fruit de rencontres entre des expertises différentes mais complémentaires. Les équipes de recherche les plus innovantes dans le secteur informatique ont été celles qui regroupaient le plus large spectre de spécialités, l’une des illustrations les plus célèbres étant celle des laboratoires Bell aux États-Unis en 1925.


Le management de ces équipes fut et reste encore un véritable challenge managérial qui ne peut fonctionner souvent d’ailleurs qu’avec un appariement très subtil de visionnaires et de gestionnaires (dont le plus fameux duo actuel est sans doute Larry page et Serge Brin, les deux fondateurs de Google).

Or, ce travail collaboratif n’est rendu possible que par l’existence des lieux physiques tels que les laboratoires Bell ou des centres de recherches universitaires. En effet que serait l’informatique aujourd’hui sans la rencontre de Von Neumann et Turing à Princeton après la Seconde Guerre mondiale ? Les innovations sont également apparues dans des lieux grâce à un renouvellement des pratiques managériales et des structures d’organisation singulières pour leur époque dont l’emblème est la Silicon Valley. La culture et l’histoire des individus sont également des facteurs explicatifs de ces évolutions.


Sur la photo de gauche, les fondateurs d’INTEL devant le masque du premier microprocesseur de l’entreprise : le 4004.

Intel 4004

Par exemple, Robert Noyce, l’un des co-fondateurs d’Intel dans les années 1960, a été très influencé par la religion. Venant d’une famille congrégationaliste, il rejetait les principes de la hiérarchie et les signes qui s’y apparentaient. Il a ainsi cherché à créer à l’époque des lieux de travail déstructurés et plus ouverts pour favoriser les échanges d’idées.


Graphique de la loi de Moore (base INTEL):

Loi de Moore : réalité

Cela peut paraître surprenant mais il est ainsi parfois extrêmement difficile d’attribuer la paternité de certaines innovations de manière claire aux individus. Cela est dû en partie au fait que les innovations proviennent souvent d’un effort collectif, en termes de compétences techniques, mais aussi de visions sur ce que doit être l’innovation. C’est le cas pour John Mauchly et John Eckert à qui on a attribué (bien que cela fasse débat) la paternité de l’ordinateur notamment grâce à leur capacité de s’entourer d’une équipe compétente.

L’UNIVAC 1232 utilisé de 1967 à 1990 par l’US Air Force’s Satellite Control Facility à Sunnyvale, California. UNIVAC était une division de Remington Rand provenant de l’achat en 1950 de l’Eckert-Mauchly Computer Corporation, créée en 1946 par les inventeurs J. Presper Eckert et John Mauchly. Bernt Rostad/Flickr, CC BY

N’oublions pas le Micral conçu par la société R2E commercialisé en 1973.
Le tout premier modèle de cette gamme, nommé « Micral », possède la caractéristique d’être basé sur un microprocesseur et d’avoir des dimensions réduites. Il est ainsi reconnu comme étant le premier micro-ordinateur de l’histoire.

Aller contre les idées reçues : une nécessité dans le secteur informatique ?


La réussite des innovations dans le secteur informatique repose aussi sur une mise en tension permanente entre les besoins de s’adapter au marché (et donc au comportement des consommateurs) et des approches plus disruptives souvent portées par quelques fondateurs mythiques. Steve Jobs était et reste encore la figure emblématique du chef d’entreprise capable d’aller à l’encontre de ses propres équipes pour innover, voire même de les mettre en concurrence. Pour autant, il est loin d’être le seul et le secteur informatique regorge d’exemples. Mais n’oublions pas son alter-égo des débuts : Steve Wozniak.

Xerox fut l’un des meilleurs exemples lorsque ses propres cadres ne daignèrent pas accorder d’importance à l’interface homme-machine via la souris et le clavier considérant que cela était « un truc de secrétaire » dans les années 1970.

Cette invention fut reprise ensuite par Bob Taylor qui fut un acteur majeur du développement du réseau Arpanet, l’ancêtre d’Internet. On peut aussi citer l’adage des fondateurs de Google, Serge Brin et Larry Page, qui cultivent « un sain mépris de l’impossible ».

Ce petit « mulot » impressionna tant Steeve Jobs lors de sa visite au Palo Alto Research Center qu’il décida de l’incorporer de suite au Lisa puis au Macintosh, l’histoire informatique fit un nouveau bond en avant…

Source :


Petite Vidéo sur les perspectives 2018

Quantum Computing 2018

Ingénierie quantique 2.0 : quelles technologies ?


Toujours depuis The Conversation.com Publié le 7 juillet 2018.

Depuis une trentaine d’années, l’intérêt soulevé par les technologies quantiques n’a fait que croître. L’Europe investit fortement pour leur développement auquel les équipes du CEA prennent toute leur part.

Depuis sa création, notre institution (le CEA) s’est intéressée à de nombreux domaines de pointe en recherche fondamentale ou technologique qui sont ou peuvent se révéler importants pour l’accomplissement de ses missions régaliennes et la souveraineté de la France. Alain Aspect aime ainsi à rappeler l’histoire des équipes de la rue d’Ulm venant au CEA/Saclay dans la 2 CV de Claude Cohen-Tannoudji pour apprendre la mécanique quantique grâce au cours d’Albert Messiah, jeune théoricien tout juste rentré des États-Unis où il avait été le disciple de deux piliers du Manhattan Project : Niels Bohr et Richard Oppenheimer. La mécanique quantique, science théorisée dans les années vingt, prenait alors son essor, bouleversant la science et la technologie. C’était le début de la première révolution quantique qui allait conduire à l’invention du laser, du transistor, des ordinateurs, des horloges atomiques et autres GPS ou téléphones portables.

Ainsi, dans de nombreux domaines, le CEA a été pionnier et est devenu une institution de référence. C’est notamment le cas pour la microélectronique, l’électronique quantique, les nanosciences et le calcul haute performance.

Calculateur quantique

Un cours d’Alain Aspect.

École Polytechnique/Jérémy Barande, CC BY-SA

 

Dans les années 1980, de nouvelles idées iconoclastes ont été lancé par des physiciens comme Alain Aspect et son expérience historique sur l’intrication et la non-localité des photons ou Richard Feynman et son article séminal « Simulating Physics with Computers », introduisant la notion de calculateur quantique. C’était le début de la deuxième révolution quantique. Cette émergence n’est pas passée inaperçue de plusieurs équipes du CEA qui s’intéressaient alors déjà au transport électrique quantique dans les nanostructures et plus globalement aux circuits électriques en régime quantique.

Elles sont ainsi devenues des pionnières de ce nouveau champ à la fois scientifique et technologique.

L’intérêt croissant pour les technologies quantiques a conduit toute la communauté scientifique à porter en 2016 un « Quantum Manifesto » auprès de la Commission européenne pour que soit lancé un programme d’envergure. Un FET flagship (technologies futures et émergentes), doté d’un milliard d’euros sur 10 ans, a alors été décidé par Bruxelles. Les premiers appels à projets, réalisés dès 2017, sont actuellement en cours d’évaluation.

Voici un premier aperçu des technologies quantiques, en suivant le découpage standard en quatre domaines d’activité que le flagship a adopté.

Le premier pilier porte sur les communications quantiques. La démonstration théorique puis expérimentale dès les années 1980 de protocoles de cryptographie dont l’inviolabilité est garantie par les lois de la physique quantique a ouvert un nouveau champ de recherche en cryptographie. Dans l’un de ces protocoles assez directement inspiré des expériences ayant caractérisé les propriétés de l’intrication quantique, on transmet en deux lieux éloignés les photons de paires dont les polarisations sont intriquées. Toute tentative de mesure de ces photons par une partie adverse détruit l’intrication quantique présente, ne fournit aucune information utile et devient même détectable.

Cryptographies


Les systèmes de cryptographie quantique commerciaux comme ceux de la compagnie suisse ID-Quantique permettent déjà de transmettre des messages, mais pas d’encoder des communications à grande échelle car le débit de transmission de bits sécurisés reste encore faible.

La mise au point de protocoles permettant un fort débit est donc un enjeu important. De plus, les pertes de photons dans les fibres limitent la portée des transmissions à une distance dépendant du protocole, mais au plus de quelques dizaines de kilomètres sur fibre télécom. La route pour réaliser des réseaux à grand débit passe donc par la mise au point de protocoles optimisés associés à des répéteurs quantiques fidèles capables de transmettre l’information quantique en dépit des pertes sur les fibres.

Les recherches effectuées au CEA en photonique quantique se rattachent notamment à ce pilier, mais pas seulement.

Le deuxième pilier du flagship concerne le calcul quantique.

Richard Feynman avait fait remarquer dès 1982 que l’évolution d’un système quantique est un problème rendu très difficile par la croissance exponentielle avec sa taille de l’espace de Hilbert de ses états quantiques. Il en avait conclu que seul un autre système quantique contrôlable pourrait parvenir à la déterminer. Le nombre maximum de systèmes quantiques couplés les plus simples, soit les systèmes à deux niveaux, qu’on peut simuler avec le calculateur haute performance le plus puissant à ce jour n’est que de 46 qbits, ce qui donne entièrement raison à Richard Feynman !

Mais la manipulation de l’état quantique d’un registre de bits quantiques (Qbits) au lieu d’un registre de bits classiques constitue une ressource puissante pour résoudre des problèmes difficiles fut une belle surprise.

Tous les ordinateurs ne sont pas des machines de Turing plus ou moins rapides. Les classes de complexité des problèmes numériques établies pour les ordinateurs classiques ne s’appliquent pas aux ordinateurs quantiques, et, plus intéressant, certains problèmes inattaquables avec des ordinateurs classiques seraient à la portée d’un ordinateur quantique. L’invention par Peter Shor en 1994 d’un algorithme quantique de factorisation des nombres entiers, une tâche dont la difficulté est à la base des méthodes de cryptage universellement utilisées, a marqué les esprits. Un registre de N bits quantiques (qubits) a 2N états de base correspondant aux 2N valeurs du registre classique, et son état quantique peut être une superposition arbitraire de ces états.

Algorithmes quantiques

Un algorithme quantique consiste en l’application d’une succession de portes logiques quantiques qui implémente l’évolution voulue par l’algorithme. À ce stade, la linéarité intrinsèque de la mécanique quantique permet d’appliquer ces phases d’évolutions à une superposition arbitraire des états de base, voire à leur somme complète. Comme la lecture du registre ne fournit qu’une valeur 0 ou 1 pour chaque bit, soit un des états de base du registre, tout l’art de l’algorithmique quantique consiste à concentrer l’évolution vers les états donnant une/la solution du problème cherché. Cet art est difficile, et un ordinateur quantique n’est pas une machine universelle qui résoudrait tous les problèmes plus rapidement qu’un ordinateur conventionnel, mais plutôt une machine capable de résoudre efficacement certains problèmes hors de portée des machines conventionnelles.

Simulation

Le troisième pilier du flagship s’intéresse à l’évolution d’un système quantique. Il s’agit de le résoudre en faisant de la simulation quantique « à la Feynman » avec un autre système quantique. Il faut, pour cela, trouver une bonne adéquation entre des problèmes quantiques intéressants et des systèmes physiques plus facilement réalisables, ajustables, contrôlables et mesurables. La simulation d’hamiltoniens importants de la matière condensée, comme celui d’Hubbard décrivant la dynamique d’électrons en interaction sur un réseau, peut ainsi s’effectuer avec des atomes ultra-froids sur réseau optique. Il n’y a pas encore de problème quantique pour lequel la simulation a apporté des informations inconnues auparavant mais cela pourrait arriver prochainement. Un grand intérêt de la simulation est de donner accès à l’échelle la plus intime d’un phénomène quantique, ce qui est en général impossible sur le système d’origine.

Le quatrième pilier est baptisé « Métrologie et senseurs quantiques ».

Il vise à exploiter un ensemble de phénomènes quantiques connus mais restés encore peu exploités pour réaliser des mesures plus précises, tout comme l’était l’intrication quantique avant la prise de conscience de son intérêt pour l’information quantique. Considérons l’exemple des horloges atomiques. Dans une horloge atomique, des atomes suivant des trajectoires dans un interféromètre sont interrogés par des impulsions optiques induisant des transitions entre niveaux atomiques et le signal d’interférence obtenu permet de caler la fréquence d’excitation sur celle d’une raie atomique extrêmement fine, même très précisément sur son sommet. L’utilisation d’états quantiques collectifs d’ensembles d’atomes à la place d’états d’atomes indépendants ouvre déjà des perspectives pour améliorer la sensibilité des horloges atomiques.

Voir également : Capteurs quantiques et métrologie

Détecter les signaux

Par ailleurs, dans les détecteurs d’ondes gravitationnelles comme LIGO et VIRGO, l’utilisation de faisceaux de lumière dont le bruit sur la phase de mesure des interférences optiques est comprimé aux dépens du bruit sur l’autre phase améliore maintenant la sensibilité des détecteurs et devrait augmenter d’un facteur 4 le volume effectif de détection dans l’univers de signaux gravitationnels. La compression du bruit sur la phase de mesure d’un signal est ainsi une technologie quantique qui améliore le rapport signal à bruit d’une mesure électromagnétique. Les recherches menées au CEA dans le domaine des senseurs quantiques portent notamment sur la résonance magnétique pour laquelle des progrès spectaculaires ont été réalisés. Cela pourrait à terme révolutionner les mesures en chimie et biologie en allant vers des sensibilités ultimes, détection de molécule unique ou résolution accrue.

Source et article complet : Ingénierie quantique 2.0 Quelles technologies ?



Surveillance de masse

( l’ordinateur quantique , arme du N.O.M ? )


Les avancées promises par l’informatique quantique

Journal du Net

Article publié le 2 juillet 2018 par :

Pour le JDN
Plusieurs types d’application sont concernés, même si « leur nombre reste limité pour l’instant », explique Philippe Duluc, directeur technique big data et sécurité chez Atos. Le laboratoire pharmaceutique américain Biogen étudie cette piste pour mettre au point de nouveaux traitements des maladies d’Alzheimer ou Parkinson. La simulation de molécules se classe en tête des domaines envisagés. « La puissance informatique nécessaire à ce type de traitements croît de manière exponentielle avec la taille de la molécule. Du coup, les capacités numériques actuelles sont largement insuffisantes pour en venir à bout. D’où l’idée de faire appel au quantique », résume Maud Vinet, en charge du sujet au CEA. La chimie, l’énergie et la santé, donc, sont concernées. La banque pourrait également bénéficier du calcul quantique, notamment pour aider ou automatiser les prises de décision, dans le trading par exemple.

JDN . Les promesses de l’informatique quantique



How it Works : Quantum Computing

Blog Opinions Libres

Comprendre l’informatique quantique

Depuis le site Opinions Libres de M. Olivier Ezratty :

Première Partie : Pourquoi ?

Cela fait déjà quelques années que l’informatique quantique m’intrigue.

Je l’évoque souvent aux fins fonds de la rubrique des composants électroniques du Rapport du CES de Las Vegas depuis l’édition 2015 tout en admettant, à l’époque, n’y rien comprendre et en mettant sérieusement en doute la compréhension du sujet par les médias relayant diverses annonces sur le sujet.

Je m’étais donné alors comme objectif de comprendre les enjeux scientifiques, technologiques et économiques de cette branche passionnante de l’informatique avec une échéance précise : ma conférence traditionnelle du Web2Day à Nantes en juin. Il y a un an donc, était planifiée la conférence Le quantique, c’est fantastique que j’ai eu l’immense plaisir de délivrer en plénière avec Fanny Bouton le 14 juin 2018. Le Web2day est la grande messe festive du numérique de Nantes et elle fêtait sa dixième édition en fanfare. C’est un lieu unique d’expérimentation de nouveaux contenus et formats. Donc l’endroit rêvé !

J’avais eu l’occasion d’y défricher d’autres sujets associant les sciences, l’innovation et l’entrepreneuriat : le merveilleux monde des semiconducteurs (2014), les promesses du séquençage de l’ADN (2015), la biologie de la prise de parole en public, en duo avec Annabelle Roberts (2016) puis l’astronomie et l’entrepreneuriat (2017). Je n’ai pas pu y traiter de l’intelligence artificielle mais je me suis rattrapé ailleurs.

Le top du top de l’imbitabilité

Tous ces épisodes peuvent être positionnés sur une échelle exponentielle d’imbitabilité. Après avoir balayé ces différents pans de la science, je peux résolument positionner l’informatique quantique, et la mécanique quantique qui la sous-tend, au top du top de cette échelle. On pourrait juste ajouter un niveau 10 pour un cas particulier de l’informatique quantique, le quantique topologique, que nous aurons l’occasion d’essayer d’expliquer.

Echelle imbitabilite

Comme l’indiquait il y plusieurs décennies Richard Feynman, lorsque l’on étudie la mécanique quantique, si l’on croit que l’on a tout compris, c’est que l’on n’a pas tout compris.

La suite sur : Pourquoi ?


Seconde Partie : Les bases scientifiques

Chaque épopée scientifique et technologique est avant tout une grande Histoire humaine. Celles de la mécanique quantique et de l’informatique quantique n’y échappent pas. Je vais ici rendre hommage aux grands scientifiques qui ont rendu tout cela possible et continuent encore de plancher dessus pour ceux qui sont encore de ce monde.

La physique ou mécanique quantique s’intéresse à l’infiniment petit et à ses différences par rapport à la mécanique classique, souvent dite newtonienne, qui régit de manière prédictible le fonctionnement des objets de taille raisonnable, au-delà de quelques microns jusqu’à la taille des planètes et des étoiles. Dans l’infiniment grand, on fait appel à la théorie de la relativité et à son lien avec la gravitation qui explique la courbure de l’espace-temps. Elle est indispensable pour interpréter les phénomènes extrêmes que sont les trous noirs ou les étoiles à neutrons. Elle permet d’interpréter l’Histoire de l’Univers, mais pas entièrement.

La physique n’est toujours pas complète ni totalement unifiée. Certains phénomènes physiques observables lui résistent encore. On ne sait pas expliquer précisément l’origine précise de la gravitation et on cherche toujours la matière et l’énergie noires qui expliqueraient la cohésion des galaxies. L’Homme aimerait bien tout savoir et tout expliquer mais il est fort probable que cette quête sera toujours en devenir, ne serait-ce que sur la forme qu’avait l’Univers avant le big bang.

La suite sur : Les bases scientifiques


Troisième Partie : Les Basiques

Après avoir fait le tour des plus grands contributeurs de la mécanique et de l’informatique quantique, passons aux grands fondamentaux de la physique quantique qui nous permettront de comprendre la suite et notamment le fonctionnement des qubits et de leurs diverses techniques de mise en œuvre.

Plusieurs années d’études sont nécessaires pour comprendre les arcanes de la mécanique quantique et ceux qui sont passés par là sont toujours dans l’interrogation à son sujet. Mais on peut se contenter de quelques basiques ici présents pour se préparer à comprendre le fonctionnement des calculateurs quantiques.

Le point essentiel est de bien appréhender la notion de superposition d’états qui est à la base du fonctionnement des qubits et de l’énorme capacité de traitement des calculateurs quantiques. L’intrication vient juste après et permet d’expliquer comment fonctionnent les portes quantiques dans les calculateurs quantiques, que nous verrons dans la partie dédiée au fonctionnement de ces derniers.

La mécanique quantique est apparue il y a un peu plus d’un siècle pour expliquer le fonctionnement et la dynamique des particules élémentaires. Les principales particules élémentaires à qui s’appliquent les principes de la mécanique quantique sont les photons et les électrons. Les effets quantiques les plus connus se manifestent sur la phase des photons ainsi que sur les niveaux d’énergie ou les spins d’électrons, ces derniers étant liés en approximation à leur orientation magnétique.

Tous les qubits connus d’ordinateurs quantiques s’appuient sur l’une de ces deux particules. A part le cas des qubits réalisés à base de photons, tous les autres sont à base de différents comportements quantiques d’électrons. C’est le cas des qubits à base de supraconducteurs à effet Josephson qui exploitent des effets très particuliers que nous expliquerons plus tard, reposant sur le comportement des électrons de matériaux supraconducteurs. Les ions piégés, les cavité de diamants, les qubits CMOS et même les qubits à base d’anyons et des hypothétiques fermions de Majorana exploitent eux-aussi les effets quantiques des électrons.
Des phénomènes quantiques peuvent se manifester avec d’autres particules élémentaires comme les atomes, les neutrons et les protons mais ce ne sont pas à ce jour des pistes explorées par les chercheurs dans le contexte du calcul quantique.

La suite sur : Les Basiques


Dernière partie : Comprendre l’informatique quantique – complexité

Avertissement : le début de cette partie est très technique.

Le calcul quantique est parfois présenté comme étant une solution miracle aux limites du calcul sur supercalculateurs. Il permettrait de résoudre des problèmes dits “intractables (impossibles)” sur des ordinateurs classiques. Mais au juste, quelle est la nature des problèmes qui peuvent être résolus avec un ordinateur quantique et qui ne peuvent pas l’être avec des ordinateurs classiques ? Et surtout, quelles sont les limites des ordinateurs quantiques ? Comment se situent-elles par rapport aux limites de l’intelligence artificielle ?

Nous allons voir que ces limites sont plutôt floues et mouvantes. Elles sont traitées dans un champ complet et méconnu de la science, celui des théories de la complexité. C’est un monde on ne peut plus abstrait où les spécialistes parlent un langage abscons fait de P, NP, BQP et autres complétudes. Ils gambergent depuis près d’un demi-siècle pour déterminer si P = NP ou pas, une question aussi importante que le rôle exact du nombre 42 dans le fonctionnement de l’Univers. C’est la science des classes de complexité de problèmes. Derrière ces mathématiques de la complexité se cachent des considérations techniques mais aussi philosophiques fondamentales pour l’Homme et son désir de toute puissance.

La suite sur : Complexité


Les stratégies industrielles

Depuis frenchweb.fr par M. Olivier Ezratty

L’informatique quantique au sens large du terme est un secteur technologique stratégique à différents titres. Dans la cryptographie, il en va de la souveraineté avec l’enjeu de la protection des communications sensibles. Le calcul quantique est pour sa part porteur d’applications critiques qui vont étendre le champ du numérique au-delà de ce qui est faisable aujourd’hui, notamment dans le domaine de la santé, de l’environnement et de l’intelligence artificielle, prise dans une définition large.

En termes de maturité, la cryptographie quantique et post-quantique sont des champs plus établis avec des acteurs économiques et des solutions, même si la standardisation de la cryptographie post-quantique n’est pas achevée. Elle comporte cependant peu d’inconnues scientifiques fondamentales.

Le calcul quantique est moins mature. Si l’incertitude scientifique semble en partie levée pour ce qui est de la faisabilité des ordinateurs quantiques exploitables commercialement, les obstacles technologiques restent encore importants à surmonter pour y arriver, notamment l’épineuse question du bruit dans les qubits et de la correction d’erreurs quantiques.

Les avis sont partagés sur la vitesse de la levée de ces incertitudes : elle va de quelques années pour certains comme chez Google ou Microsoft, à quelques décennies pour des scientifiques comme Alain Aspect, pour atteindre le “jamais” pour des chercheurs tels que l’Israélien Gil Kalai.

C’est donc un domaine à cheval entre l’incertitude scientifique et l’incertitude technologique. La recherche est pour l’instant issue essentiellement du secteur public dans les grands pays qui s’y investissent, puis de très grands acteurs du numérique qui ont de quoi faire plein de paris technologiques en parallèle (Google, Intel, Microsoft, IBM, Alibaba) puis de quelques startups plus ou moins bien financées ou avancées, essentiellement en Amérique du Nord (D-Wave, IonQ, Rigetti).


L’industrie des logiciels destinés aux ordinateurs quantiques est balbutiante. La majeure partie des “pure players” de ce secteur sont dédiés aux ordinateurs quantiques adiabatiques du Canadien D-Wave, tels que QxBranch et 1QBit qui sont respectivement Américains et Canadiens. Les grands acteurs et startups qui planchent sur les calculateurs quantiques ont tous investi dans le logiciel, à commencer par les outils de développement d’algorithmes et d’applications quantiques. Chacun ambitionne évidemment de créer des plateformes logicielles leaders. Certaines sont déjà disponibles dans le cloud, comme chez IBM. D’autres, tels le Français Atos et Microsoft proposent l’accès via le cloud à des simulateurs quantiques à base d’ordinateurs traditionnels.

Les investissements mondiaux dans l’informatique quantique

Qu’en est-il des investissements mondiaux dans l’informatique quantique ? Une étude de McKinsey de 2015 faisait un tour d’horizon des investissements qui compilaient sans doute des budgets de recherche publique. Il y avait alors 1500 chercheurs dans le monde dotés d’un budget total de $1,5B. Même si ce nombre dû augmenter depuis, il est très faible. Nous en sommes en 2018 à l’état où l’informatique traditionnelle en était en 1955 !

Les USA et la Chine y figuraient évidemment en tête. Mais la répartition de ces investissements, qui intègrent probablement aussi bien la cryptographie quantique que les calculateurs quantiques est intrigante pour les autres pays. La France y était en neuvième position, derrière l’Allemagne, le Royaume Uni, le Canada, le Japon la Suisse et l’Australie. Sachant que ces données ont dû évoluer depuis, avec, notamment, un accroissement significatif de l’effort de la recherche de la Chine.


Une étude européenne produite en 2016 reprenait les mêmes chiffres en y ajoutant les effectifs. Avec donc 224 chercheurs en France à comparer à 1217 chercheurs aux USA, ce qui est un ratio tout à fait normal de 1 à 6.


Les pouvoirs publics de ces différents pays se sont mobilisés de manière très différenciée sur le quantique. La plupart des pays développés se sont mobilisés au niveau de leurs pouvoir publics pour coordonner les efforts dans le quantique. Un pays fait curieusement défaut dans ce panorama : la France. Nous verrons ce qu’il en est plus loin.


Une évaluation des publications scientifiques dans l’informatique quantique est présentée cette intéressante étude VC investment analysis Quantum Computing, produite par des étudiants de l’Insead en 2018 (18 slides). On y découvre sans surprise que les USA, le Canada et la Chine sont les premiers pays à publier. C’est l’effet de la masse. Mais la première Université est celle de Waterloo au Canada. Ce dernier pays est un véritable pionnier dans l’informatique quantique, et pas seulement grâce à D-Wave.


De son côté, l’IDA, l’Institute for Defense Analyses, une organisation parapublique US qui gère trois fonds d’investissements financés par l’état fédéral, a publié Assessment of the Future Economic Impact of Quantum Information Science en 2017 (133 pages). Ils y font un bon tour d’horizon des domaines d’applications du quantique, y compris dans le petit marché de la métrologie quantique.


On y trouve cet intéressant tableau qui classifie les principaux pays par dépense, publications scientifiques et dépôts de brevets, les données datant de 2016. La France y arrive en 8e à 10e position selon les indicateurs. C’est un classement habituel. On a cependant plusieurs pays dont le PIB est inférieur à celui de la France qui arrivent devant elle : le Canada et l’Australie ! Et la Corée du Sud est devant la France en termes de dépôt de brevets, ce qui n’est pas une grande surprise au vu de la force de son industrie électronique, dominée par Samsung qui représente près du cinquième du PIB du pays. Une bonne partie de l’inventaire des projets financés par les gouvernements de nombreux pays cités dans cet article proviennent de ce document de l’IDA.

La recherche dans le quantique est-elle juste une affaire de gros sous ? Pas seulement. Il ne suffit pas d’aligner des milliards de dollars pour résoudre les problèmes de la matière condensée des qubits supraconducteurs. La réussite dans le quantique est aussi une question d’intégration de disciplines scientifiques nombreuses, puis de valorisation industrielle.

La suite, avec le détail pays par pays est disponible sur :
Comprendre l’informatique quantique : strategie industrielles



The Mathematics of Quantum Computers


Ajoutons, toujours depuis le blogOpinions Libres

de M. Olivier Ezratty :


Partie plus théorique sur la physique quantique.

On peut comprendre le fonctionnement d’un ordinateur quantique sans trop se plonger dans la mécanique quantique au-delà de la compréhension de ses mécanismes de base, vus dans dans l’épisode précédent de cette série d’articles, et surtout celui de l’intrication. Par contre, il faut se plonger un peu dans quelques éléments de mathématiques, d’algèbre linéaire et de trigonométrie, ce que nous allons commencer à faire ici.

Le premier élément de base d’un ordinateur quantique est l’inévitable qubit. Vous avez certainement déjà entendu parler de cet objet mystérieux capable d’être simultanément dans la valeur 0 et 1. Les explications courantes s’arrêtent le plus souvent là et vous tombez immédiatement dans l’expectative, vous demandant comment cela peut ensuite bien fonctionner.

Nous allons donc commencer ici par expliquer le fonctionnement logique, mathématique et matériel de ces qubits. Dans la partie suivante de cette série d’articles, nous irons plus loin en décrivant tour à tour les registres, les portes, l’organisation et l’architecture complète d’un ordinateur quantique. A chaque fois, lorsque nécessaire, nous ferons le parallèle avec les ordinateurs traditionnels.

Pour pouvoir suivre cette partie, il faut connaître quelques basiques mathématiques : la trigonométrie, les vecteurs et matrices et avoir déjà entendu parler des nombres complexes.

La suite sur : Les Qubits

Blog Opinions Libres

Comprendre l’informatique quantique – algorithmes et applications


Maintenant que nous avons désossé un ordinateur quantique avec ses qubits, ses registres, ses portes et son frigo, voyons-donc comment on peut exploiter cette belle quincaillerie. L’ordinateur quantique utilise des algorithmes dits quantiques qui ont la particularité d’être bien plus efficaces que leurs équivalents conçus pour des ordinateurs traditionnels. Mais ces algorithmes ne sont pas très nombreux et leur performance relative aux algorithmes traditionnels pas toujours évidente à prouver. Elle est même parfois contestée.

Richard Feynman avait décrit l’idée de créer des simulateurs quantiques en 1982 dans Simulating Physics with Computers (22 pages). Son idée consistait à créer des dispositifs exploitant les effets de la mécanique quantique pour les simuler tandis que cette simulation serait quasiment impossible avec des ordinateurs traditionnels. Cela correspond aujourd’hui à l’un des usages des ordinateurs quantiques, comprenant notamment la simulation des interactions atomiques dans des structures inertes ou biologiques. On peut même faire la distinction entre simulateurs quantiques analogiques et simulateurs quantiques numériques, à base de qubits et de portes quantiques.

Des mathématiciens planchent depuis le milieu et la fin des années 1980 sur la création d’algorithmes adaptés aux simulateurs et ordinateurs quantiques, bien avant que l’on en ait vu l’ombre de la couleur. Les premiers algorithmes quantiques ont été publiés au début des années 1990 et les chercheurs en créent régulièrement de nouveaux depuis 25 ans. Le Quantum Algorithm Zoo en identifie une soixantaine dans la littérature scientifique ! C’est un nombre encore modeste au regard des algorithmes non quantiques qui se comptent en milliers.

Leur création est un travail de recherche parallèle avec la partie matérielle des ordinateurs quantiques. Ce n’est pas la première fois dans l’Histoire qu’il en est ainsi. L’emblématique Ada Lovelace planchait sur la création des premiers algorithmes et lignes de code devant tourner sur la machine de Charles Babbage, qui ne vit jamais le jour. Elle avait annoté en 1842/1843 une traduction de son cru d’un papier de l’Italien Luigi Federico Menabrea qui décrivait la machine de Babbage. Il fallut attendre 102 ans pour que les premiers ordinateurs voient le jour à la fin de la seconde guerre mondiale ! Cela rappelle dans un autre domaine les dessins d’hélicoptères de Léonard de Vinci qui datent de 1487-1490. Un premier hélicoptère propulsé par l’énergie humaine et créé par l’Université de Toronto a volé en 2013, AeroVelo (vidéo) suivi d’un autre spécimen assez voisin issu de l’Université de Maryland qui vient tout juste de voler en 2018 (vidéo) ! Donc, avec plus de cinq siècles de décalage ! Cette même Université de Maryland est d’ailleurs l’une des plus en pointe dans le monde dans les ordinateurs quantiques à base d’ions piégés !
Comme quoi !

Programme Ada Lovelace

Après-guerre, l’Histoire se répéta en partie pour nombre de travaux du vaste champ de l’intelligence artificielle, où les chercheurs planchaient également sur des algorithmes, notamment à base de réseaux de neurones, avant que les ordinateurs puissent les exécuter convenablement. L’essor du deep learning depuis 2012 est en partie lié à la puissance des machines et des GPU à même d’entraîner de tels réseaux de neurones. Le matériel a une fois encore rejoint les algorithmes qui étaient en avance sur leur temps.

Aujourd’hui, une bonne part des algorithmes quantiques qui sont inventés ne sont pas encore exécutables sur les ordinateurs quantiques disponibles ni même sur des simulateurs quantiques à base d’ordinateurs traditionnels. Les qubits sont disponibles dans un nombre bien trop faible pour qu’ils servent à quelque chose et surtout, qu’ils soient plus performants que ordinateurs traditionnels. Les supercalculateurs émulent difficilement plus de 50 qubits.


Comme dans le passé de l’Histoire de l’informatique, nous en sommes dans le quantique à naviguer dans les couches basses du logiciel. Un peu comme pour les programmeurs en langage machine ou en assembleur d’il y a 30 à 50 ans. Les algorithmes quantiques sont les couches les plus basses des solutions logicielles qui restent à inventer puis à assembler. Les algorithmes quantiques exploitent les portes quantiques que nous avons vues dans la partie précédente.

La création d’algorithmes quantiques requiert une capacité d’abstraction sans commune mesure avec celle des algorithmes et programmes traditionnels. Une nouvelle génération de mathématiciens et développeurs capables de raisonner en mode quantique devra se développer au gré de la maturation des ordinateurs quantiques. Ils devront être capables de conceptualiser des algorithmes qui ne sont pas faciles à se représenter physiquement. Qui plus est, ces algorithmes devront aussi, c’est la moindre des choses, être bien plus efficaces que leurs équivalents pour ordinateurs traditionnels ou supercalculateurs.


La suite sur : Informatique quantique algorithmes et applications

Blog Opinions Libres

Un condensé des ces articles est disponible sur :

Comprendre l’informatique quantique – basiques

Publié sur FrenchWeb.fr le 05 juillet 2018.

FrenchWeb.fr



Comment l’ordinateur quantique va révolutionner l’IA, l’informatique et l’industrie

Publié sur cnetfrance le mercredi 01 août 2018 par Fabien Soyez.

En démultipliant le potentiel de calcul des systèmes d’IA, les futurs ordinateurs quantiques pourraient bien révolutionner de nombreux secteurs industriels. Et plus largement, l’informatique et l’intelligence artificielle.

L’avenir de l’informatique, du Big Data et de l’IA est-il dans les ordinateurs quantiques ? En s’appuyant sur les propriétés quantiques de la matière, ces calculateurs surpuissants, qui restent encore à construire réellement, devraient dans un avenir plus ou moins proche nous permettre de réaliser des calculs complexes, irréalisables avec les machines actuelles.

À la différence du système numérique classique, qui repose sur des données codées en chiffres binaires, le calcul quantique utilise le “bit quantique”, ou “qubit”. Contrairement au “bit”, qui prend soit la valeur d’un 0, soit la valeur d’un 1, le “qubit” est une combinaison linéaire. Il peut prendre la valeur 0 ou 1, mais aussi les deux ensemble. Ainsi, un ordinateur quantique devrait permettre de réaliser des calculs parallèles, en simultané, et plus de manière séquentielle comme avec nos machines actuelles.

Dans une telle perspective, en démultipliant le potentiel de calcul, les applications pratiques d’une telle technologie sont forcément nombreuses, de la santé à la chimie, en passant par l’industrie, la sécurité informatique, les voitures autonomes, l’énergie, ou encore les transports et la gestion du trafic. Les promesses du qubit semblent illimités – au point que l’on parle un peu partout d’une “révolution” quantique.

La suite sur Comment l’ordinateur quantique…


Un Monde sans mécanique quantique

Publié le 20 juil. 2018 Par sur Médiapart.

Cet article est une interprétation en français considérablement simplifiée de l’article du NewScientist mentionné ci dessous en référence.

La physique quantique, vérifiée par un nombre incalculables d’expériences et de réalisations dans le domaine des technologies de l’information, prévoit que chacune des particules élémentaires ou des atomes qui sont les briques de base à partir desquels se construit le monde matériel dans lequel nous vivons et dont nous sommes nous-mêmes des éléments, peuvent se trouver au même moment simultanément dans plusieurs lieux de l’univers ou adopter des états différents superposés.

Plus précisément elle repose sur quatre principes :

– la quantification : les particules isolées ne peuvent prendre leur valeur que dans un ensemble d’éléments ou points dits discrets, c’est-à-dire soit séparés les uns les autres. Au contraire, la mécanique classique prévoit qu’elles peuvent prendre continûment n’importe quelle valeur.

– la dualité onde-particule. Ces deux notions, qui sont séparées en mécanique classique, deviennent deux aspect d’un même phénomène, décrit de manière mathématique par sa fonction d’onde. l’ensemble onde-particules peut à certains moments se comporter soit comme des particules soit comme une onde .

– le principe d’indétermination dit de Heisenberg : il n’est pas possible d’obtenir la mesure exacte simultanée de deux grandeurs conjuguées. Il est notamment impossible d’obtenir une grande précision sur la mesure de la vitesse d’une particule sans obtenir une mauvaise précision sur sa position, et réciproquement. Cette incertitude est structurelle, c’est-à-dire qu’elle est liée à la nature de l’univers. Elle ne dépend pas de la précision de l’observation.

– le rôle de la « mesure » : L’interprétation de la mécanique quantique dite de Copenhague assure que c’est la « mesure » , autrement dit ce sont les observations qui lèvent l’indétermination des représentation d’un phénomène quantique.

Jusqu’à présent ce sont ces principes qui forment la base de la physique quantique et par extension de la physique classique. Celle-ci ne peut donc pas décrire avec précision les états de la nature qu’elle observe, malgré ses ambitions.

Une nouvelle expérience


Aujourd’hui cependant une nouvelle expérience semble montrer que la physique quantique ne peut prétendre au plan fondamental représenter les bases du monde physique. La physique macroscopique traditionnelle ne devrait plus être écartée, tout au moins après une profonde adaptation.

Le physicien Philip Pearle du Hamilton College à Clinton, New York,  remarque que personne ne peut aujourd’hui définir ce qu’est une « observation ». Ce n’est en tout cas pas  l’observation résultant de l’intervention d’un physicien alors que la fonction d’onde existe quasiment depuis les origines du monde physique.

Les physiciens quantiques répondent que cela n’a pas d’importance. La physique n’a pas pour objectif de décrire un monde tel qu’il serait « en soi », mais de décrire les phénomènes du monde tels que la physique peut les observer ici et maintenant. Cela suffit pour réaliser toutes les nouvelles technologies, depuis les lasers jusqu’aux calculateurs.

D’autres ne se satisfont pas de ces explications. Si l’interprétation dominante de la théorie quantique, l’interprétation de Copenhague, ne peut nous dire ce qui se passe au sein des molécules et des atomes, il faut rechercher d’autres approches, proposant des interprétations plus précises. Ces interprétations en fait ont été proposées depuis longtemps. On peut citer celle dite des mondes multiples, selon laquelle le monde n’est pas unique, mais constitué d’une infinité de mondes, chacun de ceux-ci pouvant respecter les fondements de la physique classique. Mais aucun accord à leur sujet n’a été enregistré.

Stephen Adler de l’Institute for Advanced Study à Princeton, New Jersey, propose une autre approche: « Puisque les différences entre le monde macroscopique et le monde quantique sont reconnues, il faut rechercher la raison de ces différences à un niveau situé entre l’échelle de la particule et celle du monde que nous connaissons ».


Ce lien pourrait être fourni par un mécanisme qui réduirait la fonction d’onde des particules quantiques, autrement dit les fera collapser, sans faire appel à une observation. Le concept existe depuis les années 1970 sous le nom de réduction objective de la fonction d’onde (objective collapse). Dans ce sens, l’hypothèse a été faite qu’il existe en permanence dans l’espace une sorte de bruit, analogue au champ électromagnétique, dont les éléments percutent en permanence les particules quantiques entraînant le collapse de leur fonction d’onde. On a parlé d’un réseau ou matrice de petits détecteurs répandus dans le cosmos.

Ceci pourrait expliquer pourquoi des particules subatomiques telles que les protons échappent par leur petitesse au réseau dense de ces petits détecteurs, alors que des objets macroscopiques n’auraient aucune chance vu leur taille d’y échapper plus d’une fraction de seconde afin de survivre en superposition.

L’hypothèse semble aujourd’hui pouvoir être testée expérimentalement. On connaît l’expérience dite des fentes de Young permettant de mettre en évidence la double nature des particules en superposition, tantôt ondes et tantôt particules individualisées. La théorie quantique dit que cela peut être observé même dans des objets constitués de plusieurs particules quantiques. Pour l’hypothèse du collapse objectif, cette possibilité est très faible, les objets constitués de particules quantiques rencontreraient très rapidement le réseau de détecteurs. Ils rejoindraient le monde macroscopique où ils ne seraient plus observables.

Encore faut-il pouvoir mesurer le temps nécessaire pour qu’une particule quantique rencontre le réseau de détecteurs afin de collapser spontanément. Andrea Vinante de l’université de Southampton et ses collègues ont imaginé une expérience simple permettant d’évaluer le temps pour qu’une particule quantique rencontre une molécule du monde physique avant de s’effondrer,  « collapser » spontanément, c’est-à-dire de voir son caractère quantique disparaître sans intervention d’un éventuel événement du monde physique jouant le rôle d’observateur. Le collapse devrait en théorie se produire sans limite de temps.

Or cette expérience, simple mais d’une grande ingéniosité, montre qu’une très petite pièce de métal, progressivement refroidie vers le zéro absolu, cesse à un certain moment de vibrer, autrement dit de se refroidir. Tout se passe comme si elle rencontrait une barrière infranchissable. Celle-ci ne serait-elle pas due aux forces encore inconnues qui empêchent à un certain stade le collapse de se produire, autrement dit qui empèchent une particule du monde physique de devenir quantique dans certains conditions. Dans ce cas, l’on pourrait comprendre pourquoi il existe une barrière infranchissable entre le monde quantique et le monde physique.

Les résultats de l’expérience sont encore en discussion afin d’en expliquer la cause. Mais la Commission européenne vient d’attribuer un crédit de 4,4 millions d’euro pour renouveler cette expérience, cette fois-ci dans l’espace. Elle est désigné par le nom de TEQ, pour  TEsting the large-scale limit of Quantum mechanics, Elle demandera 3 ans pour devenir opérationnel.

Les résultats de l’expérience sont encore en discussion afin d’en expliquer la cause. Mais la Commission européenne vient d’attribuer un crédit de 4,4 millions d’euro pour renouveler cette expérience, cette fois-ci dans l’espace. Elle est désigné par le nom de TEQ, pour  TEsting the large-scale limit of Quantum mechanics, Elle demandera 3 ans pour devenir opérationnelle.

En cas de résultats positifs, elle balaiera toutes les théories opposant depuis longtemps la Relativité d’Einstein aux bases de la mécanique quantique. Ceci pourrait signifier qu’à un niveau fondamental, la nature pourrait être décrite par une théorie unique. Celle-ci devrait être précisée, mais sans attendre,  la révolution fondamentale introduite par ces hypothèses ne pourrait plus être écartée .

Publié le 20 juil. 2018 Par Jean-Paul Baquiast sur Médiapart.

The Newscientist.com : 100 is this our first clue to a world beyond quantum theory




Fonctionnement d’un Ordinateur Quantique

INFORMATION : Cette partie est un peu plus technique


De la mécanique quantique aux qubits


La mécanique quantique s’intéresse à l’infiniment petit et à ses différences par rapport à la mécanique classique, dite newtonienne, qui régit de manière prédictible le fonctionnement des objets de taille raisonnable : au-delà de quelques nanomètres jusqu’aux planètes et étoiles. Dans l’infiniment grand, on fait appel à la théorie de la relativité et à son lien avec la gravitation qui explique la courbure de l’espace-temps. Elle est indispensable pour comprendre les phénomènes extrêmes que sont les trous noirs ou les étoiles à neutrons. Les physiciens cherchent encore à unifier toutes ces théories !

La mécanique quantique est une science qui a pris forme aux débuts du XXe siècle. Elle résulte des travaux de très nombreux scientifiques et chercheurs comme Max Planck, Albert Einstein, Niels Bohr, Erwin Schrödinger, Werner Heisenberg et Max Born, pour n’en citer que quelques-uns.

L’histoire de la mécanique quantique est une aventure humaine qui a rassemblé des talents immenses qui se sont confrontés et ont fait évoluer pas à pas leur compréhension de l’infiniment petit. Cette compréhension a associé des physiciens et des mathématiciens. Les physiciens ont mené de nombreuses expériences pour identifier des paradoxes, des inconnues, bâtir des théories, puis les vérifier par l’expérience, parfois avec plusieurs décennies de latence.

Les mathématiciens ont bâti des modèles de représentation des données, comme les matrices et l’algèbre linéaire, qui jouent un très grand rôle dans la mécanique quantique pour décrire les états des systèmes quantiques et leurs évolutions. Cette algèbre linéaire est au cœur du fonctionnement des qubits des ordinateurs quantiques. Elle relève, pour simplifier, de calculs matriciels.

Au cœur des ordinateurs quantiques se trouvent les qubits, des équivalents quantiques des bits de l’informatique classique. Avec eux, on passe d’un monde déterministe à un monde probabiliste.

Les bits correspondent à des charges électriques qui traduisent le passage d’un courant électrique ou son absence. Un bit est donc soit à 1 soit à 0 selon que le courant passe ou pas. Sa lecture donne 1 ou 0 et est donc déterministe.

Les bits correspondent à des charges électriques qui traduisent le passage d’un courant électrique ou son absence. Un bit est donc soit à 1 soit à 0 selon que le courant passe ou pas. Sa lecture donne 1 ou 0 et est donc déterministe.

Dans un qubit, les états 0 et 1 sont superposés. Ils peuvent être à la fois de 0 et 1 au même moment. Ils correspondent à deux états quantiques possibles d’une particule élémentaire, comme le niveau d’énergie d’un électron autour du noyau d’un atome. On doit pouvoir initialiser cet état, le modifier avec des portes quantiques, mais sans le lire, puis, à la fin des opérations, en évaluer la valeur par approximation, en général, en répétant l’opération plusieurs fois pour faire ensuite une moyenne des résultats obtenus.

« La mécanique quantique s’intéresse à l’infiniment petit et est indispensable pour comprendre des phénomènes extrêmes comme les trous noirs »

Les principaux types de qubits qui sont étudiés et expérimentés actuellement sont :


Aucune de ces techniques n’est pour l’instant éprouvée à grande échelle. Elles ont toutes leurs avantages et inconvénients qui se situent dans plusieurs dimensions : la durée de stabilité des qubits à l’état de superposition, la possibilité de les intriquer (en clair : synchroniser), le niveau d’erreurs, la température de fonctionnement, la miniaturisation et leur processus de fabrication, qui est moins cher lorsque c’est du silicium en technologie CMOS identique à celle des processeurs du marché.

L’architecture d’un ordinateur quantique


Dans la pratique, les ordinateurs quantiques sont des coprocesseurs d’ordinateurs traditionnels. Ces derniers les alimentent en données et en algorithmes. Ils interprètent les programmes destinés aux processeurs quantiques pour les traduire en opérations physiques à réaliser sur les qubits et à en lire ensuite les résultats.

Un ordinateur quantique comprend notamment les composants suivants :

(1) Les registres quantiques. Ce sont des ensembles de qubits. Ceux-ci pouvant osciller entre la valeur 0 et 1, selon le principe de la superposition des états quantiques. Un registre de n qubits peut avoir toutes les valeurs possibles à un moment donné, soit 2 puissance n valeurs différentes.

Dans un registre de 3 qubits pourront cohabiter par superposition toutes les valeurs possibles de ce registre, qui sont au nombre de 2 puissance 3, soit 8 allant de 000 à 111, en binaire. C’est une combinaison qui devient énorme rien qu’avec n=50. C’est ce qui permet de faire des calculs à combinatoire exponentielle bien plus rapidement qu’avec des ordinateurs qui vont tester chaque combinaison de manière séquentielle. En appliquant des calculs simultanément à toutes ces valeurs superposées

(2) Les portes quantiques. Ce sont des dispositifs physiques qui agissent sur les qubits des registres quantiques, à la fois pour les initialiser et pour y effectuer des opérations de calcul mais sans lire leur valeur. Ces portes sont appliquées de manière itérative, au gré des algorithmes à exécuter.

(3) À la fin du processus d’exécution séquentielle des portes quantiques, des dispositifs physiques de mesure de l’état des qubits modifiés permettent d’obtenir le résultat des calculs.

(4) Les registres quantiques, les portes quantiques et les dispositifs de mesure sont généralement intégrés dans un chipset.

(5) Les qubits physiques peuvent être regroupés en qubits logiques pour permettre une mise en œuvre de systèmes de correction d’erreurs.

(6) L’électronique de commande et les chipsets quantiques sont généralement situés dans une enceinte cryogénisée à une température voisine du zéro absolu (15 mK), pour éviter de générer des perturbations empêchant les qubits de fonctionner. Le Graal serait de pouvoir faire fonctionner des qubits à température ambiante, mais les architectures correspondantes ne sont pas encore au point

Schéma quantique

(L’architecture d’un ordinateur quantique. Source : Olivier Ezratty)


Les nombreux types d’ordinateurs quantiques


Il y a ordinateur quantique et ordinateur quantique. On oppose souvent les ordinateurs quantiques adiabatiques de l’entreprise canadienne D-Wave aux ordinateurs quantiques universels d’IBM ou Google. Il faut compter en tout avec au moins quatre catégories d’ordinateurs quantiques, que voici :

Enfin, l’expression ambiguë de simulateur quantique est principalement accolée aux ordinateurs quantiques analogiques qui sont consacrés à la simulation de phénomènes quantiques. Elle est aussi applicable aux trois autres catégories d’ordinateurs quantiques qui ont aussi la capacité de simuler les effets quantiques de la matière

INFORMATION : Fin de la partie technique

De la physique quantique à l’ordinateur quantique

Publié le 25 juillet 2018 sur FRENCHWEB.FR


Etienne Klein est physicien, directeur de recherche au sein du CEA (Commissariat à l’Énergie atomique et aux Énergies alternatives) et docteur en philosophie des sciences. Il faisait partie des intervenants de la dernière édition de la conférence USI sur le thème « De la physique quantique au quantum computing ».

De quoi s’agit-il exactement ? « Quantum, cela veut dire mécanique quantique. Donc on s’appuie sur des ressources qui nous sont données par la physique quantique pour inventer de nouvelles façons de calculer avec de nouvelles sortes d’ordinateurs qu’on appelle des ordinateurs quantiques », résume Etienne Klein.

De verrous technologiques


Ce dernier parle d’une révolution. « Il y a énormément de dispositifs qui utilisent la physique quantique à commencer par les lasers ou les ordinateurs. Mais dans les années 80, on a fait des découvertes qui portent sur ce que l’on appelle l’intrication. À savoir que des particules qui ont interagi dans le passé restent intriquées à distance quel que soit la distance qui les séparent. C’est ce que l’on appelle la non-localité ou l’intrication quantique. Cela a déconstruit beaucoup de préjugés que l’on pouvait avoir sur la nature du réel ».

« Et puis nous nous sommes rendu compte que même si on ne comprenait pas très bien ce que cela signifie, c’était quand même une ressource que l’on pouvait utiliser pour beaucoup d’opérations ». Et parmi celles-ci se trouve le calcul quantique. « Un bit quantique peut contenir une infinité d’informations et si on sait bien les manipuler alors on peut faire un calcul massivement parallèle et imaginer un ordinateur qui ferait des calculs que les machines classiques ne peuvent pas faire ».

La réalité d’un tel ordinateur est cependant encore loin « parce qu’il y a beaucoup de verrous technologiques », explique Etienne Klein. Mais les problèmes qu’il pourrait résoudre sont eux déjà bien réels, par exemple en chimie quantique. « Il s’agit d’un système très complexe. Aujourd’hui, on peut calculer les états d’énergie des électrons dans une molécule par des calculs plein d’approximations, qui ne sont pas très fiables. Avec un ordinateur quantique, on pourrait , s’il marche et s’il est puissant, résoudre ce problème ».

Mais plutôt que de spéculer sur l’avenir de l’ordinateur quantique, intéresser le grand public à ce sujet est aussi une façon, pour Etienne Klein, de les initier à la physique quantique. « Pour moi, l’intérêt premier aujourd’hui est plutôt pédagogique. Comme le monde est quantique, c’est toujours bien de comprendre ce que la physique qui le décrit nous permet de comprendre sur le monde ».

Vidéo liée à cet article :



Comment les poids lourds des technologies se préparent à l’informatique quantique


D’ici l’arrivée de prototypes fonctionnels d’ordinateurs quantiques, les professionnels des nouvelles technologies préparent les futurs logiciels et applications.

L’informatique quantique promet une démultiplication phénoménale de la puissance de calcul des appareils (en encodant l’information non pas sous forme de bit simplement binaire et admettant pour valeurs 0 ou 1, mais de qubit, un bit quantique qui permet en plus une superposition linéaire entre le 0 et le 1). Même si les premiers prototypes restent limités, les industriels et analystes placent de grands espoirs dans cette technologie. Les chercheurs misent en effet sur les propriétés quantiques de la matière pour dépasser les limites des ordinateurs actuels qui arrivent à une limite de performance, afin d’aider les secteurs nécessitant de grandes quantités de données, comme la gestion des stocks d’une entreprise ou encore la réalisation de calculs complexes permettant de créer de nouvelles molécules.

La suite sur : Se préparer à l’informatique quantique.

Par Sciences et Avenir avec Reuters le 20 juillet 2018.


Ordinateur quantique : le CEA mise sur le silicium

L’organisme public de recherche a présenté sa stratégie en matière d’informatique quantique. Il privilégie la compatibilité avec l’informatique classique.

Publié sur Les Echos.fr le 19 juillet 2018.

« Transformer une physique quantique étrange en une ingénierie quantique révolutionnaire. » Dans la bouche de Philippe Chomaz, directeur scientifique exécutif à la direction de la recherche fondamentale du CEA, cette jolie formule ne relève plus du vœu pieux. Car l’organisme public de recherche est désormais en ordre de bataille pour se lancer à l’assaut de l’ordinateur quantique universel. Après avoir remporté une série de succès expérimentaux dans son laboratoire grenoblois du Leti, dédié aux micro et nanotechnologies, puis annoncé, fin mai, la création, avec Atos, d’ une nouvelle chaire industrielle dédiée à l’informatique quantique , il a officiellement présenté le mois dernier sa stratégie en la matière.

La suite sur : Le CEA mise sur le silicium.

En complément une présentation (PDF) réalisée par le CEA :

Opportunités et défis de la recherche sur le calcul quantique.


A lire également :

l’informatique quantique pour accélérer la recherche dans la santé


L’incroyable casse-tête pour créer le premier ordinateur quantique


Ions piégés, photons intriqués, circuits supraconducteurs, isotopes de silicium, fermions de Majorana… Les voies technologiques que les scientifiques explorent pour concevoir le premier ordinateur quantique sont multiples. Mais personne ne sait quelle est réellement la bonne approche.

Publié sur 01net.com le 07 juillet 2018.

01net.com


En mars dernier, Google a marqué les esprits en présentant Bristlecone, un processeur quantique avec 72 qubits. Personne n’a fait mieux à ce jour, c’est un record. Mais quand on entend parler les experts du géant du web, le sentiment de fierté auquel on pourrait s’attendre reste très limité. Et pour cause : le domaine de l’informatique quantique reste encore largement inexploré et les défis techniques sont gigantesques.

La suite sur : Casse-tête pour créer le premier ordinateur quantique.

En complément : Bristlecone, le processeur quantique de Google


Google et la NASA testent leur ordinateur quantique



L’informatique quantique franchira un nouveau palier cette année

L’informatique quantique va franchir un nouveau palier cette année, même si l’on est encore loin du moment où ces ordinateurs super performants auront prouvé leur efficacité en entreprise, estime Bo Ewald, le président du fabricant d’ordinateurs quantiques D-Wave.


D-Wave, une entreprise canadienne basée à Vancouver, est la seule firme ayant vendu à des clients ces ordinateurs qui seraient beaucoup plus puissants que les machines actuelles car capables d’utiliser des propriétés étonnantes des particules permettant d’échapper aux règles de la physique classique. Cela leur donnerait le potentiel de faire un grand nombre de calculs en parallèle, réduisant énormément le temps nécessaire pour effectuer une tâche.

D-Wave en a construit une vingtaine d’exemplaires au total qui sont utilisés pour la recherche, dont huit vendus à des acteurs extérieurs, détaille Bo Ewald dans un entretien avec l’AFP au salon technologique Vivatech.
Pour l’instant, les développeurs de D-Wave ont conçu « une cinquantaine de proto-apps », des logiciels expérimentaux pour tenter de maîtriser ces machines au potentiel énorme, explique-t-il. Sur ces 50 applications quantiques – qui s’attaquent à résoudre des « petits problèmes », admet Bo Ewald – « la moitié environ ont démontré des performances qui s’approchent de celles des ordinateurs classiques, voire font un peu mieux ».
Pour l’instant, l’ordinateur quantique de D-Wave a par exemple été capable de faire tourner avec succès un programme optimisant les flux de 500 taxis allant du centre-ville de Pékin vers l’aéroport, en gérant des coordonnées GPS « reçues toutes les 5 secondes ».

Mais « d’ici la fin de l’année », ces proto-apps devraient résoudre des problèmes « plus importants » ou « nouveaux », et plus intéressants pour les entreprises clientes, assure-t-il.

D-Wave n’est pas le seul à progresser, a-t-il relevé: Google et IBM ont tous les deux annoncé la construction de nouvelles machines plus puissantes, qui auront été testées d’ici la fin de l’année. (ndlr : 2018)


Pour autant, la suprématie quantique, ou la démonstration claire qu’un ordinateur quantique bat en performance un ordinateur classique, dans une utilisation industrielle réelle, n’est pas encore à portée de vue, estime le président de D-Wave.

« Nous avons encore de longues années » avant de pouvoir réaliser de vraies applications industrielles, comme par exemple gérer une flotte de 500.000 véhicules autonomes, reconnaît Bo Ewald.

Bo Ewald

Quant à atteindre le Graal de l’ordinateur quantique, à savoir casser le système de cryptographie RSA massivement utilisé dans l’informatique et sur internet, « c’est encore très, très loin, 10 ou 20 ans », estime-t-il.
Pour l’instant, les ordinateurs et les applications de D-Wave se concentrent sur des problèmes d’optimisation, dit « du voyageur de commerce » (analogue au calcul du circuit le plus court entre des villes).

Mais ils progressent aussi pour des applications d’apprentissage automatique (utilisées en intelligence artificielle) ou en chimie et physique des matériaux, selon Bo Ewald. « D’ici un an ou deux, nous serons capables de créer de meilleurs modèles d’interactions quantiques entre molécules, que nous ne pouvons pas faire avec des ordinateurs traditionnels », assure-t-il. Elle relève, pour simplifier, de calculs matriciels « D’ici un an ou deux, nous serons capables de créer de meilleurs modèles d’interactions quantiques entre molécules, que nous ne pouvons pas faire avec des ordinateurs traditionnels », assure-t-il.

Cet élargissement des compétences est important pour D-Wave. Ses ordinateurs quantiques sont en effet réputés avoir un champ d’application beaucoup plus limité que ceux qu’IBM ou Google sont en train de développer. Ces derniers seront de vrais calculateurs universels, mais ils reposent sur une technologie moins éprouvée.

D-Wave ne compte qu’environ 175 salariés, mais compte bien résister à la pression des géants de l’informatique mondiale. « Nous allons garder la diversité quantique, avec au moins deux architectures différentes », celle de D-Wave et celle de Google et d’IBM, sur les 10 prochains années, affirme-t-il.

D-Wave, qui espère vendre encore deux machines d’ici la fin de l’année, dont une en Europe, a pour lui une vraie expérience industrielle, argumente-t-il: « Nous avons installé pour environ 75 millions de dollars d’ordinateur quantique chez des clients », quand Google et IBM n’ont jamais encore vendu de machines.

Source : AFP le 25/05/18



Informatique quantique : L’Europe ne doit plus être la colonie du monde numérique


Depuis toujours se déroule à l’international une véritable course à l’armement en matière d’avancées technologiques. L’informatique quantique est devenue le nouveau Graal et mobilise des investissements massifs des grandes puissances… excepté pour l’Europe en passe de manquer un des virages technologiques les plus importants.

Publié sur zdnet.fr le 05 juillet 2018.

ZDnet

A l’aube d’avancées technologiques majeures, causes de mutations profondes dans nos sociétés, il en est une qui va jouer un rôle d’accélérateur de particules et décupler de façon exponentielle la vitesse de progression de toutes les autres : l’informatique quantique. Désormais investie par les géants du secteur comme Google, IBM, Microsoft et Atos côté français, cette technologie est en mesure de démultiplier la puissance de calcul au point de parvenir à résoudre en quelques minutes des problèmes qui prendraient des milliards d’années aux machines actuelles.


La vision Microsoft

Les ordinateurs quantiques sont encore loin : seuls quelques modèles sont aujourd’hui fonctionnels et ils sont encore très limités. Avant qu’on ne puisse avoir l’un de ces ordinateurs dans le salon, il faudra encore attendre des années, probablement des décennies. Mais Microsoft songe déjà au futur et, surtout, aux programmeurs. Le groupe de Redmond a donc dévoilé son langage de programmation quantique.

Il s’appelle « Q Sharp » et s’écrit Q#.

Publié sur clubic.com le 12 décembre 2017.

Clubic.com

Microsotf



Du coté de Google


The goal of the Google Quantum AI lab is to build a quantum computer that can be used to solve real-world problems. Our strategy is to explore near-term applications using systems that are forward compatible to a large-scale universal error-corrected quantum computer. In order for a quantum processor to be able to run algorithms beyond the scope of classical simulations, it requires not only a large number of qubits. Crucially, the processor must also have low error rates on readout and logical operations, such as single and two-qubit gates.


L’article complet sur : A preview of bristlecone

Bristlecone : Le processeur quantique de google publié par Tom’s Hardware

Sur le même sujet :

Google présente Bristlecone, son premier processeur quantique intégrant 72 qubits. Il devance ainsi la puce à 49 qubits d’Intel montrée au CES 2018. Néanmoins, la force du nouveau composant ne réside pas seulement dans son nombre de qubits, mais aussi dans son taux d’erreur qui serait aussi faible que sur sa puce à 9 qubits. Google explique être toujours en train de la tester, mais si ses prévisions sont correctes, Bristlecone serait le premier processeur à atteindre la suprématie quantique.

Bristlecone : Le processeur qubit publié par Génération Nouvelles Technologie

Google dévoile un nouveau processeur quantique Bristlecone à 72 qubits à faible taux d’erreur qui poursuit les efforts pour créer de futurs ordinateurs quantiques. L’une des prochaines évolutions de l’informatique porte sur la création d’une informatique quantique capable de résoudre de nouveaux types de problèmes loin du cadre binaire traditionnel.


Google travaille depuis des années sur l’informatique quantique. En mars, il a présenté un processeur, Bristlecone, qui vise améliorer la fiabilité et la stabilité des calculs impliquant un grand nombre de qubits. Ce faisant, Google cherche à se rapprocher de la « suprématie quantique ». Dans le domaine de l’informatique quantique, Intel investit des dizaines de millions de dollars et enregistre des avancées notables, en particulier sur la stabilité et la fiabilité des calculs, grâce à l’invention d’une technique innovante pour la conception des processeurs quantiques. Mais le spécialiste du CPU a de la concurrence : Google, par exemple, est aussi impliqué dans ce domaine.

Bristlecone : Google tente de se rapprocher de la « suprématie quantique » par Numerama


Un nouveau processeur quantique pour Google : Bristlecone  par Penseeartificielle.fr




L’ordinateur quantique, une puissance sans égal mais en devenir

Article de Samuel Kahn publié le 19 juillet 2018.

Systèmes de chiffrement inviolables, avancées fulgurantes dans la recherche sur l’intelligence artificielle et traitements médicaux personnalisés : telles sont les promesses de l’informatique quantique, aux puissances de calcul sans précédent, estiment des analystes et des industriels.

Les chercheurs misent sur les propriétés quantiques de la matière pour dépasser les limites des ordinateurs actuels qui arrivent à une limite de performance, afin d’aider les secteurs nécessitant de grandes quantités de données, comme la gestion des stocks d’une entreprise ou encore la réalisation de calculs complexes permettant de créer de nouvelles molécules.

« La loi de Moore n’est plus valable depuis les trois dernières années », a déclaré à Reuters Cyril Allouche, directeur du laboratoire de recherche quantique d’Atos, faisant référence au principe édicté en 1965 selon lequel la puissance des processeurs double, à prix constant, tous les 18 mois.

La physique quantique, une branche de la physique développée à partir de la première moitié du 20e siècle, établit entre autres le principe de superposition selon lequel une particule peut être dans plusieurs états au même moment.

Contrairement aux processeurs actuels basés sur un système binaire et qui réalisent des calculs les uns après les autres, les processeurs quantiques peuvent trouver toutes les solutions d’un problème en très peu de temps et leur puissance augmente de façon exponentielle avec leur taille.

Cela rend cette technologie particulièrement efficace pour casser des systèmes de chiffrement comme le RSA, aujourd’hui largement utilisé pour sécuriser les échanges sur internet.

« Les cryptologues ont déjà conçu des systèmes de cryptographie dits « post-quantique » qui résisteraient aux attaques des ordinateurs quantiques », explique à Reuters Jean-Paul Delahaye, chercheur au Centre de recherche en informatique, signal et automatique de Lille.

UNE TECHNOLOGIE ENTHOUSIASMANTE MAIS NON ABOUTIE


Mais les entreprises sont encore loin d’être parvenues à construire un ordinateur quantique plus puissant qu’un ordinateur actuel – on parlera alors de suprématie quantique.

En mars, Google a dévoilé un processeur quantique, Bristlecone, huit fois plus grand que ceux réalisée auparavant par le groupe américain.

« Nous sommes prudemment optimistes quant au fait que la suprématie quantique peut être atteinte avec Bristlecone », souligne Julian Kelly, un chercheur du laboratoire de recherche quantique de Google, dans une note disponible sur internet.

Pour Bernard Ourghanlian, directeur technique et sécurité de Microsoft France, les applications concrètes des ordinateurs quantiques sont impressionnantes.

« Si l’on est capable de convertir de l’azote en ammoniaque à température ambiante grâce à un catalyseur, on peut se passer d’un procédé qui consomme 1 à 2% de l’énergie mondiale pour fabriquer de l’engrais. C’est quelque chose qu’un ordinateur quantique est capable de faire », a-t-il indiqué à Reuters.

Mais si les ordinateurs quantiques pourraient avoir des applications dans la vie courante, ils ne devraient pas rendre les équipements actuels obsolètes pour autant.

Le calcul quantique donnera un surplus de puissance très sensible, mais aura des limites et ne permettra pas aux ordinateurs quantiques de tout faire, souligne Jean-Paul Delahaye.

« L’ordinateur quantique ne sera pas le remplaçant de l’ordinateur classique », a déclaré à Reuters le directeur technique d’IBM France Frédéric Allard (vidéo).

Et même si IBM et Microsoft annoncent tous les deux un ordinateur quantique fonctionnel d’ici cinq ans, il est difficile de savoir quand ces équipements pourront être effectivement livrés.

« Je ne dis pas que c’est impossible à réaliser, mais la recherche avance lentement », a noté Jean-Paul Delahaye.

En attendant, des entreprises comme Atos préfèrent se concentrer sur la simulation de processeurs quantiques, qui permet aux chercheurs d’étudier les possibles applications de cette technologie et de faire en sorte qu’un écosystème logiciel soit prêt quand ce type de matériel sera disponible.

Une approche partagée par Microsoft : « Ce qui nous intéresse, c’est de créer une communauté de développeurs capables de maîtriser la programmation quantique », déclare Bernard Ourghanlian.

Article original : L’ordinateur quantique, une puissance sans égal mais en devenir


Les startups logiciels de l’informatique quantique

Blog Opinions Libres


Toujours depuis le site Opinions Libre

Ici nous allons faire un tour d’horizon très large et presque exhaustif des startups de l’informatique quantique. La cartographie est relativement aisée car elles ne sont pas encore très nombreuses. Il y en a au plus environ 70 à l’échelle mondiale. On est loin des 5000 startups de l’univers du marketing !

Cet écosystème commence à peine à se structurer avant même que les ordinateurs quantiques fonctionnent à grande échelle ! Seuls les systèmes de cryptographie quantique sont opérationnels et correspondent à un marché bien à part. Il est fascinant de découvrir des startups qui font des paris à long terme, surtout dans le matériel. Dans le logiciel, le risque est atténué car nombre de startups créent des solutions pour les ordinateurs adiabatiques de D-Wave qui, même s’ils n’ont pas été commercialisés en volume, sont d’ores et déjà disponibles.

Les startups identifiées sont surtout américaines et européennes. L’écosystème logiciel est à observer de prêt. Il est prêt à dégainer lorsque le matériel fonctionnera.

L’ article complet sur : l’informatique quantique – les startups



Autour de l’informatique. Science du qubit, science des données

Un nouvel « Entretien autour de l’informatique » : Binaire interviewe Julia Kempe. Julia est une brillante mathématicienne, physicienne, et informaticienne. C’est une des meilleures spécialistes mondiales en informatique fondamentale et, en particulier, en informatique quantique. A partir de l’automne, elle dirigera le Center for Data Science de New York University.

Cet article est publié en collaboration avec le blog Binaire.

Binaire : tu es une scientifique très cosmopolite. Peux-tu nous raconter un peu d’où tu viens ?

Julia Kempe. CDS, CC BY
Représentation d’un qubit par une sphère de Bloch. Binaire, Author provided

Pourrais-tu expliquer simplement l’informatique quantique ?

L’informatique classique est fondamentalement basée sur le traitement de signaux binaires. L’état d’un interrupteur ou d’un bit en mémoire est soit 0 soit 1. En mécanique quantique, les particules quantiques se trouvent dans un état qu’on appelle « superposé », c’est un peu 0 et un peu 1. On appelle qubit ces bits quantiques qui sont à la fois dans l’état 0 et dans l’état 1. Quand on cherche à observer un qubit, on va trouver soit un 0 ou un 1. L’observation a changé l’état de la particule en choisissant entre les deux.

Le but c’est d’arriver à réaliser beaucoup de calculs en parallèle ?

Avec un vecteur de n qubits, on a en même temps 2n valeurs. Si on arrive à faire des calculs avec de tels vecteurs, on arrive en quelque sorte à faire tous les calculs en même temps. C’est comme si on réalisait 2n calculs « en parallèle ». Le problème c’est qu’à la fin, il se peut qu’il n’y ait qu’un seul de ces calculs qui ait réussi, et c’est son résultat qui nous intéresse . Ce résultat est quelque part et la difficulté, c’est de l’isoler. L’art des algorithmes quantiques est d’effacer de façon judicieuse tous les calculs qui n’ont pas abouti.

Est-ce que, avec le quantique, on pourrait arriver à réaliser rapidement des calculs comme la factorisation ?

L’algorithme de Shor explique comment factoriser de grands nombres en facteurs premiers de manière efficace. On ne sait pas faire cela avec l’informatique classique. Les algorithmes qu’on connaît prennent un temps exponentiel. D’ailleurs, une grande partie de la cryptographie très utilisée dans nos vies quotidiennes est basée sur le fait qu’on ne sait pas factoriser rapidement un nombre premier. Ce problème de factorisation, on arrive à le résoudre dans le modèle quantique avec l’algorithme de Shor. Évidemment, pour que cela devienne réalisable en pratique, il faudrait savoir construire un ordinateur quantique qui manipule des grands nombres de qubits. On n’y est pas encore…

Est-ce que l’informatique quantique remet en cause la théorie de la complexité traditionnelle de l’informatique ?

La théorie de la complexité étudie ce qu’on peut faire avec un ordinateur étant donné des ressources limitées en temps et en espace. On peut faire des études comparables à partir d’un modèle quantique. Un travail de recherche passionnant actuellement, c’est que certaines classes de complexité quantique sont équivalentes à des classes classiques. On obtient aussi des résultats de réductions passionnants comme : « si un problème peut être résolu dans le modèle classique avec une complexité particulière, alors il peut aussi l’être dans le modèle quantique avec telle complexité. » Il y a tout un panorama de classes de complexité. C’est vrai que, comme en complexité classique, ce n’est pas simple de « séparer » les classes de complexité.

Voit-on arriver ces ordinateurs quantiques ? Y a-t-il des résultats concrets pratiques ?

Quand j’ai commencé, à la fin des années 1990, les expérimentateurs prédisaient un ordinateur quantique dans 10 ans ; les plus prudents parlaient de 20 ans. Il s’est déjà passé vingt ans et on attend toujours ! En réalité, dans le monde de la recherche, quand on vous dit dans 10 ans, il faut souvent comprendre : « je n’en sais rien ». Malheureusement il y a eu beaucoup de survente. Les ordinateurs quantiques ne savent même pas encore factoriser des chiffres autour de 10 000 à cause de l’accumulation des erreurs. Nous avons encore des problèmes à régler avant d’arriver à quelque chose d’intéressant. On est encore très loin de pouvoir utiliser l’algorithme de Shor.

Mais est-ce qu’on avance ?

Oui ! Vraiment. Nous sommes dans une période de transition car nous assistons à des tentatives concrètes de Google, d’IBM… Avec des machines à 50 qubits. C’est passionnant car, à partir de grosso modo 50, nous arrivons à des phénomènes qu’on ne peut plus simuler avec des ordinateurs classiques ; 250, c’est à peu près leur limite. Si on ne sait pas encore faire un ordinateur quantique général, on pourrait utiliser les machines quantiques qu’on sait construire pour simuler des phénomènes physiques qu’on ne sait pas simuler autrement actuellement.

Qu’est-ce qui t’a fait choisir de vivre aux USA ?

Il y avait beaucoup de paramètres. J’aime vivre en France mais je voulais faire quelque chose de nouveau, travailler dans un fonds d’investissement, et pour cela, New York, c’était le bon endroit. Je ne pensais pas y rester six ans. J’avais de jeunes enfants et avec de jeunes enfants, c’est difficile de faire une recherche qui demande de s’immerger dans des problèmes complexes de façon prolongée. Je n’exclus pas de revenir en France, mais pour l’instant l’occasion ne s’est pas présentée.

Ce travail dans les fonds d’investissement est–il aussi un travail scientifique ?

Nous utilisons une approche « quantitative » des fonds d’investissement. Nous partons de téraoctets de données financières. Nous remplaçons les intuitions des traders des années 1980 par de l’analyse scientifique de données. Nous développons des théories, des modèles, et nous les testons pour détecter des signaux qui nous permettent de prédire les évolutions des marchés financiers. La difficulté est que les données dont nous disposons ne sont jamais parfaites. C’est tout un art de les nettoyer pour en extraire les informations pertinentes. C’est de la science des données. Cela ressemble beaucoup à un travail universitaire mais nous ne publions pas et le critère ultime de succès pour nous, c’est si ça rapporte de l’argent. Mes collègues sont, pour beaucoup, mathématiciens ou physiciens, et c’est une grande aide pour moi que d’avoir fait des études pluridisciplinaires.

Ce genre de travail existe-t-il aussi en France ?

Oui, en France il y a en particulier CFM, un fonds d’investissement dirigé par un physicien, Jean-Philippe Bouchaud, avec de nombreux employés qui viennent du monde de la physique statistique. Ils retrouvent finalement des méthodes assez semblables à celles qu’ils utilisaient en physique, avec les expérimentations, la définition de modèles mathématiques, l’analyse de données, la simulation, la validation des résultats à la lumière de la réalité des données, etc.

Un problème particulier assez classique que nous rencontrons est celui du « sur-apprentissage » (overfitting en anglais). Avec suffisamment de paramètres, je peux ajuster les paramètres du modèle de façon à correspondre exactement aux données disponibles. Seulement, le modèle peut être trop exactement ajusté aux exemples et ne pas s’adapter aux données futures. On est un peu comme les astrophysiciens : ils ont une seule donnée, l’univers tel qu’il existe, et nous n’avons que les données financières sur une seule réalisation du monde financier tel qu’on l’observe. Comme les astrophysiciens, il faut faire avec. Et si on a fait du sur-apprentissage, on va juste rater une évolution du marché qui ne s’est pas passée exactement comme dans le passé…

C’est facile de se tromper. Le temps de demi-vie d’un fonds d’investissement est de 18 mois en moyenne, parce que des erreurs sont faites, souvent à cause de sur-apprentissage.

Que vas-tu faire à NYU ?

Je vais faire de la recherche en science des données. Je vais essayer d’appliquer, par exemple, mes compétences sur le traitement du bruit à des données autres que financières.

Quelle est la présence féminine dans ces domaines ?

Dans le fonds d’investissement, nous étions 2 femmes chercheuses sur 55. Au CDS (centre de sciences des données), nous sommes entre un quart et un tiers de femmes. Il y a un nombre relativement élevé de femmes en sciences des données, plus que dans d’autres domaines de l’informatique. Je crois que l’aspect pluridisciplinaire attire les femmes. Et comme les chercheurs en data science sont habitués à une diversité de disciplines scientifiques, cela les rend peut-être plus ouverts à une diversité des genres.

As-tu un conseil à donner aux étudiants ?

Nous vivons un temps où il y a beaucoup de données numériques, de plus en plus de calculs sur ces données. Chacun doit apprendre à se servir de ces données, et en même temps à être prudent avec elles. Il faut par exemple être conscient des problèmes de biais qui peuvent exister dans des données dont on se sert dans des domaines critiques. Je pense que les étudiants dans toutes les disciplines devraient avoir une solide expérience de programmation et maîtriser la compréhension des données numériques.



Comment la physique quantique pourrait rendre nos mots de passe inviolables

Publié le 23 mars 2014 sur huffingtonpost.fr par Javier Cerrillo

Les ordinateurs ont bouleversé notre existence. Nous pouvons passer un moment avec des amis situés à l’autre bout du monde, être en affaires par courriel ou par vidéoconférence avec des personnes que nous n’avons jamais rencontrées auparavant, gérer nos finances en temps réel à plusieurs milliers de kilomètres de distance et travailler depuis chez nous, depuis une gare, depuis notre siège dans un avion ou depuis la plage (si cela ne peut pas attendre). Tout serait merveilleux si ne se posait le problème de la sécurité de la connexion.

La suite sur : Physique quantique et mots de passes.


L’ informatique Quantique et la Finance



Le monde étrange des Qbits à l’assaut de la finance

Article publié le 30 août 2016.

Au-delà de l’informatique binaire traditionnelle avec ses 0 et ses 1 se niche l’informatique quantique. En partant sur des principes totalement différents, cette informatique promet une puissance de calcul incroyable. Et pourrait trouver des débouchés du côté de la finance et du trading.

Il n’est pas surprenant que la finance et la Bourse en particulier portent une affection toute particulière aux nouvelles technologies. Dans les années soixante, bien avant l’avènement de l’ordinateur personnel, Wall Street était déjà un client privilégié des sociétés de haute technologie, dont certaines étaient dans ce qui deviendrait bientôt la Silicon Valley. On pourra par exemple citer Quotron, une société de Los Angeles fondée par Jack Scantlin qui développa l’un des tout premiers systèmes d’affichage électronique en temps réel − c’est-à-dire à la minute près − dans les années soixante, des cotations des valeurs boursières à destination des traders. La firme est d’ailleurs devenue tellement iconique qu’on retrouve l’écran du Quotron, produit éponyme de la marque, dans le bureau de Michael Douglas, alias Gordon Gekko dans le film Wall Street de 1987. Et l’appétit de la finance pour des systèmes informatiques toujours plus efficaces, plus rapides et plus sûrs ne s’est pas démenti depuis. La finance est un secteur d’activité qui n’a eu de cesse d’attirer à lui les esprits les plus brillants, depuis qu’il s’est découvert une passion pour les mathématiques et de concrétiser des investissements technologiques conséquents, que ce soit pour gagner quelques précieuses microsecondes dans une transaction boursière numérisée ou pour améliorer, encore et toujours, la capacité des centres de calcul à modéliser le comportement d’un marché.

La suite sur : Qbits à l’assaut de la finance


L’ordinateur quantique est-il une menace pour la finance mondiale ?

Les ordinateurs quantiques ont fait de gigantesques progrès et pourraient bientôt réaliser des tâches impossibles pour un ordinateur classique. Cette suprématie quantique menace la sécurité des principaux systèmes de chiffrement. Mais il existe déjà des algorithmes « post-quantiques » qui devraient garantir la sûreté du web. 

« Le jour où il y aura un ordinateur quantique, RSA sera cassé et internet pourrait s’effondrer », prophétise Philippe Duluc, directeur technique de la division Big Data & Cybersécurité chez Atos. RSA, l’un des codes secrets les plus utilisés, assure la confidentialité de la plupart des échanges sur la toile. Les autres systèmes de chiffrement ne sont guère plus sûrs. Dès que la puissance quantique sera disponible, les ordinateurs seront capables de casser la plupart des codes actuels. Les transactions financières sont concernées, tout comme les secrets industriels et la sûreté des données. Ce scenario apocalyptique, digne d’un film hollywoodien, va-t-il vraiment se produire ? Pour les spécialistes du secteur, il n’y a pas de doute, les ordinateurs quantiques sont en train de faire de gigantesques progrès. « La loi de Moore a atteint ses limites physiques dans l’informatique classique. L’informatique quantique va prendre le relais », résume Philippe Duluc.



Physique quantique et finance

Un article publié sur sophteamdev.blogspot.com

Les progrès considérables dans différents domaines et notamment technologiques de ces derniers temps s’appuient en partie sur une révolution conceptuelle qui prend le nom de physique quantique. 

« Non-localité », « Principe d’incertitude », remise en cause du « déterminisme », autant de termes nouveaux qui heurtent les fondements de la physique « classique », mais dont on ne peut pratiquement plus se passer pour tenter d’expliquer puis « contrôler » certains processus. Physique des particules, chimie, physique nucléaire, astrophysique,..mathématique, informatique, tout est concerné.

La suite sur : Physique quantique et financ



Lire la seconde partie de cette étude


Retour