L’Intelligence Artificielle 1/5




Première Partie


Vous ne le savez peut-être pas mais nous baignons déjà dans « l’intelligence artificielle » dans notre vie quotidienne sauf si vous être au fin fond d’une province perdue et surtout sans téléphone portable !

Faites-une expérience toute simple.
Sur votre smartphone Android connectez-vous à Google Play et télécharger un petit jeu gratuit, ce que vous voulez cela n’a pas d’importance. Installez ce jeu et vous n’êtes même pas obligé de jouer avec. Finalement désinstaller le et … maintenant regarder les publicités qui apparaissent. Plusieurs vous proposent des jeux du même type ! Hasard ?
Non, mais simplement vous êtes repérez !
Un effet mécanique ou informatique pure ? Non !
C’est le suivi individuel des connections par Google !
De plus, si vous étiez en connexion wifi, les autres connectés vont pouvoir constater le même phénomène !
C’est magique non ?
Désolé ce n’est pas de la magie mais l’application d’une IA (faible) qui permet cette manipulation.
Voici un exemple simple, voire anecdotique, de l’IA.

De la même manière on observe une inflation d’articles, de reportage, de livre sur l’intelligence artificielle. Des postes de recherche (publique ou privé) sont créés quotidiennement ; les profils pointus en IA sont au top des recherches des entreprise avec des rémunérations plus qu’importantes. Les français spécialistes sont très bien placés même dans les grandes entreprises américaine !

Dans notre métier de conseil en banque, finance et assurance nous constatons de plus en plus la place montante de l’IA.
Pour toutes ces raisons, il est temps de faire le point sur cette nouvelle révolution en cours.

Nous aurions pu faire un exposé (pompeux) mais il est plus simple de donner une suite d’articles ouverts permettant de ce faire une idée sur les changements en cours.


Les articles fondamentaux et très importants seront cités in extenso, les moins importants feront l’objet d’un extrait et les derniers, plus anecdotiques, d’une simple référence.

Pour commencer :

Dans un article publié ce jeudi 18 octobre dans la revue Science, le Dr. Sergey Bravyi a fait une déclaration importante. Il révèle avoir mis au point, avec une équipe de chercheurs d’IBM, une preuve mathématique illustrant les avantages au calcul de l’algorithme quantique par rapport à la technique classique. Même si cette preuve ne résout en soi aucun problème de calcul existant, cela nous donne un aperçu de ce qui rend un ordinateur quantique plus puissant. Le média Engadget explique que cette découverte pourrait permettre à l’avenir d’imaginer des algorithmes plus pratiques et utiles.



Un menu sera disponible ultérieurement pour passer directement à un article précis.



Une brève histoire de l’intelligence artificielle

Article publié par Valentin Blanchot le 20 août 2018

Sur Siècle Digital.fr



Sous le terme intelligence artificielle (IA) on regroupe l’ensemble des “théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence.” Cette pratique permet à l’Homme de mettre un système informatique sur la résolution de problématiques complexes intégrant de la logique. D’une façon plus commune, lorsque l’on parle d’intelligence artificielle, on entend aussi par là des machines imitant certains traits de l’Homme.


Alan Turing devant ses « Bombes » de décodage (1942)


L’intelligence artificielle avant 2000


Preuve que ce n’est pas une science d’aujourd’hui, les premières traces de l’IA remontent à 1950 dans un article d’Alan Turing intitulé “Computing Machinery and Intelligence” dans lequel le mathématicien explore le problème de définir si une machine est consciente ou non. De cet article découlera ce que l’on appelle aujourd’hui le Test de Turing qui permet d’évaluer la capacité d’une machine à tenir une conversation humaine.

Une autre origine probable remonte quant à elle à 1949 dans une publication de Warren Weaver avec un mémo sur la traduction automatique des langues qui émet l’idée qu’une machine pourrait très bien effectuer une tâche qui relève de l’intelligence humaine.

L’officialisation de l’intelligence artificielle comme véritable domaine scientifique date de 1956 lors d’une conférence aux États-Unis qui s’est tenue au Dartmouth College. Par la suite, ce domaine atteindra de prestigieuses universités comme celles de Stanford, du MIT, ou encore d’Édimbourg.

L’IBM 702 : un ordinateur utilisé par la première génération de chercheurs en IA.

Dès le milieu des années 60, la recherche autour de l’IA sur le sol américain était principalement financée par le Département de la Défense. Dans le même temps, des laboratoires ouvrent çà et là à travers le monde. Certains experts prédisaient à l’époque que « des machines seront capables, d’ici 20 ans, de faire le travail que toute personne peut faire ». Si l’idée était visionnaire, même en 2018 l’intelligence artificielle n’a pas encore pris cette importance dans nos vies.

En 1974 arrive une période appelée le « AI Winter ». Beaucoup d’experts ne réussissent pas à faire aboutir leurs projets et les gouvernements britannique et américain réduisent leurs financements pour les académies. Ils préfèrent soutenir des idées ayant plus de chances de déboucher sur quelque chose de concret.

Dans les années 80, le succès des systèmes experts permet de relancer les projets de recherche sur l’intelligence artificielle. Un système expert était un ordinateur capable de se comporter comme un expert (humain), mais dans un domaine bien précis. Grâce à ce succès, le marché de l’IA atteint une valeur d’un milliard de dollars, ce qui motive les différents gouvernements à de nouveau soutenir financièrement plus de projets académiques.

Le développement exponentiel des performances informatiques, notamment en suivant la loi de Moore, permet entre 1990 et 2000 d’exploiter l’IA sur des terrains jusqu’alors peu communs. On retrouve à cette époque le data mining, ou encore les diagnostics médicaux. Il faudra attendre 1997 pour une véritable sortie médiatique lorsque le fameux Deep Blue créé par IBM a battu Garry Kasparov, alors champion du monde d’échec.


Garry Kasparov contre IBM Deep Blue


2000 – 2010 : l’IA représente un enjeu de société


Au début des années 2000, l’intelligence artificielle s’intègre dans une grande quantité de films de « science-fiction » présentant des scénarios plus ou moins réalistes. Le plus marquant du nouveau millénaire étant certainement Matrix, premier volet de la saga sorti en salles le 23 juin 1999. S’en suivra A.I. de Steven Spielberg sorti en 2001, inspiré par Stanley Kubrick, puis I, Robot (2004). Metropolis (1927) Blade Runner (1982), Tron (1982), et Terminator (1984) avaient déjà pavé la voie, mais l’on ne connaissait pas encore assez bien l’IA et ses applications pour imaginer de réels scénarios.

Entre 2000 et 2010, notre société vit un véritable boom informatique. Non seulement la loi de Moore poursuit son bonhomme de chemin, mais les Hommes s’équipent. Les ordinateurs personnels deviennent de plus en plus accessibles, Internet se déploie, les smartphones voient le jour … La connectivité et la mobilité lancent l’ère de l’Homo Numericus.

Jusqu’à 2010, on s’interroge également sur l’éthique de l’intégration de l’IA dans de nombreux secteurs. Ainsi, en 2007 la Corée du Sud dévoile une charte de l’éthique des robots dans le but de poser des limites et des normes aux utilisateurs ainsi qu’aux constructeurs. En 2009, le MIT lance un projet réunissant de grands scientifiques de l’IA pour réfléchir aux grandes lignes de la recherche sur ce domaine.


À partir de 2010 : l’IA sans limites


Dès le début de notre décennie, l’IA s’illustre grâce aux prouesses de Waston d’IBM. En 2011, ce super-cerveau a battu en direct les deux plus grands champions de Jeopardy!. Un exercice loin d’être simple pour un ordinateur. Néanmoins, après Deep Blue, les années 2010 marquent un tournant dans la médiatisation des recherches.

La loi de Moore continue de guider les progrès de l’intelligence artificielle, mais le traitement de la donnée vient renforcer tout cela. Pour exécuter une tâche, un système n’a besoin que de règles. Lorsqu’il s’agit d’avoir une réflexion ou de livrer la réponse la plus juste possible, il faut que ce système apprenne. C’est ainsi que les chercheurs développent de nouveaux procédés pour le machine learning puis le deep learning. Rapidement, ces approches nourries par les données passent de nombreux records, poussant de nombreux autres projets à suivre cette voie. De plus, le développement des technologies pour l’intelligence artificielle permet de lancer des projets très divers et de ne plus penser calcul pur et dur, mais d’intégrer le traitement des images et du son.

C’est à partir de ce moment que certaines sociétés vont prendre les devants. En effet, la problématique de l’IA n’est plus d’avoir les cerveaux pour élaborer des systèmes, mais d’avoir de la donnée à traiter. C’est pour cela que Google devient rapidement un pionnier. En 2012, la firme de Mountain View n’avait que quelques projets d’usages, contre 2 700 trois ans plus tard. En 2013, Facebook ouvre le Facebook Artificial Intelligence Research (FAIR) dirigé par Yann Le Cun. Un tournant qui éloigne le géant de sa mission sociale pour se tourner vers les sciences. Amazon, Microsoft, Apple, Netflix, Tesla ne sont pas en reste non plus, de même de nombreuses sociétés chinoises.

La gestion des données permettra de mettre l’IA en application pour comprendre des radiographies mieux que les médecins, conduire des voitures, faire de la traduction, jouer à des jeux vidéo complexes, créer des musiques, voir à travers un mur, imaginer une partie manquante d’une photographie … Les domaines où les intelligences artificielles performent sont plus que nombreux et cela soulève de nombreuses questions sur le rôle professionnel de l’Homme dans les années à venir.

La place médiatique qu’occupe désormais l’intelligence artificielle ne place presque plus les questions qui concernent ce domaine entre les mains des chercheurs, mais dans le débat public. Cela crée logiquement autant de tensions que d’excitations. Malheureusement, nous ne sommes qu’aux prémisses de l’intégration massive de ces technologies. Les décennies à venir nous réservent encore bien des surprises.

Un autre historique (PDF) : Introduction à l’IA

Sur Wikipédia : Histoire de l’intelligence artificielle


Retour sur l’incroyable évolution de l’IA


En 2018, le secteur de l’intelligence artificielle a rencontré une croissance explosive. C’est ce que révèle le rapport 2018 AI Index.

Vous l’avez peut-être remarqué : depuis le début de l’année 2018, l’intelligence artificielle s’invite dans tous les domaines. Le volume d’actualités sur cette technologie ne cesse d’augmenter, et l’IA semble désormais s’étendre telle une créature tentaculaire qui ne s’arrêtera que lorsqu’elle sera devenue omniprésente.

Le rapport 2018 AI Index, regroupant les données sur les tendances dans le domaine de l’IA, confirme cette impression. Cette étude révèle que le nombre de startups dédiés à l’IA aux Etats-Unis a doublé depuis 2015. De même, les offres d’emploi dans le domaine du Machine Learning et du Deep Learning ont triplé depuis 2015. On en comptait 5 000 à l’époque, contre 15 000 en 2018.

L’essor de l’IA s’explique notamment par le fait que de plus en plus d’entreprises utilisent cette technologie pour personnaliser leurs produits. En outre, à mesure que la technologie se développe, ses cas d’usage se multiplient et se diversifient. En revanche, le rapport révèle (justement) un manque de diversité dans le secteur de l’IA. Ainsi, 80% des enseignants en IA sont des hommes.

Intelligence artificielle : les secteurs d’application varient d’une région à l’autre

ia régions


Cette étude montre aussi que les principaux secteurs d’application de l’IA diffèrent en fonction des régions. Ainsi, la recherche IA aux Etats-Unis est focalisées sur les soins de santé et les questions sociologiques. En Chine, le mot d’ordre est à l’agriculture. En Europe, l’IA est appliquée aux sciences sociales, naturelles, et à l’ingénierie.

Le rapport illustre l’explosion de l’industrie de l’IA à travers un exemple concret très pertinent. Il s’agit du nombre de téléchargements du Robot Operating System (ROS), un stack open source utilisé par les développeurs du domaine de la robotique et de l’automatisation. En 2012, le ROS a été téléchargé moins d’un million de fois. En 2018, le nombre de téléchargements a atteint 15 millions… par mois.

Le rapport illustre l’explosion de l’industrie de l’IA à travers un exemple concret très pertinent. Il s’agit du nombre de téléchargements du Robot Operating System (ROS), un stack open source utilisé par les développeurs du domaine de la robotique et de l’automatisation. En 2012, le ROS a été téléchargé moins d’un million de fois. En 2018, le nombre de téléchargements a atteint 15 millions… par mois.

Autant dire que l’intelligence artificielle n’en est qu’à ses balbutiements, et que cette croissance effrénée va se poursuivre au fil des années à venir. L’année 2019 qui se profile à l’horizon risque fort d’être placée sous le signe de l’IA.


les 10 principes de la Déclaration de Montréal

Article publié par Bastien L. le 5 décembre 2018

Sur Le bigdata.fr


La Déclaration de Montréal est un texte signé par plusieurs chercheurs éminents visant à énoncer dix principes pour encadrer le développement de l’intelligence artificielle de façon éthique et responsable.

Découvrez quels sont ces dix principes.

De 2 au 8 décembre 2018, la ville de Montréal accueille la conférence NeurIPS. Dans le cadre de cet événement, les géants de la tech et les startups ambitieuses vont présenter leurs projets d’intelligence artificielle les plus fous. Ainsi, Microsoft va dévoiler son chatbot ultra-réaliste, tandis que Nvidia présentera son IA capable de générer des graphismes de jeux vidéo.

En parallèle, la ” Déclaration de Montréal ” va aussi être dévoilée. Il s’agit d’un texte historique, signé par plusieurs chercheurs de renom comme Yoshua Bengio de l’Université de Montréal, Joëlle Pineau de l’Université McGill, et Marc-Antoine Dilhac de l’Université de Montréal.  Ce texte vise à dresser une liste de principes éthiques pour encadrer les recherches dans le domaine de l’intelligence artificielle.

Tout d’abord, le principe de bien-être stipule que l’IA ne doit pas contribuer à augmenter le stress et l’anxiété liés à l’environnement numérique. En outre, selon le principe de respect de l’autonomie, l’IA ne doit pas mettre en œuvre de mécanismes de surveillance, d’évaluation ou d’incitation visant à dicter un mode de vie.

Selon le principe de protection de l’intimité et de la vie privée, l’IA ne doit pas non plus permettre de modifier l’apparence physique ou la voix d’une personne à des fins de manipulation. Au contraire, le principe de solidarité indique que l’IA doit favoriser les relations épanouissantes et aider à lutter contre la vulnérabilité et l’isolement des personnes.

Intelligence artificielle : la Déclaration de Montréal veut encadrer le développement éthique de l’IA.

D’après le principe de participation démocratique, les autorités publiques doivent être en mesure de vérifier et de contrôler les algorithmes d’intelligence artificielle utilisés dans le cadre public ou privé. Le principe d’équité, quant à lui, indique que l’IA ne doit pas contribuer aux discriminations sociales, sexuelles, ethniques, culturelles ou religieuses.

Selon le principe d’inclusion de la diversité, l’IA ne doit pas non plus contribuer à l’uniformisation de la société par la normalisation des comportements et des opinions. Le principe de prudence, quant à lui, exige des développeurs d’intelligence artificielle de prévenir les risques d’une utilisation néfaste des données personnelles.

Dans la même logique, le principe de responsabilité indique que la décision de tuer devra toujours être prise par des êtres humains et que la responsabilité de cette décision ne peut en aucun cas être transférée à l’IA. Enfin, selon le principe de développement soutenable, l’IA doit générer un minimum de déchets électriques et électroniques. La maintenance, la réparation et le recyclage doivent aussi prévus en amont.

Ces 10 principes, s’ils sont appliqués, devraient assurer le développement éthique et responsable de l’intelligence artificielle. Il s’agit de toute évidence d’une nécessité, à l’heure où des pays comme la Chine utilisent l’IA pour surveiller la population et où des experts comme Elon Musk craignent que les robots tueurs nous éradiquent. Malheureusement, il est peu probable que la Déclaration de Montréal soit suivie à la lettre par tous les développeurs d’intelligence artificielle du monde…


Texte de la Déclaration de Montréal





Adieu vie privée : comment le machine learning dans le cloud nous mettra à nu


La combinaison de capteurs IoT et de lacs de données devient un outil puissant pour l’analyse de modèles, mais elle a de sérieuses répercussions sur la vie privée du consommateur et du salarié sur le lieu de travail.


Fin octobre, j’ai eu le privilège d’animer une table ronde sur le thème de l’intelligence artificielle et du machine learning à Unbound Miami, un salon professionnel boutique (mais excellent) spécialisé dans la présentation de technologies disruptives telles que la cryptomonnaie et la blockchain.

Depuis la conférence, j’ai beaucoup réfléchi au sujet du machine learning dans le cloud et à l’impact qu’il est susceptible d’avoir sur nos vies dans un avenir proche. De nombreux aspects de cette technologie présentent des bénéfices, mais comme pour toute technologie disruptive, elle comporte également des écueils.

La suite : Le machine learning dans le cloud nous mettra a nu

Article publié du ZDNet le Mercredi 19 décembre 2018


Fuyez le big data ou l’IA va vous dévorer

Publié sur L’Express le 11/12/2018 par Laurent Alexandre

L’IA n’est pas intelligente. Elle est incapable d’apprendre à partir de quelques exemples, comme le fait un bébé humain.


L’association de gigantesques bases de données, d’une immense puissance informatique (l’ordinateur le plus performant réalise 143 millions de milliards d’opérations par seconde), et d’algorithmes de deep learning, réunis exclusivement chez les géants du numérique américains et chinois – les Gafa et les BATX -, a fait décoller l’intelligence artificielle (IA). Le deep learning lui permet à une IA d’apprendre à se représenter le monde grâce à un réseau de « neurones virtuels ».

Par sa capacité à manier des montagnes de données à des vitesses vertigineuses, l’IA dépassera notre cerveau dans beaucoup de cas. Yann Le Cun, patron de l’unité dédiée chez Facebook, l’explique avec cruauté : « Nous allons vite nous apercevoir que l’intelligence humaine est limitée. »

Un automatisme dopé aux stéroïdes

De plus en plus de tâches sont mieux effectuées par le deep learning que par nous, mais l’IA ne peut réaliser que des tâches bien spécifiées. Le créateur de Google Brain, Andrew Ng, explique que si l’on pense à l’IA, il ne faut pas imaginer une conscience artificielle, mais un automatisme dopé aux stéroïdes. Par nature, l’IA – même sans conscience artificielle – concurrence le cerveau humain. Elle peut challenger, voire remplacer des ingénieurs, des managers ou bien encore des médecins dans les disciplines les plus pointues. L’IA opérera mieux, conduira mieux, analysera un scanner mieux que nous.

L'Express
l’express.fr

Si l’IA se développe si rapidement, c’est qu’elle a bénéficié d’un effet boule de neige. L’explosion de la production de données rend l’IA indispensable. En 2025, chaque être humain produira 100 milliards d’informations numériques chaque jour. Or ces montagnes de données sont précisément ce dont l’IA a besoin pour s’éduquer ! Plus l’IA progresse, meilleure elle est face aux données, ce qui en retour la renforce : big data et IA se font mutuellement la courte échelle, et le cerveau humain est souvent distancé. L’IA dépasse notre cerveau dans un nombre croissant de secteurs, mais la course entre le neurone et le silicium est très incertaine, et il y a de profonds désaccords entre les experts sur l’issue de ce combat.

Une chose semble certaine : une IA capable d’apprendre à partir de petits volumes de données est improbable avant 2050. Son nom est donc usurpé : elle n’est pas intelligente quand il y a peu de données. Elle est incapable d’apprendre à partir de quelques exemples, comme le fait un bébé humain, et rien ne permet d’affirmer que cela soit possible au XXIe siècle. Notre royaume intellectuel est donc constitué des domaines avec peu de données. Partout où il y a beaucoup de données pour éduquer les IA, elles vont nous écraser. Partout où il y a peu de données, nous resterons les maîtres du monde, et pour longtemps

Là où nos neurones sont imbattables

Il y a des raisons darwiniennes à notre écrasante supériorité intellectuelle lorsqu’il y a peu d’informations. Si nous sommes vivants aujourd’hui, c’est parce que le cerveau de nos ancêtres était capable d’analyser le monde à partir d’une poignée de données. Si, pendant leur enfance, nos ancêtres avaient eu besoin de 1 000 milliards d’informations – comme une IA – pour deviner qu’un lion ou un ours des cavernes se cachait derrière un buisson, ils ne seraient pas arrivés à la puberté…

La capacité de notre cerveau à prédire le monde à partir d’une poignée de données est stupéfiante. C’est notre immense force ! Naïvement, tout le monde se précipite pour travailler dans les métiers où il y a du big data, c’est-à-dire dans la tanière de l’ogre IA, qui nous dépassera toujours dès qu’il y a beaucoup de données pour l’éduquer. Fuyez le big data ou l’IA va vous dévorer ! Allez là où nos neurones sont imbattables : quand il faut décider avec une poignée d’informations.

Article source : Fuyez le big data ou l’IA va vous dévorer
Lire le dossier complet : L’intelligence artificielle


L’IA et la finance en lune de miel

L’IA et la finance en lune de miel

Article publié par Valentin Blanchot le 20 août 2018

Sur Siècle Digital.fr


Depuis des années, les organisations financières déploient des systèmes d’IA pour améliorer la cybersécurité, les services clients et surtout leur connaissance des marchés.

Parmi tous les secteurs économiques qui bénéficient de la transformation numérique, celui de la finance est l’un des plus gourmands en Intelligence Artificielle (IA) et bénéficie de deux remarquables atouts : il possède et génère une quantité exponentielle de données, et ses acteurs sont dotés de larges ressources économiques. Rien d’étonnant, donc, à ce que l’IA et la Finance soient faites pour s’entendre. Les grandes banques françaises l’ont bien compris, et allouent aux technologies de l’information un budget pour déployer des systèmes d’intelligence artificielle à en faire pâlir les autres  entreprises du CAC40.


IA et finance : la lune de miel

Une pluralité d’intelligences artificielles

Au regard des moyens déployés, plusieurs questions se posent : quels sont les champs d’applications réels de l’IA en finance ? Quelle est la limite entre un système expert et une IA ? Et surtout, ces graines d’IA permettront-elles aux organisations financières de récolter les fruits de leurs — coûteux — investissements ? Dans tous les secteurs, l’IA engendre de nombreuses projections parfois déconnectées de la réalité de la technologie.
Pour comprendre les enjeux de l’IA en finance, il est important de dissiper l’illusion selon laquelle il y aurait une seule intelligence artificielle. Il existe en réalité une pluralité de technologies d’intelligence artificielle, qui effectuent des tâches différentes et sont commercialisées par des entreprises aux intérêts souvent concurrents.

Pour le moment, l’IA singulière n’existe tout simplement pas et, en finance, on identifie quatre champs ’applications d’IA principalement actifs : la gestion de portefeuille, le trading algorithmique, la détection de fraude et la souscription de crédits et d’assurances. Par « principalement actifs », il faut entendre que ce sont des champs d’applications mûrs et déjà massivement déployés sur les marchés. À titre d’exemple, le bureau de trading new-yorkais Goldman Sachs est passé de 600 traders à 200 ingénieurs en l’espace de 15 ans, ces derniers s’occupant de faire fonctionner des robots de trading algorithmique.

(Voir notre dossier sur le trading à haute fréquence)

Trois principaux domaines d’utilisation

Avec ces quatre champs d’applications principaux, il en existe de nombreux autres qui sont inclus dans les 3 grands domaines de l’industrie bancaire que l’IA a profondément transformés :

Le premier, celui du service client, a connu une petite révolution avec l’arrivée du conversationnel digital, qui a intégré des chatbots capables d’échanger immédiatement avec les clients, certains même dotés de systèmes de Natural Language Processing (NLP), pour répondre dans la langue maternelle de l’interlocuteur. Les relations avec les clients ont aussi bénéficié de l’analyse prédictive qui améliore la pertinence des recommandations commerciales grâce à une meilleure analyse des données.

Avec le service client, le deuxième grand domaine à avoir bénéficié des technologies d’IA est celui de la cybersécurité, vital au secteur financier dont la bonne santé repose sur la confiance des épargnants. L’intégration de l’IA a permis une refonte complète des Security Operations Centers, qui intègrent désormais la technologie de Machine Learning pour mieux prévenir les attaques.

Enfin, l’IA a amélioré la connaissance des marchés en accélérant le travail de veille médiatique et d’analyse des tendances, grâce à une analyse sémantique approfondie de flux d’informations hétérogènes (sites d’actualités, analyses, rapports, livres blancs).

Article complet : L’IA et la finance en lune de miel


Article publié du ZDNet le Mercredi 22 Août 2018

Par Pierre Cabannes.


Dans le secteur ultra compétitif de la Finance, s’équiper des meilleurs outils technologiques est fondamental pour répondre aux attentes des clients et ne pas se laisser distancer par la concurrence. Connaître et choisir ces technologies ne s’improvise pas, c’est le rôle des Digital Transformation Practice (les Chief Digital Officer, Chief Data Officer, Chief Information Officer ou Head of Innovation) qui se sont imposés depuis plusieurs années comme des acteurs incontournables de la transformation numérique des organisations financières.

Retrouvez le même article : L’IA et la finance en lune de miel.



DeepMind et Unity annoncent une collaboration

Article publié par Valentin Blanchot le 1 octobre 2018.

Sur Siècle Siècle Digital.fr


La filiale d’Alphabet spécialisée dans l’intelligence artificielle, DeepMind, s’est associée le 26 septembre 2018 à Unity Technologies. Ces derniers sont spécialistes dans le développement des jeux vidéos et créateur de la première plateforme de développement 3D en temps réel. Cette collaboration portera sur le développement d’environnements et de tâches virtuels. Ici, il s’agit d’un accord général ou plutôt d’une déclaration d’intention entre les deux sociétés.

DeepMind fait partie des entreprises rachetées par Google. C’était en 2014, un rachat à hauteur de 650 millions de dollars. Demis Hassabis, co-fondateur et PDG de DeepMind s’est exprimé au sujet de cette nouvelle collaboration : « je suis très enthousiaste à l’idée de pouvoir collaborer avec Unity. Nous créerons des environnements virtuels pour développer et tester des algorithmes intelligents / flexibles dont nous avons besoin pour résoudre des problèmes réels »

On peut parler d’un partenariat qui a du sens. Unity est l’une des plateformes de développement de jeux vidéos les plus importantes et populaires. Et l’IA a déjà fait largement son apparition dans le domaine du jeu vidéo. Elle permet de remplir de grands mondes immersifs avec des ennemis qui se comportent de manière intelligente et stimulante pour les joueurs. Il y a donc déjà un lien fort avec la communauté plus large de l’IA et de l’apprentissage automatique.

Ce qui est intéressant, c’est que DeepMind a aussi des racines dans le développement des jeux vidéos. Le PDG, Hassabis, a déjà travaillé chez Lionhead Studios. De plus, la société a déjà utilisé des jeux et des joueurs de Go pour tester ses algorithmes IA. Ce partenariat est une avancée évidente pour l’avenir de l’IA et des jeux vidéos. Nous verrons probablement des progrès dans les jeux 2D et dans les expériences 3D qui seront de plus en plus sophistiquées. « Nous allons fournir à DeepMind un environnement riche et évolutif pour qu’ils puissent faire leur travail », a déclaré Danny Lange, vice-président de Unity Technologies.

Publié sur Siècle Digital par Valentin Cimino : DeepMind et Unity annoncent une collaboration


AlphaZero de DeepMind bat les meilleures IA aux échecs, go et shogi


Il n’a fallu que quelques heures à la nouvelle intelligence artificielle développée par DeepMind pour vaincre les meilleurs logiciels spécialisés dans les échecs, le shogi et le jeu de go. Le tout en ne connaissant au départ que les règles de base.

La suite sur : Alphazero de DeepMind bat les meilleures IA aux échecs, Go et Shogi

Publié sur CnetFrance le 07 décembre 2018 par
Marc Zaffagni


Face à l’intelligence artificielle, développons notre créativité


L’intelligence artificielle est plus compétente que l’humain en calcul, en logique ou en organisation. Nous devons donc former les étudiants à cultiver leur imagination. De sorte à les rendre plus singuliers.

Article Publié sur LesEchos.fr Le 16/07/18

Auteur : Xavier Pavie  professeur à l’Essec


L’intelligence artificielle, dont l’émergence n’est pas si récente, est régulièrement présentée sous son visage le plus sombre et les sorties en librairies évoquent des guerres d’intelligences (Laurent Alexandre), de possibles disruptions (Stéphane Mallard), de risques de domination (Jean Gabriel Ganascia), et il nous faudrait même un manuel pour y survivre (Jean-Claude Heudin).

Média, futurologues, philosophes, politiques, et quelques scientifiques déclament à l’unisson que l’intelligence artificielle c’est le  déclin de l’emploi, l’arrêt des relations interpersonnelles, la ruine de la pensée, la fin de l’humanité. Autrement dit une machine avec son écosystème (Big Data, « deep learning », algorithmes, « machine learning ») sera très prochainement en capacité de stopper notre espèce.

Cerveau droit

L’intelligence artificielle est issue de programmes et à ce titre fait essentiellement appel à des logiques mathématiques complexes (et à l’informatique). Elle permet de réaliser de manière plus performante, plus qualitative, plus quantitative ce qu’un cerveau humain pourrait essayer de faire.


Ce qu’elle peut réaliser de manière plus pertinente est ce qui compose la partie gauche de notre cerveau, celle qui concerne la logique, l’analyse, l’organisation, la capacité de calcul, les faits et l’accumulation de connaissance. Autrement dit la partie droite, celle qui concerne l’émotion, l’intuition, la spiritualité, l’art, les croyances et l’embrassement des problématiques de manière holistique lui sont – à ce stade – inconnus.

À lire aussi : Intelligence artificielle : sortir du mythe pour servir le progrès

Bercés par des décennies où le bon élève est celui qui est un scientifique, un matheux et certainement pas un artiste, la crainte de l’intelligence artificielle ne serait pas le reflet de notre faible considération pour les activités créatives ?

Oui l’intelligence artificielle est aujourd’hui capable de créer une nouvelle chanson des Beatles sans eux, mais ce qui fait le style Beatles ne provient en rien d’une machine artificielle. Oui Netflix réussi à faire écrire des scénarios qui deviendront des succès populaires, mais il n’y aura rien de créatif dans le résultat, seulement une pâle copie de séries existantes. L’intelligence artificielle est une belle machine à innovation incrémentale, mais pas pour innover de même radicale.


Dans l’éducation, non au « tout IA »


La priorité absolue est donc certainement d’arrêter de crier au loup et se mettre dans une disposition d’usage de l’intelligence artificielle tout en développant ce qu’elle n’est pas capable d’adresser comme compétence.

L’éducation est en première ligne. Sans être des spécialistes, beaucoup d’écoles se jettent par mode dans l’enseignement ou la recherche dans ce domaine. Non seulement cela n’a aucun sens car les étudiants qui ne seront que déçus et moins pertinents, mais c’est surtout manquer l’occasion de développer des compétences singulières.

Tous les étudiants ne doivent pas être formés au « coding », à l’intelligence artificielle, à savoir développer des algorithmes. En connaître les rudiments certes, en devenir des experts, non, car ils ne le seront jamais. Bien au contraire il s’agit de développer l’imagination et la créativité, l’intuition et ses capacités artistiques, apprendre à poser une problématique et utiliser ses émotions. Notre mode d’enseignement des dernières décennies, notre comportement spontanément réfractaire à la créativité sont des freins à ces changements pourtant nécessaires

Combat perdu d’avance

Le combat de ces nouvelles technologies est pourtant perdu d’avance on le sait. Quand le plan Villani prévoit 1,5 milliard d’euros d’investissement pour les cinq prochaines années dans l’intelligence artificielle, Google en aura dépensé à lui seul probablement dix fois plus. Il ne s’agit plus de lutter mais de savoir faire avec, d’être complémentaire à ces développements en nous rendant singulier et incontournable.


Oui il faut enseigner, il faut encourager l’imagination, la créativité, la pensée complexe et la bonne nouvelle est que nous sommes dotés de qualités humaines, de compétences cérébrales pour réaliser cela si l’on veut bien accepter de ne pas glorifier les technologies et s’y soumettre et de changer nos modes de pensées.

Xavier Pavie est professeur à l’Essec et directeur académique du programme grande école à Singapour.

Toujours sur LesEchos.fr le 8 octobre 2018 :

Ces jeux qui résistent encore à l’intelligence artificielle

Les ordinateurs ont réussi à battre des champions dans des jeux comme le backgammon, les échecs ou le go. Mais il leur reste encore à se distinguer dans d’autres jeux bien plus compliqués, comme le bridge ou Starcraft.

Ce n’est qu’une question de temps …

Encore sur LesEchos.fr :



Cédric Villani : Intelligence artificielle perspectives futures


Sur novethic.fr :

Le gouvernement a décidé de mettre 665 millions d’euros sur la table pour booster la recherche tricolore en matière d’intelligence artificielle. Un bel effort mais qui laisse la France loin derrière l’Allemagne, les États-Unis ou la Chine. Reste à espérer que le financement public amorce des forts investissements privés.

Le gouvernement a décidé de mettre 665 millions d’euros sur la table pour booster la recherche tricolore en matière d’intelligence artificielle. Un bel effort mais qui laisse la France loin derrière l’Allemagne, les États-Unis ou la Chine. Reste à espérer que le financement public amorce des forts investissements privés.

La France veut devenir leader de l’intelligence artificielle mais ne s’en donne pas les moyens


l’Union européenne dévoile un plan à 20 milliards €


Afin de permettre à l’Europe de rester compétitive face à la Chine et aux États-Unis dans le domaine de l’intelligence artificielle, la Commission européenne dévoile un plan à 20 milliards d’euros reposant sur la collaboration entre les États Membres de l’Union européenne.

Publié sur Le bigdata le 10 décembre 2018.

L’intelligence artificielle s’annonce sans l’ombre d’un doute comme la technologie la plus importante des années 2020. Toutes les industries, tous les secteurs d’activité vont être transformés par l’IA.

Dans ce contexte, alors que la Chine et les Etats-Unis se battent actuellement pour dominer ce nouveau marché, l’Europe met tout en oeuvre pour ne pas rester coincée dans le passé. Récemment, l’Allemagne a annoncé un investissement de 3 milliards d’euros dans l’intelligence artificielle. De même, en France, le gouvernement Macron a dévoilé son plan à 1,5 milliard d’euros pour devenir leader mondial de l’IA.

A l’échelle européenne, des projets sont également élaborés. En avril 2018, la Commission européenne évoquait son intention de rassembler 20 milliards d’euros pour ” stimuler la compétitivité de l’Europe ” dans le domaine de l’IA. En ce début décembre, l’UE confirme son intention de dégager au moins 20 milliards d’euros d’investissements privés et publics d’ici fin 2020.

Fruit d’une collaboration entre les Etats-Membres de l’UE, la Norvège, la Suisse et la Commission européenne au cours des six derniers mois, ce plan a pour but de favoriser le développement et l’utilisation de l’IA en Europe. Plus précisément, les objectifs principaux sont au nombre de quatre.

Intelligence artificielle : l’UE veut être un leader de l’IA

Tout d’abord, l’UE souhaite stimuler un accroissement des investissements publics et privés. Elle veut aussi favoriser une disponibilité plus importante de données, ces dernières étant indispensables au développement de l’intelligence artificielle. Rappelons en effet que la data est le ” carburant ” des algorithmes d’IA et de Machine Learning.

En outre, la Commission européenne désire aussi cultiver les talents en formant des experts européens de l’IA, en les retenant, et en attirant des spécialistes venus de l’étranger. Enfin, la dernière priorité concerne les garanties de confiance. Un élément important, à l’heure où l’éthique de l’intelligence artificielle occupe de plus en plus le débat public. La semaine dernière, la Déclaration de Montréal signée par de nombreux experts du milieu a fixé une liste de 10 principes à respecter pour une IA éthique et responsable.

En premier lieu, l’UE souhaite exploiter le potentiel de l’intelligence artificielle pour de secteurs d’intérêts publics tels que la santé, les transports, la sécurité et l’énergie. Selon Andrus Ansip, commissaire européen pour le marché unique numérique, l’UE veut devenir ” un acteur régional de premier plan pour une IA éthique, sûre et de pointe “.


Emmanuel Macron rêve d’une France championne de l’IA, pourtant elle n’est pas très présente dans ce domaine

Le cabinet international de conseil en stratégie Boston Consulting Group (BCG) et l’association Hello Tomorrow qui soutient les entrepreneurs scientifiques ont dévoilé ce jeudi 14 mars 2019 leur étude sur la deeptech. La deeptech fait référence aux startups qui inventent de nouvelles solutions basées sur des technologies de rupture — intelligence artificielle, blockchain, biotech, robotique etc. « Ce sont des technologies qui sont encore nouvelles, qui sont conçues dans des laboratoires de recherche et qui nécessitent encore des efforts importants pour aboutir à des applications concrètes », a précisé Arnaud de la Tour, directeur général de Hello Tomorrow.

Selon l’étude, la France est très présente dans deux domaines de la deeptech en particulier. Il s’agit d’une part de la photonique — domaine qui étudie la production, la manipulation et la transmission de la lumière, visible ou invisible — et de l’électronique (les startups françaises représentent 13% de celles de ce secteur au niveau mondial) et d’autre part, des nouveaux matériaux (10%). L’IA n’arrive qu’en quatrième position (6%), alors que le président Emmanuel Macron rêve de faire du pays un champion du domaine. Fin mars 2018, après la remise du rapport de Cédric Villani sur l’IA, le président français avait déclaré que la France allait consacrer 1,5 milliard d’euros dans le domaine d’ici la fin du quinquennat. 

Au niveau mondial, les startups françaises spécialisées dans les drones et la robotique représentent 7%, celles dans la biotech 5% et celles dans la blockchain 4%. Mais le pays attire encore trop peu d’investissements, alors qu’au niveau mondial, les startups de la deeptech ont bénéficié de près de 18 milliards de dollars de financements en 2018, un montant en hausse de 22% par an depuis 2015.

Alors que 13% des startups de la deep tech en photonique et électronique sont françaises, elles ne captent que 5% des investissements mondiaux. Ce chiffre est encore plus bas pour les biotechs (2%) et pour les startups spécialisées dans les drones et la robotique (1%).

Le rapport souligne que la France manque d’un écosystème solide – laboratoires de recherche, startups, investisseurs et grandes entreprises — pour pleinement profiter des opportunités offertes par ces innovations de rupture, malgré le fait qu’elle abrite des universités mondialement reconnues dans certains domaines comme l’IA.

Pour réaliser cette étude, Hello Tomorrow et BCG se sont basés sur des interviews approfondies, des études de marché, des données concernant les financements, les brevets et les publications scientifiques, et une base de données sur les startups de la deeptech composée des 10 000 startups qui ont participé depuis 2015 au Challenge organisé par Hello Tomorrow et 8682 startups qui ont déposé un brevet dans une des 16 technologies répertoriées 


Qui est Bertrand Pailhès, le pilote de la stratégie nationale en Intelligence artificielle?

Le secrétariat d’État chargé du Numérique a annoncé lundi 24 septembre la nomination de Bertrand Pailhès, ingénieur des Mines et ancien directeur de cabinet d’Axelle Lemaire, comme coordonnateur de la stratégie nationale en intelligence artificielle présentée par Emmanuel Macron en mars dernier.

Article complet : Qui est Bertrand Pailhes ?


La french touch de l’intelligence artificiell


le Français Yann LeCun va se concentrer sur la direction scientifique de l’intelligence artificielle (IA) de Facebook.

Qui le géant américain a-t-il choisi pour le remplacer à la tête de son laboratoire de recherche en IA ?

Un autre Français, Jérôme Pesenti, nommé fin janvier.

C’est tout sauf une coïncidence.

Les Français irriguent toute la planète IA. Notre sélection des « 100 Français qui font l’IA » le montre bien. Pas un grand acteur du privé ne leur échappe. Outre Facebook, IBM a confié pendant cinq ans à Jérôme Pesenti la recherche pour son IA, Watson, et Jean-Philippe Desbiolles pilote aujourd’hui les solutions cognitives de Big Blue. Microsoft s’appuie sur Olivier Fontana pour déployer sa technologie de traduction et sur Patrick Simard pour sa recherche.

À Zurich, le centre européen de recherche de Google, dédié à l’IA, est dirigé par Emmanuel Mogenet, dont le bras droit est Olivier Bousquet. Nicolas Pinto est le deep learning ninja & evangelist d’Apple. Les patrons de l’IA chez Airbnb, Twitter, Netflix et Spotify ? Des Français ! Sans parler de Nvidia – dont l’IA est aux mains des Français –, d’Intel, de Samsung, de Sony, de Huawei… « Les grands groupes internationaux déploient le tapis rouge aux Français, relève Nozha Boujemaa, la directrice de l’institut Convergence DataIA et directrice de recherche à l’Institut national de recherche en informatique et en automatique (Inria). Certains vont même jusqu’à mettre des équipes au fuseau horaire de Paris pour s’adapter à un Français qui veut rester au pays. »

La suite sur : La french touch de l’intelligence artificielle

Sur Jérôme Pesenti :

Journaldunet : Un français a la tête d’un des plus ambitieux projets d’intelligence artificielle aux USA

Les Échos : IA, Qui est Jérome Pésenti le nouveau frenchie de facebook

L’Usine Nouvelle : Pionnier du big data, Jérome Pesenti vice président IA de facebook




De la Business Intelligence à l’Intelligence Artificielle


De la BI (Business Intelligence) à l’IA: Pourquoi engager cette transition et surtout comment ne pas rater cette formidable opportunité ?


Publié le 7 septembre 2018 , auteur : Florian Douetteau

C’est une transition progressive qui se met en place depuis plus de 10 ans mais les signes d’accélération sont manifestes : les articles et études publiés sont de plus en plus nombreux et de plus en plus “populaires”, les preuves s’accumulent lors des grandes conférences technologiques, les expérimentations dans le réel se multiplient, l’intelligence artificielle devient une réalité concrète. Ses corollaires, Data Science et Machine Learning, viennent donc naturellement enrichir et complémenter le savoir-faire “Business Intelligence” (l’intelligence décisionnelle en français), qui fut le préambule de la création de la culture Data dans les entreprises.

Pour certaines entreprises, néanmoins, cette mutation a été si lente et difficile qu’elles sont presque passées à côté, beaucoup attendent encore avant de passer à l’action. Ces dernières, presque piégées dans le monde de la BI se sont donc retrouvées à la traîne, bien loin derrière.

Alors comment sommes-nous arrivés à cette situation, et pourquoi est-il encore temps de passer le cap ?


Nous sommes entrés de plain-pied dans l’ère de l’intelligence artificielle, c’est un fait.

Si vous aviez encore quelques doutes à ce sujet, Forbes a publié en février dernier ses prévisions concernant le marché du Machine Learning (Roundup Of Machine Learning Forecasts And Market Estimates, 2018), où l’on peut lire ceci :

“Les plateformes de Data Science, associées au marché de la BI et des Analytics, devraient atteindre un taux de croissance annuel moyen de 8% sur la période 2017-2021.
En valeur cela représente une croissance de 1.8 milliards de dollars en 4 ans.”

Forbes

De son côté, l’Institut International des Analyses (IIA) a récemment publié une étude qui montre que le niveau de maturité de l’adoption de l’analytique a un impact positif indiscutable sur la performance des entreprises.

Aujourd’hui, les entreprises dites matures consacrent de plus en plus d’argent à la data science et de moins en moins à la business intelligence, n’est-ce pas le signe d’un changement incontestable ?

Qu’est-il arrivé à la Business Intelligence ?


Les entreprises ont commencé à collecter des données et à les exploiter à la fin des années 80.  Le faible volume de données alors à leur disposition, combiné avec l’immaturité des capacités de calcul leur permettait de les traiter localement. C’était nouveau, c’était donc nécessairement révolutionnaire. Il est en effet toujours plus intéressant d’étudier quelques données, qu’aucune donnée, ce qui était précédemment le cas.

Mais si l’on considère le volume de données dont les entreprises disposent aujourd’hui, auquel s’ajoutent les données comportementales des utilisateurs sur internet, il est déraisonnable de vouloir continuer à utiliser les mêmes méthodes d’analyse, même si les progrès des capacités de traitement ont été extraordinaires. A ce nouveau contexte, il faut apporter une nouvelle façon de faire.


Le volume de données a connu une formidable croissance au cours des 10 dernières années. (source: A.T. Kearney)

Certes, le monde de la Business Intelligence a connu moult développements et évolutions ;  depuis qu’elle s’est imposée comme une composante essentielle de la tenue des entreprises elle s’est nettement améliorée d’un point de vue usabilité, process, etc. Mais en réalité, beaucoup d’entreprises se contentent encore d’utiliser seulement la BI. Elles ont donc un comportement réactif face à la donnée car elles se servent de données anciennes pour influencer des décisions futures, alors que le domaine analytique est en train de changer. Compte tenu des énormes volumes de données qui sont générées, nous disposons enfin, à la minute près, d’informations concernant le comportement des consommateurs (tels que leur évolution et les changements soudains). Il est clair que l’analyse dite “réactive” n’est plus l’approche adaptée. Pourtant, les entreprises continuent de l’utiliser comme outil de prise de décision principale.

Il est plus facile de parler que d’agir


Parmi les raisons pour lesquelles les entreprises n’ont pas totalement adopté l’intelligence artificielle, certains évoquent la complexité des technologies de type AI, mais cette complexité n’explique pas, selon nous, la difficulté d’adoption à grande échelle.

Ce qui ralentit l’expansion est malheureusement plus banal mais tout aussi fondamental :

1. L’accès aux données reste problématique, même dans les entreprises qui se présentent comme les plus innovantes. Sans donnée, il est difficile d’imaginer la création de nouveaux services et outils, et encore moins la mise en place d’une courbe d’apprentissage autour de l’intelligence artificielle, si l’on exclut les initiatives certes visibles mais isolées.

2. La culture de la donnée reste à construire, le recours aux technologies de machine learning et d’intelligence artificielle continue d’effrayer et le frein mental, qui se lève doucement au regard des bénéfices observés, est encore présent et ne disparaîtra que dans le cadre d’une éducation à la donnée, à l’échelle de l’entreprise, voire de la société et de la mise en place de mécanismes de gouvernance, qui pourraient garantir le déploiement de ces technologies de manière contrôlée.

Ne perdez plus de temps !


Bonne nouvelle, il n’est pas trop tard pour commencer. Et s’il n’existe pas de solution miracle, votre entreprise peut prendre certaines mesures pour amorcer le processus d’adoption de l’intelligence artificielle en entreprise :

1. Fixez-vous un objectif provenant du sommet de votre organisation, afin que votre entreprise soit véritablement axée et guidée par les données (data-driven), c’est-à-dire qu’elle exploite en permanence des quantités massives de données au lieu de réagir au coup par coup au moyen d’analyses ponctuelles. Je vous invite à visionner cette vidéo pour en savoir plus sur la façon de fixer et d’atteindre cet objectif.

2. Tirez davantage parti des ressources dont vous disposez déjà, au lieu de vous lancer dans un processus de recrutement. Fournissez à vos équipes les outils leur permettant de travailler avec des données tout en mettant à profit leurs connaissances métier. Par exemple, en formant les analystes à de nouvelles compétences qui leur donneront les moyens de participer à des projets de machine learning. Pour mener vos équipes sur cette voie, je conseille de leur partager le guide de l’analyste du futur.


3. Équipez vos ressources techniques d’outils leur permettant d’être davantage productives en capitalisant sur leur travail et, le cas échéant, des raccourcis pertinents (par exemple, en préparant des données visuelles ou en comparant facilement les performances de différents modèles). Pour connaître l’utilité des outils de Data Science, vous pouvez consulter ce livre blanc.

4. Introduisez la data science, le machine learning et l’intelligence artificielle dans votre organisation en choisissant un premier cas d’usage spécifique, puis en définissant un cadre pour atteindre votre objectif.

5. Élaborez un plan pour lancer en production votre projet data finalisé en vous assurant de l’impact et de la valeur réels délivrés pour votre entreprise afin de créer une véritable adhésion.

Retrouver l’article original :
De la Business Intelligence à l’intelligence Artificielle Partie 1
De la Business Intelligence à l’intelligence Artificielle Partie 2


Sur  L’Usine Nouvelle : Un plan francilien pour l’intelligence artificielle
Articles complets réservés au abonnés.
La région Ile-de-France a présenté, le 15 octobre, son plan régional en faveur de l’intelligence artificielle (IA). Deux axes majeurs ont été retenus : mettre l’IA au service de l’économie francilienne et en particulier de son industrie ; lever les verrous technologiques dans les filières régionales prioritaires.

Micron Technology va investir 100 millions de dollars dans des start-up de l’intelligence artificielle

Le fleuron américain des puces mémoires Micron Technology compte investir jusqu’à 100 millions de dollars dans des start-up de l’intelligence artificielle. Les jeunes pousses dirigées par des femmes ou des personnes issues des minorités bénéficieront de 20% de cet effort.



L’intelligence artificielle, un jackpot pour les entreprises pionnières


Une étude de McKinsey évalue les gains nets de l’intégration de l’intelligence artificielle. Les entreprises pionnières en tireraient 6% de croissance annuelle d’ici à 2030, au détriment des retardataires. Mais il leur faudra être patientes.


Par Manuel Moragues Technos et Innovations , Numérique
Publié le 07/09/2018

L’intelligence artificielle pourrait bien être synonyme de jackpot pour l’économie mondiale. Mais seuls les pionniers rafleront la mise. C’est, en substance, la conclusion du rapport « Modeling the impact of AI on the world economy » publié le 5 septembre par McKinsey Global Institute. Le cabinet chiffre à 13 000 milliards de dollars la richesse additionnelle que générerait globalement d’ici à 2030 l’adoption de l’IA. Soit un surplus de croissance de 1,2% par an sur douze ans.

La suite sur : L’intelligence artificielle, un jackpot pour les entreprises pionnières



Confier les clés de l’économie à une machine

Article Publié sur LesEchos.fr le 12/09/18

Par Erwann Tison / économiste et directeur des études de l’institut Sapiens


Avec les progrès de l’intelligence artificielle, la classe politique pourrait se voir retirer les rênes de l’économie.

Depuis 1950 et le test de Turing, l’intelligence artificielle (IA) n’a cessé d’exciter nos peurs et d’alimenter nos rêves. Que ce soit à travers la littérature ou le cinéma, on ne compte plus les éléments de notre culture populaire qui fantasment sa supériorité sur l’humain. Dans les faits, elle est encore loin d’atteindre la puissance imaginée, étant par exemple « très idiote » pour le docteur Laurent Alexandre, ou semblable à un nouveau-né car dépourvue de processus d’apprentissage efficace selon François Jouen.

Alan Turing


La loi d’Amara, du nom du fondateur de l’Institute for the future, dispose que « nous avons tendance à surestimer l’incidence d’une nouvelle technologie à court terme et à la sous-estimer à long terme ». Une tendance bien présente aujourd’hui, alors que la plupart des décideurs politiques, ne se rendent pas compte de l’importance que prendra l’IA dans les prochaines années. Cela pourrait accélérer leur remplacement.

L’IA double son potentiel tous les deux ans quand la classe politique se régénère tous les cinq ans.
A en croire le prix Nobel d’économie Richard Thaler, « les gens ont des cerveaux comme des supercalculateurs qui peuvent tout résoudre, or les esprits humains ressemblent plus à de vieux ordinateurs lents et enclins à des crashs fréquents ». L’IA, quant à elle, peut doubler son potentiel tous les deux ans en vertu de la loi de Moore. Si la comparaison avec l’humain est cruelle – notre niveau intellectuel ne progressant que bien plus lentement – elle peut être fatale pour la classe politique, qui elle ne se régénère qu’au minimum tous les cinq ans, au rythme des campagnes présidentielles

Mécanismes complexes

On pourrait imaginer, dans un futur pas si lointain, que le décideur politique humain se voie retirer la gestion des affaires économiques, effacé par une intelligence artificielle au nom du principe d’efficacité. L’économie est une science dont les mécanismes complexes sont méconnus de la plupart de nos décideurs. Il n’est malheureusement pas rare d’entendre un élu raconter des inepties économiques ou inventer des concepts imaginaires sur un plateau de télévision ou dans une matinale radio. On ne s’improvise pas économiste et prétendre infléchir le cap économique d’un pays nécessite une forte compréhension du monde contemporain et une finesse d’analyse quantitative indéniable.

Une intelligence artificielle nourrie au Big Data, progressant plus fréquemment, réfléchissant plus vite et étant incapable de mentir ou de promettre des inepties dans un but électoral pourrait alors remporter l’adhésion des citoyens. On peut comprendre la lassitude de ces derniers à l’égard des représentants actuels, après des années de politiques économiques inefficaces marquées par une hausse continue du chômage et une progression très lente de notre croissance potentielle. On ne conserve pas une équipe qui perd.

Le contexte politique peut être un terrain fertile pour favoriser l’émergence d’une IA dirigeante. L’appétence citoyenne pour un Etat-nounou, s’exprimant dans un vote accru pour des programmes collectivistes, combinée à  une réduction du nombre de parlementaires risquent d’engendrer une démocratie où les pouvoirs seraient concentrés et centralisés. Dans ce contexte il serait alors rationnel de confier les clés du pouvoir économique à une machine dont la puissance rendra plus efficace chaque décision.

Tendre vers son optimum

Dans ce cas de figure, cette IA remplirait alors un rôle similaire à celui du commissaire-priseur défini par l’économiste Léon Walras. Elle fixerait à tout moment le niveau optimal de prélèvements obligatoires, de prestations sociales et de dépenses publiques nécessaires pour stabiliser notre économie face aux différents chocs subis et la faire ainsi tendre vers son optimum. Elle pourrait également estimer le niveau de saturation fiscale et les différentes élasticités de chaque ménage, en ayant établi des profils type des différents segments de la population, ce qui constituera un outil bien pratique pour faire accepter cette nouvelle gouvernance aux citoyens, dans un système où les taux et les assiettes des impôts et taxes seraient flexibles et volatiles.

Erwann Tison, économiste, est directeur des études de l’Institut Sapiens


L’intelligence artificielle à la place des politiques ?


Certains imaginent déjà voir les hommes et les femmes politiques remplacés par les machines, qui seraient désormais aptes à prendre des décisions. Mais est-ce vraiment possible ? Et, surtout, est-ce bien raisonnable ?

Publié par les Échos le 5 juin 2018.

Auteur : Remy DEMICHELIS

Même si tout n’est pas encore clair, l’IA [intelligence artificielle] pourrait devenir très utile en matière de politique, pour ce qui est du lien entre citoyen et État, notamment », déclarait Cédric Villani dans la revue  » Charles  » de ce trimestre. Le député de l’Essonne, auteur d’un rapport sur l’IA rendu fin mars au gouvernement, envisage son usage pour répondre aux questions du public. « Nul n’est censé ignorer la loi – mais la loi est un ensemble de textes incompréhensibles. » Il imagine donc un chatbot qui passerait en revue tous les articles de nos épais codes afin d’en extraire une réponse substantielle.

Pour Cédric Villani, l’IA se contente ici de fournir un service, mais ne pourrait-elle pas aussi aider les hommes et les femmes politiques à prendre des décisions ? Après tout, ceux-ci s’affrontent à longueur d’année, mais ne pourrions-nous pas laisser la machine trancher ? Et si l’algorithme prenait tout bonnement leur place ? L’idée peut paraître farfelue, mais 18 % des Français estiment que « l’IA pourrait faire de meilleurs choix que les élus, à condition que la décision finale revienne à un être humain « , selon un sondage OpenText réalisé en ligne auprès de 2.000 personnes.

Au Japon, une intelligence artificielle a même brigué la mairie de Tama, dans la région de Tokyo, en avril dernier. Certes, en pratique, un humain s’est présenté pour elle, Michihito Matsuda. Mais, sur ses affiches de campagne, on pouvait voir un robot aux formes féminines. Michihito Matsuda, s’il gagnait, voulait laisser l’IA déterminer les politiques grâce aux données à sa disposition. Un projet politique qui n’a pas emporté l’adhésion de la population, mais qui a toutefois recueilli 9,31 % des suffrages exprimés, soit plus de 4.000 voix.


L’interprétation est humaine

En France, le laboratoire d’informatique de Sorbonne Université a conçu un logiciel, WorkSim, pour estimer les conséquences des politiques en matière d’emploi. En 2016, il avait évalué que la loi El Khomri, qui avait fait couler tant d’encre et suscité une vive opposition, entraînerait une baisse du chômage de 0,5 % à court terme, mais aurait un impact nul à long terme. Le modèle avait aussi été entraîné à trouver des solutions et, sur cette question, les deux chercheurs l’ayant mis au point divergeaient. Pour l’un, Jean-Daniel Kant, le plus efficace était une réduction du temps de travail, tandis que pour l’autre, Gérard Ballot, il valait mieux renforcer la formation. Cet exemple montre bien que la machine n’est pas suffisante pour décider ; il faut, dans le meilleur des cas, interpréter…

Au Boston Consulting Group, Sylvain Duranton, directeur associé, a travaillé sur l’optimisation du réseau de transports d’une ville avec l’aide d’un système d’IA. Horaires, nombre de rames, fréquentation, tout était passé à la moulinette pour plus d’efficacité. Problème : « On va avoir certaines zones où on ne s’arrête plus », explique-t-il. Ce qui allait à l’encontre d’une certaine idée de justice sociale. Déterminer dans quelle mesure on pouvait accepter des réductions de trafic à ces endroits était une question éminemment politique. Il fallait intégrer dans l’algorithme une valeur numérique afin de corriger ses conclusions. Et le terme de valeur n’est pas ici qu’un pur accident étymologique.

Les modèles, malgré leur réputation d’impartialité, reflètent des buts et des idéologies.

Lorsqu’un algorithme est corrigé, la valeur qui est intégrée est bien une valeur morale. « Les modèles, malgré leur réputation d’impartialité, reflètent des buts et des idéologies », écrit Cathy O’Neil, mathématicienne et auteur de « Weapons of Math Destruction  » (Crown Books, 2016). « Quand j’enlève la possibilité [à ma famille] de manger des biscuits à tous les repas, j’impose mon idéologie sur le modèle du menu.  »

Quand des humains se servent d’algorithmes pour mettre en place des politiques publiques, il faut qu’ils aient l’honnêteté intellectuelle d’expliquer ce qu’ils visent, leur objectif, leur horizon. Rechercher l’efficacité économique n’est pas la même chose que rechercher la justice sociale… du moins pour un algorithme.

Car l’erreur serait de penser qu’il faut opposer efficacité et justice. La justice n’est-elle pas aussi un type d’efficacité ? Quand on refuse d’isoler des quartiers en leur garantissant une desserte en transports en commun, c’est dans l’objectif d’une cohésion du territoire, voire de l’unité nationale. Ceux qui défendront cette desserte diront qu’elle permet d’être plus efficace dans cette optique. Ils ajouteront aussi que cette cohésion sert l’efficacité économique in fine ; elle permet aux gens de se rendre sur leur lieu de travail à moindres frais. Mais peut-être qu’autre chose est recherché derrière l’efficacité économique (le bien commun ?).

Certes, on peut imaginer répondre à ces impératifs divers en multipliant les variables, en intégrant des données économiques, sociales, environnementales, etc. Le problème est que, à force, les variables en deviennent innombrables et souvent contradictoires. Elles peuvent aussi manquer de solidité méthodologique : « The Economist » rappelait dans son numéro du 28 avril que 80 % des études en microéconomie exagéraient leurs résultats et que 90 % d’entre elles ne s’appuyaient pas sur des échantillons suffisants. Et même lorsque les études aident à construire des variables, la difficulté reste de savoir comment les articuler.

Autre souci : certains comportements humains échappent à la modélisation. Sinon, bien des parents auraient compris depuis longtemps pourquoi leurs enfants, élevés de la même façon, sont si différents.

L’intelligence artificielle, comme avant elle la statistique, n’en reste pas moins un outil scientifique utile pour élaborer et évaluer les politiques publiques. Charge à l’humain de dire clairement dans quelle direction ces politiques doivent aller.

Un algorithme au conseil d’administration

Il n’y a pas qu’en politique qu’un algorithme peut occuper un poste à responsabilité. En 2014, le fonds d’investissement Deep Knowledge Ventures, basé à Hong Kong et spécialisé dans l’industrie pharmaceutique, a ainsi accueilli dans son conseil d’administration un algorithme du nom de  » Vital « , développé par l’éditeur britannique Aging Analytics. Tout comme n’importe quelle autre personne ayant le droit de siéger, il dispose d’une voix. Il s’exprime pour ou contre des investissements dans des entreprises. Il fonctionne en analysant les informations financières de la société en question, les tours de table précédents, des informations sur ce qui relève de la propriété intellectuelle, ainsi que les essais cliniques. « Son but est d’attirer l’attention en tant que preneur de décision indépendant », a déclaré Charles Groom, responsable chez Deep Knowledge Ventures, à « Business Insider « .

Quand les algorithmes décident …

2009 : mise en place du site Admission post-bac, qui décide par algorithme de l’affectation des bacheliers dans l’enseignement supérieur (système remplacé en 2018 par Parcoursup).

2010 : la ville de Washington, aux Etats-Unis, renvoie des professeurs en fonction d’une note attribuée par un algorithme qui prend notamment en compte les résultats des élèves.

2014 : une IA dénommée « Vital » est admise au conseil d’administration de Deep Knowledge Ventures.

2014 : le Conseil d’état de la République Populaire de Chine publie un document d’orientation dans lequel il appelle à la création d’un système de notation de ses ressortissants, un Social Credit System.

2016 : l’artiste Aaron Siegel annonce la candidature de Watson, la solution d’intelligence artificielle d’IBM, à l’élection présidentielle des États-Unis. L’aventure n’ira pas plus loin qu’un site Web et quelques articles de presse.

2018 : Michihito Matsuda présente sa candidature à la mairie de Tama, au Japon, et déclare qu’il laissera la place à l’IA s’il est élu. Il perd, mais obtient 9,31 % des suffrages.

2040 : un système d’IA est élu démocratiquement, selon les prédictions du chercheur (très controversé) Ben Goertzel.

Auteur : Rémy Demichelis



IA : les entreprises chinoises bien mieux préparées que les occidentales

Publie sur La Tribune le 18 septembre.

Par Sylvain Rolland


Si 9 entreprises sur 10 estiment que l’intelligence artificielle va impacter leur business dans les cinq prochaines années, l’écart se creuse entre les pionnières, qui changent vite, et les autres. Plus impliquées, les entreprises chinoises investissent davantage et commencent à creuser l’écart, indique une nouvelle étude du Boston Consulting Group (BCG).

Où en sont les entreprises par rapport à l’intelligence artificielle, et qui saura le mieux en profiter alors que l’IA s’apprête à changer tous les secteurs et la plupart des métiers ? D’après la deuxième édition du rapport Artificial Intelligence in Business Gets Real, réalisé par le Boston Consulting Group (BCG) avec la MIT Sloan Management Review, les entreprises en retard, soit 80% des 3000 décideurs interrogés dans 126 pays et 29 secteurs, devraient mettre les bouchées doubles, car « l’écart se creuse » entre les leaders et les autres.

Lire aussi : Intelligence artificielle au travail : les Français sont plus réticents que leurs voisins

Les entreprises chinoises plus ambitieuses dans l’IA


L’étude classe les entreprises par groupes, selon leur niveau d’adoption des nouvelles technologies. Les plus avancées sont les « Pionnières », suivies par les « Instigatrices », les « Expérimentées » et enfin les « Passives ». Les entreprises pionnières, qui représentent seulement un cinquième de l’ensemble des entreprises interrogées -un chiffre stable sur un an-, sont celles qui ont la meilleure compréhension de l’intelligence artificielle et de ses enjeux, et qui l’instaurent désormais au cœur de leur stratégie.


Pour Sylvain Duranton, le Directeur monde de BCG GAMMA, l’entité d’IA du BCG, les entreprises déjà en pointe sur la question de l’IA progressent bien plus vite que les autres. Autrement dit, l’écart se creuse au détriment des moins ambitieux :

« Les entreprises pionnières de l’IA renforcent leur avance. Les pionnières investissent de plus en plus massivement et beaucoup plus que les autres. Surtout, leur rythme d’apprentissage sur le sujet est 50 % plus élevé que celui des autres. La courbe d’expérience est donc une réalité dans l’IA. Gare à ceux qui prennent du retard ! », indique le dirigeant.

Sylvain Duranton, le Directeur monde de BCG GAMMA


D’après l’étude, 88 % des Pionnières ont investi davantage dans l’IA que l’année passée, contre 62 % des entreprises dites « Expérimentées » et « Instigatrices ». Surtout, elles ont réalisé que l’IA peut profiter à l’ensemble de l’organisation et nécessite une véritable stratégie portée par la direction générale de l’entreprise.

Malheureusement pour les Européens et les Américains, si l’on trouve des « pionnières » dans tous les secteurs et dans tous les coins du globe, force est de constater que la proportion d’entreprises chinoises dans cette catégorie est plus forte qu’ailleurs :

« L’étude souligne que les entreprises chinoises sont les plus ambitieuses sur la question de l’IA. Les « Pionnières » chinoises investissent massivement et plus agressivement dans l’intelligence artificielle pour transformer leur business model », décrit l’étude.

Sylvain Duranton, le Directeur monde de BCG GAMM


Lire aussi : Intelligence artificielle : les limites de la stratégie française

Lire également sur :
Humanoides : La Chine se rêve en leader mondial
Le Big Data : IA – la Chine compte révolutionner 17 industries

Pénurie de profils

Si 9 dirigeants interrogés sur 10 estiment que l’IA va apporter de la valeur à leur entreprise dans les cinq prochaines années, les attentes principales vis-à-vis de la technologie sont différentes. Ainsi, contrairement à leurs challengers occidentaux, les entreprises chinoises perçoivent surtout les bénéfices de l’IA pour réduire leurs coûts, alors que les occidentales sont davantage concentrées sur la création possible de valeur

« Malgré leur nette avancée en matière de centralisation et utilisation des data, les entreprises chinoises se heurtent à une pénurie de compétences techniques et sont globalement plus inquiètes face à l’éventuelle destruction d’emplois que l’IA peut engendrer (plus de 2/3 des entreprises pionnières chinoises) », précise le rapport.

Sans surprise, les « Pionnières » sont les plus convaincues que l’IA peut créer de la valeur. 72% estiment que la technologie va leur permettre d’accroître leurs revenus de manière très nette dans les cinq prochaines années. Les « Instigatrices », qui désigne la catégorie la plus avancée derrière les « Pionnières », sont 41% à vouloir utiliser l’IA surtout pour réduire leurs coûts, contre 28% seulement des entreprises pionnières.

Reste la question paradoxale des profils. 47% des répondants estiment que l’IA entraînera des destructions d’emplois dans les années à venir et craignent donc son impact sur le travail. Mais ils peinent aussi à recruter les bons profils pour les aider à adapter la technologie à leur business, et donc à trouver des relais de croissance qu’ils n’imaginent pas encore. Cette pénurie de profils qualifiés est, pour le BCG, le principal frein au développement de l’IA dans le monde.

Articles source : Les entreprises chinoises bien mieux préparées que les occidentales


Intelligence artificielle : l’État exhorte les entreprises à voir plus loin que le bout de leur nez

Publie sur La Tribune le 18 septembre.

Par Sylvain Rolland


Pour stimuler l’innovation dans l’intelligence artificielle, le secrétaire d’État au Numérique, Mounir Mahjoubi, a appelé mardi 18 septembre les entreprises françaises à davantage ouvrir et mutualiser leurs données. Problème : la collaboration n’est pas le fort des grands groupes français, qui considèrent souvent la donnée comme un or noir qu’il faut protéger de la concurrence.

Mounir Mahjoubi veut que les grands groupes français changent complètement leur logiciel vis-à-vis des données. Mardi 18 septembre, dans un communiqué de presse, le secrétaire d’État au Numérique a incité les entreprises à davantage partager, mutualiser et valoriser leurs données. Une condition indispensable, selon lui, pour stimuler l’innovation en France dans l’intelligence artificielle. Conformément aux recommandations du rapport remis en mars dernier par Cédric Villani, qui établit une stratégie pour la France dans l’intelligence artificielle, l’État lance donc officiellement un appel à manifestation d’intérêt pour la mutualisation des données, ouvert jusqu’au 16 novembre (ndlr 2018) prochain.

« Dans le cadre du déploiement de la stratégie française en matière d’IA, nous soutiendrons les initiatives privées d’ouverture et d’échange de données pour que naisse en France, dans tous les secteurs, une économie ouverte de la data compétitive« , indique le secrétariat d’État au Numérique.


Mounir Mahjoubi

L’objectif affiché par la Direction générale des entreprises (DGE) de Bercy, qui pilote le projet : soutenir des initiatives de mutualisation de données au sein de plateformes sectorielles ou cross-sectorielles, et les aider à trouver « des modèles économiques leur permettant de générer une activité viable et pérenne », « sans nouveaux financements publics », à un horizon moyen de trois ans.

Les bases de données, le nerf de la guerre pour l’innovation dans l’IA


Effectivement, les données sont la matière première de l’intelligence artificielle. De leur disponibilité en très grand nombre dépend l’émergence de nouvelles solutions pour les entreprises, de nouveaux usages et applications pour tous. Ce n’est pas un hasard si les géants du Net américains (Google, Apple, Facebook, Amazon, Microsoft, IBM…) ainsi que leurs concurrents chinois (notamment les « BATX » : Baidu, Alibaba, Tencent, Xiaomi) dominent de la tête et des épaules, y compris en matière de financement, la recherche mondiale dans l’intelligence artificielle.

Grâce à leurs écosystèmes à 360 degrés se déployant sur de nombreux secteurs d’activité, ils disposent d’une énorme masse de données qu’ils mettent à profit pour entraîner leurs algorithmes. C’est le principe du machine learning (apprentissage automatique), qui repose sur la disponibilité d’une multitude de jeux de données annotés. Si la recherche travaille actuellement à des méthodes d’apprentissage autodidacte pour que l’IA déduise elle-même des solutions avec très peu de données à sa disposition – comme l’a prouvé le laboratoire DeepMind de Google avec le jeu d’échecs -, cette technique est aujourd’hui trop embryonnaire pour vraiment concurrencer le machine learning.

« À l’image des réseaux, la valeur des jeux de données croît plus que proportionnellement à leur taille : là où les données d’une PME, par exemple une exploitation agricole, n’ont que très peu de valeur, des bases de données de place, agrégeant les données d’un grand nombre d’opérateurs peuvent ouvrir des perspectives considérables », insistait Emmanuel Macron, lors de sa présentation du rapport Villani.


Retard culturel des grands groupes français sur l’open data


Problème : « De tels jeux de données sont aujourd’hui des ressources rares pour les acteurs français », pointe le secrétariat d’État au Numérique. Si la France soutient officiellement l’open data depuis la loi pour une République numérique d’Axelle Lemaire votée en 2016, les grands grands groupes français ont du mal à changer leur approche vis-à-vis des données.

Ainsi, une étude de 2017 financée par l’Union européenne établissait qu’environ 90% des entreprises interrogées affirmaient ne pas partager leurs données avec d’autres entreprises. Et même à l’intérieur des organisations, les silos de données constituent des barrières à la réutilisation des données d’un service à l’autre…

Ainsi, une étude de 2017 financée par l’Union européenne établissait qu’environ 90% des entreprises interrogées affirmaient ne pas partager leurs données avec d’autres entreprises. Et même à l’intérieur des organisations, les silos de données constituent des barrières à la réutilisation des données d’un service à l’autre…

« Des initiatives de partage de données existent, mais elles manquent d’ampleur. Culturellement, les grands groupes restent très en retard sur l’open data, à la fois parce que le chantier est complexe et parce qu’ils considèrent la donnée comme un actif stratégique« , indique à La Tribune le directeur de l’innovation d’une grande entreprise française.


Un enjeu de souveraineté pour la France et l’Europe


D’après le rapport Villani, l’ouverture des données ou open data constitue « une lame de fond » de l’économie numérique. Et si les entreprises sont friandes des « hackathons » et autres ouvertures « ponctuelles », elles doivent passer à la vitesse supérieure. Pour Cédric Villani, il s’agit d’un enjeu de souveraineté pour la France et l’Europe :

« Le premier acte de la « bataille de l’IA » portait sur les données à caractère personnel. Cette bataille a été remportée par les grandes plateformes. Le second acte va porter sur les données sectorielles : c’est sur celles-ci que la France et l’Europe peuvent se différencier. L’objectif est d’abord stratégique pour les acteurs français et européens, car c’est un moyen pour les entreprises d’un même secteur de rivaliser avec les géants mondiaux de la discipline », indique-t-il.

L’État pourrait aussi passer par la loi pour imposer l’open data dans chaque secteur. Dans l’énergie, la loi Transition énergétique pour une croissance verte a imposé aux opérateurs d’énergie de mettre en place des politiques d’ouverture de leurs données sur les consommations de gaz et d’électricité afin de favoriser l’innovation.

Publié le 11 octobre 2018 par Giulietta Gamberini

Article source : L’état urge les entreprises a voir plus loin que le bout de leur nez


La France et le Canada créent une « alliance des petits »

Publie sur La Tribune le 7 décembbre 2018.
Par Sylvain Rolland.
Le secrétaire d’État au Numérique, Mounir Mahjoubi, et le Premier ministre canadien, Justin Trudeau, ont annoncé la création d’un G2IA, une alliance qui vise à promouvoir une intelligence artificielle éthique et inclusive. Un moyen pour deux petits pays de miser sur leurs forces pour se distinguer dans une bataille économique mondiale dominée par les États-Unis et la Chine.
Alors que la bataille économique autour de l’intelligence artificielle se concentre entre les États-Unis et la Chine, qui investissent à coups de dizaines de milliards dans la recherche via leurs agences nationales d’innovation et leurs géants du Net (respectivement les fameux Gafam et les Batx), les « petits » pays tentent d’exister et de se distinguer par d’autres moyens.
La France et le Canada veulent incarner une IA éthique
En déplacement à Montréal pour une conférence du G7 sur l’IA, le secrétaire d’État français au Numérique, Mounir Mahjoubi, et le Premier ministre canadien, Justin Trudeau, ont annoncé la création du G2IA, un nouveau groupe international d’experts. Il s’agit de l’un des principaux résultats découlant de la Déclaration franco-canadienne sur l’intelligence artificielle, annoncée par Emmanuel Macron et Justin Trudeau avant le sommet du G7 en juin dernier.
L’objectif du G2IA est de « soutenir et de guider l’adoption responsable de l’intelligence artificielle, axée sur le respect de la personne, l’inclusion, la diversité, l’innovation et la croissance économique », précise le secrétariat d’État au Numérique. Bien que le projet soit mené conjointement par le Canada et la France, l’idée est d’inclure les pays qui voudront définir la future application de l’IA dans la vie de tous les jours. Priorité sera donnée aux pays du G7, notamment le Japon, avec lequel les « discussions sont très avancées », assure Mounir Mahjoubi. L’éventuelle participation des États-Unis n’a pas encore été décidée, même si le secrétaire d’État s’attend à ce que compagnies et scientifiques américains veuillent apporter leur contribution à titre individuel.
En marge du prochain sommet du G7, qui se tiendra à l’été 2019 à Biarritz, dans le sud-ouest de la France, la France et le Canada organiseront donc à Paris une grande conférence mondiale sur l’intelligence artificielle, qui visera à « établir un premier consensus scientifique sur les enjeux de l’intelligence artificielle ».

« Avec son plan AI for Humanity, la France se place parmi les champions de la discipline, et porte les questions éthiques sur la scène mondiale. Nous invitons les chercheurs, entreprises, organisations internationales et pays qui partagent nos valeurs à nous rejoindre », a déclaré Mounir Mahjoubi à Montréal.

Une « alliance des petits » pour exister face aux États-Unis et à la Chine
Cette démarche fait sens à plusieurs niveaux. La France et le Canada, qui ont chacun de grandes ambitions dans le domaine de l’IA mais de petits moyens, sont persuadés que c’est en mettant l’accent sur une IA éthique que celle-ci pourra s’imposer dans les usages et répondre aux défis sociétaux majeurs du XXIe siècle, comme la transition écologique ou l’inclusion sociale, plutôt que de détruire l’emploi des catégories de population les plus précaires et de fragiliser le contrat social, comme le craignent de nombreux experts.
Miser sur l’éthique est aussi un positionnement stratégique, source, espèrent les deux pays, de nouvelles opportunités économiques. Effectivement, il y a encore un « trou » à combler dans ce domaine, puisque les deux superpuissances américaine et chinoise portent peu ces sujets. Largement dépassés par les États-Unis et la Chine, les petits pays comme la France et le Canada doivent trouver comment capitaliser sur leurs atouts – leurs cerveaux, leurs valeurs -, pour se démarquer avec des marges de manœuvre financières réduites.
En France, la stratégie française sur l’IA, sur la base du rapport du député Cédric Villani, prévoit un investissement d’environ 1,5 milliard d’euros d’ici à 2022 tandis que Paris a déjà attiré, grâce à la qualité ses ingénieurs, de nombreux centres de recherche en IA américains, dont celui de Facebook. Au Canada, Montréal se distingue déjà comme un « hub » mondial de la recherche en IA, grâce à des pôles d’excellence universitaires et des centres spécialisés comme L’Institut des algorithmes d’apprentissage de Montréal (Mila) et l’Institut de valorisation des données.

IA, l’erreur restera humaine !

Publie sur La Tribune le 22 septembre 2018.
Par Vincent Berthet, Université de Lorraine.



L’automatisation des décisions grâce à l’IA pose la question des conséquences économiques, des enjeux éthiques, et de l’encadrement juridique de cette évolution.

Dans les années 1950, Paul Meehl mit en exergue le fait que des formules objectives sont souvent plus performantes que le jugement humain pour des décisions et des prédictions récurrentes. Par exemple, si une université dispose d’une base de données historiques comportant pour chaque étudiant des informations telles que ses résultats au lycée, son score à un test d’aptitude, son résultat final en première année, etc., un modèle statistique permettra de capturer les relations entre ces variables.

On peut alors montrer qu’un modèle basé seulement sur les résultats au lycée et le score à un test d’aptitude prédit mieux la réussite des étudiants qu’un conseiller scolaire. Depuis, les progrès technologiques ont donné à ce phénomène une tout autre dimension. D’un côté, l’explosion de la quantité d’informations disponibles fait que les bases de données historiques sont devenues gigantesques, ce que l’on appelle le big data. D’un autre côté, l’intelligence artificielle (IA) rend les outils automatisés de traitement de l’information toujours plus performants. Grâce à des techniques statistiques sophistiquées telles que l’apprentissage profond (le deep learning), les algorithmes actuels sont capables de capturer les régularités cachées dans de larges bases de données historiques. Ce couplage de l’IA et du big data tend à automatiser un nombre croissant de décisions humaines récurrentes dans tous les secteurs d’activités. Cette automatisation de décisions routinières – simples et répétitives – permet notamment le recentrage des professionnels sur des tâches où leur valeur ajoutée est la plus forte.

Algorithmes prédictifs

Tout comme le modèle simple de prédiction de la réussite des étudiants, les algorithmes qui ont appris une relation critère-indices en parcourant une base de données historiques peuvent être utilisés comme des outils prédictifs. Les sociétés modernes ont ainsi fait place au recrutement prédictif, la police prédictive, la justice prédictive, la médecine prédictive, etc. qui permettent aujourd’hui d’anticiper (et peut-être demain de remplacer) des décisions humaines. En particulier, le développement récent d’algorithmes prédictifs dans le domaine du droit, où la jurisprudence constitue une base de données historiques, a bousculé les codes et les habitudes de la profession. L’ouverture des bases de jurisprudence dans le cadre de l’open data a permis à une nouvelle génération de startup (les Legal Tech) de développer des logiciels qui scannent la jurisprudence et délivrent un pronostic sur les risques et les chances de succès des justiciables (par exemple, l’évaluation des indemnisations octroyées à un salarié dans le cadre de l’application des barèmes en matière de licenciement). Cette augmentation de la prédictibilité des décisions de justice par les algorithmes de justice prédictive permet d’accélérer le règlement des litiges.

Cependant, si cette approche est particulièrement adaptée aux pays de common law (comme le Royaume-Uni) où la source principale du droit est la jurisprudence, elle est moins pertinente pour les pays de droits de tradition civiliste (comme la France) où la source principale du droit est le droit codifié. Quoi qu’il en soit, les algorithmes prédictifs font et feront évoluer les pratiques, en droit comme ailleurs, et ces évolutions – inévitables – devront être encadrées afin qu’elles soient maîtrisées plutôt que subies.

L’automatisation croissante de décisions jusque-là assurées par des humains soulève des interrogations. Outre les considérations économiques, une première question importante concerne le caractère figé de telles décisions. Autrement dit, le traitement automatisé des décisions écarte la singularité de chaque décision. Dans son intervention sur la justice prédictive le 12 février 2018, Jean‑Marc Sauvé, Vice-président du Conseil d’État, attire l’attention sur ce point en soulignant que le propre de la justice est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’originalité et d’irréductible complexité qui ne saurait être systématisée par un logiciel, aussi puissant soit-il.

À son époque, Paul Meehl releva cette limite et l’illustra au travers du « cas de la jambe cassée ». Prenez une personne qui se rend tous les mardis soir au même cinéma. Une règle actuarielle simple consiste à prédire que chaque mardi soir, la probabilité que cette personne se rende dans le cinéma est très élevée. Un lundi, cependant, cette personne se casse la jambe. Dans ce cas précis, un humain pourra ajuster sa prédiction en revoyant la probabilité à la baisse alors que le modèle actuariel continuera à faire la même prédiction, qui en l’occurrence sera absurde.

La morale des histoires


Une seconde question posée par l’automatisation des décisions renvoie aux considérations éthiques. Ces considérations sont d’abord générales, elles concernent par exemple la question de l’autonomie et de l’identité humaines face aux machines, les biais et les discriminations, et le respect des droits et libertés fondamentaux. Mais les considérations morales renvoient aussi à des questions concrètes que pose l’utilisation de dispositifs automatisés. Par exemple, en cas d’accident inévitable, un véhicule autonome doit-il être programmé pour sacrifier la vie des passagers ou bien celle des piétons ? Dans le cadre du projet « Moral Machine » mené en partenariat avec des universités américaines et débuté en 2016, le psychologue Jean‑François Bonnefon et ses collaborateurs ont mis en ligne des tests qui simulent des situations où une voiture autonome doit choisir entre différents cas d’accidents inévitables. Ces tests, qui ont été passés par des millions de personnes à travers le monde, permettent de mesurer les préférences morales des individus.

La programmation des véhicules autonomes en cas d’accident inévitable est un exemple de cas concret qui traduit inévitablement un choix moral. La recherche scientifique sur les préférences morales des individus peut aider à identifier les critères éthiques pour fonder ce choix moral. L’automatisation des décisions grâce à l’IA peut donner lieu à de réels progrès, tels que des décisions plus transparentes et moins partiales. Aussi, se posent des questions fondamentales sur les conséquences économiques, les enjeux éthiques, et l’encadrement juridique de cette évolution.

Nous publions ici un extrait du livre de Vincent Berthet, « L’erreur est humaine. Aux frontières de la rationalité », qui vient de paraître à CNRS Editions.

Vincent Berthet, Maître de conférences à l’Université de Lorraine. Chercheur associé au Centre d’Économie de la Sorbonne, Université de Lorraine.

La version originale de cet article a été publiée sur The Conversation



IBM met à la disposition des développeurs des modèles de codes open source

Publié sur Développez.com

Le , par Michael Guilloux


L’intelligence artificielle, la blockchain et les microservices, ce sont trois domaines ou technologies qui vont changer – s’ils n’ont pas déjà commencé à le faire – la manière de développer et déployer des applications et services. Si l’IA n’est plus vraiment à présenter, il peut être nécessaire de revenir sur les bénéfices de la blockchain et des microservices.


La blockchain est une technologie de stockage et de transmission d’informations, transparente, sécurisée, et fonctionnant sans organe central de contrôle. Par extension, une blockchain constitue une base de données sécurisée et distribuée qui contient l’historique de tous les échanges effectués entre ses utilisateurs depuis sa création et qui permet à chacun de vérifier la validité de la chaîne. La blockchain peut par exemple fournir une technologie de registre partagé que les participants d’un réseau d’entreprise peuvent utiliser pour enregistrer l’historique des transactions commerciales qui ne peuvent pas être modifiées. Cette technologie peut être utilisée dans n’importe quelle industrie. Et c’est ce qu’on a déjà commencé à voir avec les poids lourds de l’agroalimentaire qui ont décidé de s’appuyer sur la blockchain d’IBM pour la traçabilité des denrées périssables, et récemment l’industrie de la joaillerie qui s’est tournée vers la même blockchain pour la traçabilité de ses produits.

En ce qui concerne les microservices, leur intérêt réside dans le fait qu’ils permettent de réduire le délai nécessaire pour le développement et la mise au point d’un projet ou d’un produit, avant qu’il puisse être lancé sur le marché. En effet, qu’ils accèdent à un site Web ou à une application mobile, les utilisateurs attendent beaucoup des applications qu’ils utilisent régulièrement. En conséquence, les entreprises doivent continuellement fournir de nouvelles fonctionnalités et correctifs. Mais dans le passé, ce processus était pénible, car une application était généralement développée et mise à disposition sous la forme d’une application unique, souvent monolithique. L’architecture en microservices corrige cela, car dans cette architecture, une application est composée de nombreux composants discrets connectés au réseau, appelés microservices.

Cette figure montre comment une application basée sur une architecture monolithique évolue vers une application en microservices


Chaque composant est pensé de sorte à être développé, déployé, exécuté et géré séparément des autres composants. L’application sera donc l’assemblage de chaque microservice. Le principal avantage est la modifiabilité : étant donné que le code d’un microservice est autonome de celui des autres, une mise à jour d’un composant n’impacte par les autres microservices. L’indépendance entre les différents services favorise surtout le développement de chaque composant en même temps, ce qui est beaucoup plus difficile avec les applications traditionnelles.

Les compétences dans ces trois domaines sont de plus en plus recherchées, d’où la nécessité des développeurs de s’y intéresser. C’est donc pour accompagner les développeurs qu’IBM a mis à la disposition de ces derniers des modèles de codes, qui traitent une variété de cas de développement et déploiement de systèmes d’intelligence artificielle, de blockchain et microservices. Ces modèles de code, accessibles depuis le site IBM Developer, sont open source et également disponibles sur GitHub.

Modèles de code IA
Modèles de code Microservices
Modèles de code Blockchain


Article source : IBM met a la disposition des développeurs des modèles de codes open source



IBM dévoile les outils AI OpenScale et Multi-Cloud Manager


IBM lance les outils AI OpenScale et Mutli-Cloud Manager, afin de faciliter l’utilisation de multiples Cloud et de différents frameworks d’intelligence artificielle. Ces nouvelles plateformes seront disponibles pour les utilisateurs d’IBM Cloud et Cloud Private.

Publié sur LE BIGDATA

le 16 octobre 2018

Que ce soit dans le domaine du Cloud ou de l’intelligence artificielle, l’utilisation de plusieurs services pose de nombreux défis. Afin d’aider les entreprises à surmonter ces obstacles, IBM lance ses nouvelles plateformes AI OpenScale et Multi-Cloud Manager.

Le Multi-Cloud Manager d’IBM fonctionne sur IBM Cloud Private, et permet de jongler entre des milliers d’applications containairisées Kubernetes dont les volumes de données seront répartis entre de multiples emplacements.

Le tableau de bord du Multi-Cloud Manager permet de voir tous les clusters Kubernetes depuis un panneau de contrôle unique et unifié. Son moteur intégré de conformité et de règles permet d’assurer que ces clusters restent conformes aux standards de sécurité et aux règles fixées par l’entreprise. Enfin, la plateforme délivre des outils de backup pour protéger les données et applications Kubernetes en cas de panne matérielle ou de faille de sécurité.

Cette approche ” open-standard ” de la gestion de données et d’applications sur de multiples Cloud permettra aux entreprises de scaler leurs investissements multi-cloud et d’exploiter pleinement le potentiel du nuage. Le Multi-Cloud Manager sera disponible d’ici la fin du mois d’octobre 2018, et est déjà utilisé par des clients d’IBM comme Bendigo et Adelaide Bank.

IBM AI OpenScale : une plateforme pour faciliter le déploiement de l’IA et lutter contre ses préjugés

ibm openscale ai

En parallèle, AI OpenScale offre aussi une suite d’outil de détection et de mitigation automatique des préjugés pour les IA. Par exemple, un système de logging permet d’enregistrer les prédictions réalisées par un modèle de Machine Learning, le numéro de version du modèle, et l’ensemble de données utilisées pour son entraînement. Si un préjugé est détecté, le système se charge de le mitiger via sa technologie de ” de-biasing ” et fournit des explications pour comprendre l’origine de ces préjugés. En effet, les préjugés sont l’un des grands points faibles de l’IA à l’heure actuelle. IBM cherche à le résoudre, au même titre que Facebook, Microsoft ou Accenture.

AI OpenScale sera disponible plus tard en 2018 pour les utilisateurs de IBM Cloud et IBM Cloud Private. En parallèle, la firme de New York annonce aussi le Neural Network Synthesis Engine, ou NeuNets : un système permettant d’automatiser le développement d’IA pour des tâches d’entreprises et des ensembles de données avec la précision d’un réseau de neurones créé par l’Homme. NeuNetS sera disponible en beta au lancement d’AI OpenScale.

Lire également :


Des gens se parlent à eux-mêmes pour améliorer des intelligences artificielles

Publié par : Blog du modérateur le 20 septembre 2018

Par Cyrielle Maurice

Des chercheurs de l’Université d’Édimbourg ont travaillé sur une nouvelle méthode pour permettre aux intelligences artificielles d’apprendre à converser avec les humains. Aujourd’hui, les interactions entre humains et assistants personnels intelligents restent très basiques. N’espérez pas entretenir un débat philosophique avec Google ou Alexa, leur technologie est encore jeune et les réponses triviales.

Une solution économique et efficace

Les algorithmes de machine learning ont en effet besoin d’énormément de données pour commencer à apprendre des schémas de conversations, des intonations, des expressions ou bien, pourquoi pas, des tics de langages propres à l’humain. Or, ces données restent encore peu nombreuses aujourd’hui. C’est pour pourquoi, avec l’aide de la plateforme de crowdsourcing Mechanical Turk d’Amazon, les chercheurs de l’Université d’Édimbourg proposent de payer des gens pour qu’ils se parlent… à eux-mêmes.

Crédits photo : iStock / mikkelwilliam

Crédits photo : iStock / mikkelwilliam

Il s’avère en effet que payer une personne pour prétendre avoir une conversation avec une autre est un moyen rentable de former une IA à reconnaître le langage humain naturel. Le fait est que cette technique produit de meilleurs résultats que les ensembles de données de conversation multi-locuteurs actuels. De plus, les chercheurs admettent qu’il est difficile de trouver des personnes disposées à investir le temps nécessaire pour participer à ces études.

« Je ne suis pas fou vous savez »

Voici un exemple de la base de données d’auto-dialogue. Malgré les annotations « 1 » et « 2 », il s’agit bien d’un seul participant fournissant les deux côtés de la conversation :

1. Quel est ton film préféré ?
2. Je pense que La Belle et la Bête est mon préféré.
1. Le dernier qui est sorti ?
2. Non, le dessin animé. Je trouve qu’il a quelque chose de magique.
1. C’est mon film Disney préféré.
2. Quel est ton film préféré à toi ?
1. Je pense que mon préféré c’est la Mélodie du Bonheur.
2. Vraiment ? À part quand c’est dans des dessins animés et d’autres trucs du genre, je n’aime vraiment pas les comédies musicales.
1. J’adore les comédies musicales. J’ai vraiment aimé Phantom of the Opera.

Ce procédé peut paraître saugrenu et on serait en droit de se demander si le fait qu’une personne ait une discussion avec elle-même puisse réellement être efficace pour les réseaux neuronaux. Pour les chercheurs, il semblerait que ce soit le cas. L’étude montre que le jeu de données d’auto-dialogue surpasse les ensembles de données de pointe compilés par le biais de crowdsourcing de conversations à deux ou d’extractions de sources enregistrées.

Article original : Chercheurs dialogue IA conversation

Lire également :

Amazon annonce que ses cours dédiés au machine learning sont disponibles au grand public


Jasmine Anteunis, rare entrepreneuse dans l’intelligence artificielle


A 26 ans, Jasmine Anteunis, cofondatrice de la start-up Recast.AI, fait figure d’ovni. C’est l’une des rares femmes entrepreneuses à s’être lancée dans l’intelligence artificielle (IA, ou AI en version anglo-saxonne). Comment a-t-elle vécu ces premières années dans un secteur masculin ? Pourquoi accepte-t-elle de rejouer les role models ?

Publié par Challenge le 28 septembre 2018 par Léa Lejeune


A 26 ans, Jasmine Anteunis, cofondatrice de la start-up Recast.AI, fait figure d’ovni. C’est l’une des rares fondatrices d’entreprises tech en France où elles ne composent que 17% des effectifs. C’est aussi une de ces courageuses, rarissimes, à s’être lancées dans le domaine très technique de l’intelligence artificielle. Diplômée des Beaux-Arts et passée par l’Ecole 42 fondée par Xavier Niel, elle a ensuite été incubée à Station F. Sa start-up propose une plateforme collaborative pour que les développeurs et le grand public fabriquent leurs propres bots en IA. Elle a fait monter son équipe à 25 personnes en 2017 et enregistré 835 000 euros de chiffre d’affaires selon societe.com. Un chiffre qui n’est déjà plus représentatif de son activité, selon l’équipe de Recast. Le projet a rapidement attiré l’œil d’un grand groupe de logiciels allemand SAP, qui l’a racheté en mars 2018. Elle s’est confiée sur ses premières années dans un secteur très masculin, mais pas caricatural pour autant.

Jasmine Anteunis

Pourquoi ce secteur manque-t-il de profils féminins, selon vous ?

C’est vrai que le secteur en manque, mais il y en a beaucoup plus à Station F, cela se voit dans les couloirs. Ils ont dû sélectionner les start-up pour plus de mixité [Station F avance environ 40% de femmes cofondatrices d’entreprises, ndlr]. Le milieu tech en général est très masculin et projette une image qui effraie certaines femmes. Mais au quotidien, je n’ai jamais rencontré de problème ni dans mon entreprise, ni à l’Ecole 42. Je veux le dire pour que plus de jeunes femmes aient envie de se lancer. On a besoin de plus de ‘role models’, de profils de femmes qui ont réussi dans des milieux qui ont l’air masculin pour leur permettre de s’imaginer à leur place.

L’autre raison, c’est qu’il y a très peu de femmes développeuses et ingénieures de formation comme moi. Ce n’est pas inévitable, c’est aussi une question de culture. En France, c’est le cas, mais en Iran, c’est l’inverse. Les jeunes hommes reprennent les entreprises de leurs pères. Du coup, pour se faire une place, les femmes font plutôt des études utiles, donc des cursus d’ingénieures.  Je ne sais pas d’où ça vient, mais en France il faut changer ça.

Comment contribuez-vous à la mixité chez Recast.AI ?


Chez Recast.AI, il n’y a pas de discrimination positive à l’embauche. On ne s’est jamais dit « j’ai un nouveau poste, je vais prendre une femme ». On prend ce qui vient. Dernièrement, deux développeuses douées ont rejoint notre équipe. C’est bien, mais il y en a peu : sur 50 postulants, seulement 10 sont des femmes. J’aimerais bien que notre équipe tech soit plus équilibrée. Mais je ne vois pas pourquoi je mettrais les CV de femmes sur le dessus de la pile. Je veux des personnes avec de bonnes compétences, on verra bien ensuite quel est leur sexe

Votre nouvelle maison mère SAP cherche à recruter plus de femmes avec l’idée qu’elles sont des managers différents, en recherche de sens, moins fermes. Qu’en pensez-vous ?


Oui, il y a des différences entre les hommes et les femmes, mais je ne pense pas être plus douce que mes collègues masculins. C’est une question de personnalité aussi. Je n’ai pas vu de différence majeure entre le management des unes et des autres pour l’instant, mais ça ne fait que deux ans que je travaille !

Les IA sont fabriquées majoritairement dans la Silicon Valley par des hommes blancs, trentenaires, passés par les mêmes écoles avec une communauté de pensée. Y a-t-il un risque que ces IA soient biaisées ?


Il y a deux choses dans votre question. La première est l’uniformité des développeurs et des entrepreneurs derrière les IA, on ne sait pas exactement quel impact cela aura sur leur fonctionnement.

Mais le plus important, ce sont les données utilisées pour entraîner l’algorithme d’une IA. Ces données devraient normalement coller le plus possible à une réalité et donc ne pas contenir de biais. Si les ingénieurs font bien leur travail, ils doivent récupérer des données qui représentent la réalité : des hommes, des femmes, la diversité. Or il peut y avoir des biais dans ces données qui introduisent des erreurs. Par exemple, des développeurs avaient fabriqué un algorithme chargé de prédire les évolutions de salaires dans une entreprise, basées sur les salaires actuels et passés.  Manque de bol, dans notre société, les inégalités de salaires hommes-femmes persistent. L’algorithme a pensé ces différences comme normales et les a appliquées. Il aurait fallu les corriger.

Quel conseil donneriez-vous à une jeune femme qui veut entreprendre ?

Il faut commencer par se faire plaisir, se concentrer sur sa volonté et sa passion, elles ont toujours été mes moteurs. Le reste, l’ambition ou le succès, va suivre.


Article source : Jasmine Anteunis entrepreneuse dans l’IA


10 IA vraiment utiles


L’IA crée déjà davantage d’emplois qu’elle n’en détruit

Publié sur Journal du net.com

Le 20 septembre 2018


Le senior vice president d’IBM Watson & Cloud Platform détaille ses ambitions et sa stratégie. Il alerte sur les risques d’une intelligence artificielle mal conçue.

Où en est le développement d’IBM Watson ?

David Kenny est le senior vice président d’IBM Watson & Cloud Platform chez IBM. Près de 16 000 applications embarquant la technologie de Watson ont été développées par des entreprises. Ce chiffre double chaque année et nous nous attendons à une croissance exponentielle dans la mesure où l’IA est en train de prendre une place prépondérante dans le monde de l’entreprise. Ces sociétés opèrent dans 22 industries différentes parmi lesquelles l’aviation, la finance ou la santé. La technologie Watson repose sur des algorithmes de machine learning qui deviennent plus performants à mesure qu’ils collectent davantage de données et apprennent.

Comment Watson se différencie-t-elle des autres intelligences artificielles ?

Jusqu’à présent, la plupart des IA étaient orientées vers le consommateur, notamment dans le vocal search à l’image de Siri ou Alexa. La spécificité de Watson est qu’elle a été pensée dès le début pour les entreprises. Nous ciblons en effet l’ensemble des sociétés qui, chaque jour, sont amenées à prendre des décisions à partir de leurs données. Dès le départ, nous avons conçu Watson pour augmenter les capacités de l’humain, et non pour le remplacer.

Quel pourrait-être l’impact de Watson dans le secteur de la santé ?

Notre vision est que Watson devienne l’assistant du docteur, et non le docteur lui-même. Cette technologie permet notamment de formuler des suggestions, qui peuvent, ou non, être prises en compte par un médecin. Ces recommandations sont toujours réalisées en toute transparence pour permettre au personnel de santé de comprendre comment Watson est arrivé à telle ou telle conclusion.

« Si un remède au cancer doit être trouvé, cela sera l’œuvre de l’humain »

Le système doit permettre aux médecins de prendre des décisions plus rapidement. Par exemple, pour qu’un cancérologue puisse être au courant de toutes les recherches publiées sur le cancer, il lui faudrait lire près de 36h par jour, ce qui est impossible ! Watson permet de collecter toute cette information et de la rendre accessible au médecin pour que celui-ci puisse prendre de meilleures décisions.

Pensez-vous que l’IA puisse permettre, un jour, de trouver un remède au cancer ?

Chaque année, l’intelligence artificielle augmente ses capacités en même temps qu’elle accroît ses connaissances. En théorie, il y a donc de fortes chances pour que l’IA permette de résoudre des problèmes importants dans les années qui viennent. Mais je ne veux pas faire de promesses. Pour le moment, l’IA permet essentiellement d’analyser des données, et il incombe à l’humain de prendre les décisions. Je pense que si un jour un remède au cancer doit être trouvé, cela sera l’œuvre de l’humain, et non de l’IA, même si les machines l’y aideront sans aucun doute. En conclusion, je ne pense pas que l’IA remplacera un jour l’humain, elle va simplement l’aider à être plus efficace.

Un mot sur la protection des données et sur votre adaptation à la norme européenne RGPD ?

Avant même l’entrée en vigueur de ce texte européen, nous disposions déjà de data centers en France. Mais nous voulons aller encore plus loin dans la sécurité et la transparence des données que nous stockons afin de permettre à chacun d’en garder le contrôle. Nous sommes très vigilants à ce que nos clients restent entièrement propriétaires de leurs données. Aux côtés du stockage physique de cette data, nous travaillons également à différentes solutions de chiffrement. Les clés de cryptage de ces systèmes sont détenues chez le client, et les données correspondantes ne deviennent exploitables qu’une fois celles-ci décryptées. Enfin, nous utilisons également la technologie de la blockchain pour traquer les mouvements de données.

Selon vous, l’IA va-t-elle créer plus d’emplois qu’elle ne va en détruire ?

« Pour assurer le succès de l’IA, il faut penser à la sécurité et à la transparence des données »

Je le crois profondément, et nous le constatons déjà chez nos clients ! Ceux qui ont déployé Watson à grande échelle ont aujourd’hui créé des emplois. L’IA permet aux entreprises de lancer des produits rapidement et donc de croître plus vite. A plus long terme, l’IA devrait donc booster la croissance économique, ce qui entraînera forcément des créations d’emplois. Je peux vous citer le cas du Crédit Mutuel qui a développé huit applications intégrant la technologie de Watson. Cela s’est traduit par une amélioration de la satisfaction des employés mais aussi de la performance du service client.

Quels sont vos futurs projets concernant Watson ?

Nous avons lancé en mars dernier Watson Studios. Cet outil permet à n’importe qui d’importer en temps réel des données et de les faire parler en utilisant l’IA de Watson ou d’autres IA open source. Je pense que, dans le futur, l’intelligence artificielle deviendra aussi facile à utiliser qu’Excel ou Powerpoint. Nous voulons rendre l’intelligence artificielle accessible au plus grand nombre et pas seulement aux développeurs.

Pensez-vous que l’IA puisse un jour devenir hors de contrôle, comme le craint notamment Elon Musk ?

Je ne le crois pas, à condition que nous soyons transparent sur la manière dont les décisions sont prises par l’IA et que nous définissions certains principes de transparence. Nous devons également nous montrer vigilants au niveau de la sécurité et de la confidentialité des données utilisées par ces systèmes. J’aime à penser que nous, humains, sommes suffisamment intelligents pour prendre les devants sur ces sujets importants. Certains pensent que nous freinons l’innovation et les avancées dans l’IA en nous concentrant sur ces questions. Mais en réalité, je pense que c’est le seul moyen d’assurer le succès de l’IA sur le long terme.

Article source : L’IA crée déjà davantage d’emplois qu’elle n’en détruit



Avec l’IA, la cybersécurité gagne un nouvel allié


Contrairement aux antivirus ou aux firewalls, la cybersécurité fondée sur les algorithmes d’apprentissage pourrait neutraliser les cyberattaques inconnues.

Publié le 5 octobre 2018, par Hassan MEDDAH.

L’exfiltration de données sensibles réalisée par le lanceur d’alertes Edward Snowden au détriment de la CIA en 2013, les vols de cartes bancaires des clients du distributeur américain Target ou encore le piratage de films et de la messagerie de Sony Pictures en 2014… Autant de failles de sécurité informatique qui ont défrayé la chronique ces dernières années. Celles-ci auraient pu être évitées si les installations piratées avaient eu recours à une cybersécurité dopée à l’intelligence artificielle (IA) !

La suite est réservée aux abonnés : Avec l’IA, la cybersécurité gagne un nouvel allié.


L’intelligence artificielle va-t-elle nous dépasser ?


Documentaire diffusé sur ARTE.

https://www.youtube.com/watch?v=nGUveC_OTPY

Pour se détendre …

Une intelligence artificielle poète passionne la toile




Passer à la seconde partie de l’étude…


Retour




Retour à la page d’accueil principale