L’Intelligence Artificielle 5/5



MENU :

ssss



L’IA, nouveau levier pour anticiper les pannes des applications cloud

L’intelligence artificielle se met au service de la maintenance préventive des applications cloud. Les experts du monitoring s’engouffrent dans la brèche.

Imaginez une intelligence artificielle capable d’identifier une panne informatique avant même qu’elle ne se produise. Le machine learning (ML) appliqué à la maintenance préventive des infrastructures IT est déjà une réalité chez les Gafam. Amazon, Apple, Facebook, Google et Microsoft mettent en œuvre de telles techniques sur leurs infrastructures en vue d’en optimiser la qualité de service. Mais l’heure de la démocratisation a sonné. Les poids lourds du monitoring d’applications cloud, au premier rang desquels AppDynamics, Datadog, Dynatrace et New Relic, ont commencé à implémenter l’apprentissage machine au cœur de leur offre, contribuant ainsi à mettre ces nouveaux outils à la portée des PME et des grands comptes.

« Le machine learning est déjà utilisé quotidiennement par nos clients », explique Gabriel-James Safar chez Datadog. Historiquement, l’éditeur a d’abord fait appel à l’apprentissage machine pour anticiper les pics de trafic et les besoins en ressources IT supplémentaires, par extrapolation, sur la base de l’analyse des historiques de logs et d’activités. Mais la maintenance prédictive est assez vite devenue une préoccupation majeure du groupe new-yorkais. « Il s’agissait de répondre à des questions telles que : ‘Existe-t-il un comportement anormal dans certaines métriques, laissant entendre qu’un dysfonctionnement est en cours ? », explique le responsable produit de Datadog.

Chez AppDynamics, l’implémentation du machine learning est plus récente, la première annonce datant de janvier 2019. Pour négocier son virage vers l’IA, la société de San Francisco s’est adossée à une technologie d’analyse de données temps réel issue d’un rachat bouclé en 2017 par sa maison mère Cisco (Perspica). Dans le sillage de l’opération, AppDynamics a commercialisé un premier moteur d’analyse prédictif basé sur cette brique. Baptisé Cognition Engine, « il applique des algorithmes d’auto-apprentissage aux historiques de production informatique pour détecter des anomalies, par exemple dans le cas où un indicateur de performance dépasserait un seuil inhabituel, mais aussi pour remonter aux causes des dysfonctionnements », détaille Erwan Paccard, directeur marketing produit chez AppDynamics France.

Améliorer l’alerting

De son côté, Datadog a commercialisé un tout nouvel outil de ML début mars. Baptisé Daylight Saving Behavior, il permet de détecter automatiquement des comportements utilisateurs aberrants sur certaines métriques, en fonction notamment du fuseau horaire. Un dispositif qui a pour but d’améliorer le processus d’alertes et mieux anticiper d’éventuels problèmes. « Globalement, nous avons recours à une large palette d’algorithmes pour générer nos tableaux de bord : automates cellulaires, classification, clustering, détection d’anomalies, de patterns dans la gestion de logs, ou encore prédiction de séries temporelles », égraine Gabriel-James Safar.

Chez AppDynamics, Erwan Paccard insiste : « Comme souvent en machine learning, la solution implique un data set basé sur un format unique et une sémantique pivot pour assurer des traitements de qualité. Elle doit également recouvrir l’ensemble du contexte, de l’exécution de l’application et de la base de données (temps de latence, taux de disponibilité, bug, crash… ndlr) jusqu’à la consommation en ressources machine en passant par les indicateurs d’impact business pouvant découler d’un incident. » Pour relever ce défi, AppDynamics met en avant une infrastructure d’agents de monitoring « taillée pour glaner des données riches et cohérentes sur l’ensemble d’une stack informatique« .

Autre défi technique : la nécessité de prendre en compte l’évolutivité de plus en plus rapide des systèmes. « Avec l’avènement des architectures dockérisées en microservices et du serverless, les applications changent en permanence. Ce qui rend les prédictions complexes à réaliser. Au final, les fenêtres de tir avec un niveau de fiabilité acceptable sont souvent trop étroites pour aboutir à des indicateurs véritablement pertinents. C’est comme la météo », compare Erwan Paccard. Objectif affiché par AppDynamics : parvenir à terme à bâtir une offre de maintenance préventive digne de ce nom, avec à la clé la promesse d’une gestion semi-automatisée voire automatisée des correctifs.

Vers une maintenance automatisée

Même démarche du côté de New Relic. La société californienne a annoncé fin février le rachat de SignifAI. Embarquant là-encore des composants de ML, cette technologie de maintenance prédictive sera prochainement intégrée à son offre. « Avec plus de 60 intégrations allant des outils open source à des outils de surveillance en passant par de nombreuses suites d’outils DevOps, SignifAI automatise la corrélation et enrichit le contexte des pannes informatiques permettant aux équipes de développement d’obtenir rapidement des réponses en cours d’incidents. Elle classe les alertes par niveaux de priorité et remonte aux causes d’un problème en vue d’optimiser les temps de résolution », indique Lew Cirne, PDG et fondateur de New Relic.

Fort de cette nouvelle brique, New Relic entend comme AppDynamics s’attaquer à la problématique de la supervision des systèmes cloud à base de serverless, de microservices et de containers. « Des environnements qui, compte tenu de leur complexité, peuvent engendrer des pannes en cascade », insiste Lew Cirne. A l’instar de son concurrent, la société compte là encore évoluer vers des processus de recommandation de solution et de maintenance automatisée.

Quid du ROI de ces nouvelles offres ? « Il est difficile de donner des chiffres prenant en compte tous les impacts que des algorithmes peuvent apporter aux équipes de production et de développement. Les dysfonctionnements peuvent parfois provenir de phases d’inattention des équipes. C’est pourquoi des fonctionnalités de machine learning d’apparence anodines mais bien pensées peuvent avoir un impact fort en permettant d’identifier les bonnes métriques », souligne pour finir Gabriel-James Safar chez Datadog.

Publié sur le Journal du Net

le 15 mars 2019 par Antoine Crochet-Damais

Lire également :
Les Échos : Cloud et intelligence artificielle, une synergie gagnante
Blue-cloud : Intelligence Artificielle



Le long chemin des PME vers l’intelligence artificielle


Les pouvoirs publics commencent à se mobiliser pour faire essaimer cette technologie dans les petites entreprises. Des diagnostics sur mesure se mettent en place. Pour inciter les patrons à se lancer, l’idée est aussi de démystifier.

« L’intelligence artificielle, tout le monde en parle, mais peu de gens en font. Moins de 15 % des entreprises françaises ont des solutions IA qui tournent, et ce taux est encore plus faible dans les PME. Il faut passer à l’action. » Chez  Sylvain Duranton, le directeur monde de la société de conseil BCG Gamma (Boston Consulting Group), c’est une conviction bien ancrée : les PME ont intérêt à se jeter dans le grand bain de l’IA. « Si les PME industrielles n’ont pas intégré rapidement le numérique, la blockchain et l’IA, elles risquent de se faire dépasser », abonde la députée d’Eure-et-Loir Laure de la Raudière, spécialiste du dossier. « Dans nos territoires, il vaut mieux miser sur la numérisation et le passage à l’IA, qui font grandir nos ETI, plutôt que de créer des pépinières à start-up qui sont un phénomène métropolitain. »

Améliorer sa production

Optimiser un flux logistique, contrôler la qualité d’une chaîne de production, prévenir une panne, utiliser la reconnaissance visuelle, fixer un prix en fonction de la météo, anticiper les besoins des clients…  Les applications ne manquent pas. Reste à sauter le pas. Mais nombre de dirigeants de PME méconnaissent les enjeux et les ressources à mobiliser (personnel formé, données de qualité…). En interne, des salariés redoutent d’être dépassés ou remplacés par une machine. « Dans les PME, il y a deux fois plus de salariés qui redoutent un impact de l’IA sur leur emploi. Et à peine 20 % des dirigeants de PME pensent que l’IA doit être une priorité », note Sylvain Duranton. « L’acculturation n’est pas toujours évidente », confirme Jean-Christophe Gougeon, dont les services chez bpifrance ont déjà audité une centaine d’entreprises dans le cadre de leur offre « Diagdata ». Sans compter l’investissement. « Les grosses PME industrielles commencent à s’y intéresser, par exemple dans le domaine de la papeterie. Certaines applications comme la mesure de la qualité d’un produit, la détection ou la prévention d’une panne leur sont accessibles. En revanche, la « machine autonome », celle qui répare-elle même sa panne suppose un niveau de technologique d’IA auquel les PME n’ont pas accès aujourd’hui » note Marc Damez-Fontaine, directeur Data Analytics chez PwC.

Jusqu’à présent, les PME devaient se débrouiller à peu près seules : elles demeuraient dans l’angle mort des politiques publiques en matière d’IA, très tournées vers les start-up et les grands groupes. Mais un accompagnement se met peu à peu en place. L’UE vient d’ouvrir une plate-forme dédiée. Et Bercy souhaite améliorer « rapidement » la pénétration de l’IA dans les petites entreprises. Elle est l’une des « briques » du plan de numérisation lancé cet automne au profit de 10.000 PME, avec, à la clef, audits et conseils. « Nous essayons de convaincre les PME, en particulier industrielles, que l’IA est un outil parmi d’autres pour la numérisation de leur outil productif », explique Thomas Courbe, le directeur de la DGE (direction générale des entreprises). 

Bercy lance également un « Challenge IA » mettant en relation une PME avec une start-up porteuse d’une solution, l’idée étant de diffuser ces cas d’usage. Les collectivités locales joueront un rôle de guichet dans ce plan. Certaines régions poussent aussi leurs propres pions, comme l’Ile-de-France, qui a lancé un « plan IA » comportant un « Pack PME », dispositif personnalisé d’accompagnement. Enfin, les pôles de compétitivité sont appelés à endosser le rôle d’entremetteurs. « Il faut jouer l’effet d’entraînement entre entreprises » confirme-t-on au cabinet de Valérie Pécresse, où l’on espère qu’une dizaine de « pépites » entreront dans le dispositif dès juillet. Laure de la Raudière estime que les grands groupes, plus avancés, devraient faire profiter leurs sous traitants de leurs

Les petites entreprises se saisiront-elles de ces mains tendues ?

Pour les y encourager, Bercy cherche à « démystifier » l’IA. « Nous avançons à deux niveaux. D’une part, des actions structurantes dans le cadre de la stratégie IA, notamment concernant la certification des algorithmes, la mutualisation des données entre entreprises, qui vont permettre de structurer l’IA française. D’autre part, cette approche volontariste mais très concrète en direction des PME, qui consiste à leur dire que l’IA peut aussi être modeste, que ce n’est pas forcément une rupture, et qu’elle peut leur apporter des solutions efficaces mais frugales ! » martèle Thomas Courbe. Chez Néovision, cabinet de conseil spécialisé, dont le portefeuille couvre aussi les PME, on note toutefois une grande diversité des visions des dirigeants. « Certains arrivent avec une approche opérationnelle : ils veulent résoudre un problème précis ; d’autres ont des attentes et une vision plus stratégique, car ils ont compris que c’est ainsi qu’ils créeront de la valeur et de nouveaux marchés », remarque Lucas Nacsa, le fondateur. « L’IA, contrairement à la révolution digitale, transforme le modèle de l’entreprise. L’objectif n’est pas uniquement d’améliorer la performance, mais de maîtriser sa data pour créer de la valeur », confirme Jean-Christophe Gougeon.


PME : Bruxelles offre des portes d’entrée à l’IA

La Commission européenne a lancé l’an passé un plan en faveur de l’intelligence artificielle. Elle veut inciter les PME à se lancer en facilitant leurs accès aux données et à des réseaux d’experts.

L’effort en faveur de l’intelligence artificielle (IA) doit être coordonné au niveau européen et intégrer les PME pour mieux imprégner l’économie. En cette année 2019, la Commission européenne commence à donner corps à  son plan d’action en faveur de l’IA , présenté mi-2018.

Thalès aux manettes

Mi-janvier, à Barcelone, le projet « AI4EU » a été officiellement lancé. Il vise à constituer des « plates-formes d’IA à la demande » rassemblant pour les PME et les entreprises publiques des sommes d’informations, de données et d’expertise. Le consortium, dirigé par Thalès, compte déjà 80 membres, dont 60 instituts de recherche issus de 22 pays.

L’UE y a alloué 20 millions d’euros pour les trois prochaines années et table sur un lancement effectif de la plate-forme, en cours d’élaboration, ces prochains mois. Des experts pourront notamment se déplacer dans les entreprises pour des missions d’analyse et de conseil tandis que la plate-forme devrait aussi proposer des cours et des formations. « L’Europe ne pourra tirer les pleins bénéfices des innovations permises par l’IA que si cette technologie est facilement accessible à tous », insiste la commissaire au Numérique, Mariya Gabriel.

Boîtes à outils

La boîte à outils de Bruxelles comprendra ainsi également des « pôles d’innovation digitale » devant permettre aux PME comme aux plus grandes entreprises, de tester des algorithmes d’IA et de peaufiner les modèles financiers et marketing liés. Quelque 66 millions d’euros viennent d’être alloués à ces pôles régionaux, qui ambitionnent, dixit Bruxelles, « d’aider 300.000 PME » à miser sur la robotisation. La priorité sera mise sur les domaines jugés les plus « d’intérêt public » : la santé, les transports, la sécurité et l’énergie.

Partage de données

L’ensemble s’accompagne d’une politique volontariste de faciliter et partager l’accès aux données, véritable pétrole de l’intelligence artificielle. Bruxelles va s’appuyer en particulier sur une réforme récente facilitant la réutilisation et la compatibilité des données publiques. La Commission évoque entre autres la création d’une base commune d’images médicales anonymisées, fondée sur les dons des patients, pour améliorer le diagnostic et le traitement des cancers par l’IA. Une plate-forme de données industrielles « de haute qualité » est aussi en voie d’élaboration.

Bruxelles met enfin l’accent sur l’enjeu de développer « une technologie respectueuse des droits fondamentaux et des règles éthiques ». Un groupe d’experts doit dévoiler ce mois-ci son rapport final, sur la base duquel la Commission jugera s’il convient ou non d’encadrer légalement en Europe l’essor de l’IA, par exemple en imposant certaines contraintes techniques dans la construction des robots.


Ces entreprises qui ont sauté le pas de l’IA


Chasse aux fuites, anticipation de pannes, optimisation logistique, prévisions météo… Certaines PME privilégient des applications concrètes.

« L’IA permet aux salariés de se dégager des tâches répétitives et pénibles pour se concentrer sur celles à valeur ajoutée. Elle est donc utile. L’est-elle pour toutes les PME ? Tout dépend de la maturité et du retour sur investissement. Il ne faut rien forcer. » Pour Lucas Nacsa, le PDG confondateur de Neovision – société de conseil en IA -, les besoins des entreprises sont à définir « au cas par cas ». Rien ne sert à un hôtelier de dupliquer une solution « qui tourne » avec des données météorologiques, s’il héberge plutôt des congressistes. En revanche, s’appuyer sur des données météorologiques fait les affaires de BCM Energy. La société gestionnaire d’énergie renouvelable peut ainsi anticiper et optimiser la production et la consommation. « L’IA permet d’avoir des solutions plus fiables et plus réactives. Mais cela suppose une montée en compétence et donc un investissement », souligne Marc Damez-Fontaine, directeur Data Analytics chez PwC. Exemples d’entreprises qui ont dopé leurs performances

Transarc optimise le trajet de ses cars

La société de transports scolaire dijonnaise Transarc n’optimisait pas suffisamment les trajets quotidiens de ses chauffeurs entre le lieu de dépôt de leur car et le point de « collecte » des écoliers. En recourant aux algorithmes, la société a remis à plat la répartition de ces trajets, et défini des zones de recrutement de chauffeurs.

Elle a ainsi économisé près de 50.000 euros dès le premier mois et son gain devrait se monter à 200.000 euros sur un an. Transarc cherche désormais à développer l’IA dans d’autres domaines.

OOgarden fait la chasse au vide

Oorgarden, société basée à Ambérieux-en-Bugey (Ain), spécialisée dans le mobilier de jardin, aspirait à chasser le vide (coûteux) dans ses colis de livraison de produits de jardin. Conseillée par Néovision, l’entreprise a recouru à l’IA pour optimiser le conditionnement des colis ainsi que l’agencement de ses camions de livraison.

PellencST prévient les pannes

L’entreprise PellencST, qui fournit des solutions de tri et de recyclage des déchets, a équipé plusieurs machines d’un dispositif intelligence artificielle. Les techniciens sont ainsi prévenus à l’avance d’un risque de « bourrage » de la machine. « Économiser deux heures de panne sur de tels volumes de traitement de déchets permet de gagner des dizaines de milliers d’euros, explique Laurent Couillard, le patron de la start-up InUse (spécialisée dans la maintenance connectée) qui leur a fourni la solution qui équipe désormais l’usine d’Ölbronn de Suez.

Hellenics Dairies économise l’eau

Leader grec des produits laitiers (sous la marque Olympus notamment), la société Hellenics Dairies a eu recours à InUse et à l’entreprise Ice Water Management pour optimiser le nettoyage de ses machines grâce à des objets connectés et de l’intelligence artificielle. Les cycles de « nettoyage en place », réalisés une vingtaine de fois par jour, ont été connectés et la présence de capteurs permet d’économiser 20 % d’eau. Un système de détection de fuites a également été installé dans l’usine roumaine, qui produit 600 tonnes de lait, avec, à la clef, 450.000 euros d’économies. Quatre autres sites de production seront bientôt équipés.



Therapixel, l’IA au secours du diagnostic des cancers du sein

La start-up française spécialisée dans les technologies médicales vient de lever 5 millions d’euros. Elle développe un système d’analyse des mammographies grâce à un système d’intelligence artificielle.

Therapixel est souvent présentée comme l’une des pépites françaises de l’intelligence artificielle appliquée au monde médical. Ce mercredi, elle annonce en exclusivité aux « Echos » avoir levé cinq millions d’euros auprès d’Omnes et de M Capital Partners.

De quoi l’aider à assurer son développement, à renforcer ses équipes et à préparer la commercialisation d’un de ses principaux produits : un système d’intelligence artificielle qui permet d’affiner le diagnostic des cancers du sein. Un logiciel avec lequel elle a remporté en 2017 le Dream Challenge, une compétition internationale de détection par ordinateur des tumeurs sur des mammographies. Il réduisait de 5 % le nombre de faux positifs (lorsque la machine voit une tumeur là où il n’y en a pas) par rapport aux autres systèmes.

L’article complet : Therapixel ou L’IA au secours du diagnostic des cancers du sein

Publié sur Les Échos 18 mars 2019
Par Laurence Albert



Des chercheurs publient un article scientifique, en français, qui résume les problématiques liées à l’utilisation des systèmes d’intelligence artificielle et dessine quelques pistes pleines d’espoir.

Les systèmes d’intelligence artificielle (IA) ont été conçus sur les mêmes principes que l’intelligence humaine, ils héritent donc aussi de sa bêtise, racisme et sexisme compris, si la base de données qui a servi pour leur apprentissage traduit cette bêtise.
« ‘Garbage in, garbage out’ que l’on pourrait traduire en français par ‘foutaises en entrée, foutaises en sorties’ fait référence au fait que même l’algorithme le plus sophistiqué qui soit produira des résultats inexacts et potentiellement biaisés si les données d’entrée sur lesquelles il s’entraîne sont inexactes. »
C’est ce que rappellent des chercheurs de Télécom ParisTech dans un article écrit en partenariat avec la Fondation Abeona :
« Algorithmes : biais, discrimination et équité »



Pourquoi les étudiantes doivent s’emparer de l’intelligence artificielle en urgence


Une étude du Georgia Institute of Technology, qui met en avant le fait que les voitures autonomes détecteraient moins bien les piétons à la peau foncée,  vient de le prouver une nouvelle fois : l’intelligence artificielle n’est pas infaillible et contient de nombreux biais. Et si rien ne change dans la manière de concevoir les modèles mathématiques derrière cette technologie, ce sont des populations entières — femmes et minorités ethniques en premier lieu — qui pourraient en subir les préjudices.

C’est en tout cas le point de vue de nombreuses et nombreux lanceurs d’alertes, issus et/ou travaillant avec cette technologie. « Il y a une urgence. Il ne faut pas que les algorithmes qui vont orienter 90% de nos actions soient écrits par des hommes« , a affirmé Caroline Lair, account executive au sein de la startup d’assistant vocal Snips, à l’occasion d’une rencontre avec quelques journalistes au Hub Bpifrance ce jeudi 7 mars 2019. « Pour que ces algorithmes soient justes et équilibrés, il faut que les femmes viennent », renchérit Cécile Morel, global key account specialist chez Cenareo.

Selon l’étude Gender Scan de Global Contact, en 2017, la proportion de filles qui s’orientent vers les formations high tech chute ou stagne en France, à des niveaux très bas : 13% en 2015 en sciences de l’ingénieur en terminale, 8% en IUT informatique, 7% en informatique/traitement des données.

Dans leur livre « L’Intelligence artificielle, pas sans elles ! », les docteures en sciences Aude Bernheim et Flora Vincent défendent l’idée qu’il ne faut pas attendre le recrutement en entreprise pour changer les mentalités mais agir lors du parcours scolaire. « Dans les écoles d’informatique et de mathématiques, des modules spécifiques sur « encoder l’égalité » changeraient les regards », disent-elles dans le journal Le Monde.

C’est aussi ce que pense Caroline Lair, également cofondatrice de l’association Women in AI, qui incite les femmes à rejoindre le secteur des IA, par de multiples actions dont des rencontres dans les collèges et lycées. « Il faut aller chercher ces jeunes filles, leur donner confiance. A 15-16 ans, on ne les a pas encore perdues. On leur dit que pour bosser dans l’IA, il ne faut pas forcément savoir coder mais comprendre ce qui se passe. C’est la formation d’une ingénieure. »

Il semble que les choses commencent à bouger en France. Citons, à titre d’exemples non exhaustifs, l’école d’informatique 42 qui dit avoir enregistré près de 30% de femmes aux sélections de février, le Wagon avec des promos composées à 30% de femmes ou l’ouverture d’une nouvelle école de code et de création technologique Ada School qui devrait voir le jour en septembre 2019, avec le soutien de Station F, l’incubateur The Family et la Région Ile-de-France.

Pourquoi les étudiantes doivent s’emparer de LIA en urgence
Publié sur Business Insider France le 7 mars 2019.

A lire aussi : Le manque de diversité dans la tech en Europe est ‘préoccupant’ assène un associé du fonds d’investissement du cofondateur de Skype



Une intelligence artificielle au pouvoir? 1 Français sur 4 serait d’accord

Ne plus laisser les décisions importantes aux hommes politiques, les Britanniques et néerlandais y sont encore plus favorables.

Alors que les démocraties occidentales traversent une crise de représentativité majeure, un Français sur quatre serait prêt à laisser une intelligence artificielle (IA) prendre les décisions importantes pour l’avenir du pays

Ce chiffre provient d’un sondage réalisé dans huit pays européens par un centre de recherche de l’université IE de Madrid. Sur l’ensemble des sondés (2500 personnes), le résultat est similaire: 25% des Européens seraient prêts à laisser des algorithmes gouverner plutôt que des hommes politiques pour prendre les bonnes décisions. Un chiffre qui monte à 30% en Allemagne, Italie, Irlande, Royaume-Uni et même à 43% aux Pays-Bas.

Certes, cela veut aussi dire que la majorité des personnes interrogées n’est pas enthousiasmée par un tel futur, contrôlé par l’intelligence artificielle. Mais vu l’énormité de la question posée, le chiffre interroge sur la santé de nos démocraties et fait écho à de nombreuses œuvres de science-fiction.

On pense évidemment au fameux Skynet de Terminator, mais aussi à la nouvelle de Philip K. Dick, les Marteaux de Vulcain. Ou encore à celle d’Isaac Asimov, « La preuve », qui imagine un robot président se faisant passer pour un humain afin de protéger l’humanité sans son accord. Une thématique prégnante dans une bonne partie de l’œuvre prolifique de l’auteur.

L’IA dirigeante du futur et ses risques

Dans l’idée, de super ordinateurs nourris d’algorithmes pourraient prendre les meilleures décisions, basées sur des données objectives, afin qu’elles bénéficient au plus grand nombre. On pense évidemment au défi du réchauffement climatique, qui demande des actions draconiennes, mais difficiles à mettre en place, car elles impliquent des mutations profondes de la société.

Il y a aussi la possibilité, plutôt improbable au vu de notre connaissance scientifique, qu’une intelligence artificielle se révolte et détruise l’humanité par dessein. Pire, si l’on pousse le raisonnement à l’extrême, une IA n’aurait pas besoin d’être « mauvaise » pour détruire l’humanité. C’est ce qu’a imaginé Eliezer Yudkowsky, un écrivain américain, avec l’histoire de l’optimisateur de trombones. Imaginons une super IA, omnipotente ou presque, à qui l’on confie la tâche de maximiser le nombre de trombones en sa possession. Une tâche certes simpliste, mais qui a le mérite d’être « neutre » moralement. Pourtant, cette simple requête pourrait entraîner la destruction du système solaire, si on extrapole un peu.

En effet, une super IA va s’améliorer avec le temps, devenant de plus en plus intelligente et de plus en plus efficace. Elle va donc chercher par tous les moyens à créer de nouveaux trombones, quitte à utiliser toutes les particules physiques disponibles pour en faire des milliards de milliards de trombones, nous y compris.

Smart city and global network concept.

Des biais bien présents

Même sans imaginer ces scénarios encore bien éloignés de la réalité (et pour l’instant inatteignables au vu de nos connaissances scientifiques), l’idée d’une gestion d’un pays par une intelligence artificielle comporte de vrais risques. En dehors même de la disparition du libre arbitre. Dans un rapport publié fin 2018, un millier d’experts du domaine faisaient part de leurs inquiétudes (mais aussi de leurs espoirs) concernant le pouvoir grandissant de l’IA.

La dépendance était mise en avant, de même que la perte de contrôle, notamment via de possibles « boites noires ». C’est-à-dire le fait qu’une IA propose une solution en apprenant par elle-même, grâce à des millions d’exemples, sauf qu’il est impossible de savoir exactement comment elle arrive à son résultat.

Or, il est nécessaire de comprendre comment les algorithmes font leur choix, car si nous ne savons pas ce qu’il se passe, nous serons incapables de déceler les biais de la machine. Ceux-ci sont souvent dus à nos propres biais ou au fait que les informations fournies sont incomplètes ou partiales. Cela pourrait créer des IA « psychopathes », si l’on extrapole, comme l’ont fait des chercheurs en faisant passer le test de Rorschach à une machine biaisée.

Robots voleurs d’emplois

Autre problème soulevé lié à l’émergence de l’intelligence artificielle, la crainte d’une destruction d’emplois. Ce sujet polémique fait régulièrement débat depuis des années. Certains se demandent si la majorité des métiers ne va pas finir par être automatisée, par des robots ou des algorithmes. D’autres estiment que si certains emplois vont disparaître, de nouveaux vont émerger. Au global, le résultat sera positif. Impossible de trancher le débat, mais même si ces emplois sont créés, reste à savoir quand, comment et quel type d’emploi.

Le sujet a d’ailleurs été abordé dans le sondage, précise le rapport, mis en ligne le mardi 19 mars et repéré par Quartz. 56% des Européens ont ainsi peur que les robots et l’IA puissent remplacer la majorité des humains au travail.

Heureusement, il y a de nombreuses raisons d’avoir de l’espoir pour l’avenir. Mais il faudrait pour cela que la société prenne en compte ces risques et agisse en fonction. Et c’est ici, dans le sondage, que les hommes politiques refont leur apparition. Environ sept sondés sur dix pensent que le gouvernement doit intervenir pour limiter l’automatisation (par exemple aux emplois dangereux ou en manque de main d’œuvre), ou pour agir afin d’aider les citoyens touchés (taxe spéciale ou aides sociales et économiques).

Avant d’imaginer un futur où une intelligence artificielle remplace les hommes politiques, il faudra que ceux-ci encadrent l’IA.


L’Intelligence Artificielle (IA), à quoi ça sert (concrètement) ?

L’intelligence artificielle, on en entend parler partout et parfois pour n’importe quoi. Mais de quoi est-elle réellement capable ? Voici une liste d’utilisations concrètes de l’IA.

L’intelligence artificielle telle qu’elle existe dans l’imaginaire collectif est un fantasme de science-fiction. Oubliez HAL 9000, oubliez les robots d’Asimov, oubliez le T800 de Terminator, nos intelligences artificielles sont encore très loin du compte. Fin 2018, Yann Le Cun, responsable de la recherche IA chez Facebook, clamait que « l’intelligence artificielle n’est même pas au niveau du cerveau d’un rat ».

L’illusion pourrait tromper certains, mais Google Assistant, Alexa et surtout Siri ne sont nullement capables de converser réellement avec nous. Ces assistants personnels ne font que comprendre en partie certains termes qui ponctuent nos phrases pour aller chercher des réponses prédéfinies sur un service correspondant. Tous sont encore bien loin de passer le test de Turing, même Google Duplex, l’IA conversationnelle présentée à la Google I/O 2018 ou son rival chinois développé par Alibaba.

Pourtant, l’IA est présente partout. Rares sont les conférences tech qui n’ont pas prononcé le mot au moins une fois. Alors qu’est-ce que c’est vraiment et à quoi ça sert ?

Qu’est-ce que l’intelligence artificielle ?

Il ne faut pas voir l’IA actuelle comme les œuvres de SF nous les décrivent, mais comme des appareils ayant appris d’eux-mêmes par le biais du machine learning. Grâce à un réseau neuronal et une grande quantité de données, une intelligence artificielle est capable de reconnaître certains éléments en discernant les différences entre deux réponses test et finalement à s’améliorer d’elle-même.

C’est ensuite à son programmeur d’affiner l’ensemble pour que les réponses correspondent à celles souhaitées. Par exemple, il est possible d’apprendre à une IA que tout ce qui est petit, a des poils et une queue est un chat, mais elle risque de se tromper si on lui montre un chien. Il faudra donc peaufiner l’ensemble pour ajouter le paramètre « miaule » (par exemple), sans quoi les réponses risquent d’être trop larges.

Toujours est-il qu’aujourd’hui, les intelligences artificielles sont très spécialisées et il en existe à peu près autant qu’il y a de domaines de recherches. L’IA de Google Photos est par exemple très impressionnante, mais ce n’est pas elle qui va répondre à nos requêtes Google Home, et inversement.

Aussi, il existe actuellement un très grand nombre de projets autour de l’intelligence artificielle aujourd’hui. Des projets concrets, parfois déjà même accessibles du grand public, qui ont de très nombreuses utilités. Certaines sont assez peu utiles au quotidien, mais d’autres sont bien plus pratiques dans notre vie de tous les jours.

À quoi sert l’intelligence artificielle ?

L’IA a de multiples cas d’utilisation. Elle permet d’améliorer certains éléments déjà existants, ou encore de remplacer des limitations matérielles. Les Google Pixel en sont le parfait exemple avec un mode portrait particulièrement pointu capable de déterminer ce qui se trouve au premier et au second plan d’une photo, quasi uniquement de façon logicielle. Mais voyons plutôt quelles sont les possibilités de l’intelligence artificielle !

Pour la photo et la vidéo

Comme dit plus haut, l’imagerie est un domaine propice à l’intégration de l’intelligence artificielle, avec une volonté de proposer la meilleure des qualités dans des produits toujours de plus en plus petits. Google est un acteur important dans ce domaine, avec son mode portrait, mais aussi et surtout son mode nuit.

Bien plus efficace qu’une simple pause longue, le mode « night sight » de Google arrive non seulement à récupérer des informations dans des zones totalement bouchées, à les retranscrire sans bruit numérique, mais aussi à en adapter la colorimétrie. Dans l’idée, l’appareil photo d’un Pixel 3 serait capable de retrouver vos chaussettes rouges dans le noir, bien plus efficacement que vos yeux !

Bien sûr, Google n’est pas le seul sur ce secteur et bon nombre de constructeurs proposent aujourd’hui un mode nuit plus ou moins convaincant, mais que l’on pourrait souvent imaginer faisable avec un simple algorithme couplant une photo simple à une pause longue et un bon système de réduction de bruit numérique. Rares sont ceux qui arrivent à rendre cette précision des couleurs comme les Pixel pour le moment.

Chacun son domaine néanmoins puisque d’autres comme Oppo ou Huawei misent plutôt sur le zoom. Avec un téléobjectif qui rapproche un peu et de l’intelligence artificielle pour « recréer » les pixels perdus par un zoom numérique, on obtient ainsi des « zoom » x5 ou x10 « sans perte ». On retrouve également de nombreux cas de détection de scène, ajustant les réglages de l’appareil photo et le traitement logiciel qui s’en suit pour rendre le meilleur résultat à l’œil ou tous les modes Super HDR qui permettent de retrouver des informations dans des images très contrastées avec une simple photo (alors qu’il en faut normalement 3 au minimum pour du HDR « classique ».

On retrouve également de nombreux cas de détection de scène, ajustant les réglages de l’appareil photo et le traitement logiciel qui s’en suit pour rendre le meilleur résultat à l’œil ou tous les modes Super HDR qui permettent de retrouver des informations dans des images très contrastées avec une simple photo (alors qu’il en faut normalement 3 au minimum pour du HDR « classique ».

La stabilisation par intelligence artificielle est également impressionnante chez certains. Il existe en effet plusieurs façons de stabiliser un appareil photo : en stabilisant le capteur sur plusieurs axes, en stabilisant l’objectif (sur plusieurs axes) ou avec une fonction logicielle. Bon nombre de constructeurs utilisent aujourd’hui des techniques hybrides à base de stabilisation matérielle et une stabilisation à base de machine learning qui permet de prendre des photos moins floues sur un temps de pause plus ou moins long. De même pour la vidéo.

Attention néanmoins de ne pas confondre  cela avec de simples algorithmes

Certains promettent également une « super résolution » avec des photos très détaillées dont la plupart des pixels ont été reconstruits logiciellement. Attention néanmoins de ne pas confondre cela avec de simples algorithmes qui bouchent les creux en faisant une moyenne des pixels proches (fonction que l’on trouve dans tous les bons logiciels de retouche photo).

Qualcomm a également fait quelques démonstrations lors de la présentation de son Snapdragon 855 de plusieurs utilisations comme la possibilité de créer un mode portrait (avec un flou en arrière-plan) à la volée en vidéo (Skype a d’ailleurs intégré une fonction similaire récemment), mais aussi la possibilité de changer totalement l’arrière-plan, toujours à la volée. Dans le même genre, on peut également citer les améliorations de mise au point intelligente en vidéo.

Tout n’est pas rose cependant puisque l’IA peut également être utilisée pour accoler un visage de quelqu’un dans un vidéo, ce qui a fait le bonheur de certains amateurs de pornographie.

Ces dernières fonctionnalités sont notamment possibles grâce à une reconnaissance faciale du sujet principal.

Reconnaissance faciale et biométrie

La reconnaissance faciale en général est d’ailleurs un secteur très prisé dans la recherche en intelligence artificielle, puisque, à terme, elle pourrait aller plus loin encore en définissant des profils types et reconnaître certains éléments pour par exemple déjouer des attentats en se basant sur des expressions faciales et autres tics musculaires. Des recherches encore aujourd’hui imprécises.

Google Photos et Apple Photos nous montrent néanmoins leur force dans la reconnaissance de scène et d’objets au quotidien. Dans mon cas, en cherchant « canette » dans Google Photos, je tombe ainsi sur des photos où l’on peut effectivement voir une boisson en arrière-plan, c’est assez impressionnant

La reconnaissance faciale dans MIUI 7, ce n’est plus une nouveauté

En allant plus loin encore, l’intelligence artificielle peut proposer de nombreuses solutions de biométrie et reconnaître un même visage avec et sans barbe ou avec et sans lunettes par exemple, toujours avec la même précision. Des startups comme ArcSoft, AnyVision ou Morpho ont ainsi fait de la reconnaissance biométrique par AI leur cheval de bataille.

L’audio

Mais l’IA ne se base pas que sur des images. On peut évoquer également quelques prouesses dans le domaine du son. Il y a bien sûr les compositions, comme le smartphone de Huawei qui a terminé la symphonie inachevée de Schubert, mais aussi des avantages bien plus concrets au quotidien.

Le principal concerne la reconnaissance de discours, qui ouvre ensuite le champ à de nombreuses applications. Certains se sont tournés vers la traduction en temps réel, comme Google avec ses Pixel Buds, mais aussi d’autres startups. D’autres encore se concentrent sur la réduction de bruits parasites. Imaginez-vous téléphoner dans un bar bruyant, et votre correspondant n’entendant que votre voix, le tout avec un seul et unique microphone (alors que les téléphones actuels utilisent un second microphone sur le dessus pour capturer le bruit ambiant et le supprimer). Encore une fois, on en revient au remplacement d’éléments matériels. Dans un genre un peu différent, on peut également citer des solutions de reconnaissance de musique se rapprochant de Shazam ou tout simplement de l’option intégrée dans Google.

Bien plus à venir

Ce ne sont là que quelques exemples de l’IA que nous pouvons rencontrer au quotidien, mais l’IA a bien sûr une multitude d’autres utilités déjà aujourd’hui et encore plus à venir dans les prochaines années.

Beaucoup de constructeurs misent aujourd’hui sur l’IoT par exemple. Imaginez une caméra dans votre réfrigérateur qui vous indique quand vous arrivez à court de votre aliment ou de votre boisson préférée. Imaginez un routeur capable de détecter la présence d’une personne chez vous juste par la propagation de ses ondes. Les possibilités d’usages sont quasi infinies. Ne reste désormais plus qu’à les inventer et surtout à les mettre en pratique.


Scikit-learn, l’IA open source française qui s’impose dans le monde

Le projet orchestré par l’INRIA devient l’infrastructure de machine learning de référence aux côtés des frameworks de deep learning tels que Keras ou Tensorflow.

Initié et piloté en France par l’INRIA et Télécom ParisTech, le projet open source Scikit-learn est devenu une référence dans le monde de l’intelligence artificielle. De Paris à San Francisco en passant par Singapour, la bibliothèque de machine learning, écrite en Python, s’impose aux start-up jusqu’aux grands groupes, Gafam compris.

Preuve de cet engouement, dans le dernier baromètre de la Python Software Foundation, Scikit-learn se hisse en cinquième position des frameworks et librairies de data science Python les plus utilisés tous domaines confondus. Il est cité par près d’un tiers des 20 000 développeurs interrogés. Et dans la catégorie des technologies d’apprentissage machine stricto sensu, elle occupe la première place du palmarès. Elle se classe même largement devant les infrastructures de deep learning Tensorflow et Keras qui, de leur côté, totalisent respectivement 25% et 15% des suffrages.

Comment expliquer ce succès fulgurant ? Scikit-learn recouvre les principaux algorithmes de machine learning généralistes : classification, régression, clustering, gradient boosting… En parallèle, le framework embarque NumPy, Matplotlib et SciPy, trois librairies star du calcul scientifique comme l’illustre encore l’indice de la Python Software Foundation (dans lequel elles trustent successivement la première, troisième et quatrième position). « Du coup, la communauté des chercheurs rompus au calcul matricielle l’a rapidement adoptée », constate Aymen Chakhari, directeur IA et data science au sein de Devoteam.


Dataiku, Microsoft et IBM dans la boucle

Par voie de conséquence, Scikit-learn est également la bibliothèque de machine learning la plus souvent présente dans les cursus d’enseignement supérieur en data science. Résultat : un large contingent de jeunes diplômés et d’experts prêts à la déployer en entreprise sont venus alimenter le marché de l’emploi, faisant encore monter la mayonnaise.

« L’un de ses principaux points forts : une documentation claire et didactique avec des packages prêts à l’emploi »

Quant aux fournisseurs d’outils d’IA commerciaux, ils ont rapidement vu dans Scikit-learn une potentielle poule aux œufs d’or. Sa disponibilité en open source (sous licence BSD) et son mode de développement communautaire ont fait le reste. L’infrastructure est désormais implémentée par plusieurs poids lourds de la data science dont le Français Dataiku, l’Américain DataRobot et l’Allemand Knime. Elle est aussi prise en charge par un nombre croissant d’acteurs du cloud. C’est le cas de Google via son service Cloud Machine Learning Engine, d’IBM avec Watson Machine Learning ou encore de Microsoft par le biais d’Azure Machine Learning.

« L’un des principaux points forts de Scikit-learn est de proposer une documentation claire et didactique avec des exemples d’implémentations et des packages prêts à l’emploi. Tensorflow se révèle beaucoup plus difficile à paramétrer

Bouzid Ait Amir, responsable du pôle analytics chez Keyrus

De l’hyperparameter tuning

Parmi ses facteurs de différentiation, Scikit-learn est plébiscitée pour sa méthode de validation croisée. « En amont, elle fournit la possibilité de générer très simplement les bases d’entrainement et de test », explique Bouzid Ait Amir. Ensuite via un mécanisme de grid search, la validation croisée permet de dénicher les paramètres du modèle se rapprochant le plus des prédictions attendues. Le processus ajuste l’échantillonnage de la base de test en la confrontant à la base d’apprentissage par itérations successives (voir schéma ci-dessous). « L’objectif est d’aboutir au bon réglage en termes de seuils, par exemple ne pas dépasser 2% en matière de détection de fraudes », détaille Bouzid Ait Amir.

Processus de validation croisée mis en œuvre par Scikit-learn dans le cadre de son mécanisme d’hyperparameter tuning. © Scikit-learn

Autre point fort de Scikit-learn, la librairie embarque toute une palette de méthodes pour piloter le pre-processing des data sets en amont des phases d’apprentissage. « Elles gèrent leur extraction, leur nettoyage, leur formatage et leur labellisation », égraine Aymen Chakhari. Sur ce terrain, Bouzid Ait Amir regrette que Scikit-learn n’intègre pas Pandas. « Lors de cette délicate étape de préparation, cette librairie permet de manipuler les données sous forme de tableaux plutôt que de matrices comme le fait Scikit-learn. C’est plus pratique », reconnait l’expert de Keyrus. Les deux bibliothèques peuvent néanmoins travailler de concert. Une première passerelle entre Scikit-learn et Pandas est par ailleurs en développement.

La faiblesse d’un langage interprété

Évidement, Scikit-learn souffre d’une faiblesse congénitale à la technologie Python. Ce dernier étant un langage interprété, la librairie ne peut pas offrir les performances d’un langage compilé. « Python gère cependant beaucoup mieux la mémoire vive que R (un autre langage star de la data science, orienté statistique, ndlr) », rappelle Bouzid Ait Amir. Et Aymen Chakhari de réagir : « Le Cython résout en partie le problème en ouvrant la possibilité de compiler des composants Python en C ou en C++. Quelques algorithmes sont disponibles dans Scikit-learn pour ce langage. C’est le cas de la famille des SVM (pour Support Vector Machines ndlr). Compte tenu de cet avantage, on pourrait imaginer que d’autres soient implémentés à l’avenir par la communauté. »

Mais, une autre voie se profile à l’horizon pour améliorer encore les performances de Scikit-learn. « Nous étudions la possibilité d’intégrer au framework des dispositifs d’apprentissage par renforcement », confie Aymen Chakhari qui fait aussi parti des contributeurs du projet open source (lire l’article : Deep reinforcement learning, l’IA capable de surpasser l’humain).



Antonio Casilli : l’intelligence artificielle est largement « faite à la main »


L’essor de l’intelligence artificielle (IA) réactualise les peurs et fantasmes inhérents à tout processus d’automatisation : remplacement des hommes par les machines, fin du travail, chômage de masse. Pour Antonio Casilli, ces raccourcis occultent la spécificité de la « transformation digitale » que nous vivons. Loin de supprimer le travail, elle le déplace, le découpe et le parcellise. Avec son ouvrage En attendant les robots, enquête sur les travailleurs du clic, le sociologue nous fait changer de perspective : derrière les discours ronflants vantant les vertus d’une automatisation libératrice, une autre réalité couve, celle de millions de « travailleurs du clic », des petites mains mises à contribution pour entraîner et améliorer les services numériques du quotidien. Un modèle qui pourrait bien préfigurer le (vrai) futur du travail.

L’article complet : En attendant les robots
Publié sur MaisOuVaLeWeb
Livre aux éditions du Seuil : En attendant les robots


Intelligence artificielle : la Chine au top, la France dans le peloton de tête


L’intelligence artificielle se développe partout dans le monde et très rapidement. Et c’est la Chine qui est en pointe.

Il y a deux fois plus d’entreprises qui utilisent l’intelligence artificielle en Chine qu’aux États-Unis et trois fois plus qu’en Europe. Le gouvernement chinois soutient énormément toutes ces entreprises. Ensuite, pour développer l’intelligence artificielle, il faut des données, et la Chine a des lois moins contraignantes que les pays occidentaux pour récupérer les données personnelles.

L‘intelligence artificielle est une technologie qui se déploie très vite. Une entreprise sur 25 est concernée. Ce sera une entreprise sur trois dans trois ans. A titre de comparaison, il a fallu dix ans pour que les entreprises utilisent les technologies du web.

Les entreprises se servent de l’intelligence artificielle pour mettre en place les assistants conversationnels et automatiser des tâches administratives, comme la gestion des fraudes dans la finance ou le traitement des plaintes dans les assurances.
Dans l’Union européenne, 30% des start-ups qui travaillent sur l’intelligence artificielle sont basées au Royaume-Uni. La France complète le podium avec l’Allemagne. Tous deux sont en train d’attirer ces entreprises qui quittent le Royaume-Uni à cause du Brexit.

A voir pour la vidéo d’Anicet Mbida : IA, la Chine au top, la France dans le peloton de tête

Publié sur FranceInfo.tv



L’intelligence artificielle va-t-elle aussi tuer la démocratie ?

Et si la démocratie que l’on croyait invincible était désormais menacée de mort par l’intelligence Artificielle ?

À l’origine, le progrès des nouvelles technologies devait devenir le principal outil de promotion de la démocratie. Et voilà que l’intelligence Artificielle se révèle au fil des années un instrument majeur de désinformation et de contrôle, au service des entreprises qui la détiennent, mais aussi des mouvances extrémistes qui l’utilisent.

Cette confrontation passionnante entre le savant et le politique est d’abord un appel à la Résistance.

Laurent Alexandre, l’un des spécialistes français de l’IA, nous met en garde : ni la France ni l’Europe n’ont pris la mesure qu’impose une telle révolution qui rend chaque jour plus vulnérables les institutions, les libertés et les hommes qui se battent pour les sauver.

Jean-François Copé, fort de son expérience, partage la même inquiétude. La démocratie est menacée de mort… sauf si on consacre les dix ans qui viennent à bâtir une « IA nation » dans laquelle chaque citoyen prendrait sa part et aurait sa place.

Un livre autant intéressant que passionnant. Une première partie un peu pamphlétaire (comme à son habitude) de M. Laurent Alexandre et une partie plus introspective de M. Jean-François Copé. Un livre à lire !

L’intelligence artificielle va-t-elle aussi tuer la démocratie ?
Publié au éditions JC Lattès, Collection Coup de Sang



7 principes pour une IA éthique

La Commission européenne annonce une phase pilote pour tester ses lignes directrices concernant l’intelligence artificielle éthique.

De la théorie à la pratique. En décembre 2018, le groupe d’experts de haut niveau publiait une première version de ses lignes directrices sur l’éthique en matière d’intelligence artificielle. Après une phase de consultation qui a servi à recueillir des remarques additionnelles, il est désormais temps de passer à l’étape d’après, celle de l’expérimentation. La Commission européenne vient en effet d’annoncer une « phase pilote », lancée le 8 avril, pour que ces fameuses lignes directrices sur l’IA éthique « puissent être mises en œuvre dans la pratique ». Cette procédure est ouverte à l’industrie, aux instituts de recherche et aux autorités publiques. Cette phase pilote doit s’étendre jusqu’en 2020, qui se conclura avec un bilan établi par le groupe d’experts.

Représentation d’un arbre de décision, méthode qui peut servir dans l’intelligence artificielle.

Sept principes pour une IA éthique

L’aboutissement à une intelligence artificielle éthique requiert sept principes, que la Commission européenne rappelle ci-après. À la suite de ce travail, et en fonction des conclusions qui pourront en être tirées, des étapes supplémentaires pourront être décidées par la Commission européenne.

Autres initiatives dans les tuyaux

Plusieurs autres rendez-vous sont prévus en 2019 et 2020 au sujet de l’éthique et de l’intelligence artificielle. En juin, le groupe d’experts produira un autre travail, centré cette fois sur les recommandations en matière de politique, de régulation et d’investissement. Puis, d’ici cet automne, la Commission européenne donnera le coup d’envoi de plusieurs initiatives.

Cela va de la mise en place d’un réseau de centres d’excellence en matière d’intelligence artificielle à la création de pôles d’innovation numérique, en passant par des discussions avec toutes les parties concernées pour « concevoir et mettre en œuvre un modèle de partage des données et d’utilisation optimale des espaces de données communs », est-il écrit dans le communiqué bruxellois.

Publié sur Numérama le 9 avril 2019 par Julien Lausson



Fin de cette Partie

Passer à la suivante…


Retour