L’Intelligence Artificielle 2/5



Deuxième Partie



Un menu sera disponible ultérieurement pour passer directement à un article précis.


Google inaugure un laboratoire de recherche à Paris


Le centre doit embaucher un noyau dur d’une vingtaine de personnes dédiées à la recherche sur l’intelligence artificielle.


Ce doit être un nouveau nœud du réseau mondial de Google consacré à la recherche sur l’intelligence artificielle (IA). L’entreprise américaine a inauguré mardi à Paris son nouveau laboratoire de recherche en la matière, annoncé en janvier lors du sommet de grands patrons mondiaux « Choose France.

L’implantation de ce centre à Paris « est un signal fort de l’attractivité de la France dans un secteur technologique de pointe », a déclaré la secrétaire d’État auprès du ministre de l’Économie, Delphine Gény-Stephann, présente à l’inauguration.

« Les axes de recherche stratégiques retenus à ce jour -santé, environnement, vision par ordinateur, art- viendront renforcer l’expertise de l’écosystème français dans ces secteurs d’activité », s’est-elle félicitée.

Objectif : 300 emplois de plus en France


Le laboratoire parisien devrait employer un noyau dur d’une vingtaine de chercheurs, auxquels viendront peut-être se greffer dans un second temps des équipes chargées de développer des applications issues des recherches parisiennes, a expliqué Olivier Bousquet, le patron des activités d’intelligence artificielle de Google en Europe, basées à Zurich.

Pour l’instant, nous avons recruté cinq personnes, avec l’objectif d’arriver à une quinzaine d’ici à la fin de l’année », a-t-il précisé. Les chercheurs en intelligence artificielle seront installés dans le tout nouveau centre de recherche parisien de Google, un bâtiment entièrement rénové de 6000 m2 jouxtant le siège de Google France dans le IXe arrondissement de la capitale.

Google, qui emploie environ 700 personnes en France, compte faire passer rapidement ses effectifs à un millier, dont environ un quart d’ingénieurs et chercheurs se consacrant à la recherche et au développement.
Article original : Google inaugure un laboratoire de recherche à Paris

Ce doit être un nouveau nœud du réseau mondial de Google consacré à la recherche sur l’intelligence artificielle (IA). L’entreprise américaine a inauguré mardi à Paris son nouveau laboratoire de recherche en la matière, annoncé en janvier lors du sommet de grands patrons mondiaux « Choose France ».
L’implantation de ce centre à Paris « est un signal fort de l’attractivité de la France dans un secteur technologique de pointe », a déclaré la secrétaire d’État auprès du ministre de l’Économie, Delphine Gény-Stephann, présente à l’inauguration.
« Les axes de recherche stratégiques retenus à ce jour -santé, environnement, vision par ordinateur, art- viendront renforcer l’expertise de l’écosystème français dans ces secteurs d’activité », s’est-elle félicitée.


Google : Machine learning dans un navigateur avec TensorFlow.js


Tensorflow.js étend la bibliothèque de machine learning open source TensorFlow de Google à JavaScript pour entraîner et déployer des modèles d’apprentissage machine dans le navigateur. Accélérée par WebGL, la bibliothèque Tensorflow.js fonctionne également avec le runtime JavaScript côté serveur Node.js et fait partie de l’écosystème TensorFlow. L’intégration de l’apprentissage machine directement dans le navigateur permet aux développeurs de se passer de pilotes et d’exécuter le code directement. Le projet, qui comprend un écosystème d’outils JavaScript, est basé sur la bibliothèque Deeplearn.js, une autre bibliothèque JavaScript qui permet de faire du machine learning directement dans le navigateur. Deeplearn.js est maintenant connu sous le nom de Tensorflow.js Core.

Exemple de code :

import tensorflow as tf
mnist = tf.keras.datasets.mnist

(x_train, y_train),(x_test, y_test) = mnist.load_data()
x_train, x_test = x_train / 255.0, x_test / 255.0

model = tf.keras.models.Sequential([
  tf.keras.layers.Flatten(),
  tf.keras.layers.Dense(512, activation=tf.nn.relu),
  tf.keras.layers.Dropout(0.2),
  tf.keras.layers.Dense(10, activation=tf.nn.softmax)
])
model.compile(optimizer='adam',
              loss='sparse_categorical_crossentropy',
              metrics=['accuracy'])

model.fit(x_train, y_train, epochs=5)
model.evaluate(x_test, y_test)
 


Les APIs de TensorFlow.js peuvent être utilisées pour construire des modèles en utilisant la bibliothèque d’algèbre linéaire JavaScript de bas niveau ou l’API des couches de plus haut niveau. Les convertisseurs de modèle TensorFlow.js peuvent faire tourner des modèles existants dans le navigateur ou sous Node.js. Les modèles existants peuvent être ré-entraînés à l’aide des données des capteurs connectés au navigateur. Un tenseur sert d’unité centrale pour les données. De plus, une API de haut niveau dans le genre de Keras est incluse pour construire des réseaux neuronaux. Cependant, TensorFlow.js n’est pas la seule bibliothèque JavaScript conçue pour les réseaux neuronaux : TensorFire, développée par des étudiants du MIT, est également capable d’exécuter des réseaux neuronaux dans une page Web.

Une API pour accéder au service


Tensorflow.js dispose d’une API similaire à l’API Python de Tensorflow. Sauf que, pour l’instant, l’API JavaScript ne supporte pas toutes les fonctionnalités de l’API Python. Les développeurs de Tensorflow.js s’engagent à offrir un niveau équivalent si la fonction se justifie, mais ils veulent fournir une API JavaScript idiomatique. TensorFlow avec WebGL fonctionne également – à 50 – 60 % de la vitesse de l’API TensorFlow Python – si on l’utilise avec la bibliothèque AVX.

TensorFlow.js devrait bénéficier prochainement des autres améliorations suivantes :

– Ajout d’une bibliothèque de visualisation pour effectuer des visualisations rapides du modèle et des données.
– Amélioration des performances du navigateur.
– Optimisation WebGL.
– Une API de données spécifique au navigateur et Node.
– Intégration Cloud côté Node.js, y compris les points d’intégration de type sans serveur.
– Meilleur support asynchrone avec la bibliothèque I/O libuv asynchrone.

Page officielle : tensorflow.org

Les utilisateurs les plus connus :

En complément :

Publié sur 01.net : Google annonce une nouvelle technologie pour des IA respectueuses de la vie privée
Avec TensorFlow Privacy, la société propose aux développeurs tiers un modèle d’entraînement faisant appel à la confidentialité différentielle. Celle-ci permet notamment de décorréler l’identité d’une personne des données qu’elle génère.
Publié sur Le Big Data : Un nouvel outil pour protéger les données d’intelligence artificielle
Google dévoile un nouveau module pour son framework d’intelligence artificielle TensorFlow. Il s’agit de TensorFlow Privacy, qui va permettre de mieux protéger les données des utilisateurs sur lesquels les modèles d’intelligence artificielle sont entraînés.



Une IA de DeepMind fait encore des siennes


Une IA de DeepMind fait encore des siennes en apprenant à naviguer dans un espace virtuel labyrinthique.


En entraînant un système d’intelligence artificielle à se mouvoir dans un espace virtuel, les chercheurs de DeepMind, une filiale de Google, ont réussi à simuler, puis à dépasser, les capacités d’orientation des mammifères.

DeepMind, la start-up rachetée par Google et spécialisée dans l’intelligence artificielle, connue du grand public pour ses succès au jeu de go, vient de franchir un nouveau palier dans ses recherches. L’entreprise a développé un système d’intelligence artificielle capable de s’orienter plus efficacement qu’un mammifère dans un environnement virtuel semblable à un labyrinthe.

Dans leur étude parue le 9 mai dernier dans la revue Nature – et dans une version plus abordable sur le blog de DeepMind –, les chercheurs, conduits par Andrea Banino, expliquent avoir entraîné un réseau neuronal artificiel qui, en essayant de résoudre ce labyrinthe, a développé lui-même une forme de conscience spatiale qui imite les « cellules de grille » des humains et des autres mammifères.

Les cellules de grille, clé du problème…

Les cellules de grille ont été découvertes en 2005 et ont valu un Prix Nobel aux scientifiques du Centre de biologie de la Mémoire, en Norvège, sont des neurones présents dans le cerveau et nous permettant de connaître notre position dans l’espace. Schématiquement, nous pouvons dire qu’elles s’activent lorsque nous essayons de repérer notre chemin et notre situation dans un espace donné. Elles créent ainsi une forme de carte hexagonale et quadrillée. Vous avez l’idée ? Bien. La problématique, c’est que nous ne savons pas encore véritablement comment ces cellules de grille fonctionnent et de quelles manières elles s’activent dans le cerveau.

En faisant naviguer leur agent artificiel dans un espace virtuel carré, les chercheurs ont découvert que ces cellules de grille « émergeaient spontanément », « fournissant une convergence frappante avec l’activité des modèles neuronaux » observés chez les mammifères.

Une IA qui va droit au but …

L’équipe de DeepMind a alors voulu aller plus loin en testant une théorie sur les cellules de grille – l’idée que ces neurones nous donnent une estimation de notre localisation dans l’espace en se basant sur des données vectorielles. En utilisant l’apprentissage par renforcement (le reinforcement learning), ils ont demandé à leur agent artificiel de choisir ses propres parcours à travers un environnement virtuel plus complexe pour atteindre son but. Les essais dans ce « jeu virtuel » ont permis de montrer que l’intelligence artificielle utilisait les cellules de grille non seulement pour avoir « conscience » de sa propre localisation dans l’espace, mais aussi pour trouver la direction et prendre des raccourcis à l’intérieur de cette forme de labyrinthe.

Qu’apportent ces découvertes ?

D’abord, même si ces recherches ne lèvent pas tous les mystères liés aux cellules de grille, elles permettent de lever un peu du voile qui entoure ces neurones en donnant plus de crédit à la théorie du fonctionnement vectoriel. On voit aussi qu’un système d’intelligence artificiel est capable de surpasser celui d’un mammifère dans un environnement virtuel. Et, un jour peut-être, utiliser ces recherches pour permettre à un robot de se mouvoir dans un espace réel aussi facilement qu’un humain.



DeepMind et Google capables de prédire les vents un jour à l’avance grâce à une IA

Prédire d’où viendra le vent pour améliorer, notamment, le rendement des éoliennes. C’est l’idée qui se cache derrière une IA conçue conjointement par Google et DeepMind. Cette dernière vise à prédire, avec un peu plus d’une journée d’avance, la direction précise du vent.

On ne peut pas contrôler le vent, mais Google veut nous aider à savoir d’où il viendra. La firme de Mountain View et DeepMind commençaient ainsi, en cours d’année dernière, à alimenter une IA en données météorologiques. L’objectif était, à terme, de lui permettre d’estimer avec suffisamment de précision la direction future des vents. Après des mois de recherche, les deux groupes touchent au but.

Article complet : DeepMind et Google capables de prédire les vents un jour à l’avance grâce à une IA
Publié sur clubic le 3 mars 2019 par Nathan Le Gohlisse

Après Deep Blue et AlphaGo, Google repousse les frontières de l’intelligence artificielle

Après avoir affronté l’homme, l’intelligence artificielle doit apprendre à collaborer avec lui.

Les chercheurs de DeepMind, la société-laboratoire de recherche de Google sur l’intelligence artificielle, ont identifié leur prochaine cible. Après le jeu de go – en 2015, le programme informatique AlphaGo a été le premier à battre un joueur professionnel sur un goban de taille normale, le prochain adversaire pour les développeurs londoniens est Hanabi, un jeu de cartes français. La partie s’avère fort différente de tout ce que les programmes comme Deep Blue ou Alphago ont connu jusqu’alors. Elle promet aussi d’apporter de nouveaux éclairages sur les enjeux liés au duo homme-machine.

Hanabi est un jeu de cartes qui a reçu le plus prestigieux des prix décernés dans le milieu du jeu de société, le très envié Spiel des Jahres allemand. Il fait partie du club très fermé des jeux vendus à plus d’un million d’exemplaires dans le monde. Sa première particularité est d’être un jeu coopératif, c’est-à-dire que les joueurs ne s’affrontent pas les uns aux autres mais ils coopèrent pour relever le défi proposé par le jeu. Sa seconde particularité est que chaque joueur tient ses cartes de manière à présenter la face aux autres joueurs. Lui n’en voit que le dos. Ainsi, chacun connaît le jeu de tous les autres… mais pas le sien. Les cartes correspondent à des séries de couleurs et de chiffres. L’objectif des joueurs est de parvenir à réaliser des rangées de cartes, par couleur et par chiffres croissants, avec des contraintes strictes de pose et de communication.

La suite de l’article ci-dessous.


Gmail : la messagerie de Google bloque 100 millions de spams par jour grâce à l’IA


L’utilisation de l’outil maison d’apprentissage machine TensorFlow permet à Google de lutter contre les 0,1% de spams résiduels qui passent le filtre déjà efficace de Gmail.

L’IA ne sert pas qu’à battre les humains à Starcraft : elle peut aussi lutter contre les nuisances. Et parmi ces nuisances, le spam est un sacré malandrin. Comme le rapporte le rapport de l’équipe Google Cloud mis au jour par The Verge, le service Gmail qui compte 1,5 milliards de comptes actifs dont 5 millions de comptes payants fait appel aux technologies liées à l’intelligence artificielle pour renforcer le filtre anti pourriels de Gmail. Le filtre de la messagerie de Google est déjà reconnu pour son efficacité et bloquer 100 millions de messages supplémentaires par jour représentait un défi. Défi relevé par TensorFlow, un outil d’apprentissage machine (machine learning) que la firme a développé en interne et publié depuis 2015 sous licence open-source.

La suite sur : Gmail Bloque 100 millions de spams par jour grace à l’IA
Publié sur 01net.com le 7 février 2019 par Adrian BRANCO.



Google va corriger en temps réel les fautes de grammaire grâce à l’IA

Google va intégrer un outil de correction grammaticale en temps réel dans Google Docs sur sa G Suite, la suite logicielle de la firme pour les entreprises.

Google vient d’annoncer le déploiement d’un outil de correction de la grammaire en temps réel dans les prochaines semaines. Il devrait être intégré à Google Docs, mais seulement pour les utilisateurs de G Suite. De plus, l’outil ne sera disponible qu’en langue anglaise dans un premier temps.

La suite de l’article sur: Google va corriger temps reel les fautes de grammaire grace a l’IA

Publié sur Le Journal du Geek le 1er mars 2019.


Ludwig par Uber : la boîte à outils pour créer une IA simplement

De nombreuses personnes aimeraient se lancer dans l’intelligence artificielle. Le problème, c’est que la partie programmation est assez intimidante pour un novice. C’est pourquoi Uber a décidé de vous faciliter la chose en proposant Ludwig. Ce service fonctionne de la même manière qu’une boîte à outils. Cet outil open source est bâti sur le framework TensorFlow de Google. Il permet à ses utilisateurs de former et de tester des projets IA sans avoir à rédiger une seule ligne de code, nous explique Venture Beat.

L’IA pour tous !

Uber précise que Ludwig est le fruit de deux années de travail, dans le but de simplifier le déploiement d’IA. Dans un article de blog, Uber précise : «  Ludwig est unique dans sa capacité à rendre l’apprentissage profond plus facile à comprendre pour les non-spécialistes et à permettre des cycles d’itération d’amélioration du modèle plus rapide pour les développeurs et les chercheurs expérimentés en machine learning »

Article complet sur Siècle Digital publié le par 12 février 2019 parArthur Vera :
Ludwig par Uber : la boite à outils pour creer une IA simplement



Apple fait une nouvelle incursion dans le domaine de l’intelligence artificielle avec le rachat de Laserlike

L’intelligence artificielle devient de plus en plus un domaine stratégique. Dans cette perspective, Apple vient de racheter une start-up spécialisée dans l’apprentissage automatique, à savoir Laserlike, créée dans la Silicon Valley il y a 4 ans.

Apple continue à déployer ses stratégies de développement autour du secteur de l’intelligence artificielle. La firme de Tim Cook vient ainsi de procéder à un nouveau rachat, celui d’une toute jeune start-up américaine spécialisée dans l’apprentissage automatique, à savoir Laserlike.

Apple rachète Laserlike, une start-up qui se dédie à l’intelligence artificielle

Cette société s’est spécialisée dans la proposition d’informations à forte valeur ajoutée, avec des perspectives plurielles, puisque cela a concerné toutes les thématiques émanant du web. Si la logique semble assez généraliste dans un premier temps, elle se spécialise dans un second temps.

Laserlike a aussi conçu une application, qui n’est malheureusement plus disponible aujourd’hui. Il s’agissait d’une appli de moteur de recherche en lien avec la recherche d’actualités, de vidéos et de liens web sur une thématique similaire.

Un rachat qui devrait optimiser les compétences d’Apple en matière d’IA

Ces contenus ont ensuite été stocké sur l’iPhone de l’usager, et répond à ses goûts spécifiques. C’est grâce aux possibilités données par l’intelligence artificielle que cette application a pu fonctionner et répondre aux demandes particulières des usagers. Avec ce rachat, rapporté par le site The Information, Apple continue son incursion dans le domaine de l’IA.

En effet, cela devrait permettre aux équipes de la firme de Tim Cook de gagner en termes de compétences technologiques notamment pour développer l’assistant vocal Siri. L’équipe de recherche, placée sous la houlette de John Giannandrea, le vice- président de la stratégie IA d’Apple, pourrait ainsi déployer de nombreuses optimisations à venir.

On pense notamment à l’amélioration des résultats de recherche du moteur du store d’Apple. Un expert de Constellation Research, Holger Mueller a estimé quant à lui : « (qu’) Apple a beaucoup de retard à rattraper, car la faiblesse de Siri c’est qu’il tient plus du divertissement que d’une automatisation utile ».

Article source : Apple fait une nouvelle incursion dans le domaine de l’intelligence artificielle
Publié sur BeeGeek par Emmanuel Ghesquier, le 17 mars 2019

Lire aussi :

Expertise IA : Apple récupère les talents de Tuplejump
Publié sur

Dans un mode « acqui-hire », Apple a absorbé la start-up Tuplejump, disposant d’une expertise dans le machine learning appliquée au big data.
Tout comme Google ou Microsoft, Apple poursuit inlassablement les acquisitions dans le domaines de l’intelligence artificielle. Dernière cible repérée par
TechCrunch :Tuplejump. L’opération de croissance externe aurait été bouclée en juin dernier. Depuis, Tuplejump a fermé son site Web qui renvoie sur une mention « site inaccessible ».
Publié sur Itespresso parRenald Boulestin

Apple a l’intelligence artificielle discrète mais partout présente :
Avec le “Machine Learning”, une révolution silencieuse s’est opérée depuis quelques années au sein d’Apple et ses dirigeants en parlent volontiers aujourd’hui. Traduit en “apprentissage automatique” ou “statistique”, ce système vise à donner plus d’intelligence aux logiciels et services qui font fonctionner les iPhone, l’Apple TV, l’Apple Watch, iOS ou encore Siri.
Publié sur : IGeneration par Stéphane Moussie

Intelligence artificielle, une béquille pour les humains
L’intelligence artificielle a de nombreux débouchés, mais Tom Gruber, cofondateur de Siri qui travaille toujours chez Apple, a donné une vision intéressante et peu courante de l’usage qui peut être fait de toutes ces technologies. Durant une conférence TED qui s’est tenue à Vancouver, il a ainsi présenté l’IA comme un moyen d’aider l’humain à se rappeler de tout. Véritablement : personnes rencontrées, sports favoris, membres de la famille, prononciation des noms, et même les repas.
Publié sur MacGeneration


Microsoft étend son programme d’école IA en France


Microsoft étend ses efforts de formation en intelligence artificielle avec une deuxième promo de son « Ecole IA » (toujours axée sur la diversité) qui accueillera 10 classes de 24 personnes. Une formation certifiante en IA pour les professionnels de l’IT va également être développée en partenariat avec le groupe Adecco.

Microsoft France a tenu ce 20 septembre 2018 sa conférence de rentrée sur le thème de l’intelligence artificielle. L’occasion de faire le point sur les initiatives en matière d’IA qu’il avait annoncées en début d’année dans le cadre de la campagne d’attractivité menée par le gouvernement.

Une centaine de recrutements avaient été promis et ils ont commencé, même si Carlo Purassanta, président de Microsoft France, avoue volontiers que c’est difficile. « Le profil parfait n’existe pas. Il faut accepter de devoir former les gens à ce qu’ils ne savent pas faire. » Démarrage timide également du côté des partenariats avec les filières industrielles. De premières annonces sur le secteur de l’énergie devraient a priori avoir lieu en décembre.

10 classes de formation intensive en IA à destination des plus démunis

Mais les annonces du jour concernaient surtout la formation. Microsoft a fait le bilan de son Ecole IA, qui avait été inaugurée en mars avec l’aide de Simplon. Pour rappel, elle implique un cursus de formation intensive sur 7 mois. La première promotion comptait une classe de 24 personnes et s’est avérée être un « grand succès » d’après l’entreprise. 23 d’entre elles ont débuté un contrat de professionnalisation en entreprise à la sortie, la dernière préférant monter sa propre start-up.
En conséquence Microsoft accélère : la deuxième promotion comptera 10 classes pour un total de 240 apprenants. L’une des classes restera directement soutenue par Microsoft, tandis que huit autres seront gérées par des entreprises partenaires : Accenture, Cap Gemini, DXC, Exakis-Magellan, Infeeny (groupe Econocom), Orange, Talan et Umanis. La dernière sera sponsorisée par la région par la région Occitanie et basée à Castelnau-le-Lez.

La diversité au cœur des démarches

Il faut également souligner la dimension sociale de l’annonce, cette formation étant gratuite et exclusivement réservée à des personnes éloignées de l’emploi ou qui sont à la recherche d’une reconversion professionnelle. Carlo Purassanta a par ailleurs déclaré que la classe supervisée par Microsoft avait pour objectif d’accueillir 80% de femmes cette année, « pour prouver que c’est possible ».

Objectif 2020 : 4300 professionnels de l’IT certifiés IA

Les professionnels de l’IT ne sont pas abandonnés pour autant. Microsoft s’est engagé avec le groupe Adecco (spécialiste des RH et du recrutement) à proposer des formations en IA qui aboutiront en une certification. L’ambition affichée est de certifier 4300 personnes d’ici 2020.

Enfin, l’association Unis-Cité a débuté la formation de 225 jeunes volontaires (entre 16 et 25 ans) aux enjeux du numérique et de l’IA. Ces derniers interviendront par la suite, dès le mois de décembre, dans les écoles auprès d’enfants allant de 8 à 16 ans pour faire de la sensibilisation. 10 régions sont concernées pour le moment. L’objectif est de toucher 100 000 jeunes la première année et un million d’entre eux au bout de trois ans.


Microsoft ouvre une école d’Intelligence Artificielle


Microsoft ouvre une école d’Intelligence Artificielle en partenariat avec Simplon pour les publics éloignés de l’emploi.

Alors que 85% des emplois qui seront exercés en 2030 n’existent pas encore aujourd’hui, le numérique et en particulier l’Intelligence Artificielle, changent profondément les contours de ces futurs métiers. Dans le domaine de l’IA, le besoin en compétences est majeur et ce, dès aujourd’hui. Engagée en matière d’égalité des chances et convaincue que ces opportunités d’emplois ne doivent pas être réservées à une élite, Microsoft inaugure, au cœur de son Campus d’Issy-les-Moulineaux, une école unique et alternative : l’Ecole IA Microsoft, en partenariat avec Simplon, entreprise sociale et solidaire de formation au numérique. 24 apprenants âgés de 19 à 39 ans, en reconversion professionnelle, éloignés de l’emploi ou décrocheurs scolaires intègrent la première promotion dont la marraine est Aurélie Jean, PhD, scientifique numéricienne et entrepreneuse. Ils bénéficieront d’un programme de formation intensive de 7 mois puis seront accueillis 12 mois en contrat de professionnalisation, en alternance, au sein d’entreprises partenaires de Microsoft, parties-prenantes de ce projet inédit. A travers cette école orientée vers l’emploi et fondée sur l’inclusion, Microsoft réaffirme son ambition de contribuer à la transformation numérique de la France, source de croissance, aux côtés de son écosystème de partenaires.

L’article complet sur : Microsoft ouvre une école d’AI

Voir aussi :
Dans l’Hérault, Microsoft forme des jeunes aux métiers de l’intelligence artificielle

Le BIGDATA : Intelligence artificielle : Microsoft ouvre un centre à Paris
Microsoft annonce l’ouverture d’un centre dédié au développement d’applications d’intelligence artificielle pour les entreprises. Ce nouveau centre ouvrira ses portes au Microsoft Engineering Center situé à Issy les Moulineaux, dans les Hauts-de-Seine.

Zdnet.fr : Microsoft France ouvre un centre dédié à l’IA à Paris
Situé sur le campus de Microsoft à Issy les Moulineaux, le Microsoft Engineering Center hébergera un nouveau centre de développement consacré aux applications d’IA pour les entreprises.


Infer.NET : Microsoft rend son framework Machine Learning open source

Infer.NET, le framework de Machine Learning de Microsoft, est désormais disponible en open source pour les applications commerciales. Découvrez tout ce que vous devez savoir au sujet de cet outil.

Depuis 2004, Microsoft développe le framework de Machine Learning Infer.net au sein de son laboratoire de recherche situé à l’Université de Cambridge. Ce framework est conçu pour permettre le développement de solutions de Machine Learning scalables et interprétables. Il adopte une approche ” basée modèle ” du Machine Learning, ce qui permet aux développeurs d’incorporer du ” domain knowledge ” dans leurs modèles. Le modèle peut ensuite être utilisé pour créer des algorithmes de Machine Learning à l’aide du framework.

Infer.net : un framework de Machine Learning interprétable


Ainsi, Infer.NET se distingue par son interprétabilité. Du fait que le modèle est conçu par l’utilisateur, et que l’algorithme suit ce modèle, l’utilisateur est en mesure de comprendre pourquoi le système se comporte d’une certaine façon ou fait certaines prédictions.

Au sein de Microsoft, Infer.NET est utilisé par divers produits tels que Xbox, Microsoft Office, ou encore le Cloud Azure. Depuis 2008, cet outil est ouvert aux usages académiques. Aujourd’hui, Microsoft annonce l’open sourcing de son framework pour les applications commerciales.

Les entreprises intéressées peuvent télécharger le framework sur nuget.org à cette adresse. Infer.net est compatible macOS, Windows et Linux via .NET Core. Microsoft propose également des didacticiels et des exemples d’utilisation à cette adresse, tandis que les développeurs qui le souhaitent peuvent contribuer au projet sur le repository Github du framework à cette adresse .

Voir aussi
L’énorme effort de formation de Microsoft
L’IA de Microsoft crée des caricatures impressionnantes
Microsoft revient en chiffres sur les 18 mois d’existence de son AI factory


Microsoft acquiert la start-up Lobe dans le domaine du Deep Learning

La société Lobe vient de passer sous le giron de Microsoft. Il s’agit d’une nouvelle start-up spécialisée dans l’intelligence artificielle.

La grosse particularité de la start-up Lobe, et qui a probablement tapé dans l’œil de la firme de Redmond, c’est que cette société a créé une plateforme permettant de concevoir des modèles d’apprentissage profond (deep Learning), à partir d’une interface visuelle, offrant l’avantage de ne nécessiter d’aucune connaissance technique particulière pour travailler.

L’article complet : Microsoft acquiert la start-up Lobe dans le domaine du Deep Learnin

Publié sur Begeek le 15 septembre 2018


Microsoft appelle à une réglementation de la reconnaissance facial


« Nous devons nous assurer que l’année 2024 ne ressemble pas à une page du roman 1984 », écrit Brad Smith, directeur juridique de Microsoft.

Microsoft exhorte les gouvernements à adopter dès l’année prochaine une loi exigeant que la technologie de reconnaissance faciale fasse l’objet d’essais indépendants pour en vérifier l’exactitude, prévenir les biais et protéger les droits des personnes.

« Le génie de la reconnaissance faciale, pour ainsi dire, émerge tout juste de la bouteille. Si nous n’agissons pas, nous risquons de nous réveiller dans cinq ans pour constater que les services de reconnaissance faciale se sont répandus d’une manière qui exacerbe les problèmes sociaux. À ce moment-là, ces défis seront beaucoup plus difficiles à relever. » Ces propos sont ceux de Brad Smith, président et directeur juridique de Microsoft, qui a publié un billet de blog appelant les gouvernements à légiférer pour encadrer les technologies de reconnaissance faciale.

Il plaide en faveur d’un contrôle humain des résultats de la reconnaissance faciale plutôt que de le laisser à l’ordinateur. « Cela inclut les cas où les décisions peuvent créer un risque de préjudice corporel ou émotionnel pour un consommateur, où il peut y avoir des implications sur les droits de l’homme ou les droits fondamentaux, ou lorsque la liberté personnelle ou la vie privée d’un consommateur peut être violée », écrit-il. Il ajoute que ceux qui déploient cette technologie doivent « reconnaître qu’ils ne sont pas dispensés de leur obligation de se conformer aux lois interdisant la discrimination contre les consommateurs individuels ou les groupes de consommateurs ».

La reconnaissance faciale est couramment utilisée pour les tâches quotidiennes comme déverrouiller les téléphones et identifier les amis sur les médias sociaux. Mais les préoccupations relatives à la vie privée persistent. Les progrès de l’intelligence artificielle et la prolifération des caméras facilitent de plus en plus la surveillance et le suivi de ce que font les individus.

La reconnaissance faciale loin d’être infaillible


Les services de police font appel à la reconnaissance faciale pour leurs enquêtes, mais leurs logiciels ne sont pas exempts de défauts. Ainsi, on a découvert que les solutions de reconnaissance faciale utilisées par la police métropolitaine du Royaume-Uni produisaient des correspondances incorrectes dans 98 % des cas.

Microsoft n’est pas le seul à s’inquiéter de l’utilisation de cette technologie. En mai, l’Union américaine pour les libertés civiles (ACLU) a révélé qu’Amazon vendait sa technologie de reconnaissance faciale, Rekognition, à des services de police aux États-Unis, dont le Orlando Police Department. Or, un test de Rekognition mené par l’ACLU a révélé que le système confondait 28 membres du Congrès avec des criminels connus.

Brad Smith a également averti que l’utilisation de la reconnaissance faciale par les gouvernements pourrait empiéter sur les libertés démocratiques et les droits des personnes. « Combiné à des caméras omniprésentes et à une puissance de calcul et de stockage massive dans le nuage, un gouvernement pourrait utiliser la technologie de reconnaissance faciale pour permettre une surveillance continue de certaines personnes ». Et d’ajouter : « Nous devons nous assurer que l’année 2024 ne ressemble pas à une page du roman 1984. »

Article source : Microsoft appelle à une réglementation de la reconnaissance facial

Microsoft lance 2 outils Cloud d’intelligence artificielle pour la cybersécurité

Microsoft vient de dévoiler Azure Sentinel et Threat Experts, deux outils Cloud d’intelligence artificielle pour la cybersécurité. Il s’agit d’outils utilisant l’IA pour assister les professionnels de la cybersécurité et leur permettre de réagir immédiatement aux menaces.

L’intelligence artificielle peut-elle renforcer la cybersécurité ? C’est ce que Microsoft Azure pense et tente de prouver avec Azure Sentinel et Threat Experts, ses deux nouveaux outils Cloud.

L’article complet : Microsoft des outils cloud IA et cybersécurité
Publié sur Le Big Data le 4 mars 2019 par Bastien L



Intelligence artificielle : les pionniers accélèrent


Le Boston Consulting Group et la « MIT Sloan Management Review » publient ce mardi 18 septembre une étude sur l’investissement des entreprises en intelligence artificielle. Il en ressort que l’écart se creuse entre les pionnières et les autres.

Une nouvelle étude publiée aujourd’hui par le cabinet de conseil américain Boston Consulting Group (BCG) et la « MIT Sloan Management Review » met en évidence que les entreprises ayant misé dans l’intelligence artificielle (IA) l’année dernière ont majoritairement poursuivi leurs investissements. Les pionniers du domaine sont même 88 % à avoir augmenté le budget consacré à l’IA – d’aucuns y verront le signe qu’elle leur donne satisfaction.

Selon ce rapport, intitulé « Artificial Intelligence in Business Gets Real », les sociétés qui en revanche ont une position attentiste ou qui en sont encore au stade de l’expérimentation sont respectivement 19 % et 62 % à avoir investi davantage que l’année précédente dans ces technologies.

Article source : Intelligence artificielle – Les pionniers accélèrent




Intelligence artificielle : les banques françaises tâtonnent encore


Publié sur La Tribune.fr le 21 septembre 2018 par : Estelle Nguyen

Considérée comme un vecteur d’économies et de croissance, l’intelligence artificielle pourrait générer 512 milliards de dollars de chiffres d’affaires pour les entreprises des services financiers au niveau mondial à l’horizon 2020, selon Capgemini Consulting. En France, les banques sont encore peu nombreuses à se convertir à l’IA, peinant à s’approprier les outils.

Les institutions financières exploitent des quantités limitées d’IA pour leur processus d’automatisation, selon le sondage de Capgemini, qui estime que 40% des établissements dans le monde ont adopté le déploiement d’outils robotiques simples (nommés RPA, pour « Robotic Process Automation ») pour faciliter leurs processus informatiques. (Crédits : Capgemini)

Gain de productivité, baisses des coûts, optimisation des marges… Les institutions financières semblent toutes convenir des avantages que peuvent leur apporter l’intelligence artificielle et la robotisation au sens large. Il y a même « une valeur énorme à aller chercher » pour les entreprises qui investissent dans l’IA, selon Florent Guillaume, directeur et IA Lead au sein de l’équipe Digital Customer Experience de Capgemini Consulting, qui a présenté les projections du cabinet de conseil lors du workshop « Vers la finance 3.0 » organisé par Revue Banque ce mercredi 19 septembre.

« Jusqu’à 30% de gains de productivité dans le traitement des demandes clients, 60% d’amélioration de la satisfaction client et 512 milliards de dollars de revenus additionnels des services financiers [dans le monde] à horizon 2020 », a-t-il précisé.

Dans deux ans donc, l’IA pourrait en effet rapporter 243 milliards de dollars dans l’assurance contre 269 milliards de dollars dans la banque. Cette perspective devrait représenter une forte motivation pour accroître l’automatisation et pousser les entreprises de la finance à redoubler d’efforts. Un récent sondage mené par le cabinet auprès de 1.500 responsables financiers dans neuf pays révèle également que plus d’un tiers des sociétés interrogées qui se sont déjà lancées dans des vastes déploiements d’outils de robotisation « intelligents » ont vu leur chiffre d’affaires progresser de 2% à 5% grâce à l’automatisation, en réalisant par exemple des ventes croisées plus efficaces.

Méconnaissance et dispersion

Malgré ces avantages, les banques restent encore peu nombreuses à avoir franchi le pas de l’IA. Toujours selon le sondage de Capgemini, 40% des établissements dans le monde ont adopté le déploiement d’outils robotiques simples (nommés RPA, pour « Robotic Process Automation ») pour faciliter leurs processus informatiques. Les acteurs financiers français sont, eux, quasiment en queue de peloton. En effet, seuls 7% d’entre eux ont lancé un déploiement à grande échelle d’outils de robotiques intelligents, contre 13% au Royaume-Uni. L’Inde est en tête avec 17%.

[Pourcentage d’établissements qui ont adopté le déploiement d’automatisation intelligente à grande échelle, par pays. Crédits : Capgemini]

Le cabinet note que les institutions financières exploitent des quantités limitées d’IA pour leur processus d’automatisation, seuls 4% des établissements utilisent les outils de « machine learning » (apprentissage automatique). En France, l’utilisation marginale de l’IA s’explique par « la méconnaissance des enjeux business », selon Florent Guillaume qui estime que les banques et les assurances n’ont pas encore dépassé la phase d’expérimentation.

Des clients viennent nous voir pour demander de leur faire un chatbot, sans savoir à quoi il pourra leur servir stratégiquement […] Ils ont encore du mal à comprendre et à identifier les enjeux. Seuls 50% des établissements sont en capacité de mesurer les gains qu’ils pourront réaliser grâce à l’IA », a-t-il expliqué.

Les banques auraient encore du mal à coordonner les projets liés l’IA en interne « en France particulièrement », relève le consultant. De nombreux tests et expérimentations sont réalisés, surtout dans la robotisation des processus informatiques, mais selon lui, les acteurs financiers français ont encore bien du mal à « se focaliser ».

« Il y a quelques semaines, j’ai démarré un projet dans une grande banque, et au bout de quelques jours, nous nous sommes rendus compte qu’il y avait cinq outils qui servaient à faire des chatbots […] Ce qu’il y a de plus problématique, c’est que ces cinq porteurs de projet ne communiquent pas entre eux. Il y a peut-être des synergies à créer », a-t-il raconté.

L’autre difficulté dans le déploiement de l’IA au sein des banques reste aussi la rareté des talents, très courtisés dans tous les secteurs. Selon le New York Times, qui s’appuie sur les données fournies par la startup canadienne Element AI, seules 22.000 personnes dans le monde seraient assez compétentes pour mener de recherches sérieuses sur l’intelligence artificielle.

Du back-office à la veille réglementaire


Depuis quelques années, les banques ont pris des initiatives (sous forme de « proof of concept » ou plus rarement à grande échelle) pour intégrer les technologies d’IA dans leurs systèmes et dans leurs différents métiers, que ce soit par la création de chatbots, en interface client ou pour les employés, ou encore des outils de traduction, de recherche, d’analyse de contrats, etc., pour les opérations de back-office, de trading ou de veille réglementaire.

En France, les banques ont plutôt choisi des « robots » adaptés à leur secteur, à l’image du programme d’intelligence artificielle d’IBM « Watson », conçu pour répondre à des questions formulées en langage naturel. Déployé depuis plus d’un an dans les agences du Crédit Mutuel, avec la mise en place d’un analyseur de courrier électronique auprès de 20.000 conseillers de ses 5.000 caisses et de deux assistants virtuels pour répondre en temps réel à leurs questions sur des produits techniques, le système d’IBM doit permettre de générer des économies de 60 millions d’euros, selon Nicolas Théry, le président du groupe. Orange Bank, qui utilise aussi IBM Watson pour son assistant virtuel baptisé Djingo, avait également fait part de sa satisfaction en mars, se targuant d’avoir réalisé 400.000 conversations avec des clients, soit plus d’une sur deux.


Article source : Intelligence artificielle les banques françaises tâtonnent encore

Vous pouvez lire également :

Intelligence artificielle : « La France n’est pas à la hauteur de l’enjeu »
Entre la volonté du gouvernement de faire de la France un digne représentant de l’intelligence artificielle (IA) sur la scène internationale et la réalité du terrain, il y a un monde.
(source : bfmbusiness)




IBM met à la disposition des développeurs des modèles de codes open source


Le 19 septembre 2018, par Michael Guilloux sur Developpez.com

L’intelligence artificielle, la blockchain et les microservices, ce sont trois domaines ou technologies qui vont changer – s’ils n’ont pas déjà commencé à le faire – la manière de développer et déployer des applications et services. Si l’IA n’est plus vraiment à présenter, il peut être nécessaire de revenir sur les bénéfices de la blockchain et des microservices.

La blockchain est une technologie de stockage et de transmission d’informations, transparente, sécurisée, et fonctionnant sans organe central de contrôle. Par extension, une blockchain constitue une base de données sécurisée et distribuée qui contient l’historique de tous les échanges effectués entre ses utilisateurs depuis sa création et qui permet à chacun de vérifier la validité de la chaîne. La blockchain peut par exemple fournir une technologie de registre partagé que les participants d’un réseau d’entreprise peuvent utiliser pour enregistrer l’historique des transactions commerciales qui ne peuvent pas être modifiées. Cette technologie peut être utilisée dans n’importe quelle industrie. Et c’est ce qu’on a déjà commencé à voir avec les poids lourds de l’agroalimentaire qui ont décidé de s’appuyer sur la blockchain d’IBM pour la traçabilité des denrées périssables, et récemment l’industrie de la joaillerie qui s’est tournée vers la même blockchain pour la traçabilité de ses produits.

En ce qui concerne les microservices, leur intérêt réside dans le fait qu’ils permettent de réduire le délai nécessaire pour le développement et la mise au point d’un projet ou d’un produit, avant qu’il puisse être lancé sur le marché. En effet, qu’ils accèdent à un site Web ou à une application mobile, les utilisateurs attendent beaucoup des applications qu’ils utilisent régulièrement. En conséquence, les entreprises doivent continuellement fournir de nouvelles fonctionnalités et correctifs. Mais dans le passé, ce processus était pénible, car une application était généralement développée et mise à disposition sous la forme d’une application unique, souvent monolithique. L’architecture en microservices corrige cela, car dans cette architecture, une application est composée de nombreux composants discrets connectés au réseau, appelés microservices.

Cette figure montre comment une application basée sur une architecture monolithique évolue vers une application en microservices

Chaque composant est pensé de sorte à être développé, déployé, exécuté et géré séparément des autres composants. L’application sera donc l’assemblage de chaque microservice. Le principal avantage est la modifiabilité : étant donné que le code d’un microservice est autonome de celui des autres, une mise à jour d’un composant n’impacte par les autres microservices. L’indépendance entre les différents services favorise surtout le développement de chaque composant en même temps, ce qui est beaucoup plus difficile avec les applications traditionnelles.

Les compétences dans ces trois domaines sont de plus en plus recherchées, d’où la nécessité des développeurs de s’y intéresser. C’est donc pour accompagner les développeurs qu’IBM a mis à la disposition de ces derniers des modèles de codes, qui traitent une variété de cas de développement et déploiement de systèmes d’intelligence artificielle, de blockchain et microservices. Ces modèles de code, accessibles depuis le site IBM Developer, sont open source et également disponibles sur GitHub.

Les compétences dans ces trois domaines sont de plus en plus recherchées, d’où la nécessité des développeurs de s’y intéresser. C’est donc pour accompagner les développeurs qu’IBM a mis à la disposition de ces derniers des modèles de codes, qui traitent une variété de cas de développement et déploiement de systèmes d’intelligence artificielle, de blockchain et microservices. Ces modèles de code, accessibles depuis le site IBM Developer, sont open source et également disponibles sur GitHub.

Modèles de code IA Modèles de code Microservices Modèles de code Blockchain

Article source : IBM met a la disposition des développeurs des modèles de codes open source

L’intelligence artificielle d’IBM moins convaincante qu’un humain


Victorieuse aux échecs, l’intelligence artificielle d’IBM a en revanche échoué à convaincre un auditoire lors d’un débat sur un sujet de société organisé contre un humain, a indiqué le groupe informatique mardi.

A l’issue de ce débat organisé en public lundi à San Francisco (ouest), c’est Harish Natarajan, champion de compétitions de débats, qui a été déclaré vainqueur contre l’ordinateur « Project Debater » bourré d’intelligence artificielle, a expliqué IBM.

Les deux candidats avaient eu 15 minutes pour préparer une discussion sur l’intérêt de subventionner les écoles maternelle : le programme d’IBM a plaidé en faveur des subventions, estimant qu’il s’agissait d’un outil important pour aider les plus défavorisés tandis que son contradicteur humain a affirmé que cela ne réglait pas les causes profondes de la pauvreté et qu’il s’agissait plutôt d’un « cadeau politique » aux classes moyennes.

La victoire dépendait de leur capacité à faire changer d’avis.

La suite sur La Croix : L’IA IBM moins convaincante qu’un humain

Aussi :
Sciences & Avenir : Ce robot d’IBM spécialisé dans les discours reste moins convaincant qu’un humain
Numérama : Prenez ça les robots, une IA entrainée à débattre a perdu face à un champion européen


Comment berner une intelligence artificielle ?

D’infimes perturbations, invisibles pour l’œil humain, dans une photographie de chat peuvent tromper une IA et la lui faire prendre pour une image de chien.

Les réseaux de neurones sont gérés par des algorithmes qui nous permettent d’avoir une traduction simultanée ou de faire des recherches sur Internet, ou bien encore de nous déplacer à l’avenir dans une voiture autonome. Mais, ainsi que le montre cette vidéo proposée en partenariat avec Universcience.tv, le système peut être trompé par d’infimes perturbations. Omar Fawzi, maître de conférences au laboratoire d’informatique de l’Ecole nationale supérieure de Lyon, explique la nature de ces dysfonctionnements qui pourront sans doute être évités grâce une meilleure compréhension du fonctionnement du réseau de neurones.

Publié sur Le Monde le 05 mars 2019 :
Comment berner une intelligence artificielle




Lire également :

Amazon annonce que ses cours dédiés au machine learning sont disponibles au grand public


IA et Smartphone


Une unité dédiée à l’IA dans le processeur du Samsung Galaxy S10 ?


Samsung travaille sur sa prochaine génération de flagship. Les améliorations devraient être nombreuses, y compris au niveau du processeur. Celui-ci pourrait embarquer une unité dédiée à l’intelligence artificielle.

Publié sur Begeek.fr le 7 octobre 2018

Par Morgan Fromentin

 
 
 

Samsung n’a pas encore confirmé le nom du processeur de son prochain flagship mais si la convention de nommage est respectée, il y a fort à parier que celui-ci soit baptisé Exynos 9820. Cette puce devrait faire son apparition avec le Galaxy S10 dès le début de l’année prochaine et, ensuite, avec le Galaxy Note 10. Selon un récent rapport, cette nouvelle puce pourrait bénéficier d’une unité dédiée à l’intelligence artificielle.

Une puce dédiée à l’intelligence artificielle dans le Samsung Galaxy S10 ?

Article source : Une unité dédiée à l’IA dans le processeur du Samsung Galaxy S10

Autre article à lire :
L’intelligence artificielle de NVIDIA génère des mondes virtuels à partir de vidéos réelle



Le fisc passe à l’intelligence artificielle pour traquer les fraudeurs


Pour lutter contre la fraude, Bercy déploie un superlogiciel qui croise des millions de données sur les particuliers et les entreprises. Objectif : doper les résultats en berne du contrôle fiscal.

Le fisc 2.0


Par Gaëlle Macke le 10 février 2019 sur Challenges.

La DGFiP pense avoir une arme fatale : son logiciel d’intelligence artificielle capable de naviguer, fouiller, trier dans une gigabase de données pour en extraire des profils suspects.

Cet argument fait florès chez les  » gilets jaunes  » : les Français moyens sont accablés d’impôts alors que les riches – les multinationales, les grandes fortunes – arrivent toujours à les contourner. Un ressentiment étayé par les révélations d’évasions fiscales à grande échelle : listes HSBC, UBS, Panama ou Paradise Papers, Football Leaks… Et aussi par quelques affaires retentissantes de célèbres tricheurs, dont celle de l’ex-ministre du Budget Jérôme Cahuzac.

L’évitement illégal de l’impôt serait compris entre 80 et 100 milliards d’euros par an en France, selon Solidaires finances publiques, premier syndicat des agents des impôts. A comparer avec les 18 milliards qu’ont rapportés les contrôles fiscaux en 2017, le manque à gagner est colossal. D’autant que les résultats ont été gonflés par la contribution providentielle du Service de traitement des déclarations rectificatives (STDR). Ouverte mi-2013 et fermée fin 2017, cette cellule pour repentis fiscaux effrayés par la fin du secret bancaire en Suisse a permis d’encaisser facilement 8,3 milliards d’euros.

Mais la manne se tarit (un dernier milliard est rentré en 2018). Cependant, Bercy doit ouvrir cette année un guichet sur le même modèle pour les entreprises, qui confieraient leurs montages douteux en échange de pénalités réduites.  » Ces régularisations en catimini sont un aveu de faiblesse qui fait perdre au contrôle fiscal sa mission répressive et dissuasive « , tacle Véronique Pascalidès, à la CGT. Mais ça fait rentrer l’argent, alors que depuis le pic de 2015 les contrôles fiscaux rapportent de moins en moins.  » Le rendement reste supérieur d’environ 10 % à l’étiage d’il y a dix ans « , se défend Bastien Llorca, adjoint de Maïté Gabet, la directrice du contrôle fiscal. Quant au record de 2015, il était dû à  » des affaires exceptionnelles « . Deux redressements avaient été notifiés, de 1,4 milliard à Vivendi et de 1,1 milliard à Google… qui n’ont finalement jamais été encaissés. Le premier a été abandonné, le second annulé par le tribunal administratif (le fisc a fait appel). En moyenne, Bercy ne recouvre pas plus de 50 % des sommes réclamées, soit 9,4 milliards en 2017.

3 100 suppressions de postes

Au bilan,  » les résultats demeurent en retrait des ambitions affichées « , a indiqué sobrement la Cour des comptes en juin 2018. Ils ne reflètent en tout cas pas l’effort de la Direction générale des finances publiques (DGFiP) pour monter en gamme dans la traque fiscale. Pourtant, au fil des scandales, les gouvernements ont fait voter en dix ans pas moins d’une centaine de mesures antifraude… mais peu donnent de nouvelles munitions concrètes d’investigation aux agents. Et, dans le même temps, la DGFiP a vu ses troupes se réduire. L’engagement de Bercy de  » sanctuariser les effectifs du contrôle fiscal  » ne concerne que les 4 500 vérificateurs chargés des contrôles externes. Il ne s’est pas appliqué aux autres services, les chargés des contrôles sur pièces et, en amont, ceux qui cherchent les anomalies et programment les dossiers à vérifier par leurs collègues.

Depuis 2010, plus de 3 100 emplois ont été supprimés, sur environ 12 000 postes. Du coup, le nombre de contrôles baisse.  » La couverture du contrôle fiscal est mitée, on perd le contact avec le terrain, déplore Anne Guyot-Welke, à Solidaires. Comme il faut faire du chiffre, on n’a plus les moyens de chasser les petites resquilles du quotidien, qui prospèrent.  » Mais, à Bercy, on remarque que les réductions d’effectifs et du nombre de contrôles n’ont pas affecté le rendement.  » Pour mieux faire, il faut surtout mieux cibler, juge Bastien Llorca. Aujourd’hui, près d’une vérification sur quatre n’aboutit qu’à un redressement peu élevé. C’est notre point faible.  »

C’est là qu’intervient le fisc 2.0. La DGFiP pense avoir une arme fatale : son logiciel d’intelligence artificielle capable de naviguer, fouiller, trier dans une gigabase de données pour en extraire des profils suspects. Un projet industriel d’ampleur : 20 millions d’euros de budget ont été débloqués en cinq ans pour moderniser l’informatique et développer cet outil. Le logiciel a été conçu par une cellule de data mining baptisée Mission requêtes et valorisation (MRV), composée de 22 informaticiens de haut vol. L’équipe a commencé dès 2015 par réunir les fichiers concernant 5 millions d’entreprises imposables, jusqu’alors accessibles sur des applications disparates, puis à y ajouter des données publiques disponibles (dépôt de brevets et marques, registre du commerce…). En 2017, les infos des 37 millions de foyers contribuables y ont été agrégées (fiscales, bancaires, épargne, immobilier, données Urssaf, CAF, Sécurité sociale…). Et, depuis un an, les algorithmes sont au travail.


Des résultats prometteurs


 » Nous avons une double valeur ajoutée, explique le chef de la cellule Philippe Schall. D’abord grâce aux multiples croisements de données, nous pouvons permettre à tout contrôleur de démultiplier la pertinence de ses requêtes  » : s’il cherche à repérer des sites d’e-commerce qui escamotent la TVA, il définira 4 ou 5 critères d’alerte et obtiendra d’un coup un rapport d’analyse-risque bien plus riche que s’il avait dû lui-même faire des recoupements fastidieux.  » Ensuite, nos algorithmes analysent les caractéristiques de l’ensemble des entreprises contrôlées depuis 2001, pour modéliser des indicateurs de fraude et donc identifier automatiquement des cas suspects  » : la cellule peut ainsi faire passer aux agents d’une région la liste de toutes les sociétés de leur zone détectées comme ayant potentiellement dissimulé une partie de leur chiffre d’affaires, à partir d’un profil-robot de celles qui se sont fait épingler à ce propos depuis vingt ans.

A partir de ces explorations, la cellule MRV envoie chaque trimestre des milliers de dossiers dans les services locaux, en pointant ce qui a fait tiquer la machine.  » Les premières étaient plutôt médiocres, critique Christophe Bonhomme-Lhéritier, à la CFDT. La courbe d’apprentissage est laborieuse. Le résultat dépend de la matière première. Or, faute de personnel, la qualité des bases de données a tendance à se dégrader.  »

Les syndicats ont surtout peur que le règne des algorithmes ne soit un prétexte à accélérer les suppressions d’emplois.  » Cet outil doit au contraire permettre de valoriser le travail des agents de recherche « , plaide Philippe Schall, qui encourage les agents à se l’approprier. Les premiers résultats sont prometteurs. En 2018, sur 24 000 propositions de la MRV, 14 000 ont occasionné des contrôles sur pièces, rapportant 100 millions, et 6 900 ont déclenché des contrôles externes, générant 235 millions d’euros de redressements.  » Près de la moitié de nos propositions ont donné lieu à vérification, contre 10 % à 20 % avec les méthodes d’analyses traditionnelles « , poursuit-il.

Et les super-pouvoirs du logiciel de la MRV vont être décuplés par l’afflux de données de l’étranger. Depuis un an, après les Etats-Unis, ce sont 49 pays (dont ceux de l’Union européenne) qui pratiquent l’échange automatique d’informations sur les comptes de leurs citoyens, et 53 de plus depuis le début de l’année (Suisse, Panama…). De même, les entreprises de plus de 750 millions d’euros de chiffre d’affaires sont désormais contraintes de transmettre au fisc un reporting par pays de leur activité, effectifs, bénéfice et impôt acquitté.  » Nous avons pris le temps de fiabiliser ces infos mais nous commençons à les intégrer et leur exploitation ouvre de nouvelles perspectives « , dit en souriant le boss des geeks de la DGFiP. L’objectif : déclencher 50 % des contrôles à partir des propositions de la MRV d’ici à 2022, contre 15 % aujourd’hui. Avec l’espoir de réduire de 25 % les contrôles sans redressement.


L’œil sur les réseaux sociaux


Le prochain défi de ces limiers numériques : l’espionnage automatisé des réseaux sociaux. Les contrôleurs consultent déjà couramment les comptes Facebook, Instagram ou Twitter des potentiels tricheurs, à l’affût d’infos sur leur train de vie ou leur domiciliation réelle. Des redressements d’entreprises ont été notifiés sur la base de CV de cadres dirigeants sur LinkedIn habitant à Paris alors que la société prétendait ne pas avoir d’établissement en France. Et des inspecteurs entreprenants à Marmande (Lot-et-Garonne) ont même repéré des centaines de piscines de particuliers non déclarés pour la taxe foncière, grâce aux vues aériennes de Google Maps !

Mais le ministre des Comptes publics, Gérald Darmanin, veut que ses services aillent plus loin, que le process soit là aussi industrialisé. La MRV vient d’envoyer une demande d’agrément à la Commission nationale de l’informatique et des libertés (Cnil) pour expérimenter le ratissage informatique des infos postées sur les réseaux sociaux….  » Il s’agit de ne compiler que les posts publics. Mais le sujet est sensible en termes de respect de la vie privée et constitue un vrai défi technique pour en extraire les infos pertinentes « , reconnaît Philippe Schall. Avis aux fraudeurs, le fisc 2.0 est arrivé.

Article source : Le fisc passe à L’IA pour traquer les fraudeurs

Par Gaëlle Macke le 10 février 2019 sur Challenges.

Vous pouvez également lire :

Fiscalité 3.0 : relever les défis posés par l’économie du numérique et l’IA
Notre révolution industrielle à nous, la révolution numérique, a déjà profondément modifié nos modes de consommation, nos rapports à la production et à la création de valeur. La nouvelle économie est dominée par la gratuité, la valeur est souvent issue de données facilement délocalisables, elle n’est plus uniquement produite par les salariés de l’entreprise et ses fournisseurs, mais aussi, et surtout, par les utilisateurs…

IA : la fiscalité à l’aube d’une révolution majeure
A mesure que les métiers découvrent l’impact futur de l’intelligence artificielle sur leurs champs d’expertise, la fiscalité voit à son tour se profiler une véritable révolution liée à l’intrusion de l’IA dans le périmètre de ses connaissances et de ses techniques. Si la fiscalité avait déjà été très fortement impactée par la troisième révolution industrielle, les mutations engendrées par la quatrième seront encore plus profondes sur les modèles, les processus et les usages.

L’intelligence artificielle et la fiscalité
Les secteurs bancaire et juridique doivent faire face à des évolutions numériques considérables, afin de fournir des services plus performants à leur clientèle aguerrie aux nouvelles technologies et plus sensible à chacune des étapes du parcours de l’expérience client. Voici un tour d’horizon de développements ayant lieu dans des domaines tels que l’immobilier neuf, l’investissement locatif et la défiscalisation.



Comment Facebook a mis l’IA au cœur de son réseau social

Détection de contenus inappropriés, ranking du newsfeed, reconnaissance faciale… La plateforme recourt massivement au machine et deep learning.

L’intelligence artificielle (IA) est présente à tous les étages du réseau social Facebook. Au cœur du newsfeed, elle priorise les contenus en fonction des centres d’intérêts des utilisateurs, leur historique de consultation, leur graph social et relationnel. De même, elle permet de leur pousser des publicités auxquelles ils ont une forte probabilité d’adhérer, du clic jusqu’à l’achat. Plus délicat, l’IA est aussi exploitée par la plateforme pour détecter les connexions non-autorisées ou les faux comptes. Enfin, elle intervient pour orchestrer d’autres tâches, moins visibles, mais qui restent clé dans le quotidien du réseau social : personnaliser le classement des résultats de recherche, identifier des amis dans des photos (par reconnaissance faciale) pour vous recommander de les tagguer, gérer la reconnaissance vocale et la traduction de texte en vue d’automatiser le sous-titrage des vidéos dans Facebook Live…

L’article complet : Comment Facebook mise sur l’IA à tous les étages de son réseau social

Publié sur le Journal du Net le 12 février 2019 par Antoine Crochet-Damaiis



Quand l’IA sert à construire des villes


Comment les pouvoirs publics peuvent-ils s’appuyer sur l’intelligence artificielle (IA) pour développer les villes intelligentes ?

Publié sur Journal du net.com

Le 5 octobre 2018

Par Bettina Tratz-Ryan


La ville de Massy, en région parisienne, s’est équipée fin 2017 d’un chatbot destiné à renseigner les usagers des services municipaux. A Vienne, les résidents et les touristes font appel à WienBot, le chatbot officiel de la capitale autrichienne. Disponible via Facebook Messenger, celui-ci va plus loin car il est capable de répondre à un large éventail de questions et apprend de chaque interaction pour s’améliorer, au point d’être capable d’anticiper des questions en détectant les termes les plus fréquemment utilisés.

Ces deux exemples illustrent comment les pouvoirs publics peuvent s’appuyer sur l’intelligence artificielle (IA) pour passer au numérique. Cette dernière est l’un des enjeux majeurs pour les agglomérations du monde entier. Nul doute que l’évolution de l’IA et des chatbots aidera l’État à personnaliser et améliorer la qualité des services fournis aux citoyens placés sous leur charge.

D’ici 2022, 20 % des citoyens des pays développés se serviront d’assistants intelligents pour se décharger d’un large éventail d’activités ou les effectuer plus vite, et la prise en charge de l’expérience client sera dans 30 % des cas dévolue à des agents conversationnels, contre seulement 3 % en 2017.

Le traitement du langage naturel est l’une des réussites les plus manifestes de l’IA. La majorité de la population connait déjà les plateformes conversationnelles comme le Siri d’Apple, Google Assistant ou encore Amazon Alexa. Dès lors, on peut penser que la fonction publique n’aura aucun mal à utiliser des agents conversationnels analogues, voire des chatbots, pour stimuler la création de services conçus expressément pour les citoyens de la ville intelligente de demain.

Un bot pour répondre à toutes les questions


Aujourd’hui, les organisations se servent de chatbots pour nouer un premier contact avec le client ainsi qu’à des fins d’assistance. Un concept que la fonction publique peut reprendre à son compte, car les chatbots dotés d’IA sont capables de contextualiser et de personnaliser les services publics tout en amé

liorant la façon dont ils sont fournis et en aidant les employés municipaux à gagner en efficacité.

Souvent, les équipes informatiques se concentrent principalement sur l’interface d’interaction dans le but de cerner aussi précisément que possible les intentions des citoyens. Or, pour que leur action porte vraiment ses fruits, il faut que l’agent soit également capable de répondre aux demandes des citoyens. Il est donc crucial que les équipes en charge du développement de ces chatbots passent autant de temps à affiner les réponses de leurs agents qu’à travailler sur les interactions en prise directe avec l’utilisateur.

Traiter les demandes ordinaires, et détecter les anomalies


L’IA excelle quand il s’agit de traiter les demandes ordinaires et de détecter les comportements inhabituels. La fonction publique doit exploiter ces capacités pour simplifier et rationaliser leurs services. Il faut commencer à utiliser l’IA et les chatbots comme un moyen supplémentaire pour communiquer et diffuser des informations à propos des anomalies observées au moment du traitement des demandes des citoyens et utilisateurs. De la même façon que l’IA sait modéliser les sinistres, elle est en mesure de déceler les fraudes, ou les simples erreurs commises par les utilisateurs.

Les algorithmes de machine learning, sont capables de croiser des informations et valider les processus complexes qui profiteront grandement aux services de la ville intelligente.


On peut citer en exemple les « robots-avocats », qui s’acquittent de tâches bureaucratiques fréquentes et subalternes comme la saisie de formulaires de demande de pension alimentaire ou d’aide au logement. Les bots juridiques guident les demandeurs à travers les différentes étapes du processus, les aident à éviter les erreurs et estiment les chances de réussite des démarches, faisant gagner un temps précieux aux demandeurs comme aux fonctionnaires.

La nécessité de nouvelles exigences, compétences et expertises


L’intégration d’IA aux solutions mises en œuvre par la smart city passe par un changement des modes de fonctionnement de la ville, des plateformes et des politiques de protection des données. Bien qu’une IA intégrée et interopérable enrichisse la palette des applications, la complexité des flux d’informations et de données va crescendo, ce qui soulève de nouvelles questions concernant les flux algorithmiques. Par exemple, dans le cas d’un fournisseur de technologies mettant au point un chatbot intelligent, la question de l’identité du détendeur des droits de propriété intellectuelle sur ce qu’il crée se posera.

Les équipes informatiques de la fonction publique doivent superviser les changements de gouvernance informatique nécessaires pour surmonter la complexité du problème. Pour retirer tous les fruits de l’IA conversationnelle, il leur faut aligner les activités de la municipalité et les plateformes de gestion, tout en optimisant la gouvernance des données et de leur analyse, ainsi que l’orchestration des données et l’analytique prédictive.



En parallèle, il appartient aux équipes d’élaborer des directives et des normes pour définir le mode de gouvernance des informations, garantir la protection des données personnelles. Elle se doivent notamment de sécuriser les plateformes, leurs algorithmes et les informations auxquelles leurs applications intelligentes accèdent pour exercer leur action.

Article source : Quand l’IA sert a construire des ville

L’Usine Nouvelle : Les transports en commun pourraient être les premiers bénéficiaires de l’IA

Siecledigita.fr  : Facebook et le MIT veulent cartographier le monde rural grâce à l’I




L’IA crée déjà davantage d’emplois qu’elle n’en détruit

Publié sur Journal du net.com

Le 20 septembre 2018

 
LOGO
 


Le senior vice president d’IBM Watson & Cloud Platform détaille ses ambitions et sa stratégie. Il alerte sur les risques d’une intelligence artificielle mal conçue.

Où en est le développement d’IBM Watson ?

David Kenny est le senior vice président d’IBM Watson & Cloud Platform chez IBM. Près de 16 000 applications embarquant la technologie de Watson ont été développées par des entreprises. Ce chiffre double chaque année et nous nous attendons à une croissance exponentielle dans la mesure où l’IA est en train de prendre une place prépondérante dans le monde de l’entreprise. Ces sociétés opèrent dans 22 industries différentes parmi lesquelles l’aviation, la finance ou la santé. La technologie Watson repose sur des algorithmes de machine learning qui deviennent plus performants à mesure qu’ils collectent davantage de données et apprennent.

Comment Watson se différencie-t-elle des autres intelligences artificielles ?

Jusqu’à présent, la plupart des IA étaient orientées vers le consommateur, notamment dans le vocal search à l’image de Siri ou Alexa. La spécificité de Watson est qu’elle a été pensée dès le début pour les entreprises. Nous ciblons en effet l’ensemble des sociétés qui, chaque jour, sont amenées à prendre des décisions à partir de leurs données. Dès le départ, nous avons conçu Watson pour augmenter les capacités de l’humain, et non pour le remplacer.

Quel pourrait-être l’impact de Watson dans le secteur de la santé ?

Notre vision est que Watson devienne l’assistant du docteur, et non le docteur lui-même. Cette technologie permet notamment de formuler des suggestions, qui peuvent, ou non, être prises en compte par un médecin. Ces recommandations sont toujours réalisées en toute transparence pour permettre au personnel de santé de comprendre comment Watson est arrivé à telle ou telle conclusion.

« Si un remède au cancer doit être trouvé, cela sera l’œuvre de l’humain »

Le système doit permettre aux médecins de prendre des décisions plus rapidement. Par exemple, pour qu’un cancérologue puisse être au courant de toutes les recherches publiées sur le cancer, il lui faudrait lire près de 36h par jour, ce qui est impossible ! Watson permet de collecter toute cette information et de la rendre accessible au médecin pour que celui-ci puisse prendre de meilleures décisions.

Pensez-vous que l’IA puisse permettre, un jour, de trouver un remède au cancer ?

Chaque année, l’intelligence artificielle augmente ses capacités en même temps qu’elle accroît ses connaissances. En théorie, il y a donc de fortes chances pour que l’IA permette de résoudre des problèmes importants dans les années qui viennent. Mais je ne veux pas faire de promesses. Pour le moment, l’IA permet essentiellement d’analyser des données, et il incombe à l’humain de prendre les décisions. Je pense que si un jour un remède au cancer doit être trouvé, cela sera l’œuvre de l’humain, et non de l’IA, même si les machines l’y aideront sans aucun doute. En conclusion, je ne pense pas que l’IA remplacera un jour l’humain, elle va simplement l’aider à être plus efficace.

Un mot sur la protection des données et sur votre adaptation à la norme européenne RGPD ?

Avant même l’entrée en vigueur de ce texte européen, nous disposions déjà de data centers en France. Mais nous voulons aller encore plus loin dans la sécurité et la transparence des données que nous stockons afin de permettre à chacun d’en garder le contrôle. Nous sommes très vigilants à ce que nos clients restent entièrement propriétaires de leurs données. Aux côtés du stockage physique de cette data, nous travaillons également à différentes solutions de chiffrement. Les clés de cryptage de ces systèmes sont détenues chez le client, et les données correspondantes ne deviennent exploitables qu’une fois celles-ci décryptées. Enfin, nous utilisons également la technologie de la blockchain pour traquer les mouvements de données.

Selon vous, l’IA va-t-elle créer plus d’emplois qu’elle ne va en détruire ?

« Pour assurer le succès de l’IA, il faut penser à la sécurité et à la transparence des données » Je le crois profondément, et nous le constatons déjà chez nos clients ! Ceux qui ont déployé Watson à grande échelle ont aujourd’hui créé des emplois. L’IA permet aux entreprises de lancer des produits rapidement et donc de croître plus vite. A plus long terme, l’IA devrait donc booster la croissance économique, ce qui entraînera forcément des créations d’emplois. Je peux vous citer le cas du Crédit Mutuel qui a développé huit applications intégrant la technologie de Watson. Cela s’est traduit par une amélioration de la satisfaction des employés mais aussi de la performance du service client.

Quels sont vos futurs projets concernant Watson ?

Nous avons lancé en mars dernier Watson Studios. Cet outil permet à n’importe qui d’importer en temps réel des données et de les faire parler en utilisant l’IA de Watson ou d’autres IA open source. Je pense que, dans le futur, l’intelligence artificielle deviendra aussi facile à utiliser qu’Excel ou Powerpoint. Nous voulons rendre l’intelligence artificielle accessible au plus grand nombre et pas seulement aux développeurs.

Pensez-vous que l’IA puisse un jour devenir hors de contrôle, comme le craint notamment Elon Musk ?

Je ne le crois pas, à condition que nous soyons transparent sur la manière dont les décisions sont prises par l’IA et que nous définissions certains principes de transparence. Nous devons également nous montrer vigilants au niveau de la sécurité et de la confidentialité des données utilisées par ces systèmes. J’aime à penser que nous, humains, sommes suffisamment intelligents pour prendre les devants sur ces sujets importants. Certains pensent que nous freinons l’innovation et les avancées dans l’IA en nous concentrant sur ces questions. Mais en réalité, je pense que c’est le seul moyen d’assurer le succès de l’IA sur le long terme.

Article source : L’IA crée déjà davantage d’emplois qu’elle n’en détruit


Intelligence artificielle : la Chine au top, la France dans le peloton de tête


L’intelligence artificielle se développe partout dans le monde et très rapidement. Et c’est la Chine qui est en pointe.

Il y a deux fois plus d’entreprises qui utilisent l’intelligence artificielle en Chine qu’aux États-Unis et trois fois plus qu’en Europe. Le gouvernement chinois soutient énormément toutes ces entreprises. Ensuite, pour développer l’intelligence artificielle, il faut des données, et la Chine a des lois moins contraignantes que les pays occidentaux pour récupérer les données personnelles.

Voir sur FranceInfo : IA la Chine au top, la France dans le peloton de têt



Le Groupe Casino met de l’IA dans son nouveau magasin parisien


En partenariat avec la start-up XXII, Casino implante l’analyse de flux vidéos en temps réel dans le magasin « Le 4 Casino », inauguré le 4 Octobre 2018.

La suite sur L’ADN : Le groupe Casino met de l’IA dans son nouveau magasin parisien

Ultra-connecté, le « magasin du futur » du groupe Casino ouvre à Paris

 

Publié par Ouest France, le 5 octobre 2018

Dans le « magasin du futur », tel qu’imaginé par le groupe Casino dans son « laboratoire d’innovations » ouvert cette semaine près des Champs Elysées à Paris, on peut faire ses courses mais également se restaurer et travailler, dans un environnement ultra-connecté.



Le procès de l’intelligence artificielle


Article source : Le procès de l’intelligence artificielle

A l’occasion de la Nuit du Droit, un procès fictif était organisé hier dans l’enceinte historique du Palais de justice de Paris. Sur le banc des accusés : une intelligence artificielle de conduite autonome nommée Eurêka.

Publié sur Les Échos le 5 octobre  2018

Par Remy Demichelis.



Avec l’IA, la cybersécurité gagne un nouvel allié

Contrairement aux antivirus ou aux firewalls, la cybersécurité fondée sur les algorithmes d’apprentissage pourrait neutraliser les cyberattaques inconnues.

Publié le 5 octobre 2018, par Hassan MEDDAH sur L’Usine Nouvelle

L’exfiltration de données sensibles réalisée par le lanceur d’alertes Edward Snowden au détriment de la CIA en 2013, les vols de cartes bancaires des clients du distributeur américain Target ou encore le piratage de films et de la messagerie de Sony Pictures en 2014… Autant de failles de sécurité informatique qui ont défrayé la chronique ces dernières années. Celles-ci auraient pu être évitées si les installations piratées avaient eu recours à une cybersécurité dopée à l’intelligence artificielle (IA) !

L’article complet : Avec l’IA la cybersécurité à un nouvel allié


L’intelligence artificielle va-t-elle nous dépasser ?


Documentaire diffusé sur ARTE.



Baidu dégaine une IA capable de traduire en temps réel


Publié le 28/10/18 sur Lesnumeriques.com

Entraînée, elle devine la fin des phrases

Alors que les outils de traduction automatiques existants analysent des phrases complètes, ce qui les empêche d’interpréter des paroles en simultané, Baidu et l’université d’État de l’Oregon viennent de présenter une IA capable de prévoir la suite probable d’une phrase et, par extension, de la traduire avec un retard minimal.


Article source : Baidu dégaine une IA capable traduire en temps rée


Pour se détendre …


Une intelligence artificielle poète passionne la toile


Etats-Unis-Chine : les meilleurs ennemis du monde en matière d’IA


Malgré leurs déboires côté relations diplomatiques, les États-Unis et la Chine n’entretiennent pas des échanges hostiles en matière d’IA, loin de là.

Réservé aux abonnés : États Unis-Chine les meilleurs ennemis du monde en matière d’IA

Publié sur Les Echos le 21 octobre 2018


Les I.A. buguent et pas qu’un peu !


Les I.A. buguent et pas qu’un peu ! Pour les faire progresser, il faudrait les envoyer en stage dans le monde réel !

Au départ, les intelligences artificielles industrielles se révèlent rarement efficaces. Les loupés sont nombreux et généralement assez comiques. La faute aux méthodes de développement trop déconnectées de la réalité terrain. Et si la solution consistait à sortir les IA des laboratoires de R&D avant leur mise en service ?

Par Aloïs Brunel, co-fondateur et Chief Product Officer de Deepomatic

Une IA, ça trompe énormément !

En janvier 2018, les propriétaires de la nouvelle Tesla S ont eu une expérience désagréable avec l’intelligence artificielle du véhicule. En effet, cette dernière était programmée pour détecter grâce à une caméra la présence d’eau de pluie sur le pare-brise. Manque de chance ; dès que le conducteur de la voiture s’approchait, les essuies glaces s’activaient automatiquement, faisant ainsi gicler de l’eau sur l’infortuné propriétaire. Elon Musk s’est excusé et a promis de régler ce bug.

Mais ce n’est pas la première fois que les intelligences artificielles montrent ces comportements déficients. On se souvient aussi du fameux système Face ID de l’iPhone X qui se laissait berner par un simple masque en papier. Mais ce n’est pas le seul exemple. Entre celles qui ne détectent plus les voitures à un péage routier, pour cause de mauvais temps, ou une autre qui empêche les Asiatiques d’entrer dans un avion, car elle confond les yeux bridés et les yeux fermés sur les photos de passeports, la liste des échecs industriels est sans fin. Qu’est-ce qui peut bien clocher

Une IA sans expérience est une IA inutile !

Ce n’est pas la peine de chercher bien loin pour trouver les raisons de ces ratés. Les IA qui sont développées par l’industrie ne sont tout simplement pas prêtes à être déployées, même après de longues années de travail. La faute revient surtout à la méthodologie mise en place pour faire fonctionner ces systèmes.

Des fonds colossaux sont aujourd’hui investis dans la R&D pour recruter des chercheurs et financer le développement d’applications d’IA. Mais le domaine reste encore très neuf. Faute de recul, les data scientists appliquent la méthodologie de leur domaine. Cette dernière consiste davantage à vouloir développer la meilleure technologie qu’à s’intéresser à ses applications concrètes.

Résultat des courses : les algorithmes sont entraînés sans être confrontés au monde réel et réclament, après plusieurs années de développement, de nouvelles phases de test et d’améliorations. Face aux coûts supplémentaires, cette dernière phase est souvent ignorée et les entreprises se retrouvent avec un produit peu performant et parfois impossible à commercialiser. Mais la solution existe.

Tester et faire échouer les IA : la vraie clé du succès


Vouloir créer l’IA parfaite, c’est bien. Mais vouloir créer une IA sans bug, c’est mieux ! En effet, pour éviter les algorithmes vierges de toutes expérience il faut adopter une méthodologie différente, fondée sur la notion d’itération.

Concrètement, il faut construire un prototype, le tester en conditions réelles, et repérer toutes ses erreurs. Une fois ces premiers tests effectués, il faut reprendre le développement du produit en fonction des retours, un peu comme ce qui se fait dans le monde des logiciels. Cette méthode permet de créer rapidement des prototypes d’IA, de les mettre en production puis de les améliorer de manière itérative afin d’initier un cycle d’amélioration continue.

Pour la mettre en œuvre, ce n’est donc pas un scientifique de la donnée que vous devez embaucher, mais plutôt un AI Manager chargé de créer et de faire évoluer des IA grâce à leurs connaissances métiers et aux retours du monde réel.

Publié sur L’ADN : treprises, changez de méthode pour éduquer vos  intelligences artificielles

Voir aussi : Les ratés spectaculaires de l’intelligence artificielle (FR3)


A Strasbourg, l’intelligence artificielle entre au bloc


L’Institut de recherche contre les cancers digestifs veut utiliser l’intelligence artificielle pour limiter les accidents opératoires.

Une unité dédiée à l’IA

Publié sur La Croix, le 6 novembre 2018 par Alice Le Dréau.

Chaque année, plus de 6 millions d’opérations chirurgicales sont pratiquées en France. 90 000 donnent lieu à des « événements indésirables », autrement dit des complications ou incidents aux conséquences parfois graves pour le patient. À Strasbourg, l’équipe de l’Institut de recherche contre les cancers digestifs (Ircad) participe, en partenariat notamment avec l’industriel Thompson et l’Inserm, à un projet ambitieux baptisé Condor.

« Une IA peut emmagasiner plus d’images et de savoir que le plus expérimenté des chirurgiens »


La suite sur : A Strasbourg l’intelligence artificielle entre au bloc.



L’intelligence artificielle: Le règne des robots

Juste un peu d’anticipation :

https://www.youtube.com/embed/6MViyoGgx_8?f



La réalité de l’intelligence artificielle, c’est ça !


Et si l’intelligence Artificielle était une bonne nouvelle ?



ExGeek-Moi! L’Intelligence Artificielle 1/2 et 2/2



L’intelligence artificielle – Cerveau : la science dépasse la fiction


Transcendance : quand Hollywood rêve


L’intelligence artificielle va changer la F1

L’intelligence artificielle va offrir de nouvelles informations pour suivre la Formule 1. Les téléspectateurs en bénéficieront en 2019.

Publié sur sportauto.fr


AWS est un service d’Amazon spécialisé dans la gestion des données et le partenariat avec la Formule 1 va permettre de donner encore plus d’informations pendant les courses en 2019. La F1 utilise SageMaker, un outil d’apprentissage machine qui permet de croiser de nombreuses données pour générer des statistiques et des pronostics. Ross Brawn, responsable de la compétition de la F1, a dévoilé certaines applications qui seront mises en œuvre l’an prochain, durant la conférence AWS re:Invent à Las Vegas.

« Est-ce qu’un pilote attaque, ou est-il en train d’assurer ? » questionne Ross Brawn durant la conférence. « Nous avons créé des modèles d’apprentissage machine, en utilisant toutes les données que nous avons en Formule 1, et nous avons utilisé ces modèles pour faire des pronostics sur ce qu’il va se passer en course. Nous creusons plus loin pour vous dire pourquoi une voiture est plus performante. »

L’Anglais a donné trois exemples concrets. La F1 a accès à des informations comme les températures des pneus, et surtout leur évolution virage après virage. En les analysant, elle pourra indiquer aux supporters quel est l’état des pneus d’un pilote.


Les données à l’écran montreront aussi le pourcentage de réussites d’un dépassement, en se basant sur les performances de la voiture du pilote qui se défend et de celles du pilote qui attaque. « Ce qui est bien, c’est que les équipes n’ont pas ces données, » souligne Brawn. « La F1 a les données des deux voitures, ce qui permet de faire ces comparaisons, qui n’ont jamais été faites jusque là. »

La F1 pourra aussi analyser les stratégies, en décryptant pourquoi un pilote s’est arrêté à un tour et pas à un autre, et en estimant si la stratégie est bonne ou pas.

D’autres applications seront possibles, en exploitant les nombreux capteurs présents sur les monoplaces.

Les données vont améliorer le spectacle

La F1 fait des simulations pour trouver la formule aérodynamique qui favorisera les dépassements : « Nous avons développé des concepts avec deux voitures qui se suivent. C’est un problème complexe, qui n’a jamais été étudié auparavant. »

Le championnat travaille aussi sur des façons d’améliorer le spectacle. Les outils à sa disposition permettent de simuler de nouveaux formats de courses ou de systèmes de qualifications.

« Nous allons analyser l’influence des pistes et des formats de course sur la qualité du spectacle, » explique Brawn. « Peut-on créer des piste qui offrent de meilleures courses et plus de dépassements ? Peut-on changer le format des courses pour les rendre plus intéressantes et moins prévisibles ? Que se passe-il si on change le format de la grille de départ ? »

Article source par ce lien.

L’IA pour le meilleur, sans le pire


Je fais de la recherche sur l’intelligence depuis trente ans. Comme la plupart de mes collègues, je ne me suis pas lancé là-dedans dans le but de fabriquer des objets technos, mais bien par intérêt pour l’abstraction de la notion d’intelligence. Je voulais comprendre l’intelligence. La science, c’est comprendre.

Mais voilà : quand un groupe de chercheurs finit par comprendre quelque chose de nouveau, on peut exploiter cette connaissance de façon bénéfique ou néfaste.

On en est là : à ce moment charnière où la science de l’intelligence artificielle sort des labos d’universités. Depuis cinq ou six ans, les grandes entreprises comme Facebook et Google ont commencé à s’y intéresser au point de mettre des centaines de millions de dollars sur la table pour acheter des entreprises en IA, puis pour développer cette expertise à l’interne.

Depuis, la progression est exponentielle. Les entreprises sont très intéressées à utiliser ces connaissances afin de développer de nouveaux marchés et produits, d’améliorer leur efficacité, etc.

Or, à mesure que l’IA se déploie dans la société, il y a un impact. À nous de choisir comment les choses se feront. Le futur est entre nos mains…

La suite sur : L’IA pour le meilleur sans le pire

Publié sur The Conversation le 9 décembre 2018.


L’Intelligence artificielle : un défi pour l’Europe

L’Europe ferait preuve d’une coupable responsabilité en fermant les yeux sur la réalité de l’Intelligence artificielle. Au regard des valeurs qui la fondent comme civilisation, elle se doit de soumettre l’IA au respect inconditionnel de l’intégrité et de la dignité humaines. Le politique doit mettre son honneur dans la préservation de conditions de vie meilleures et indissociablement plus dignes.

Alors qu’ont lieu en ce moment des discussions au CESE sur la souveraineté numérique, l’Occident découvre avec effroi que, depuis 2014, la Chine travaille sur un système d’évaluation de ses citoyens qu’elle est aujourd’hui en mesure de mettre en œuvre. Grâce à un puissant système de caméras piloté par l’Intelligence artificielle, c’est un véritable projet de surveillance des comportements qui s’instaure et à partir duquel sont évalués les individus dans tous les pans de leur vie.

Passer à la troisième partie de l’étude...

Retour