LE BIG DATA

Depuis deux à trois ans le pourcentage de mission effectuées par nos consultant lié au Big Data et passé de presque rien à 15% environ.


Il y a quelques années, mettre en place un data warehouse (Entrepôt de données) était commun, mais les temps change rapidement. Même si les banques, les assurances et les sociétés financières française sont « soit disant » en retard, elles semblent mettre les bouchées doubles en ce moment.



MENU

Il temps de faire un point sur ce phénomène

Big Data : faire parler les données pour créer de la valeur
Comment définir le Big Data
Quelles sont les principales technologies de Big Data ?

Le Big Data et CRM
Nous sommes entrés dans l’ère du Big Data
Big Data et CRM pour créer de nouveaux services et produits
Big Data et CRM pour développer des campagnes marketing personnalisées
Big Data et CRM pour améliorer l’image de marque
Big Data et CRM pour améliorer la qualité du service client
Le Marketing Automation

Le Big Data en France
L’équipe de France du big data en ordre de marche

Les banques et le Big Data
L’open data à l’heure de la maturitée
Un un enjeu crucial pour le secteur bancaire
Les banques sont assises sur des monceaux de données clients
Doubler ou tripler l’efficacité de la prospection commerciale

Reconquérir des clients
Banques de détail et d’investissement
Big Data et assurance font-ils bon ménage ?
Big data et intelligence artificielle : l’assurance tient-elle (enfin) sa révolution ?
Comment le Big Data va révolutionner l’assurance

Le Renseignement aux portes du Big Data
Que signifie l’utilisation du Big Data ?
Questions soulevées : l’anonymat et le gouvernement algorithmique
Le renseignement militaire français se lance dans le Big Data
Big Data dans l’armée française : données, garde à vous !

Du mainframe au cloud : l’exemple d’Amadeus

Les logiciels et entreprises du Big data
La vision Microsoft : Azure
La vision ORACLE
La vision Sopra-Stéria
La vision TALEND
Du coté de chez IBM
Et pour Microstratégie
Pour Informatica
Voyons INGENSI

L’open data privé, le nouvel eldorado des entreprises ?

Quelques liens pour aller plus loin



Il est donc temps de faire un point sur ce phénomène.

Pour commencer, regardons l’introduction de la fiche Wikipédia :

Le big data, littéralement « grosses données », ou mégadonnées (recommandé), parfois appelées données massives, désigne des ensembles de données devenus si volumineux qu’ils dépassent l’intuition et les capacités humaines d’analyse et même celles des outils informatiques classique de gestion de bases de données ou de l’information.L’explosion quantitative (et souvent redondante) de la donnée numérique contraint à de nouvelles manières de voir et analyser le monde. De nouveaux ordres de grandeur concernent la capture, le stockage, la recherche, le partage, l’analyse et la visualisation des données. Les perspectives du traitement des big data sont énormes et en partie encore insoupçonnées ; on évoque souvent de nouvelles possibilités d’exploration de l’information diffusée par les médias, de connaissance et d’évaluation, d’analyse tendancielle et prospective (climatiques, environnementales ou encore sociopolitiques, etc.) et de gestion des risques (commerciaux, assuranciels, industriels, naturels) et de phénomènes religieux, culturels, politiques8, mais aussi en termes de génomique ou métagénomique, pour la médecine (compréhension du fonctionnement du cerveau, épidémiologie, écoépidémiologie…), la météorologie et l’adaptation aux changements climatiques, la gestion de réseaux énergétiques complexes (via les smartgrids ou un futur « internet de l’énergie »), l’écologie (fonctionnement et dysfonctionnement des réseaux écologiques, des réseaux trophiques avec le GBIF par exemple), ou encore la sécurité et la lutte contre la criminalité. La multiplicité de ces applications laisse d’ailleurs déjà poindre un véritable écosystème économique impliquant, d’ores et déjà, les plus gros joueurs du secteur des technologies de l’information.

Certains supposent que le big data pourrait aider les entreprises à réduire leurs risques et faciliter la prise de décision, ou créer la différence grâce à l’analyse prédictive et une « expérience client » plus personnalisée et contextualisée.

Divers experts, grandes institutions (comme le MIT aux États-Unis, le Collège de France en Europe), administrations et spécialistes sur le terrain des technologies ou des usages considèrent le phénomène big data comme l’un des grands défis informatiques de la décennie 2010-2020 et en ont fait une de leurs nouvelles priorités de recherche et développement, qui pourrait notamment conduire à l’Intelligence artificielle en étant exploré par des réseaux de neurones artificiels auto apprenants.

La fiche Wikipédia en anglais : Big Data


Cette terminologie – qui fait débat car elle est inspirée du Big Brother du roman 1984 de George Orwell – a pour signification la collecte et l’analyse des énormes masses de données générées par l’explosion de l’usage d’Internet.

Avec Internet, les clients sont (sur) informés et prennent l’avantage dans la relation bancaire.

Une autre définition : Informatique big data


Big Data : faire parler les données pour créer de la valeur

Une autre façon de voir le sujet , publié sur JDN : Analytics et big-data

Pour faire face à l’explosion du volume des données, un nouveau domaine technologique a vu le jour : le Big Data. Inventées par les géants du web, ces solutions sont dessinées pour offrir un accès en temps réel à des bases de données géantes.

Comment définir le Big Data, et quelle est sa promesse ?


Face à l’explosion du volume d’informations, le Big Data vise à proposer une alternative aux solutions traditionnelles de bases de données et d’analyse (serveur SQL, plateforme de Business Intelligence…). Confrontés très tôt à des problématiques de très gros volumes, les géants du web, au premier rang desquels Yahoo (mais aussi Google et Facebook), ont été les premiers à déployer ce type de technologies. Selon le Gartner, le Big Data (en français mégadonnées ou « Grandes données ») regroupe une famille d’outils qui répondent à une triple problématiques 

–> C’est la règle dite des 3V.



Quelles sont les principales technologies de Big Data ?


Elles sont nombreuses. Pour optimiser les temps de traitement sur des bases de données géantes, plusieurs solutions peuvent entrer en jeu :

Depuis Journal du net : Analytics et big-data


Le Big Data et CRM


Publié sur Le Bigdata par Bastien L le 21 novembre 2018

Comment les données transforment les relations client

Le Big Data ouvre de nouvelles possibilités pour les logiciels CRM. Découvrez comment les entreprises peuvent exploiter les mégadonnées pour gérer plus efficacement leurs relations client.

Entre la naissance de l’humanité et l’an 2003, 5 exabytes de données ont été générés. Aujourd’hui, le même volume d’informations est créé tous les deux jours.


Nous sommes entrés dans l’ère du Big Data.

Les réseaux sociaux, les sites web, les applications mobiles, les objets connectés… toutes ces technologies que nous utilisons au quotidien sont autant de sources de données massives.

Ces données peuvent être exploitées par les entreprises de tous les secteurs de multiples façons, et notamment pour améliorer la gestion des relations client. Voici comment le Big Data transforme les CRM.

Ces logiciels de gestion de la relation client connaissent des évolutions fortes. Il ne s’agit pas d’utiliser des bases de données remplies manuellement, mais de se connecter aux réseaux sociaux, aux chatbots, aux services clients, etc. Le Big Data devient alors essentiel pour les entreprises. De même, cela permet l’automatisation des étapes de ventes.

Big Data et CRM pour créer de nouveaux services et produits

En combinant différentes données sur le comportement des clients et leurs précédents achats, il est possible de déterminer quels sont leurs besoins actuels et même de prédire la future demande grâce aux technologies d’analyse prédictive.

Ainsi, les entreprises peuvent s’appuyer sur le Big Data et les CRM pour créer de nouveaux services et produits, ou pour modifier les produits et services déjà existants afin de les rendre plus attractifs.

Big Data et CRM pour développer des campagnes marketing personnalisées

big data crm 2

De la même façon que pour le développement de nouveaux produits, les CRM peuvent s’appuyer sur les données pour segmenter la clientèle et déterminer la façon dont les différents segments réagiront à une campagne de marketing.

Ainsi, il est possible d’utiliser le Big Data pour créer des campagnes marketing et des publicités personnalisées. Le taux de conversion de ces publicités ciblées sera largement supérieur.

Big Data et CRM pour améliorer l’image de marque

Grâce au Big Data, les entreprises peuvent utiliser leurs CRM pour vérifier la façon dont leurs produits ou même leurs marques sont perçus par les clients. Il est par exemple possible d’appliquer la technique de l’analyse de sentiment aux données collectées sur les réseaux sociaux pour déterminer le taux de satisfaction des clients.

L’entreprise sera alors en mesure d’identifier ses faiblesses et de les corriger, en modifiant ses stratégies de ventes et de marketing, afin d’améliorer son image de marque. Ceci permettra de renforcer la rétention des clients, et d’améliorer l’expérience client.

Big Data et CRM pour améliorer la qualité du service client

Grâce au Big Data, les équipes de service client peuvent accéder à davantage d’informations lorsqu’elles interagissent avec les clients. En un clic, elles sont par exemple en mesure d’accéder à toutes les informations sur le client et son historique d’achat.

Ceci permet d’améliorer l’efficacité et la qualité du service client. Par conséquent, les clients seront plus satisfaits et le service client gagnera du temps.

Le Marketing Automation : une nouvelle façon d’aborder les relations client grâce au Big Data

Le Marketing Automation est une technologie permettant d’automatiser les tâches marketing les plus répétitives telles que l’envoi d’emails ou de messages sur les réseaux sociaux. L’entreprise se contente de définir des conditions d’activation des tâches en question, et les processus sont ensuite automatisés.
Cette approche repose sur le Big Data, car c’est à partir des nombreuses données collectées sur les clients qu’un profil est créé pour chacun d’entre eux. Les logiciels de Marketing Automation s’appuient ensuite sur ces profils pour segmenter la clientèle et personnaliser les messages à envoyer.
De nombreuses solutions incluent à la fois des fonctionnalités de CRM et de Marketing Automation, et c’est la raison pour laquelle ces deux technologies sont bien souvent confondues. Toutefois, en faisant une comparaison entre Marketing Automation et CRM, on constate qu’il existe d’importantes différences entre ces deux types de logiciels.

En résumé, le Big Data permet d’augmenter considérablement l’efficacité et les fonctionnalités des logiciels de CRM. Grâce aux mégadonnées, les relations client sont désormais ” data-driven “. Les entreprises sont ainsi en mesure de s’adapter plus rapidement à la demande, et d’améliorer considérablement l’expérience proposée à leurs clients. Par extension, le Big Data et les CRM permettent d’augmenter les revenus de l’entreprise.



Le Big Data en France

L’équipe de France du big data en ordre de marche

Publié le 06/12/2018 par L’Usine Nouvelle.


Désormais, l’exploitation de données massives peut être estampillée made in France. C’est le message qu’a fait passer le 29 novembre Yannick Rolland, le président et initiateur du cluster Data intelligence, dans les locaux du Groupement des industries de défense et de sécurité terrestres et aéroterrestres.


Créé en juin 2017, le cluster Data intelligence – regroupement de 21 acteurs mêlant grands groupes, ETI, PME et start-up – est aujourd’hui en mesure de proposer une offre opérationnelle structurée. « Notre offre, qui peut être adaptée en fonction des demandes, vise autant les États que les industriels », précise Yannick Rolland, également responsable de l’offre big data d’Atos. Le champion français des services numériques sera parvenu à embarquer à la fois des géants comme Airbus Defence and Space et MBDA et des acteurs moins connus (Bertin IT, Deveryware, Geo4i, Linkurious).

GICAT : Groupement des Industries de Défense et de Sécurité terrestres et aéroterrestres

La suite sur : L’équipe de France du big data en ordre de marche

Voir également : Les enjeux du big data sur le futur de la santé


Les banques et le Big Data


Nous touchons ici le métier de Xénium Partners .

L‘open data à l’heure de la maturitée

Comme mentionné en début de cette étude, les consultants Xénium Partners sont de plus en plus concernés et impacter pendant leurs missions au Big Data.

La dernière rupture comparable dans le secteur bancaire a eu lieu au début des années 1990 avec les débuts de la cotation électronique et le suivi en temps réel des comptes courants et des crédits permanents. A cette époque les traders ont pu avoir accès à une quantité nouvelle de données qu’ils pouvaient analyser. Aujourd’hui le Big Data permet d’utiliser plus de données et de réaliser un travail d’analyse algorithmique beaucoup plus vaste et rapide. La similarité des deux phénomènes est soulignée par les questions semblables qu’ils soulèvent : faut-il employer des méthodes automatiques d’analyse de ces données massives ou avoir des approches réfléchies de ces dernières ?

Le big data, un enjeu crucial pour le secteur bancaire

Le marketing prédictif peut permettre de doubler ou de tripler l’efficacité de la prospection commerciale, d’après la startup Data Publica, qui organisait un séminaire sur le big data dans le secteur des services financiers, mardi 26 janvier 2018.

Depuis trois mois, vous passez l’essentiel de votre pause-déjeuner les yeux rivés sur Seloger.com. Et, lorsque vous vous déconnectez du site d’annonces immobilières, c’est pour vous précipiter sur ceux des courtiers, afin de comparer les offres de prêts. Cinq minutes à tuer ? Vous voilà sur Google, à la recherche des derniers articles parus sur l’évolution récente des prix de l’immobilier, des taux, ou encore des frais de notaire. Nul besoin d’être Sherlock Holmes pour deviner que vous avez la ferme intention d’acquérir un appartement dans un futur proche. Sans que vous ne lui ayez (encore) rien demandé, votre banque serait donc bien inspirée de vous adresser sous peu une offre de prêt immobilier. Laquelle vous semblerait autrement plus opportune que les propositions de crédit auto dont votre établissement bancaire vous bombarde régulièrement, alors que vous ne possédez pas de voiture.
Autre exemple :
Vous recevez régulièrement des offres de prêt immobilier alors que vous êtes propriétaire de votre logement et que votre enfant ainé vient d’obtenir le baccalauréat. Alors vous chercher les conditions des prêts étudiant ; rien ne vient de votre établissement bancaire …

Mais pour ce faire, encore faudrait-il que votre banque dispose de tous les indices précités. C’est désormais possible avec le big data, qui, grâce à l’analyse et au croisement d’énormes masses de données structurées et non structurées (publications sur les réseaux sociaux, e mails, etc.), permet de disposer d’une connaissance beaucoup plus fine des clients et, partant, de leur proposer le bon produit, au bon moment, par le canal de distribution le plus adéquat. « Le marketing classique repose sur des informations partielles et souvent obsolètes. Le marketing prédictif permet de résoudre cet inconvénient, puisqu’il est basé sur la recherche de données « fraîches » sur le Web, sur les réseaux sociaux et via l’open data, données qui sont ensuite combinées à celles des fichiers clients des entreprises », a expliqué Philippe Spénato, l’un des responsables de la startup Data Publica, spécialisée dans le marketing prédictif, lors d’un séminaire sur le big data qui se déroulait à Paris mardi 26 janvier 2018.

Les banques sont assises sur des monceaux de données clients

Si cette dernière a pour principal client la poste belge, qui l’a chargée d’identifier les sociétés belges susceptibles d’expédier plus de 200 colis par mois, elle travaille également pour nombre de banques. Car s’il est un secteur d’activité dans lequel le big data pourrait faire merveille, c’est bien celui de la banque. D’abord parce qu’aucune autre entreprise ne détient autant de données sur ses clients (KYC). Salaire, propension à dépenser ou au contraire à épargner, commerces favoris… Les banques savent tout de leurs clients, ou presque. Une mine d’or qu’il convient plus que jamais d’exploiter, à l’heure où les clients des banques se plaignent de produits trop standardisés.

Une faiblesse que les fintech ont parfaitement flairée, ces startups spécialisées dans les technologies financières se faisant fort de bâtir leurs services à partir des besoins des consommateurs. « Au-delà des opportunités, la révolution du big data constitue surtout une menace majeure pour les banques traditionnelles. Déjà, des modèles « data driven » prolifèrent dans les services financiers, définissant une nouvelle relation bancaire organisée autour de la désintermédiation et de l’excellence de l’expérience utilisateur. (…) Sous peine de se voir cantonnés à un simple rôle de fournisseurs techniques, les acteurs traditionnels du monde bancaire doivent contre-attaquer (pour garder) la maîtrise de la relation client », avertissait ainsi le cabinet Precepta, dans une étude publiée en novembre dernier.

Doubler ou tripler l’efficacité de la prospection commerciale

Les banques en ont conscience : 58% des 100 établissements bancaires mondiaux interrogés au mois de novembre (2017) par l’Efma et Infosys estiment que le big data va jouer un rôle crucial dans l’amélioration de la connaissance de leurs clients et dans l’élaboration d’outils marketing intelligents. Les établissements bancaires marchent cependant sur des œufs, tant l’utilisation des données personnelles des clients est sujette à caution, et risque de déboucher sur des approches commerciales trop intrusives (MIFID). En tout état de cause, les grandes banques françaises de réseaux se sont dotées, ces dernières années, d’équipes spécialisées dans le big data, qui comptent une dizaine de personnes. Comme Francesca Glavany, responsable du marketing quantitatif au sein du groupe BPCE (Banque Populaire Caisse d’Épargne). L’an dernier, elle a par exemple planché avec ses équipes sur l’identification des clients et prospects les plus susceptibles d’être intéressés par le prêt bonifié Innov & Plus, conçu par les Banques Populaires pour les entreprises innovantes.

« Nous ne parvenions pas à définir la notion de « société innovante » », reconnaît Francesca Glavany. D’où une collaboration avec Data Publica, dont la solution de marketing prédictif C-Radar a permis d’explorer le Web à la recherche des sociétés ayant récemment levé des fonds, étant membres de pôles de compétitivité et bénéficiant du statut de JEI (jeune entreprise innovante). Des données ensuite recoupées avec celles piochées dans l’open data sur les entreprises qui ont déposé des brevets il y a peu de temps. Au bout du compte, une liste d’entreprises à contacter en priorité pour leur proposer le fameux prêt bonifié Innov & Plus.
« Le marketing prédictif peut permettre de doubler ou de tripler l’efficacité de la prospection commerciale », souligne Philippe Spénato


Reconquérir des clients


Satisfaire ses clients en compte c’est bien !
Reconquérir des clients partis à la concurrence c’est bien aussi !

L’utilisation du Big Data est un moyen performent pour reconquérir ses clients et leurs apportés les services désirés.

A lire :
Comment le big data peut aider les banques à reconquérir leurs clients

Autres exemple de l’utilisation du Big Data :
o Citigroup tire bénéfice des données
o Regagner la confiance des clients grâce au Big Data
o Banque et Big Data, une mine d’or d’informations clients à protéger


Banques de détail et d’investissement : des utilisations Big Data différentes

Le Big Data permet d’améliorer les stratégies marketing de la banque de détail. Face à une clientèle de moins en moins fidèle, le premier enjeu pour la banque est de conserver ses clients en anticipant leurs besoins via l’analyse de leurs comportements bancaires. Les données que vous laissez après avoir contracté un prêt, lors de vos achats sur internet ou en magasins, retraits auprès de distributeurs… sont analysées avec minutie. Même vos données sur Facebook ou LinkedIn sont décortiquées par des algorithmes qui vous mettent dans des cases clients afin de proposer des produits adaptés à votre situation financière.

L’outil Big Data permet alors de rationaliser les processus comme le montage de prêts en modernisant les outils de scoring des clients. Associées aux données financières classiques, les données sociales et comportementales fournissent une image plus complète du futur emprunteur et une évaluation plus précise du profil de risque de ce dernier.

Concrètement, la banque peut anticiper le défaut d’un client ou des retards de paiement.

Pour la banque d’investissement, les outils Big Data analysent en temps réel les données de marché afin de maximiser la rentabilité et de minimiser l’exposition aux risques. Ils favorisent ainsi l’optimisation des stratégies de trading au sein des front offices pour lesquels l’analyse doit être dynamique étant donné la variabilité des données. Les données qui étaient abandonnées autrefois faute d’espace de stockage sont désormais très facilement ajoutées à des bases de données afin d’être conservées et analysées. L’adjonction d’un moteur de recherche permet de prospecter efficacement ces données en temps réel, tout comme Google permet de chercher dans tout le web et sait instantanément présenter les 10 résultats importants du moment.

Cette utilisation automatisable par programmation ouvre de nouveaux horizons, que ce soit dans l’optimisation des stratégies de trading que dans la détection des fraudes. Mis à disposition d’un opérateur middle office, le Big Data est un moyen efficace pour la détection d’anomalies car il est alors possible d’accéder à l’ensemble des données de la banque sans aucune limite d’historique.

Dans le cas des banques de détails comme des banques d’investissement, imagines les résultats possibles en ajoutant une couche d’intelligence artificielle ou de deep learning

L’open data à l’heure de la maturité en France ?


L’ouverture des données publiques s’étend à des champs de plus en plus larges et prometteurs, comme la santé. La nomination d’un administrateur général des données en septembre a accéléré le mouvement au sein de l’État et les startups, comme celles retenues au concours Data connexions qui décerne ses prix ce jeudi, développent des applications au potentiel business plus marqué.
L’année 2014 a été déterminante pour la France en matière d’ouverture publique des données : adhésion au mouvement Open Government Partnership et nomination en septembre d’un « Chief Data officer » ou « administrateur général des données », Henri Verdier, également directeur de la mission Etalab. Rattachée au Premier ministre, cette dernière pilote la politique d’ouverture et de partage des données de L’État, des établissements publics, et des collectivités si elles le souhaitent. A la veille de la cérémonie de remise des prix du concours Dataconnexions, organisé par Etalab, qui récompense les meilleures innovations fondées sur l’ouverture des données publiques, Henri Verdier partage sa satisfaction de voir ce mouvement prendre de l’ampleur.

« La transparence que permet l’open data est devenue une routine, à l’image de la publication de la réserve parlementaire » se félicite Henri Verdier. « L’open data c’est la transparence, c’est aussi une ressource pour l’innovation et une source d’amélioration de l’efficacité de l’administration. »

Henri Verdier


Ces trois volets sont représentés dans les candidatures à la cinquième édition de Dataconnexions : 63 dossiers présentés et 20 retenus pour « pitcher » en public jeudi, après plus de 3.000 votes en ligne du grand public. Pas de récompense financière à la clé pour les gagnants mais une mise en avant qui peut donner un vrai coup de pouce. Le jury est composé de professionnels, directeurs d’administrations, d’investisseurs en capital-risque, de journalistes spécialisés, de cadres de grands groupes (La Poste, Orange) etc.

« Ce concours est un indice de la maturité de l’écosystème » estime le directeur général d’Etalab.

Les startups candidates au concours ont compris « qu’il faut apporter de la valeur ajoutée, sinon ce n’est pas la peine de créer une boîte. » Il y a ainsi beaucoup de projets « BtoB », destinés à un usage professionnel, comme CommoPrices, un portail de cours des matières premières, Splayce, un traitement de texte intégrant les textes juridiques, Contracteo, un outil d’aide à la rédaction des contrats de travail. Dans la catégorie des projets portés par des acteurs publics, on trouve celui de la petite commune de Brocas (Landes), devenue mythique dans la communauté Open Data pour avoir décidé d’ouvrir toutes ses données, et celui de l’agence régionale de santé de PACA pour sa data visualisation des dépenses de santé.

« On aborde cette année des questions robustes, telles que la santé. On n’est plus seulement dans la transparence mais dans la science » se réjouit Henri Verdier. « Le plus gros boulot devant nous dans l’open data se situe dans la santé : c’est de l’or en barre, pas pour le business mais pour l’épidémiologie, l’amélioration du parcours de soin, etc. En revanche, c’est aussi de la vie privée en barre ! Il faut donc préparer de grands jeux de données anonymisés. »

Fin janvier, un hackaton a été organisé par l’Assurance maladie, qui a donné accès à son immense base de données Damir (650 gigaoctets d’informations !), reprenant tous les actes thérapeutiques, hors hôpital. Vingt équipes se sont affrontées et ont soulevé « des questions très malines » par exemple va-t-on plus chez le médecin si l’offre de soins est plus abondante?

L’administrateur général des données s’est donné un an pour définir sa fonction et Institutionnaliser cette administration. Il a déjà recruté 4 « data scientists », veut repérer des profils similaires dans l’administration et creuser des « sujets concrets » : ainsi des discussions sont en cours avec Bpifrance pour mesurer l’impact des aides et voir comment le maximiser sur l’écosystème. Sur les achats publics, il pense que l’on peut réaliser des économies « ciblées » en identifiant des multitudes de petits gaspillages. Il tient déjà au moins une réalisation concrète: la base d’adresses nationale, géolocalisée, conçue en partenariat avec La Poste, l’IGN, le cadastre et les bénévoles d’Openstreetmap, sur la base d’un partage à l’identique (et non d’une réutilisation libre, la licence Etalab), dévoilée en novembre dernier.

« On a réussi à convaincre la Poste de renoncer à sa base de codes postaux qui lui rapportait 1 million d’euros par an. On évangélise, on rassure, on donne des exemples » explique Henri Verdier.

Et l’administrateur général des données de prévenir :

« S’il y a une chance de résister à Google en Europe c’est avec Openstreetmap

Cette carte mise à jour par 2 millions de contributeurs bénévoles est utilisée notamment par le Samu, les services de protection de personnalités, les aménageurs publics.

Lire également :
Big data : les banques craignent le casse du siècle
Identité, déplacements, goûts… Les banques détiennent dans leurs coffres une mine d’or constituée des données personnelles de leurs clients. Un trésor qu’elles entendent défendre à leur profit, contre toutes les convoitises.
Publié sur Le Monde le 16 mars 2016 par Jade Grandin de l’Eprevier.




Big Data et assurance font-ils bon ménage ?


La force du Big Data appliquée à l’assurance se trouve dans l’amélioration du profilage des assurés et du ciblage de leurs besoins, avec une individualisation fine de l’offre d’assurance et le développement de nouveaux services de prévention en vue d’éviter les sinistres. Avec à la clé une amélioration du chiffre d’affaires et une réduction des coûts, mais aussi le risque de mettre fin à la mutualisation et de se trouver en concurrence avec les nouveaux entrants que sont les GAFA ou l’Assurtech.

Le Big Data marque l’avènement du web 3.0, après celui du 2.0 qui a mis en lumière le web social et participatif, notamment à travers les réseaux sociaux. Grâce aux outils qui permettent d’analyser les comportements des internautes et d’en déduire leurs besoins, nous sommes entrés aujourd’hui dans l’ère du web prédictif.

Le Big Data, anglicisme signifiant « méga données », renvoie à un ensemble d’outils technologiques qui permettent de produire de nouvelles connaissances et solutions à partir de l’extraordinaire collecte de données produites à travers les entreprises du numérique. En 2015, 1 740 000 giga-octets d’informations ont été publiés dans le monde. C’est donc naturellement que des outils ont été mis en place afin de pouvoir trier et tirer profit de cette manne d’informations.

Le monde de l’assurance n’a pas été épargné par ce processus de destruction créatrice, une innovation qui révolutionne le secteur au sein de toute sa chaîne de valeurs. En amont, le Big Data permet de mieux appréhender les risques grâce aux objets connectés et de pouvoir tarifer en tenant compte du comportement de l’assuré. Mais aussi, sur le plan marketing et commercial, il est possible de mieux mesurer le degré de satisfaction client et de mieux lutter contre le phénomène d’attrition. En aval, des outils stratégiques ont été conçus afin de combattre la fraude et de prévoir des indemnisations plus efficaces.

Article complet : Big Data et assurance font-ils bon ménage

Conclusion :

Plus que n’importe quel autre secteur, l’assurance devra se plier et s’accoutumer au mastodonte Big Data. En réalité, le Big Data vient aider l’assurance en comblant ses lacunes les plus anciennes.

En effet, ces méga données sont au service des assureurs lorsqu’elles permettent au client de se sentir considéré à juste valeur. Il n’a plus la sensation que l’assureur le fait payer pour payer les sinistres des autres puisque le Big Data permet de tarifer selon les caractéristiques de chacun. Mais il ne faut pas s’y méprendre, cela ne se fait pas au détriment de l’assureur, bien au contraire. Ce dernier, avec ce système, connaît désormais pratiquement tout de son assuré et ce quasiment sans filtre. Le moindre écart peut donc coûter à l’assuré, même si cet écart n’est pas nécessairement représentatif du mode de vie du consommateur. Un excès de vitesse ponctuel fait-il réellement de l’assuré un mauvais conducteur ? La question reste entière et elle se pose aussi en ce qui concerne la prévention.

Si l’on prend un peu plus de hauteur, on peut légitimement penser que le Big Data, couplé à la technologie de la blockchain peut solutionner un grand nombre de problèmes, toujours aussi coûteux pour l’assureur. On pense par exemple ici à la fraude. Le Big Data est donc une mine d’or. Certes, son application au sein de l’entreprise a un coût puisqu’il faut recruter des personnes avec de nouvelles compétences, mettre en place la technologie au sein de la chaîne de valeur, s’équiper autrement… Mais l’investissement peut s’avérer extrêmement rentable s’il fait disparaître les 2,5 milliards d’euros qu’a coûtés la fraude en 2014 selon l’ALFA.

Mais, finalement, la menace ne vient-elle pas de ceux qui ont déjà l’habitude de collecter de la donnée en masse, qui maîtrisent parfaitement et ce depuis des années, la notion de Big Data ? On pensera ici encore une fois au GAFA. Ces derniers sont en première ligne pour assurer au mieux les consommateurs. Ils savent tout avant tout le monde et peuvent anticiper. Certes Google Compare s’est soldé par un échec, mais ne peut-on pas imaginer que l’arrivée de la Google Car soit une aubaine pour Google, qui serait alors en pole position pour proposer des assurances automobiles dans un premier temps ? La révolution peut également venir d’un acteur qui n’existe pas encore, une start-up de l’Assurtech comme l’ont fait en leur temps les GAFA…


Article complet : Big Data et assurance font-ils bon ménage ?

Autres article : Big Data, défis et opportunités pour les assureurs

Big data et intelligence artificielle : l’assurance tient-elle (enfin) sa révolution ?


Le monde de l’assurance s’interroge aussi et prépare le futur

« Si l’on ne sait pas ce que sera le modèle de l’assurance demain, il est certain en revanche qu’il sera transformé par l’Intelligence Artificielle. Alors anticipons  son impact sur les métiers […] et faisons de l’Intelligence Artificielle un vrai sujet de transformation et de service augmenté ! » affirmait Jacques Richier, P-Dg d’Allianz France, dans sa tribune libre du 18 janvier 2018. Pour mieux saisir les enjeux de cette métamorphose des modèles assurantiels, L’Argus de l’assurance vous propose de découvrir les retours d’expérience de 18 professionnels du secteur le 12 décembre 2018.

L’article complet sur L’argus de l’assurance.com le 22 novembre 201



Comment le Big Data va révolutionner l’assurance

Les objets connectés et les réseaux sociaux collectent une foule d’informations sur notre vie quotidienne. S’ils arrivent à faire parler cette montagne de données, les assureurs disposeront d’un outil d’une puissance inouïe, aux applications infinies.

Un coup d’œil à votre bracelet électronique : 6.123 pas depuis le réveil… En montant dans votre voiture, vous vous dites que vous ferez mieux le lendemain. Dix minutes plus tard, vous vous garez devant chez vous après avoir enfreint les limitations de vitesse à deux endroits, donné trois coups de freins un peu brusques et accéléré brutalement à huit reprises, comme l’atteste le capteur installé dans votre véhicule. Vous n’y prêtez plus forcément attention, mais ces données ne sont pas perdues pour tout le monde. Pas plus que les innombrables traces laissées lorsque l’on surfe sur Internet et sur les réseaux sociaux. Car pour les assureurs, c’est une aubaine. Avec cette masse de données à haute valeur ajoutée pour eux, ils vont pouvoir connaître de mieux en mieux, et en temps réel, le comportement de chacun d’entre nous – qui leur avons par ailleurs déjà donné de notre plein gré une foule d’autres informations -, et nourrir encore et encore leurs modèles.

Scénario de science-fiction ?

L’article complet sur : Comment le big data va révolutionner l’assuranc



Le Renseignement aux portes du Big Data


NDLR : Un avis sur les dangers du Big Data ; cet avis n’engage que l’auteur

Publié sur blogs.mediapart.fr le 22 décembre 2016 par Marc Vidal

Ce billet fait le rapprochement entre la loi relative au renseignement (votée 2015) et les techniques du Big Data. Le détail de l’analyse fait apparaître un nombre impressionnant de points obscurs : sous une formulation apparemment claire, le texte de loi peut être utilisé de façon abusive par les services d’espionnage. Le billet est une introduction à une analyse plus complète en pdf.


Depuis environ un an, une nouvelle loi est en cours d’application. Il s’agit de la loi du 24 juillet 2015 relative au renseignement.

Cette loi sert pour l’essentiel à rendre légales les pratiques illégales des services de renseignement français sur le sol français.

Il existe pourtant une incontestable nouveauté : la légalisation du captage des données sur Internet dans le but final de repérer des intentions terroristes. Les techniques de captage qui vont être mises en œuvre sont inconnues (et même mystérieuses) mais une chose paraît certaine : plus on capte de données, plus on améliore ses chances de repérer des données de connexion terroriste.
L’idéal est évidemment de capter tous les flux mais dans tous les cas de figure, les services de renseignement vont se trouver face à des volumes considérables de données.
Le stockage de ces données ne devrait pas poser de problèmes considérables si on tient compte du savoir-faire pré-existant des services spéciaux ainsi que de l’expérience accumulée autour des clouds souverains comme Numergy ou CloudWatt.

Mais comment traiter ces flux ? La solution qui saute à l’esprit est celle du Big Data. On regroupe sous ce nom un ensemble de techniques assez récentes spécialement dédiées aux données de faible qualité mais avec un fort volume et un fort renouvellement.

Je propose dans l’étude jointe de confronter les textes relatifs à la loi sur le renseignement et les logiques mises en œuvre dans le Big Data.

Comme on le verra quelques conclusions s’imposent.

Que signifie l’utilisation du Big Data ?

En premier lieu, la captation massive des flux présente un indéniable attrait pour les politiques publiques. Mais la loi relative au renseignement soulève des problèmes majeurs qui impactent directement le droit à la vie privée mais également l’exercice de la démocratie. On a ainsi ouvert une boîte de Pandore inédite par son ampleur et ses effets.

La loi a souhaité que les techniques mises en œuvre soit limitées à la recherche d’intentions terroristes. Comme je crois le montrer dans l’étude, il n’existe pas de procédure simple pour atteindre le résultat recherché.

Il ne faut pas non plus espérer découvrir une loi au sens des lois physiques qui relient une cause et des effets. Les traitements du Big Data se situent plutôt dans l’univers de la corrélation et non de la cause.

La corrélation découverte ne sera conservée que si elle se révèle utile à l’action. Ceci signifie donc qu’il faudrait aller jusqu’à une enquête finale pour juger de l’intérêt de la découverte. Le Big data implique l’investigation policière.

La logique du Big Data va plutôt procéder selon des modes statistiques ou d’apprentissage et présenter une incertitude sur les résultats. Le seuil de signification retenu est donc un choix politique qui permet aux programmes de retourner des segments plus ou moins vastes de la population.

Le traitement peut être simple (comme par exemple toutes les IP qui n’ont aucune activité numérique à l’heure de la prière musulmane). Il peut être aussi beaucoup plus laborieux, s’étendre sur des années, s’intéresser à des corrélations à-priori sans lien avec le terrorisme, produire de nombreux fichiers intermédiaires.
Le texte de loi est remarquablement silencieux voire confus sur le détail des opérations mises en œuvre.

Pour résumer la démarche Big Data est une démarche neutre (les machines ne font pas d’à-priori positif ou négatif) mais a-scientifique, avec des choix algorithmiques mal ou pas explicités, aux résultats incertains et qui ne peut être validée que par l’observation directe des personnes suspectées.

Questions soulevées : l’anonymat et le gouvernement algorithmique

Par ailleurs, les données auxquelles la loi fait référence sont incontestablement des données de nature privée et cela soulève la question de savoir à qui appartiennent les données numériques.
Il faudrait donc pouvoir compter sur un anonymat absolu. Mais dans les traitements Big Data l’anonymat est très relatif. Certaines utilisations de fichiers obligent même à une levée temporaire de l’anonymat (comme pour les fichier Cristina, FSPRT, ou les fiches S du FPR qui peuvent définir des populations cibles).

Comme on le verra dans l’étude, le numérique fait exploser les notions du code civil : l’anonymat ne devrait plus être défini comme la simple ignorance du nom d’une personne mais comme l’impossibilité à retrouver physiquement la personne.

Pour éviter des dérapages majeurs, il ne reste donc qu’une seule contrainte : la présence d’une commission (la CNCTR) qui peut observer les résultats obtenus. Elle peut aussi produire des avis (classifiés défense) que l’administration n’est pas obligée de suivre.

La loi sur le renseignement est la première loi qui s’appuie ouvertement sur le Big Data au prix de ne poser aucune des questions politiques de fond que pose l’univers numérique.

Est-on entré dans une raison algorithmique où ce que font les machines est si obscur qu’on ne peut plus avoir d’avis citoyen ? Est-ce que le gouvernement par le nombre va remplacer le gouvernement par la loi ?

On en prend le chemin mais de la façon la pire qu’on puisse imaginer puisque la mise en œuvre se fait dans les services du renseignement, l’administration la plus opaque et la plus dangereuse de la République. Comme on peut le voir dans l’étude jointe, l’imprécision des textes laisse une grande marge de manœuvre à ces services d’espionnage.


Étude plus détaillée pour en savoir plus sur 12 pages (pdf, 1 B)



Le renseignement militaire français se lance dans le Big Data


Les services secrets de l’Armée sélectionnent les meilleurs experts du traitement des informations sur le Web et les réseaux sociaux.

C’était en 2014…
Des sites Internet spécialisés avançaient que la Chine voulait transformer en base militaire le récif corallien de Fiery Cross, en mer de Chine méridionale. Des informations vérifiées par le renseignement français.  « Nos satellites nous ont permis de suivre au quotidien les travaux de transformation du récif et de mettre en avant sa militarisation » , explique un commandant du centre de formation et d’interprétation….

La suite réservée au abonnés sur : Le renseignement militaire français se lance dans le big data
Publié sur Les Échos le 12 février 2019 par Anne Drif.


Big Data dans l’armée française : données, garde à vous !

La grande muette est en manœuvre.

Objectif ? La transformation numérique au service des métiers. L’arsenal ? Cloud, valorisation des données, méthodes agiles, et une bonne dose de conduite du changement.
La consigne ? Respect de l’autonomie stratégique.
Rompez !

L’armée française aussi s’est mise à l’ère du numérique, se dotant ainsi d’une direction générale du numérique et des systèmes d’information et de communication. Cette DGNum englobe l’ensemble de l’informatique du ministère, y compris au sein des systèmes d’armement.

Les militaires eux aussi sont appelés à participer à l’effort de guerre en matière de transformation numérique. Et cela implique des changements pour la centaine de métiers que l’armée comporte, mais sans doute plus encore dans l’immédiat pour sa fonction informatique, regroupant 20.000 personnes.

« Pas une culture très forte de la capitalisation des données »

Car comme souvent en matière de transformation, elle implique des changements au sein de la DSI, notamment culturels. C’est le cas par exemple pour ce qui concerne la donnée, l’a rappelé lors du salon Big Data 2019 son directeur. Ainsi la DSI de l’armée assure « la gouvernance classique du système d’information ». Mais la DGNum a surtout pour mission « l’orchestration, la transformation numérique au service des métiers » souligne son patron, le vice-amiral d’escadre Arnaud Coustillière.

A noter que ce dernier remplit également la fonction d’administrateur ministériel des données. Et il aura fort à faire, car il le reconnaît, « c’est un défi majeur pour nous, et surtout un changement culturel extrêmement fort et extrêmement profond. » Ce virage implique notamment une bascule de tous les systèmes de l’armée « pour les centrer données ». En outre, au sein du ministère, le niveau de maturité dans les données est qualifié de « variable et globalement assez faible ».

Mais même si les Armées « n’ont pas une culture très forte de la capitalisation des données », ce n’est pas une raison pour les soldats français de tourner les talons et fuir le terrain d’opération. La direction du numérique a donc notamment pour axe fort de développer une culture de la valorisation des données. Et aussi de mettre en place « des stratégies basées sur des cas d’usage. Seuls les cas d’usage parviendront à convaincre de l’intérêt de valoriser les données » insiste Arnaud Coustillière. A cette fin, l’armée mobilise « initiatives, cas d’usages, PoC et expérimentations dans tous les domaines. Il y a un grand foisonnement d’expérimentations aujourd’hui au sein du ministère. »

Pour déployer cette démarche, la France signera-t-elle de grands contrats avec des prestataires, comme le contrat cadre conclu avec Microsoft ? Cela semble exclu au nom de « l’autonomie stratégique ».

Les données du ministère ne sortent pas du cadre juridique national

« Quand on parle de données, de savoir-faire, d’algorithmes, il y a une ligne rouge qui est pour moi extrêmement importante. Il est hors de question que les données du ministère soit en dehors du cadre juridique national, voire européen » déclare fermement le directeur de la DGNum, Cloud Act ou pas. « Quand on parle de données, de savoir-faire, d’algorithmes, il y a une ligne rouge qui est pour moi extrêmement importante. Il est hors de question que les données du ministère soit en dehors du cadre juridique national, voire européen » déclare fermement le directeur de la DGNum, Cloud Act ou pas.

A noter que trois groupes de travail ont été lancés tout récemment par le ministère pour plancher sur l’IA, l’éthique et l’IA et l’hébergement. Et en matière d’hébergement, l’Armée ne se coupera pas du cloud, même si elle privilégiera le cloud privé et dédié (où elle assurera elle-même la cybersécurité).

Du cloud public aussi ? L’armée pourra signer des contrats pour ce type de services IT, mais uniquement pour des « expérimentations, voire du DevOps rapide avant d’ensuite le réintégrer. » La DGNum communiquera en avril à la ministre sa stratégie d’hébergement, centrée principalement sur le cloud dédié ». Des cloud verticaux par métier devraient également coexister, précise encore le vice-amiral d’escadre. L’armée peut déjà compter sur des partenaires, donc « sous cadre juridique français » – caractéristique qui importe plus que la localisation sur le territoire.

Intégrateurs et fournisseurs de services cloud sont suffisamment nombreux et solides sans qu’il soit nécessaire de se tourner vers les Gafa, insiste le militaire, citant par exemple Thales, Orange, OVH, Atos, Outscale ou encore Sopra-Steria. L’enjeu, rappelle-t-il, c’est l’autonomie stratégique – ainsi que la souveraineté. « Nous avons des problématiques sur les algorithmes. Comment seront-ils entraînés ? Que contiennent les algorithmes, etc. Et cela ne peut pas se déléguer, y compris à un grand allié. »

En ce qui concerne la datascience et le cloud, la maturité du ministère doit encore progresser. Si des Poc sont annoncés, c’est bien la phase d’industrialisation qui importe. Arnaud Coustillière l’avoue, c’est un des défis du moment – comme il l’est pour bon nombre d’acteurs privés, même si les plus avancés ont désormais banni le terme de PoC.

Aujourd’hui, l’armée planche sur la modification de la conduite des projets informatiques en déployant « davantage de méthode agile à l’échelle ». Pour réussir sa transformation numérique, la DGNum est allée chercher des compétences à l’extérieur, des CDO notamment, et des professionnels ayant l’expérience du passage aux cycles en V aux projets agiles.

A vos données et en avant marche, alors.

Big Data dans l’armée française

Publié sur ZDNet le 14 mars 2019 par Christophe Auffray


Du mainframe au cloud : l’exemple d’Amadeus

Peu de personnes connaissent l’entreprise Amadeus, pourtant, presque tout le monde a déjà eu affaire à elle. Elle a été créée en 1987, à l’initiative de plusieurs compagnies aériennes européennes souhaitant se doter de leur propre moteur de réservation, afin de ne pas dépendre de l’américain Sabre. Amadeus s’est depuis imposé comme l’un des principaux moteurs de réservation pour les billets d’avion, mais aussi pour l’industrie du voyage en général (location automobile, billets de train, hôtellerie, etc.).

Dans chacun de ces secteurs, l’entreprise gère de A à Z le parcours digital du client. Par exemple, pour l’achat d’un billet d’avion, depuis la réservation sur le site de la compagnie aérienne jusqu’au service après-vente et aux réclamations, en passant par l’enregistrement du passager à l’aéroport, tout est géré par Amadeus.

Parmi ses clients, on compte certaines des plus grandes compagnies aériennes au monde (Lufthansa, Air France, British Airways, Southwest et la plupart des compagnies asiatiques), des comparateurs de vol (Kayak, Expedia) et des grands noms de l’hôtellerie (Hotel Continental). Au total, deux milliards de voyageurs par an sont ainsi pris en charge. En somme, pour peu que vous ayez déjà voyagé, vous avez sûrement déjà été servi par Amadeus.

De l’ordinateur central au logiciel libre

En 2007, l’entreprise, qui reposait depuis sa naissance sur le modèle de l’ordinateur central (mainframe), a opéré un changement de stratégie, pour se convertir progressivement au modèle distribué et au logiciel libre. « Nous avons très tôt commencé à lorgner du côté du logiciel libre, avec par exemple un investissement dans Unix dès 1999, convaincus que l’ordinateur central arrivait au bout de son cycle de vie. Puis, en 2007, nous avons lancé un projet formel pour sortir du mainframe et passer à un modèle distribué, ce qui nous a pris plus de dix ans ! Les dernières rémanences d’ordinateur central ont été supprimées de nos systèmes l’an dernier (2018).

L’un des éléments clefs de cette transformation a eu lieu en 2014, lorsque Google et Red Hat ont ouvert Kubernetes, nous connaissions bien ces deux entreprises et sommes donc passés sur cette technologie pour gérer nos propres centres de données. Désormais, tous nos nouveaux développements sont intégralement basés sur des conteneurs et sur Kubernetes », raconte Dietmar Fauser, SVP of Technology, Platforms & Engineering chez Amadeus.

Derrière cette transformation, une triple motivation. Le prix, d’abord, mais aussi la capacité à passer à l’échelle. « On grandissait tellement vite que l’ordinateur central nous limitait, créait des goulots d’étranglement », se rappelle Dietmar Fauser. Enfin, la volonté de recruter des talents. « Nous avons une politique de recrutement élitiste, nous cherchions à accueillir de jeunes ingénieurs qui soient parmi les meilleurs sur le marché, et recruter des talents pour les faire travailler sur un ordinateur central est compliqué, le logiciel libre offre davantage de motivations. »

Amadeus migre vers le cloud

Dans la droite ligne de cette stratégie, l’entreprise a, l’an dernier, migré une partie de ses activités vers Google Cloud. Le service Amadeus Airline Cloud Availability, qui donne les places disponibles dans les avions, a été déployé début 2018, tandis que la fonction Search, qui permet de comparer le prix des places sur un moteur de recherche, est disponible sur le cloud depuis novembre dernier. Le choix du cloud répondait à plusieurs besoins, et en premier lieu à un impératif d’efficacité. L’entreprise ayant des clients dans le monde entier, le choix du cloud permet d’héberger les données traitées à proximité des centres de données de chaque client, plutôt que d’effectuer à chaque fois des transactions entre l’Europe et des zones géographiques éloignées, accumulant du temps de latence au fil des transactions.

En quelques années, dans l’aviation, le ratio de requêtes effectuées pour une réservation est, en effet, passé d’environ 10 pour un à mille pour un. Amadeus doit donc gérer une immense quantité de requêtes tout en maintenant une efficacité irréprochable, pour fournir une expérience client satisfaisante. Un temps de latence trop long peut par exemple se traduire, côté client, par une page web trop longue à charger, avec le risque que celui-ci se lasse et aille voir ailleurs.

C’est ici que le cloud entre en scène. « C’est l’une des propositions de valeur fortes du cloud : la possibilité de répartir ses capacités sur différentes zones géographiques, pour permettre à chaque client d’avoir la meilleure expérience possible. Si, par exemple, vous êtes basé à Sydney et dépendez d’un centre de données installé en Europe, vous perdez 200 millisecondes à l’aller et au retour. Comme on parle de dizaine de milliers de transactions par seconde, on accumule rapidement des heures de retard sur tout le réseau. Avec le cloud, on passe à la vitesse de la lumière », explique Dietmar Fauser.

Autre dimension clef : la stabilité. « Grâce au cloud, on gagne la possibilité de découper sa structure en différentes régions, avec des zones de disponibilité. En cas de difficulté, par exemple, si l’une des zones de disponibilité est soudain hors service, on peut rediriger le trafic en temps réel vers une autre région. On obtient ainsi un système très résilient, et beaucoup plus stable. »

L’article complet : Du mainframe au cloud – L’exemple d’Amadeus



Les logiciels et entreprises du Big data


Rappel :
Xénium-Partners est et reste indépendant de tout éditeurs, les entreprises présentées ci-dessous le sont pour leur importance sur le marché.


La vision Microsoft : Azure

Big Data et analyse

Fournissez de meilleures expériences et prenez de meilleures décisions en analysant d’immenses volumes de données en temps réel. Accédez aux informations dont vous avez besoin pour fournir des actions intelligentes qui améliorent l’engagement des clients, accroissent le chiffre d’affaires et réduisent les coûts.

Rassemblez toutes les données dont vous avez besoin

Les volumes de données explosent, que ce soit dans les systèmes de point de vente traditionnels, les sites de commerce électronique, les nouvelles sources de diffusion des ressentis des clients comme Twitter ou les capteurs IoT qui diffusent des données en temps réel à l’aide d’Apache Hadoop et de Spark. En analysant un jeu de données varié depuis le début, vous êtes en mesure de prendre des décisions informées qui sont prédictives et holistiques, au lieu d’être réactives et déconnectées.

« Being able to get very actionable insights at an individual restaurant level is game changing. If you know specifically that a particular restaurant has a heat and speed problem, or what particular items are reported as cold, or which particular servers are slow, or what’s causing the bottleneck, that’s game changing, and you’re getting it in real time. »

Wade Allen, Vice-président Innovation numérique et Engagement des clients
Prenez des décisions éclairées à l’aide des données Big Data

Conservez vos ressources les plus précieuses : les données Big Data

Conservez les données de votre organisation de façon illimitée, peu importe leur volume. Au lieu de faire des compromis en termes de coûts lors du choix des données à conserver, conservez vos données selon les standards réglementaires et de votre entreprise à un prix abordable. C’est maintenant possible avec les technologies Hadoop et Spark dans le cloud.

« It’s part of our audit requirements that we keep data for seven years, and some information has to be retained for as long as 30 years. With HDInsight, we can store more data and query it as needed. »

Don Wood, Responsable de l’administration des bases de données

Fournissez une expérience personnalisée aux clients

Chaque personne veut une expérience différente. Fournissez à vos clients une expérience personnalisée qui change en fonction de leur comportement et propose même des recommandations de produits incluant des réductions dynamiques pour une expérience d’achat personnalisée. Donnez aux fournisseurs une liste prédictive d’articles à acheter en fonction des informations sur les commandes et des données historiques sur les clients.

« Until now, we haven’t had the ability to optimize the guest experience based on their specific interactions with the devices. With Azure we can close the loop. »

Kevin Mowry, Architecte logiciel princip

Fournissez une expérience personnalisée aux clients

Chaque personne veut une expérience différente. Fournissez à vos clients une expérience personnalisée qui change en fonction de leur comportement et propose même des recommandations de produits incluant des réductions dynamiques pour une expérience d’achat personnalisée. Donnez aux fournisseurs une liste prédictive d’articles à acheter en fonction des informations sur les commandes et des données historiques sur les clients.

« Until now, we haven’t had the ability to optimize the guest experience based on their specific interactions with the devices. With Azure we can close the loop. »

Kevin Mowry, Architecte logiciel principal
Personnalisez les expériences avec les logiciels Machine Learning et d’analyse prédictive.

Créez une chaîne d’approvisionnement plus économique

Intégrez des données Big Data provenant de la chaîne de valeurs de l’entreprise et utilisez l’analyse avancée en temps réel pour optimiser les performances en matière d’approvisionnement et réaliser des économies. Prenez des mesures proactives avec une visibilité directe de votre chaîne d’approvisionnement. Accédez aux niveaux de stock, prédisez les besoins en commandes de produits et identifiez les éventuels problèmes de retard.

L’analyse avancée optimise votre chaîne d’approvisionnement.

« We wanted to go beyond the industry standard of preventative maintenance to offer predictive and even preemptive maintenance, so we can guarantee a higher uptime percentage on our elevators. »

Andreas Schierenbeck, PDG

Gagnez en efficacité dans toutes vos tâches

Dévoilez les informations immergées dans vos données pour optimiser vos activités. Que ce soit dans le cadre de l’organisation des ressources humaines, de la gestion des chaînes d’approvisionnement ou de la prévision des besoins des clients et du personnel, comprendre les facteurs qui ont une incidence sur l’efficacité opérationnelle est essentiel pour la rationalisation de votre entreprise.

« We plan to deploy Microsoft Azure technologies across all of our monitoring applications, because they enable us to orchestrate data more effectively across increasingly complex environments. We can serve remote customers, wherever in the world they are, at a level of efficiency that hasn’t been possible before. »

John Dyck, Directeur du développement logiciel
Dévoilez les informations pertinentes provenant de vos données Big Data à l’aide de l’analyse avancée.


Source : Solutions big-data


La vision ORACLE

La plateforme Big Data d’Oracle

Oracle simplifie le Big Data. Nos solutions de Big Data vous permettent de gérer à la fois les jeux de données classiques et les nouveaux jeux de données sur une seule plateforme Cloud. Connectez-vous au nouvel Autonomous Data Warehouse Cloud et à plus de 2 000 applications SaaS (Software-as-a-Service). Exploitez vos données à l’aide de modèles analytiques prédictifs, de tableaux de bord et de fonctionnalités de machine learning.

Tous les détails sur : big-data products


La vision Sopra-Stéria


Le Big Data, une ressource d’informations à exploiter en s’appuyant sur l’expertise de Sopra Steria.

Le Big Data est aujourd’hui une réalité. Les entreprises et organisations sont de plus en plus conscientes du potentiel de valeur porté par leurs données, qui représente un indéniable levier de croissance et de compétitivité. Dès lors se pose la question de l’exploitation et la valorisation de cette masse d’informations.


Sopra Steria aide à optimiser la gestion globale des données d’entreprise.

L’offre Big Data de Sopra Steria recouvre deux champs d’actions complémentaires :  

L’offre  Big Data de Sopra Steria permet de :

En tant qu’acteur historique de la gouvernance des données, Sopra Steria accompagne ses clients dans l’optimisation de la gestion globale des données d’entreprise en couvrant également le Data Management (MDM / DQM) et la Business Intelligence (BI).


Source : Sopra Steria : nos offres big-data


La vision TALEND


Open Studio for Big Data

Simplifiez l’ETL et l’ELT pour le Big Data

Talend permet d’exploiter la puissance et l’évolutivité des bases de données Hadoop et NoSQL à l’aide de l’outil ETL open source gratuit pour Big Data le plus utilisé. Il suffit de glisser-déposer et de configurer des composants prédéfinis, de générer du code natif et de déployer vers Hadoop pour rénover et diminuer les coûts de vos entrepôts de données et accélérer l’ingestion dans votre data lake.

Connectez et transformez le Big Data en un clin d’œil

Pour la rénovation de vos entrepôts de données et l’ingestion des données dans votre data lake, réduisez votre temps de prise en main et développez plus rapidement. Talend Open Studio for Big Data permet d’augmenter la productivité grâce à des connecteurs et des composants prédéfinis et une interface graphique par glisser-déposer : vous pouvez ainsi commencer à tirer parti de l’environnement massivement parallèle de Hadoop et NoSQL avec vos compétentes actuelles.

Tous les composants :

Source : big data open studio

A voir également : Open studio big data pour les nuls


Du coté de chez IBM


Artificial Intelligence (AI), mobile, social and Internet of Things (IoT) are driving data complexity, new forms and sources of data. Big data analytics is the use of advanced analytic techniques against very large, diverse data sets that include structured, semi-structured and unstructured data, from different sources, and in different sizes from terabytes to zettabytes.

Big data is a term applied to data sets whose size or type is beyond the ability of traditional relational databases to capture, manage, and process the data with low-latency. And it has one or more of the following characteristics – high volume, high velocity, or high variety. Big data comes from sensors, devices, video/audio, networks, log files, transactional applications, web, and social media – much of it generated in real time and in a very large scale.

Analyzing big data allows analysts, researchers, and business users to make better and faster decisions using data that was previously inaccessible or unusable. Using advanced analytics techniques such as text analytics, machine learning, predictive analytics, data mining, statistics, and natural language processing, businesses can analyze previously untapped data sources independent or together with their existing enterprise data to gain new insights resulting in better and faster decisions.

Source : IBM big data analytics


Et pour Microstratégie

Avec MicroStrategy, les utilisateurs peuvent exploiter des informations comme le flux de clics, les journaux de centres d’appels et de carnets Web ainsi que les contrôles d’identification électroniques sans limites. Qu els et de carnets Web ainsi que les contrôles d’identification électroniques sans limites. Qu’il s’agisse d’une simple feuille de calcul ou d’un système de fichiers distribué Hadoop (Hadoop Distributed File System, HDFS), les utilisateurs peuvent facilement se connecter à leurs données sans dépendre du service informatique. Les organisations peuvent également optimiser les lacs de données et fournir une seule version de la vérité avec la plateforme d’analyse des données d’entreprise gouvernée la plus sécurisée du secteur.

MicroStrategy apporte le Big Data dans votre entreprise intelligente.

Source : Microstrategy analytics big-data


Pour Informatica

Data Lake Management : un produit basé sur l’apprentissage machine

Avec Informatica, alimentez votre Data Lake avec des données fiables, pertinentes et exploitables. Avec Informatica Intelligent Data Lake Management, vous pouvez trouver, préparer, cataloguer, maîtriser, gouverner et protéger les données brutes pour votre Data Lake. De plus, étant donné qu’Intelligent Data Lake Management repose sur le moteur CLAIRE™, la technologie d’intelligence artificielle orientée métadonnées d’Informatica, vous pouvez découvrir des relations de données essentielles. Vous pouvez rapidement préparer et partager les données appropriées avec les bonnes personnes, au bon moment.

Nous supprimons la complexité du Data Lake Management afin que vous puissiez libérer la puissance des Big Data.

La puissance des Data Lake Cloud dès le premier jour

Grâce au traitement natif dans les moteurs Cloud et aux capacités de connectivité prête à l’emploi avec des bases de données Cloud, des magasins de données Cloud et des applications Cloud, vous pouvez transformer les Big Data brutes en Data Lakes Cloud fiables, n’importe où.

Trouvez quasiment tout type de données et découvrez les relations importantes

Découvrez et intégrez presque toutes les données n’importe où à l’aide d’Enterprise Data Catalog, technologie d’Informatica reposant sur l’intelligence artificielle, et la découverte de structure intelligente. Combinées avec des centaines de connecteurs préconfigurés, nos solutions simplifient le traitement de flux en plus des moteurs de streaming open source et propriétaires. Vous pouvez distribuer plus de données de façon répétée et plus rapidement à plus de cibles grâce à la prise en charge des extractions de données Tableau et à une architecture de publication/souscription basée sur un hub.

Préparez et partagez des données avec un libre-service réglementé

La préparation des données en libre-service d’Informatica garantit un accès plus rapide à des informations plus fiables. Cela signifie que vos utilisateurs obtiennent les bonnes données au bon moment.

Récupérez plus de données en toute confiance

Avec son approche de la protection des Big Data axée sur le risque, Informatica permet de sécuriser automatiquement les données sensibles et de détecter de manière proactive les menaces d’accès non autorisé ou de prolifération. En fonction des évaluations, les données sont protégées de façon non intrusive en offrant un accès sécurisé aux informations contextuelles.

Source : Informatica products for big-data


Voyons INGENSI

Transformez et valorisez vos données

Ingensi vous accompagne dans l’exploitation et la valorisation des données internes et externes à votre entreprise. Nos solutions Big Data révèlent le potentiel de votre patrimoine numérique en renforçant la gouvernance de vos données grâce à des modèles décisionnels performants.

GridCity

L’application GridCity est destinée aux gestionnaires des réseaux de distribution des villes et des communes. Elle fournit les outils nécessaires à une meilleure anticipation de l’aménagement du territoire.

Analytic suite

Analytic Suite fédère l’ensemble des informations internes et externes de l’entreprise au sein d’un référentiel unique. Prenez les bonnes décisions grâce à nos outils d’analyses prédictives et de visualisation.

Expertises & services

Hadoop, Impala, Spark, ElasticSearch, Docker ou encore PostgreSQL ? Reposez-vous sur les compétences des experts Ingensi pour des prestations de conseils, de POC, d’intégration, de support ou de régie.

Article source : Ingensi Solutions Big Bata



Rappel :

Xénium-Partners est et reste indépendant de tout éditeurs, les entreprises présentées ci-dessous le sont pour leur importance sur le marché.





L’open data privé, le nouvel eldorado des entreprises ?


De plus en plus des entreprises privées mettent à disposition certaines de leurs données en open data. Gérar/d Barbosa, le directeur général de Talan Solutions, explique en quoi ces données ouvertes, mais pas forcément gratuites, peuvent être une aubaine pour les acteurs publics et privés.

À l’heure où le mot « RGPD » est sur toutes les lèvres et où la protection des données est brandie en étendard par toutes les entreprises (MIFID2), encourager l’open data peut apparaître comme schizophrénique. Pourtant, nous utilisons des données ouvertes au quotidien, sans même nous en rendre compte. 84% des Américains possesseurs de smartphones utilisent une application de type open data.

En France, les politiques s’emparent du sujet de l’open data, amorcé depuis plusieurs années par Henri Verdier, ancien directeur de la DINSIC, maintenant Ambassadeur de la France pour le Numérique. La mission Etalab, lancée par la Direction interministérielle du numérique et du système d’information et de communication de l’État et dirigée par Mme Laure Lucchesi, coordonne, anime et développe les actions d’open data de l’État. Mais qu’en est-il de l’open data privé ? Peut-il devenir un nouveau standard ?

L’open data privé, créateur de valeur économique

L’open data privé désigne l’ouverture des données des entreprises pour les citoyens, les institutions, mais aussi pour les autres entreprises. Si cette pratique n’est pas encore répandue, quelques entreprises dans le monde donnent le « la », à l’image de GRDF et d’Enedis qui ont mis à disposition certaines de leurs données en open data. Autre exemple, les entreprises disruptives Airbnb et Uber permettent à la ville de Paris d’accéder à certaines données, via leurs plateformes Uber Movement et DataVille, dans le but d’adapter les services de la ville aux usages des citoyens. En effet, elles améliorent à la fois la connaissance de la ville sur la circulation en Île-de-France et sur les quartiers les plus demandés par les touristes.

Au-delà de l’intérêt public-privé, il est essentiel de développer la relation privé-privé. Les données ouvertes, mais pas forcément gratuites, des entreprises sont créatrices de valeur pour les autres acteurs économiques. Par exemple, les données ouvertes d’Airbnb permettent aux nouveaux acteurs de l’hôtellerie de connaître la demande avant de s’implanter. Airbnb pourrait également, de son côté, utiliser les données des restaurants à proximité pour améliorer ses offres de services. Autre exemple, si les grands groupes pétroliers ouvraient certaines de leurs données de forage des sols, cela éviterait les modes exploratoires des sols avant la construction de certains bâtiments et permettrait de gagner en temps et en efficacité.

Ce système « gagnant-gagnant » est bénéfique pour l’économie, à l’échelle d’un pays mais aussi à l’échelle mondiale, car il dynamise les secteurs existants et permet de développer de nouveaux business.

Un terrain de jeu pour l’innovation

L’open data privé est en effet une opportunité pour les start-up par exemple, qui pourront capter une plus grande diversité de données. Cette captation de données différentes permet de trouver des éléments de corrélation et ouvre de nouvelles perspectives, à la fois en termes de business et en termes d’innovation. Il y a un réel terrain de jeu pour toute start-up qui souhaite créer de nouveaux «patterns », c’est-à-dire des modèles, qui seront mis au service des grands groupes. Les entreprises ont donc tout intérêt à partager leurs données pour gagner en performance.

Mettre à disposition de nouvelles données permet d’enrichir les corpus et de stimuler les projets d’intelligence artificielle. S’il y a un an, le big data avait besoin de rêveurs, aujourd’hui c’est l’intelligence artificielle qui ouvre un vaste terrain de jeu, rendu en partie possible par l’ouverture de données.

L’open data privé, gage de transparence ou dérive vers un système totalitaire ?

L’ouverture des données des entreprises peut toutefois soulever des questions éthiques. Ne risque-t-on pas une faille dans l’anonymisation des données des consommateurs ? Est-ce que cela entraînerait une dépendance de certaines entreprises aux géants du secteur ? Ces questions permettent de réfléchir en amont à la mise en place de projets d’open data privé, et à la réglementation nécessaire pour que chaque partie prenante s’y retrouve.

Aujourd’hui, les nouvelles générations attendent des entreprises qu’elles aient un impact sur la société, à défaut de faire confiance au politique, et demandent de plus en plus de transparence de la part des grands groupes. À l’image d’un État qui offre plus de transparence à ses citoyens en utilisant l’open data, l’entreprise pourra donner la preuve de ses actions et aider à résoudre de grands enjeux pour la société. Plus qu’une simple transparence, il y a une réelle opportunité d’engagement pour les entreprises : quelles données pertinentes peuvent aider à répondre aux enjeux sociétaux ? Les données des entreprises pourront, par exemple, servir les associations environnementales.

Si les entreprises peuvent être réticentes à l’idée de partager leurs données avec la concurrence, ce risque est toutefois très limité. En effet, chaque entreprise choisit le jeu de données qu’elle souhaite partager et peut donc l’orienter dans son propre intérêt.


Un accompagnement nécessaire

Pour que l’open data privé devienne un standard, le rôle des experts de la donnée et des cabinets de conseil va être déterminant. Les data scientists vont d’ailleurs être au premier plan par le choix des données et leur interprétation. Les entreprises vont devoir être sensibilisées à l’importance de ces nouveaux enjeux et devront être accompagnées pour dépasser certains freins, comme la crainte technologique et réglementaire.

L’accompagnement au changement doit se faire auprès de la direction, mais aussi auprès des métiers. Pour que l’entreprise puisse saisir pleinement les opportunités de l’open data, tous, décideurs et opérationnels, doivent partager la conviction que cette ouverture est indispensable pour la transformation de l’entreprise.

S’ouvrir aux opportunités offertes par la technologie, aux autres entreprises et à l’innovation nous permet d’inventer et de construire demain.

Dès aujourd’hui !

Publié sur L’Usine Digitale le 11 décembre 2018.
Article source : Avis d’expert, l’open data privé



Quelques liens pour aller plus loin :


Passer la seconde partie : Chapitre 2


Retour