mémoire (charles pissavin) - cognitive business & big data - esc

119
BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG BIG DATA COGNITIVE BUSINESS BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG MACHINE LEARNING BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG MACHINE LEARNING BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA Réalisé par Charles Pissavin L’ère du Cognitive Business Les enjeux autour du BIG DATA Définition et Controverse du nouvel or noir du XXIème siècle ? Entreprise : IBM France Mission : Chef de projet Junior Maître d’Apprentissage : Mme Beatrice Bessac Professeurs Tuteurs : Mme Marina Bourgain, Mr Diego Landivar

Upload: charles-pissavin

Post on 15-Apr-2017

101 views

Category:

Documents


11 download

TRANSCRIPT

Page 1: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG

BIG DATA COGNITIVE BUSINESS BIG DATA BIG DATA BIG DATA BIG DATA B IG DATA BIG DATA BIG DATA BIG MACHINE LEARNING BIG DATA BIG DAT A BIG DATA BIG DAT A BIG DAT A BIG DAT A BIG DAT A BIG M A C H I N E L E A R N I N G B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A

Réalisé par Charles Pissavin

L’ère du Cognitive Business Les enjeux autour du BIG DATA Définition et Controverse du nouvel or noir du XXIème siècle ?

Entreprise : IBM France Mission : Chef de projet Junior Maître d’Apprentissage : Mme Beatrice Bessac Professeurs Tuteurs : Mme Marina Bourgain, Mr Diego Landivar

Page 2: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 1

Déclaration sur l’honneur contre le plagiat

Page 3: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 2

“L’avenir est la seule chose qui m’intéresse,

car je compte bien y passer les prochaines

années.”

Woody Allen

Page 4: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 3

Sommaire :

Remerciements ...............................................................................................................................5

Résumé ............................................................................................................................................6 Abstract ...........................................................................................................................................8

INTRODUCTION : ....................................................................................................................10

I. IBM et Big Data : .....................................................................................................................12

1. Comprendre le contexte du groupe IBM ................................................................... 12 a. Histoire du Groupe ........................................................................................................... 12 b. Carte d’identité de l’entreprise ........................................................................................ 13 c. Positionnement ................................................................................................................ 14 d. Une stratégie de partenariat et de rachat ....................................................................... 16 e. Une mutation stratégique ................................................................................................ 18

2. Une définition du Big Data ................................................................................................ 20

a. Les origines du Big Data ................................................................................................. 23 b. La frontière du Big Data ? ............................................................................................... 26 c. Évolution de la donnée ................................................................................................... 27 d. Les 3 « V » du Big Data : Volume – Vélocité – Variété .................................................... 29 e. De 3 à 6 « V » : Véracité - Valeur – Visualisation ............................................................ 32 f. Mise en place et champs d’application ........................................................................... 34 g. Le Big Data dans les organisations .................................................................................. 38

II. Appréhender l’univers du Cognitive Business : .................................................................47

1. Les principaux composants du Big Data ........................................................................... 50 a. Production de la donnée ................................................................................................. 50

a1. L’internet des Objets (IoT) ......................................................................................... 50 a2. Open Data ................................................................................................................... 57 a3. Les données des organisations.................................................................................... 62 a4. Réseaux sociaux .......................................................................................................... 65 a5. L’avancée par le Cloud Computing ............................................................................ 69

b. Infrastructure Cloud ..................................................................................................... 71 b1. L’émergence du Cloud ............................................................................................... 72

Page 5: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 4

b1.1 : Cloud Public .............................................................................................. 74 b1.2 : Cloud Privé ................................................................................................ 74 b1.3 : Cloud Hybride ........................................................................................... 75

b2. Cloud SaaS ................................................................................................................. 76 b3. Cloud PaaS ................................................................................................................ 78 b4. Cloud IaaS ................................................................................................................. 79 b5. Les couts cachés d’une offre Cloud ........................................................................... 81

c. Analyse de la donnée ................................................................................................... 83 c1. L’évolution de l’analyse ............................................................................................. 83 c2. Les perceptives analytiques ........................................................................................ 85 c3. Le Machine Learning ................................................................................................. 87

2. IBM à l’ère du Cognitive Business ..................................................................................... 91 a. Définition ........................................................................................................................ 91 b. Un nouveau marché ........................................................................................................ 91 c. Les avantages du Cognitive Business pour le client ........................................................ 92 d. Travailler avec un assistant cognitif ................................................................................ 93 e. L’offre IBM ...................................................................................................................... 94

e1. Les compétences de Watson ....................................................................................... 95 e2. Sur le terrain dès 2016 ............................................................................................... 97

CONCLUSION : .......................................................................................................................100 Bibliographie ...............................................................................................................................108

Annexes ......................................................................................................................................112

Page 6: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 5

Remerciements :

En préambule de ce mémoire, je souhaiterais adresser mes remerciements les plus

sincères aux personnes qui m’ont apporté leur aide et qui ont contribué à l’élaboration de ce

mémoire ainsi qu’à la réussite de ces deux formidables années d’apprentissage. Je tiens à

remercier sincèrement Madame Béatrice Bessac, qui, en tant que manager, s’est toujours

montrée à l’écoute et disponible durant toute la période d’apprentissage. Je lui suis reconnaissant

pour son aide, sa sincérité ainsi que pour le temps qu’elle a bien voulu m’accorder.

Mes remerciements s’adressent également à Madame Marina Bourgain et à Monsieur

Diego Landivar, professeurs de l’Ecole de Commerce de Clermont-Ferrand, qui, respectivement

en tant que tuteur d’apprentissage et tuteur de mémoire, m’ont sans cesse conseillé dans mes

prises de décisions et m’ont permis d’approfondir mes idées, tout en pointant les éventuelles

limites de ma réflexion personnelle.

Je tiens également à exprimer ma gratitude à l’équipe du Project Management Services,

pour l’accueil qui m’a été offert chaque matin, l’aide pratique ainsi que l’attention qu’elle m’a

accordée dans le cadre de la réalisation de mes missions. Je tiens plus particulièrement à

remercier, Monsieur Dejan Djurov et Monsieur Alain Pelé, pour leur soutien et leurs

encouragements, et plus particulièrement pour avoir pris le temps de me présenter patiemment

les différentes facettes de leur métier.

Plus personnellement, je tiens remercier du fond du cœur les personnes qui me sont

chères, et sans qui je n’aurais certainement pas eu la force d’entreprendre ce projet de reprise

d’études. Un immense merci à l’ensemble de ma famille pour son soutien, et plus

particulièrement à ma sœur qui, malgré la distance, a toujours trouvé les mots pour entretenir ma

motivation.

Mille mercis à toutes et à tous.

Page 7: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 6

Résumé :

« Le numérique n'est pas une fin en soi, mais simplement le

point de départ d'une nouvelle ère pour les entreprises. Nous

l'appelons le Cognitive Business ! Si nous pouvons le faire, nous le

ferons. Le monde a besoin de nous. » Ginni Rometty (PDG du

Groupe IBM).1

C’est par cette phrase ambitieuse que je souhaite débuter mon mémoire, et lancer mon

travail de recherche sur les enjeux numériques qui impacteront fortement le monde de

l’entreprise ainsi que la vie quotidienne de demain. Les enjeux autour du Cognitive Business

sont nombreux, d’où viennent-ils ? Quels seront leurs impacts ? Ce mémoire mettra l’accent sur

les différentes évolutions digitales afin d’aider tout type d’organisation à préparer sa

transformation digitale.

En introduction de ce mémoire, nous chercherons à comprendre les motivations de

lancement de la stratégie Cognitive Business. Pour appréhender plus en détail cette

transformation stratégique, ce mémoire fera une présentation du groupe et de son marché, puis il

tentera d’apporter une définition d’une notion extrêmement employée depuis quelques années :

la notion de Big Data. En plus de cette définition, nous chercherons à comprendre l’impact de

cette évolution dans le monde de l’entreprise, la place nouvelle de la donnée, le repositionnement

de la Direction des Systèmes d’Information et l’arrivée du nouveau métier de Data Scientist au

sein des organisations. Réalisant ce mémoire dans le cadre d’études en école de commerce, ce

mémoire cherchera à présenter les différentes avancées apportées par le Big Data en termes de

service client, en se passionnant fréquemment du point de vue d’un service commercial.

Au-delà du Big Data, ce mémoire déchiffrera dans un second temps, les origines

technologiques de ce nette notion en orientant son étude vers des termes très largement employés

et déjà très présent dans notre environnement. Internet des objets, réseaux sociaux, mobilité,

Cloud (SaaS, PaaS, IaaS) et machine learning. Voilà une partie des termes qui seront étudiés

1 Extrait du discours de lancement de la nouvelle stratégie du groupe IBM, le 05/10/2015.

Page 8: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 7

dans ce mémoire, pour comprendre les origines de la donnée, permettant en fin de cycle de

réaliser des analyses prédictives, qui sont au cœur du Cognitive Business.

En conclusion de ce mémoire, en plus de présenter une réponse aux problématiques. Une

présentation non-exhaustive et succincte des différentes controverses, associées au déploiement

de technologie en relation avec le Big Data, sera réalisée. Nous chercherons à identifier, puis

comprendre les différentes craintes, pour tenter de nous projeter dans l’avenir, afin d’anticiper

les possibles évolutions de notre société.

Effectuant mon apprentissage au sein du Groupe IBM, je souhaite profiter des formations

internes pour comprendre l’univers du Big Data et le marché du Cognitive Business. D’autre

part, pour soutenir mes recherches et mon analyse, je m’appuierai sur différents ouvrages et

articles relatant de mes divers questionnements. Cette démarche me permettra d’avoir à la fois

une approche « Business » du monde digital, et une approche sociale face à l’apparition de ces

nouvelles révolutions numériques.

Pour que ces lignes alimentent les zettaoctets2 de données analysées par les prochaines

générations d’outils analytiques, découvrons et comprenons l’univers du Big Data, ses

controverses et ses enjeux !

Mots clés : Cognitive Business, IoT, Big Data, Machine Learning, Cloud, Zettabytes.

2 Un zettaoctet = un milliard de téraoctets

Page 9: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 8

Abstract: “Digital technology is not an end in itself, but only the starting point of a new era for

companies. We call it: “Cognitive Business”! If we have a chance to make it possible, we will

definitely do it. The world needs us”, announced Ginni Rometty, the CEO of IBM.

We would like to begin our dissertation with this daring and resolute sentence in order to

initiate a reflection on the concerns related to certain digital technology that will soon impact on

business and daily life. Cognitive Business is currently a big issue. What kind of consequences

will it entail? Where does it arise from? We will try to stress on the different digital evolutions in

order to help any kind of organization to get ready to their own digital transformation.

As an introduction to our subject, we will attempt to understand the motivations that had

lead to Cognitive Business strategy. To go into detail, our dissertation will present the IBM

group and its markets, before defining a current and quite popular expression: the “Big Data”.

Moreover, we will try to analyze its impact on the firms but also the new function of the data, the

repositioning of the Informations Systems Direction and the beginning of a new job called the

“data scientist”.

Since this dissertation is written as a part of the business school course, we will report the

different changes brought by the Big Data concerning the customer service.

Beyond the Big Data, we will see that this notion has a technological beginning as we

will present a wide range of words that are often used currently such as: “internet things”, “social

network”, “mobility”, “Cloud” (SaaS, PaaS, IaaS) and “machine learning”. This study will

provide us some help to understand the data starting point that lead to predictive analyses.

Last but not least, after trying to solve some of the problems that we would have

beforehand emphasized, we will make a concise and non-exhaustive presentation of the different

bones of contention related to the development of such a technology. We will attempt to identify

and then, to understand which are the main concerns that it raises so as to anticipate the changes

to come in our society.

Page 10: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 9

Because we are doing our apprenticeship with IBM, we would like to make the most of

what we have learnt during this period to get familiar with the Big Data world and the Cognitive

Business market. Furthermore, we will base our analyses on different books and articles that deal

with the same issue. Thanks to these documents, we will have both a “business” approach of the

digital technology and a social one. Indeed, we will be aware of the changes entailed by new

digital technology revolutions.

To make these sentences part of the zettaoctects of data that will be analysed by new

analytic tools, let us discover and understand the Big Data world, its controversies and its

challenges!

Key Words: Cognitive Business, IoT, Big Data, Machine Learning, Cloud, Zettabytes.

Page 11: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 10

Introduction :

Depuis le début de son ère, dans le but de créer des alliances, lier des affinités, échanger

des biens, se protéger, se nourrir, réfléchir en communauté, et mener à terme des stratégies

variées, l’Homme a toujours eu recours à la communication. Pour contrôler ces flux

d’informations, il n’a jamais cessé d’innover dans le choix de ses moyens de communication :

langage, dessin, gravure, écriture…, établissant un ensemble de codes déchiffrables par un

groupe défini, permettant à certaines tribus, communautés, cités, États, de se développer pour

créer, produire et s’étendre. Ces évolutions, ont poussé la réflexion humaine à créer de nouveaux

outils permettant d’analyser ces codes et d’aider l’individu à prendre des décisions par le biais

d’informations analysées par de nouveaux instruments : de l’os d’Ishango (première calculatrice

de l’humanité datant d’environ 20 000 ans avant notre ère) au début de l’informatique (au siècle

dernier).

Depuis le XXème siècle, les progrès de l’informatique sont colossaux. S’ils permettent à

la machine d’assister l’homme dans sa prise de décisions, ils contribuent également à des

bouleversements inédits : l’humanité, pour la première fois de son histoire, a été capable de

reproduire la réflexion cognitive humaine, pour prendre des décisions en totale autonomie,

apprendre de ses erreurs, cumuler des masses de données pour accélérer des processus de vente,

proposer des diagnostics vitaux, enseigner et prédire avec précision des évènements futurs. Ainsi

s’ouvre une nouvelle ère dans laquelle l’homme est accompagné de façon naturelle dans la prise

décision, l’ère du Cognitive Business.

Pour tenter de déchiffrer les codes et les clés de cette notion nouvelle, ce mémoire répondra à la

problématique suivante :

A l’heure du Cognitive Business, pour quelles raisons et selon quels procédés le Big Data se positionne-t-il au centre de la réussite stratégique des entreprises ? Quels sont les différents risques de cette mutation technologique et sociale ?

Page 12: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 11

Pour ce faire, nous nous intéresserons dans un premier temps au groupe IBM et à son

contexte en pleine mutation afin de comprendre les causes du lancement de sa nouvelle stratégie.

Afin de donner les clés d’entrée dans le monde de la donnée, ce mémoire présentera l’univers du

Big Data en proposant une définition du terme et une explication des possibilités qu’il offre au

monde de l’entreprise.

Dans un second temps, ce mémoire tentera de positionner le Cognitive Business sur la

carte du numérique en analysant plus en profondeur les différents termes proches du Big Data,

qui sont au cœur de cette stratégie novatrice. Pour ce faire, nous nous concentrerons sur les trois

points fondamentaux de l’analyse cognitive :

La production de la donnée (IoT, Réseaux Sociaux, Mobilité, Cloud SaaS),

Le stockage de la donnée (Cloud IaaS, Cloud PaaS),

L’analyse de la donnée (Machine Learning).

Après ces définitions et ce cadrage de termes numériques, une présentation plus approfondie de

la stratégie d’IBM et de son produit phare Watson sera réalisée.

Pour finir, nous ne contenterons pas d’apporter une réponse aux problématiques retenues

mais veillerons à présenter une cartographie des controverses qui rendra compte des différents

risques que peuvent susciter les mutations technologiques et sociales provenant du phénomène

Big Data. Nous étudierons par conséquence les différentes problématiques d’éthique, de

durabilité et d’accessibilité de la donnée mais aussi de l’emploi et du pouvoir, pour tenter de

comprendre la place de l’homme face à l’avènement des nouvelles technologies.

Parce qu’il est le fruit du travail d’un étudiant en école de commerce, ce mémoire cherche

à traduire les termes d’ingénierie informatique afin d’étudier et d’analyser les grandes évolutions

du monde numérique. Pour mener à bien cette quête, de nombreux schémas de synthèses3 ont été

réalisé pour simplifier la compréhension du sujet. Ce travail de recherche s’adresse donc au

moins technophile d’entre nous.

3 Annexe 1 (p.112)

Page 13: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 12

I. IBM et Big Data :

1. Comprendre le contexte du groupe IBM :

a. Histoire du Groupe :

IBM est une société Américaine, née en 1911 sous le nom de

Computing, Tabulating Recording Company (C-T-R), de la fusion

entre deux compagnies de matériels de gestion. Son cœur de métier

est alors la fourniture de matériel (tabulateur et calculateur), puis

s’étoffera rapidement avec des prestations de services.

Dès les années 1950, Thomas Watson transforme IBM en une entreprise moderne par la

formalisation : des codes, des pratiques managériales, d’une politique sociale et des valeurs de la

firme. Il regroupe tout cela en un programme qui sera ensuite enseigné et transmis à chaque

collaborateur. Thomas Watson concentre l'activité de l'entreprise vers le développement

technologique et la vente de composants électroniques pour ordinateur. Ces avancées permettent

à IBM de se hisser au premier rang mondial des entreprises de haute technologie.

IBM a su se réinventer depuis plus d’un siècle, décennie après décennie pour croître et devenir la

plus ancienne compagnie existante en matière de nouvelles technologies. Le fer de lance de cette

croissance centenaire est aussi la conjugaison entre l’expertise des technologies de l’information

et la connaissance de ses clients (notamment par ses ingénieurs commerciaux et ses consultants).

Le client est une valeur pilier de l’entreprise, appuyée par le lancement en 2014 de Client First

pour recentrer le travail des équipes autour du client.

Page 14: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 13

b. Carte d’identité de l’entreprise :

International Business Machines

Corporation figure parmi les 1ers

prestataires de services

informatiques dans le monde

avec un CA en 2015 de 81,7 Milliards de Dollar (-12%).

b1. Répartition du Chiffre d’affaire par activité : 4

(CA en milliards de dollars) 2015 Part de CA en

2015

Prestations de services informatiques (GTS + GBS) 48,4 59,2%

Développement de logiciels 22,4 27,4%

Construction et vente de matériel 8,8 10,8%

Financement d'équipements informatiques 1,8 2,2%

Autres 0,3 0,4%

4 Source : Cofisem, ©2016 (graphiques : Excel)

59% 28%

11%

2% Prestations de services informatiques (GTS + GBS)

Développement de logiciels

Construction et vente de matériel

Financement d'équipements informatiques

Autres

Page 15: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 14

b2. Répartition du Chiffre d’affaires par zone géographique :5

(CA en milliards de dollars) 2015 Part de CA en

2015

États-Unis 28,2 34,5%

Reste Amérique 8,3 10,1%

Europe - Moyen Orient - Afrique 27,0 33,1%

Asie-Pacifique 17,8 21,8%

Autres 0,4 0,5%

c. Positionnement, face à un marché en pleine mutation :

Après l’ère de l’e-Business annoncé en 1995, la stratégie Smarter Planet entreprise en 2008 et

accompagnée de son célèbre Slogan : « Bâtissons une planète plus intelligente ! » et poussé par

la volonté de se réinventer jour après jour, IBM a lancé sa nouvelle stratégie en Octobre 2015 : le

Cognitive Business. Motivé principalement par la montée en puissance de nouveaux groupes

spécialisés dans le Cloud et par le développement de nouvelles technologies cognitives en

interne, IBM a annoncé officiellement son entrée dans l’ère du COGNITIVE BUSINESS en

réagençant son organisation et son activité autour du lancement d’un nouveau produit nommé

“Watson” (en hommage à son ancien PDG).

Face à cette stratégie innovante, il est difficile d’établir précisément une carte concurrentielle. En

effet, en plus des concurrents « historiques » spécialisés exclusivement dans le consulting en 5 Source : Cofisem, ©2016 (graphiques : Excel)

0,0

5,0

10,0

15,0

20,0

25,0

30,0Etats-Unis

Reste Amerique

Europe - Moyen Orient - Afrique

Asie-Pacifique

Autres

Page 16: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 15

informatique, tels que Accenture, Sopra, Capgemini, etc., de nombreux acteurs spécialisés

généralement en software (Microsoft, SAP…) viennent tirer leur épingle du jeu en proposant des

solutions innovantes hébergées désormais en Cloud (SaaS, Paas et IaaS).

Les principaux acteurs du marché des nouvelles technologies :

Notons au préalable qu’une carte concurrentielle de cette stratégie étant difficilement réalisable,

ce mémoire présentera une cartographie (non exhaustive) des grands acteurs du monde des

nouvelles technologies. Quatre grandes catégories influençant la stratégie du Cognitive Business

peuvent être distinguées :

Ö Les SSII6 « historiques », (nouvellement appelées ESN7 : IBM, Capgemini, Sopra, Accenture…) : Travaillant

exclusivement sur le consulting en informatique, ces groupes

organisent la globalité ou une partie de l’infogérance d’autres

groupes (exemple : IBM => Michelin).

Ö Les développeurs « historiques » de Softwares et de Hardwares : Microsoft, Intel, Oracle, SAP … Ces entreprises

viennent concurrencer de plus en plus fortement les SSII en

élargissant leurs domaines de compétence en solution Softwares,

en développement d’applications et en solution d’Infrastructure et

de Réseaux grâce au développement du Cloud Computing.

(Microsoft est devenu en quelques années un des principaux

concurrents d’IBM en devenant un des leaders du Cloud

Computing8).

Ö Les réseaux sociaux et les moteurs de recherche : Facebook, LinkedIn, Twitter, Google… Ce sont des créateurs de

bases de données colossales à partir de collectes de données

6 SSII : société de services en ingénierie informatique 7 ESN : entreprise de services du numérique 8 Les Chiffres du Cloud Infrastructure Service (Q4 2014) => Annexe 3

Page 17: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 16

personnelles de millions de particulier à travers le monde. Il est indispensable de comprendre

que ces sociétés auront une carte importante à jouer dans le développement d’une stratégie

cognitive. D’autre part, Google se positionne d’ores et déjà sur le marché en développant lui-

même des innovations sur sa Google Cloud Platform accessible en SaaS pour concurrencer

les applications d’IBM Watson également disponible en SaaS (ex : Application

PREDICTION API). Les réseaux sociaux, quant à eux, négocient des contrats d’accessibilité

et d’exclusivité à leurs données avec d’autres géants du numérique.

Ö Des entreprises du numériques surfant sur la vague du Cloud Computing : Amazon, Alibaba, Salesforce… Ces deux

géants du e-commerce respectivement Américain et Chinois, sont

devenus en quelques années des acteurs incontournables du Cloud

Computing. Pour certains, Amazon aurait été le créateur de

l’informatique dans le « nuage » en proposant en 2006 la location

de l’espace inexploité de ses serveurs après le Pic d’activité de

Noël. Depuis plusieurs années, Amazon est le leader de Cloud

Computing9 à travers le monde en étant reconnu pour la vitesse

d’exécution de ses services, laquelle s’avère primordiale à l’heure

de la transformation digitale. Suivant les traces de son prédécesseur américain, Alibaba est

déjà le leader sur le marché Chinois et a pour ambition de devenir le leader mondial en

mettant l’accent sur une stratégie de Cloud Computing Lowcost.

d. Une stratégie de partenariat et de rachat :

En accord avec la stratégie globale du groupe : trois partenariats importants et un rachat d’une

valeur de 2 milliards de dollars sont venus appuyer le virage stratégique d’IBM :

9 Annexe 2 (p.113)

Page 18: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 17

Twitter : Le réseau social et IBM s’associent en 2014 en vue d’offrir aux

entreprises de nouveaux outils analytiques pour aider à la prise de décision. Les

flux de données Twitter seront proposés en option à l’offre IBM Watson

Analytics et Bluemix. L’accord prévoit également le développement d’un

ensemble de services de consulting destinés au secteur bancaire, grande

distribution et tourisme.

Apple : Un accord a été signé en 2014 sur la création d’applications (Big Data et

Analytics) sur iOS afin de permettre à Apple de confirmer son positionnement

dans le monde de l’entreprise et à IBM d’apporter de nouvelles solutions de

mobilité à ses clients par le bais de l’IPad et de l’IPhone.

Facebook : Un partenariat a été instauré en 2015 entre les deux sociétés afin de

permettre aux partenaires d’IBM utilisant la solution Marketing Journey

Analytics d’accéder aux fonctionnalités publicitaires de Facebook. Ainsi, IBM

analyse les données publiques des utilisateurs de Facebook comme les mentions

« Like », pour les associer à des données tierces comme la géolocalisation, la

météo, etc.

VMware : Une alliance stratégique de grande ampleur a été convenue en 2016

avec la société spécialisée dans les services liés au cloud VMware. L’objectif est

de réussir à déployer un système de « Cloud Hybrid» de haute performance afin

de se positionner face aux fameux Microsoft et Amazon.

The Weather Company : Une acquisition a été réalisée début 2016 pour environ

2 milliards de dollars. Cette opération permet à IBM d’acquérir l’acteur majeur

de la donnée météoritique mondiale, afin de pouvoir étoffer son offre en

proposant aux clients d’IBM Watson la possibilité de croiser leurs données avec

des données météorologiques extrêmement fiables.

En 5 ans (de 2010 à 2015), IBM a dépensé plus de 14 Milliards de dollars en acquisition dans le domaine de l’analyse de données, et environ 6 milliards par an en R&D.

Néanmoins, IBM n’est pas le seul acteur à réaliser des partenariats. Par exemple, le groupe

Google a entre autre signé des accords avec LinkedIn, Pinterest, Adobe, WordPress et également

Twitter afin d’alimenter en données sa stratégie d’intelligence artificielle.

Page 19: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 18

e. Une mutation stratégique qui pèse fortement sur le groupe :

d1.Quinze trimestres consécutifs en baissent : 10

IBM en Chiffres (en milliards de dollars)

2010 2011 2012 2013 2014 2015

Chiffre d'affaires 99,9 106,9 104,5 99,8 92,8 81,7

Evolution : N / N-1 4% 7% -2% -4% -7% -12%

Revenu net 14,8 15,9 16,6 16,5 15,8 13,4

Evolution : N / N-1 11% 7% 4% -1% -4% -15%

Taux de marge 14,8% 14,9% 15,9% 16,5% 17,0% 16,4%

Il convient ici de commenter un chiffre d’affaires et un revenu net en régression depuis 2012 et, à l’inverse, un taux de marge en hausse passant de 14,8% en 2010 contre 16,4% en 2015.

Selon Martin Schroeter, vice-président et directeur financier du groupe, ces quelques chiffres

peuvent avoir l’air alarmant, mais ils se justifient néanmoins par trois points importants :

Ö La vente à Lenovo (pour 2,1 milliards de dollars) de la branche dédiée aux serveurs d’entrée

et de milieu de gamme,

Ö Une variation du taux de change du dollar responsable à lui seul d’une baisse de 8% du

chiffre d’affaires (2/3 de l’activité étant hors Etats-Unis), 10 Sources : www.challenge.fr + www.ibm.com

0

20

40

60

80

100

120

2010 2011 2012 2013 2014 2015

Chiffre d'affaires

Revenu net

Page 20: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 19

Cloud Analytics Mobility Security Social2014 4 15 1,0 1,8 0,82015 10 18 3,0 2,0 1,0

0

5

10

15

20

en m

illia

rds

de d

olla

rs CAMSS

Ö Un bilan négatif dans le pays émergents (-21% sur Q4 2015 dans les pays BRIC : Brésil,

Russie, Inde et Chine).

d2 : Transformation « in Progress » :

Néanmoins, une stratégie CAMSS en hausse (Cloud, Analytics, Mobility, Security &

Social) a pu être relevée : 11

Grâce à de nombreuses

acquisitions et un

partenariat stratégique

menés avec Apple sur la

mobilité, la stratégie

CAMSS a représenté en

2015, 35% du chiffre

d’affaires du groupe contre

25% en 2014.

En 2015, nous observons

une Activité CAMSS

fortement tractée par la

montée en puissance du

Cloud dépassant les 10

milliards de dollars de

chiffre d’affaires (+57%),

et une progression de 16%

de l’activité Analytique du

groupe.

11

Sources : www.ibm.com + www.zdnet.com

Page 21: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 20

2. Une définition du Big Data12 :

Pour prévenir les emplois inappropriés par les médias de l’expression de plus en plus populaire

de “Big Data”, il nous a paru utile pour commencer distinguer ce qui ne relève pas du Big Data :

Ö Un volume de données traitable au moyen d’une fiche Excel,

Ö Les données hébergées sur un seul nœud d’une base de données relationnelles,

Ö Les données issues de sondages onéreux (INSEE, Politique…).

de ce qui, à l’inverse, relève du Big Data :

Ö Le trafic d’un « gros » site web (e-commerce),

Ö Les données de logs transactionnelles d’un site web d’une grande enseigne de distribution,

Ö Les données de localisation GSM d’un opérateur téléphonique sur une journée,

Ö Les données boursières échangées quotidiennement sur une place financière.

Parce que le Big Data constitue une nouvelle ressource naturelle, les espoirs suscités par ce

nouvel or noir sont immenses. Créé directement par l’action de l’homme ou automatiquement

par des objets « connectés », le volume de données généré par l’humanité ne cesse de croître de

façon exponentielle. Une donnée mondiale qui atteint aujourd’hui la taille de Petabytes de

données, stockées dans des centaines de Data Centers à travers le monde pouvant dépasser la

taille de dix-sept terrains de football côte à côte.

Tout comme le pétrole, ces masses de données ont besoin d’être collectées puis raffinées (par des

supercalculateurs et des algorithmes) pour être finalement traitées et revendues à d’autres

sociétés. Pesant plusieurs milliards de dollars, les plus grands producteurs de données (les

réseaux sociaux, moteurs de recherche, applications…) se frottent les mains en revendant à

d’autres entreprises les droits d’accès aux données de millions de particuliers à travers le monde

pour une durée limitée.

12 Sources : IBM Trainings : Big Data and Analytics solutions + Open Data as a platform for growth Sources : ouvrage : Pierre Delort, Le Big Data, Ed. Puf, 115p.

Page 22: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 21

D’autres, tels que les industriels et les distributeurs, à la recherche constante de l’avantage

concurrentiel, se mettent au défi de collecter un maximum de données analysables en

« espionnant » leurs clients ou en posant des capteurs dans leurs environnements matériels pour

améliorer leurs efficacités et optimiser leurs coûts.

Afin de proposer des services toujours plus innovants, le groupe IBM propose aujourd’hui à ses

clients de nouvelles méthodes pour créer de plus grandes variétés de données, et stocker en

« Cloud » de plus grands volumes de données Internes. Pour étoffer son offre, IBM propose à ses

partenaires de croiser leurs données Internes avec d’autres masses de données personnelles ou

par exemple avec des données météorologiques, afin d’anticiper un besoin sur le marché, la

vitesse de production d’un nouveau produit ou simplement une panne sur une machine de

production (Explication schéma ci-dessous).

Page 23: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 22

Une Définition :

Littéralement traduit par « grosse donnée » ou « donnée massive », le Big Data est un processus

analytique mis en place dans une organisation pour explorer ses données en les croisant ou non

avec des données externes. Il a pour visée de permettre à des logiciels d’analyse de rechercher la

corrélation entre deux données, de sorte que des décideurs puissent prendre des décisions très

difficilement détectables par une simple analyse humaine. Autrement dit et selon Pierre Delort :

« le Big Data consiste à créer en exploratoire et par induction sur des masses de données à faible

densité en information des modèles à capacité prédictive », Big Data et Machine Learning, 2015.

Usuellement, le terme Big13 a réellement décollé dans le langage populaire en 2011 et depuis, le

nombre de recherches associées au terme ne cesse de grimper14. D’autres termes équivalant au

terme Big Data entrent petit à petit dans les mœurs, nous pouvons en effet trouver dans diverses

lectures les termes de « data minning » ou de « data masse ». Donnons-lui finalement le terme

que nous souhaitons, le Big Data reste une évolution logique de l’implantation de

l’informatique dans les entreprises, chargée de collecter, de stocker et d’analyser les données

depuis déjà plusieurs décennies.

De nouveaux concepts émergent autour du Big Data. Nous pouvons notamment entendre parler

du « data lake » (lac de données), qui est un concept relativement nouveau. L’idée générale est

de pouvoir fournir un stockage global des informations présentes dans l’entreprise.

Concrètement, à la différence d’un datawarehouse15« classique », le « data lake » a vocation

d’absorber des flux de données brutes et de les rendre utilisables en les transformant pour

satisfaire différents besoins d’analyses. Dans le cadre de ce mémoire, nous n’entrerons pas dans

le détail de la notion de « data lake ».

13 Big = abréviation utilisée du terme Big Data. 14 Annexe 2 : p.113 : Source : google trends 15 Datawarhouse : base de données relationnelle conçu pour interroger et analyser les données.

Page 24: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 23

a. Les origines du Big Data :

Vers une « Datafication » de notre environnement par l’évolution de l’informatique

et des nouvelles technologies !

Depuis les débuts de l’informatique, l’Homme n’a cessé de manipuler la donnée pour lui donner

une valeur supplémentaire en la transformant en outil de prise de décisions. C’est à la fin du

XXème siècle, en suivant les lois suivantes16 : la loi de Moore, la loi de Kryder et la loi de

Neilsen que les capacités de l’informatique se sont décuplées, provoquant un début

d’accumulation de données sur les serveurs de multinationales américaines.

C’est en an 2000 que le terme « Big Data » est employé pour la première fois dans un article

présenté au congrès de l’Economotric Society. Il faudra attendre 8 années pour que le terme fasse

la couverture d’une revue de recherche « Nature et Science » et que la notion de Big Data

commence à réellement prendre de l’ampleur. Dès lors, le Big Data est devenu un phénomène

aux multiples apparences qui fait énormément parler de lui mais dont il est difficile de

comprendre les tenants et aboutissants.

Le premier cas concret d’utilisation d’une solution Big Data fut utilisé par le CDC (Center of

Desease Control) qui a cherché en 2009 à trouver une solution pour contrôler la pandémie

galopante du Virus de la Grippe H1N1. Après avoir mis à disposition de la population, différents

dispositifs d’alerte avancée : appels téléphoniques à des numéros dispensant informations et

conseils, contrôle des ventes de médicament, consultation de blogs… Estimant que le temps de

réaction moyen des patients pour réaliser leur contamination étant de 2 semaines, et que le temps

de réalisation d’un nouveau vaccin contre la grippe nécessite 2 semaines. Il fallait donc un mois

complet pour mettre en vente les premiers Vaccins. Recherchant une nouvelle solution d’analyse,

le CDC a fait appel à Google pour déterminer les termes de recherche s’approchant le plus de

l’historique des visites web de malades grippés.

16 loi de Moore, qui prévoit un doublement de la densité d’inscription sur puce de silicium tous les 18 mois, loi de Kryder prévoyant le doublement de la capacité de stockage sur disque magnétique tous les 13 mois, loi de Neilsen faisant doubler la capacité des réseaux publics tous les 21 mois. (le Big Data, 2015, p.4).

Page 25: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 24

Ayant défini une base de mots clés en relation avec le terme « Grippe » (froid, remèdes,

symptômes, antibiotiques…), Google a débuté son analyse en temps réel afin d’anticiper

l’évolution Géographique de la Grippe en détectant par zone l’explosion du nombre de recherche

de mots clés relatifs à la suspicion d’un début de Grippe.

L’analyse étant réalisée en temps réel, le temps de mise sur le marché a été divisé par deux en

passant d’un mois à deux semaines.

Un exemple des limites de cet algorithme a pu être observé début 2013. En effet Google a prédit

sur cette période deux fois plus de cas que les médecins en rapportèrent. Cette « sur-présence »

de mots clés cible sur les serveurs de Google s’explique par un effet de peur générale due à des

cas de grippes mortelles durant les mois de novembre et décembre précédant.

Page 26: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 25

Figure représentant l’évolution du

nombre de personnes grippées aux

Etats-Unis face à l’évolution de

l’analyse sémantique réalisée par

Google entre 2004 et 2009. Les

résultats parlent d’eux-mêmes,

malgré certains décalages, le

parallélisme des deux courbes

prouve la pertinence de l’algorithme de Google. (Source : Pierre Delort, Le Big Data, Ed. Puf, p.36).

Les trois causes du Big Data :

1- Une cause sociale : les Réseaux Sociaux, avec entre autre, l’arrivée de deux géants

LinkedIn en 2002 et Facebook en 2004. Encourageant les échanges et la création de

nouveaux contenus chaque seconde (textes, vidéo, sons, logs…). Plus largement

développé page 65.

2- Une cause technologique :

9 La démocratisation des Smartphones et des Tablettes augmentant fortement

l’accessibilité aux boites mails et aux réseaux sociaux (lancée par Apple : l’IPhone et

l’IPad lancés respectivement en 2007 et 2011).

9 Des progrès initiés par des géants du web : l’un des principaux progrès en matière est

venu de Google, pour traiter les données récupérées par les crawlers17 de son moteur

de recherche et indexer la totalité du web, a mis au point un modèle de conception qui

permet d’automatiser la mise en parallèle d’une grande classe de traitements.

17 Crawler : ou spider est un robot logiciel en charge de l’exploration des sites et contenus Internet. Les crawlers indexent et analysent les contenus explorés en partant des résultats d’un moteur (le plus souvent Google), à partir d’une liste, par soumission ou en suivant tous les liens rencontrés. Source : http://www.definitions-marketing.com

Page 27: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 26

3- Une cause économique : une baisse de prix exponentielle des IT18 ! Suivant les lois de

Moore, Kryder et Neilsen (page précédente), le prix de ressources IT a chuté de manière

exponentielle : capacité de stockage, performance des data center, bande passante

disponible… (Big Data et Machine Learning, 2015, p.7)

Le Big Data est donc la réponse au traitement du changement d’échelle du volume global de données à travers le monde, due à des évolutions numériques majeures.

b. La frontière du Big Data ?

(Source: Big Data et Machine

Learning, 2015, p.7).

Ce graphique présente une limite « flexible » du Big Data en fonction des systèmes de stockage

utilisés et de leur capacité en Volume de Stockage. Les volumes relèvent donc du Big Data à

partir du moment où les données ne peuvent plus être traitées en un temps « raisonnable » par

des systèmes constitués d’un seul nœud19. Alors, pour analyser un téraoctet20 de données à la

vitesse moyenne actuelle de lecture de 100Mo/seconde, il faudrait 2 heures 45 minutes pour

réaliser une analyse avec la présence d’un seul nœud. Pour posséder une analyse plus rapide, il

serait nécessaire de créer un second nœud : un nœud stockage + un ou plusieurs nœuds

d’analyses. Alors, nous ne pourrions donc plus parler de Big Data !

Cette notion reste donc vague, en effet, trois éléments sont à prendre en compte pour parler de

Big Data : 18 Annexe 4 + Annexe 5 (p.114) 19 Nœud = en informatique, un Nœud et synonyme de sommet. C’est une unité (un ordinateur) capable d’émettre, de recevoir et de calculer en étant connecté à un réseau, pour atteindre : un serveur, un autre poste de travail, une imprimante… (1969 : 1er Nœud => 2015 : 1 Milliard de Nœuds) : Annexe 5 20 1 Téraoctet = capacité moyenne de stockage d’un disque dur en 2016

Page 28: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 27

Ö Le Volume des données à traiter ?

Ö La Vitesse d’analyse de l’ordinateur ou du serveur à disposition ?

Ö Quel est le temps « raisonnable » d’analyse selon les besoins du client ? 1 minute, 10

minutes, 1 heure ?

Cette notion de frontière provenant de l’ouvrage : Big Data et Machine Learning de Pirmin

Lemberger reste donc mobile en fonction des besoins et des caractéristiques de chaque cas !

Tournons-nous alors vers l’ouvrage : Le Big Data de Pierre Delort. Selon cet ouvrage, seuls les

ingénieurs de la société Intel quantifient les limites du sujet en définissant un volume médian

généré par semaine supérieur à 300 Téraoctets de données (l’espace disc de 300 ordinateurs de

bureau actuels).

La limite du Big étant difficilement identifiable, les deux ouvrages s’accordent néanmoins sur le

fait que le Big Data est la combinaison d’au moins deux des points suivants :

Ö Un Volume de données élevé mais peu défini,

Ö Une complexité et donc une Variété de données importantes,

Ö Une technologie permettant de traiter l’information à une Vitesse « raisonnable ».

Ne trouvons alors trois termes importants dans la définition du Big, traités dans la suite de ce

mémoire, les fameux 3V : Volume, Variété et Vitesse.

Si le Big Data ne s’étend pas à plus d’un Nœud pour réaliser une analyse, alors la création d’un

super-ordinateur (ordinateur quantique) risque de bouleverser la vitesse de calcul et donc la

capacité de volume de données ingéré !

c. Évolution de la donnée :

Tous les écrits présentant le Big Data font état d’un nombre croissant de données. L’une des

revues à l’origine du terme titrait en 2008 « Big Data, Science in the Petabyte Era ». Pour

continuer notre compréhension du Big Data, intéressons-nous alors à ces fameux « Petabytes ».

Page 29: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 28

Une histoire de puissance de 1000 pour se représenter ce que signifient méga, giga, ou

téraoctets et plus ! Pour ce faire, faisons le parallèle entre les unités de mesure informatique

face aux unités temporelles en égalent les notions d’octet et de seconde.

Unités de mesures informatiques Unités temporelles

1 octet = une unité numérique nécessaire

pour coder un caractère.

1 seconde

1 Kilooctet = 1 000 octets 1 Kilo Seconde = 17 minutes

1 Mégaoctet = 1 000 000 octets 1 Méga Seconde = 12 jours

1 Gigaoctet = 1 000 000 000 octets 1 Giga Seconde = 32 ans

1 Téraoctet = 1 000 000 000 000 octets 1 Téra Seconde = 33 000 ans (dernière glaciation)

1 Pétaoctet = 1 000 Téras 1 Péta Seconde = 33 millions d’années

1 Exaoctet = 1 000 000 Téras 1 Exa Seconde = 31 milliards d’années (7X âge de la terre)

1 Zettaoctet = 1 000 000 000 Téras 1 Zetta Seconde = 2300 fois l’âge de l’univers

1 yottaoctet = 1 000 000 000 000 Téras 1 yotta Seconde = 2,3 millions de fois l’âge de l’univers

En terme d’ordre de grandeur biologique, le cerveau humain est composé d’une centaine de

milliards de neurones (100 Giganeuronnes). Imaginez alors les possibilités d’une machine

capable d’analyser en temps réel des Pétaoctets voir des Exaoctets de données pour appuyer

l’analyse et la réflexion humaine ?

Depuis près d’une décennie, la révolution de l’usage des moyens de communication a permis

un accroissement des données de l’humanité sans précédent. À titre d’exemple, le site

Planetoscope (http://www.planetoscope.com) estime à 3 millions le nombre d’e-mails envoyés

dans le monde chaque seconde, soit plus de 200 milliards par jours (en comptant les SPAMS qui

représentent à eux seuls 90% des flux). En 2010, le zettaoctet de données stockées dans le

monde a été dépassé et selon les experts, les données stockées par l’humanité d’ici 2020

dépasseront 10 zettaoctets. Soit une multiplication par 10 du volume de données mondiales en

10 années, pour un débit de données mensuel atteignant 10 400 giga-octets en 2020.

Page 30: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 29

Autre l’aspect volume, un aspect structurel doit être pris en compte, les données peuvent en

effet être divisées en deux grandes catégories :

Ö 20% de données structurées : ce sont des données organisées par rangées et colonnes, et

qui sont traditionnellement gérées dans des bases de données. Il s’agit donc des donnés

« classiques » des entreprises (stocks, comptabilités, finances, ressources humaines, études

scientifiques, relations clients, statistiques…).

Ö 80% de données non structurées : ces données se multiplient de façon exponentielle, en

particulier avec l’avènement des objets connectés. En plus d’être difficilement contrôlable,

leur volume grandissant, leur vitesse d’acquisition et la variété de leurs formats, nécessitent

de nouvelles solutions de stockage, de traitement et d’analyse. C’est avec leur essor,

provoquant une grande partie de l’explosion du volume de données, que correspond

l’arrivée de la notion de Big Data.

d. Les 3 « V » du Big Data : Volume – Vélocité – Variété 21 :

Pour mieux cerner les caractéristiques du Big des ingénieurs d’IBM ont proposé trois

dimensions : le volume, la vélocité et la variété. Plus communément appelé 3V.

Avec le temps, dans le but de se différencier de la concurrence et d’offrir de nouvelles

perspectives, d’autres dimensions sont apparues complexifiant il est vrai l’analyse des 3V (de 3

à 6V : exposée dans cette partie).

21 (Big Data et Machine Learing, 2015, p.16 & 17)

Page 31: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 30

Le Big Data à l’intersection des trois V :

Volume : La partie volume de la donnée, ses origines, son accroissement et ses perspectives

d’évolution quantitatives ont été largement traités dans les parties précédentes et dans la

partie introductive de cette partie. C’est pourquoi, ce mémoire ne rentrera pas une nouvelle

fois dans ces détails. Néanmoins, la grandeur du volume de données créé par l’humanité depuis

peu reste impressionnante, et traduit une véritable transformation dans nos sociétés qui risque

de mener nos organisations à offrir plus de pouvoir décisionnel à la donnée durant les

prochaines années. Pour une simple visualisation du volume de données dans le monde stocké

d’ici 2020 sur les serveurs des plus grandes entreprises, combien de supports des années

90/2000 seraient nécessaire pour stocker les données de l’humanité ? En sachant que l’espace

de stockage contenu dans un CD-ROM est de 650 Mo (méga-octet), il faudrait la quantité

astronomique de 15 000 milliards de CD pour stocker les données de l’humanité, soit une tour

de CD mesurant prêt de 18 000 kilomètres22. Nous prenons alors conscience de toute la

dimension de loi de Kryder qui prévoit le doublement de la capacité de stockage sur disque

magnétique tous les 13 mois, et qui permettra encore de réduire de façon drastique la taille du

matériel de stockage d’ici 2020.

Calcul du stockage des données de l’humanité sur CD-ROM en 2020 :

Zettaoctet Téraoctet Mégaoctet

Total de données mondiales en 2020 10 10 000 000 000 10 000 000 000 000 000 Taille d'un CD-ROM = 650 Mo

15 384 615 384 615

22 Taille d’un CD en hauteur = 1,2 millimètre

Page 32: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 31

Vélocité (ou Vitesse) : au cœur du time to market, la vitesse de circulation des données est un

élément clé à la vitesse d’exécution d’analyse Big Data. Tout comme le volume, la vélocité a

connu une évolution similaire au sein des entreprises. Coût technologique à la baisse, évolution

numérique rapide et évolution sociale, les entreprises se trouvent de plus en plus au milieu

d’un flux continu de données drainées par des réseaux publiques et privés toujours plus

rapides.

Il est difficile de faire évoluer la vitesse d’un réseau public, mise à part le fait de faire pression

sur les autorités politiques locales en place. Néanmoins, libre à chacun de consacrer une part

plus importante des dépenses en terme de réseaux internes à l’entreprise pour accélérer la

vitesse de stockage de données et la vitesse de traitement nécessaire pour posséder un

avantage concurrentiel. Cette notion peut sembler vague, mais dans le cas d’une entreprise

présente sur plusieurs continents, le stockage et l’analyse des données de 100% du groupe

(world wide) sont de véritables challenges.

Rien de nouveau pour certains secteurs d’activités comme celui de la finance, où la vélocité

féroce des données permet de posséder un avantage concurrentiel fondamental pour les

traders. Il permet de gagner des secondes, voir aujourd’hui des microsecondes pour prendre

des longueurs d’avance dans la décision, source de gains financiers. Demain cette logique

risque de devenir identique pour, par exemple, satisfaire le besoin d’un client en cours

d’insatisfaction.

En effet, dans le cadre du service client, le paramètre vélocité devient de plus en plus

déterminant : répondre en temps réel aux souhaits exprimés par un client et connaissant, par

exemple, en temps réel l’état des stocks, la vitesse de chargement et la vitesse de livraison

possibles. Demain, la vélocité sera encore plus déterminante pour posséder un avantage et

contrer l’innovation de la concurrence, les entreprises devront chercher à anticiper les besoins

Page 33: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 32

des clients. Dans cette perspective, la vitesse de circulation des données deviendra plus

qu’importante.

Variété : une des grandes caractéristiques assez « complexe » du Big Data, est de réaliser une

mise en correspondance de données très diverses. Cette perspective est finalement la véritable

innovation que propose l’analyse des données en Big Data, car elle est la véritable source de

valeur. Néanmoins, ce troisième V est le seul pour lequel il n’existe aucune méthode

universelle, source de concurrence entre fournisseurs de solutions Big Data. En effet, c’est dans

le traitement et le recoupement de données que la magie du Big intervient pour réaliser des

analyses prédictives.

À titre d’exemple, le regroupement de données provenant d’un CRM, des données de

géolocalisation, de données extraites des réseaux sociaux qui, une fois regroupées, traitées et

recoupées, permettent d’enrichir de manière très précise les fiches clients et de créer de

véritables bases de clients potentiels avec des informations à caractère affectif, corrélées au

déclenchement d’un acte d’achat. Dans le cadre de ce mémoire, nous reviendrons

ultérieurement sur les évolutions importantes qu’apportera le Big Data à la gestion du service

client.

e. De 3 à 6 « V » : Véracité - Valeur – Visibilité :

Un quatrième « V » chez IBM = la Véracité :

Page 34: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 33

IBM, qui a fait du Big Data une priorité majeure, a ajouté un 4ème V aux trois précédents, la

Véracité. Lors de n’importe quelle analyse, la fiabilité et la qualité des données utilisées et

clairement le paramètre essentiel. Dans le cadre d’une analyse Big Data, les sources de données

deviennent beaucoup plus variées que lors d’une analyse « classique » et elles sont

majoritairement hors du périmètre de contrôle de l’organisation. Le concept de Véracité traduit

donc le besoin stratégique de disposer de données de « qualité », un terme qui reste élastique

aux exigences de chaque organisation.

Pour expliquer et comprendre cette notion, un exemple atypique permet de mesurer l’intérêt

de ce quatrième V : l’élection présidentielle de 2012 au Mexique. Lors de ces élections, des

« tweets » provenant de robots spammeurs et de faux comptes orientés ont largement pollué

l’analyse des informations politiques sur twitter afin de fausser et de brouiller les pistes du

marketing politique. Dans ce cas précis, les outils IBM permettant de posséder une certaine

véracité des données, auraient permis d’identifier et d’écarter des flux les données provenant

des robots et des faux comptes.

En plus de permettre aux décideurs de posséder une analyse Big Data fiable, la véracité des

données peut rapidement être vitale pour une organisation, lui évitant de prendre une décision

stratégique pouvant être catastrophique pour sa durabilité.

Visibilité : la décision finale devant revenir au cerveau humain (en cadre général), il est

nécessaire que les outils d’analyse proposent des services de visualisation performante pour

accélérer et faciliter la compréhension humaine. Un dashboard bien réalisé valant souvent

mieux qu’une longue analyse textuelle, ce besoin de visibilité est légitime. Les décideurs ont

besoin de posséder des tableaux de bords mis à jour en temps réel et accessibles sur n’importe

quel support.

Page 35: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 34

Valeur : au terme du circuit d’une analyse Big Data, cette notion met l’accent sur la mesure des

résultats provenant des décisions prises grâce au Big. Véritable rétrospective sur la

performance, la notion de Valeur propose des outils de mesure afin de définir la pertinence

d’une stratégie Big Data. Véritable outil d’adhésion, la communication de résultats positifs suite

au lancement de ce type de stratégie est essentielle à sa réussite.

f. Mise en place et champs d’applications :

Comment « chercher une épingle dans une meule de foin multidimensionnelles, sans savoir à

quoi ressemble l’épingle ni si la meule de foin en contient une »23 ?

En plus d’un aspect hardware et software, il est nécessaire de prendre en compte l’aspect humain

et apportant de nouvelles pratiques managériales à même de favoriser une logique d’exploration

des données et petit à petit conduire les services vers une gouvernance de la donnée. La tâche

n’est pas simple, étant nouveau pour le monde de l’entreprise de faire une confiance, presque

aveugle, aux logiciels de Machine Learning (développé ultérieurement). Il est nécessaire dans un

premier temps d’adopter un plan de formation adapté à chaque service, puis dans un deuxième

temps, après avoir tiré les premières conclusions de la mise en place de la solution, il sera

important de communiquer les points positifs de l’implémentation de la solution Big Data.

À titre d’exemple, ce mémoire va présenter ci-dessous un cas concret en entreprise dans le cadre

d’un service marketing :

Ö Lors d’une analyse business traditionnelle : le marqueteur réalise un ensemble de recherche

(phase documentaire, phase qualitative) afin d’émettre une ou plusieurs hypothèses. Par la

suite, le marqueteur réalise une phase quantitative pour compléter ses recherches et vérifier le

bienfondé de ses hypothèses.

23 Source : M. Weinstein, « Analysing Big Data with Dynamic Quantum Cluster », SLAC National Accelerator Laboratory, 2013.

Page 36: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 35

Ö Dans le cadre d’une analyse Big Data : le processus est inversé, ce n’est plus le marqueteur

qui va chercher les hypothèses mais l’analyse « big data » en elle-même. L’analyse de

l’ensemble des données de l’entreprise, éventuellement élargie par la présence de données

externes (réseaux sociaux, météorologie…) apporte directement les solutions en émettant une

liste d’hypothèse.

Alors, les processus complexes de recherche marketing évoluent, les marqueteurs peuvent

directement se concentrer sur l’essentiel : la mise en place d’un plan d’action.

Source: training IBM Big Data - Smarter Planet Powered by Bid Data,

Exemple : poursuite de l’analyse : Schéma complémentaire en annexe 424 : Source: training IBM Big Data - Smarter Planet Powered by Bid Data,

Analyse business

traditionnelle

Je suppose que les clients qui possèdent une carte bleue possèdent un panier moyen plus important ?

Ö Je vérifiais ma supposition en analysant mes données (Panier Moyen /

type de paiement),

Ö J’apportais une conclusion (non = action inutile et couteuse / oui = plan

d’action).

Ö Oui, j’imagine un plan d’action !

24 Annexe 5 : p.115

Page 37: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 36

Analyse Big Data

Analyse en temps réel des données (mon logiciel recherche la corrélation entre les données)

Ö Mon logiciel détecte que les clients payant en carte bleue possède un

panier moyen plus important !

Ö Mon logiciel élargie sa recherche et cherche d’autres corrélations (ex :

en plus de définir que les clients payants en carte bleue possèdent un

Panier Moyen supplémentaire à la moyenne, le logiciel réduit la cible

en détectant par exemple deux autres caractéristiques : sexe masculin +

célibataire),

Ö Mon logiciel me permet une cible répondant à une question qu’un

marqueteur aurait eu peu de chance de se poser et dont le temps

d’analyse aurait pris plusieurs semaines.

Ö En plus de définir ma cible certains logiciels peuvent pousser l’analyse

en proposant un plan d’actions commerciales.

RESULTAT = GAIN DE TEMPS

+ DEFINITION DE LA CIBLE CLE EN TEMPS REEL

Un champ immense d’applications :

Autre l’aspect marketing, ce mémoire va établir une liste non exhaustives de champs

d’applications en entreprise afin de trouver de nouvelles sources de motivations à communiquer

auprès des services, afin de convaincre les plus sceptiques face à ce changement :

Analyser un plus grand nombre de données :

o Rapprochement des données de l’entreprise pour une meilleure analyse : produits,

clients, déploiements, stocks, ventes, fournisseurs… : management du risque,

pilotage de l’activité…,

o Amélioration de la pertinence de l’analyse interne de l’entreprise par le

croisement des données internes couplées à des données externes : recherche de

modèles prévisionnels.

Page 38: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 37

Traiter une plus grande variété de données :

o Décoder et analyser les humeurs sur les réseaux sociaux ou dans la blogosphère

pour identifier l’insatisfaction d’un client ou d’identifier de potentiels clients,

o Réaliser le suivi des phénomènes (nouveaux besoins, nouvelles tendances de

marché) afin d’adapter l’offre produit ou service,

o Ouvrir les champs d’analyses au multimédia : aux vidéos, à l’audio et aux photos

afin d’améliorer la gestion du service client par la reconnaissance visuelle ou par

exemple de mieux contrôler et analyser les flux humains en grande distribution.

o Détection d’actions malveillantes : fraudes, repérage de clients indélicats,

o Amélioration de la pertinence de l’analyse externe de l’entreprise grâce à

l’acquisition de données.

Analyser des données en temps réel :

o Surveillance d’un grand nombre de données (cloud, hébergement interne),

o Suivi en temps réel et à forte réactivité des clients,

o Pilotage avancé de systèmes complexes : recherche en astronomie, en physique,

dans le domaine médical, dans l’armement…,

o Une optimisation et une meilleure surveillance des processus,

o Un tracking par identifiant (par exemple : insertion de puce RFID dans les

produits de grande distribution).

Améliorer la recherche, le développement et l’analyse marketing :

o Pilotage avancé de système complexe : recherche en astronomie, en physique,

dans le domaine médical, dans l’armement…,

o Approcher la notion de désir ou de sentiment déclencheur d’action (stimuli),

o Cerner l’entourage social d’un client, ses influenceurs,

o Expérimenter l’impact d’un nouveau produit,

o Anticiper l’efficacité d’une stratégie,

o Un vecteur d’innovation et lien avec le marché,

o Identifier de nouveaux indicateurs d’influence.

o …

Ö L’ensemble de ces paramètres, afin d’adapter de façon optimale la stratégie globale de

l’entreprise à son environnement et réduire ses risques d’échecs.

Page 39: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 38

g. Le Big Data dans les organisations :

Le Big Data ouvre la porte à des changements profonds dans l’organisation des entreprises en

modifiant fortement certains process, impactant la structure hiérarchique des organisations.

La place nouvelle de la DSI25 dans l’entreprise :

Pour exaucer sa volonté de maîtriser ces données, le monde de l’entreprise connait une évolution

structurelle importante. De plus en plus d’entreprises cherchent à exploiter les données dans de

nombreux domaines : personnalisation de leur relation client, marketing ciblé, traçabilité des

parcours et retours clients, pilotage et valorisation de leur image sur les réseaux, optimisation des

processus logistiques… Le potentiel de ces données est quasi illimité, à une seule condition : les

maîtriser. Les outils traditionnels (Excel, Access, outils BI26…) ne sont plus suffisants pour

traiter un certain volume de données et pour rechercher la corrélation entre les données.

Pour guider cette évolution, les responsables SI qui ont compris ce bouleversement et ces

nouveaux besoins ont réagi en prenant une place plus importante dans l’organisation et en

organisant l’arrivée de data scientist, la création de data lab et réorganisant l’infrastructure

informatique du groupe pour réorganiser le circuit de la donnée. Ainsi, par la restructuration

infrastructurelle et analytique de la donnée, l’entreprise peut prétendre à de nouvelles ambitions

et répondre à de nouveaux besoins.

Vers la fin du pressentiment dans la prise de décision, à titre d’exemple : sur un plan marketing,

ces nouvelles méthodes permettent de stocker indifféremment l’ensemble des données : les

réseaux des boutiques, les flux sur le site web, les dossiers clients, les analyses financières…

Cela permet d’offrir aux membres du service marketing, une nouvelle dimension d’analyse

capable de trouver une récurrence et d’en déduire une hypothèse. L’analyse clé n’est plus

déterminée par l’utilisateur mais par le volume de données lui-même.

Pour revenir sur la question de la place que doit avoir la DSI pour mettre en place une structure

Big Data et se diriger vers une « gouvernance data », il est important de souligner la place

centrale que doit prendre le service DSI pour intégrer ce type de solution. 25 DSI : Direction des Systèmes d’Informations 26 Software BI = logiciel de Business Intelligence (power BI, IBM Cognos…)

Page 40: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 39

Ainsi, la DSI a un rôle clé dans la définition des axes de transformation et de développement

permettant à l’entreprise de jouir de la puissance de Big Data, mais elle ne peut mener cette

profonde transformation sans un appui strict du top

management et une agilité des autres services à

l’acceptation de la gouvernance par la donnée, en

particulier du service Marketing27.

Dans le cadre de la mise en place d’une stratégie Big

Data au sein d’une organisation, il semble logique de

placer la donnée au centre de l’organisation et donc son

gestionnaire : la direction des systèmes d’information.

Véritable clé de voute de l’organisation et crédibilisé

par la direction, la DSI a ainsi l’espace et la possibilité

de mettre en place une véritable stratégie de

gouvernance par la donnée.

En plus d’un positionnement central dans l’organisation, la DSI doit également connaitre un

certain nombre de transformation organisationnelle en interne, en créant une nouvelle cellule de

travail : le Data lab, composé des célèbres et très recherchées data scientists accompagnées dans

leurs analyses par des data analysts, le tout managé par un chief data officer.

- Chief data officer : son rôle est d’identifier des données clés pour l’entreprise, de définir

la stratégie du service et d’animer et de coordonner des différents métiers,

- Data scientist : son but est de rechercher les axes générateurs de valeur en croisant les

données internes et externes de l’entreprise,

- Data analyst : sa mission est d’identifier les axes de performance basés sur les données

internes de l’entreprise.

Pour compléter cette équipe, d’autres compétences métiers peuvent être insérées au sein du

service : des architectes logiciels (concevoir des systèmes prédictifs), des développeurs (chargés

27 Annexe 7 : p.115

Page 41: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 40

de réaliser les systèmes conçus par les architectes et des designers web (en charge des

représentations graphiques dynamiques des résultats d’analyse).

Véritable clé pour l’innovation, pour bien fonctionner un data lab doit disposer d’une large

autonomie et doit être affranchi de certaines contraintes susceptibles de freiner son installation et

sa durabilité dans l’entreprise.

Au sein d’une entreprise quels services peuvent s’intéresser au Big Data ?

Clairement tous ! Du contrôle de gestion au service après-vente en passant par la production,

100% de l’entreprise est impactée par la mise en place d’une stratégie Big Data. Ce mémoire

étant réalisé dans le cadre d’études de commerce, cette partie traitera prioritairement l’analyse du

client en analysant l’apport du Big Data au service client. Dans un second temps, ce mémoire

présentera une analyse rapide des avantages du Big par service de l’entreprise.

Quels types de secteurs peuvent s’intéresser au Big Data ?

Du point de vue d’IBM, le groupe souhaite cibler ses futurs clients dans 18 secteurs différents :

La méthode d’implémentation d’une solution Big Data reposant sur les 3V : Volume, Vitesse,

Variété, (+ rappel : Véracité chez IBM) reste identique quel que soit le secteur d’activité du

client intéressé par ce type de solution. Néanmoins, les résultats obtenus peuvent être très

différents d’un secteur à un autre. Ce mémoire, présente ci-dessous une liste non exhaustive des

possibilités du Big sur certains secteurs d’activité :

Page 42: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 41

Collecte des données Analyse Exemple de valeur par secteur

Santé : - Prévenir une maladie,

- Anticiper une pandémie,

- Aider les chercheurs à être mieux informés et

améliorer l’efficience de leurs résultats.

Industrie : - Anticiper une panne sur un moteur de machine

de production,

- Anticiper la production de stock.

Automobile : - Alerter les secours en cas d’accident en

croisant les données GPS et les données des

puces des airbags des véhicules.

Banque : - Accorder ou non des prêts à des particuliers par

l’analyse de leurs données personnelles.

- Meilleure détection de la fraude.

Assurance : - Personnalisation de l’offre : évolution du prix

des assurances en fonction de l’activité ou l’état

physique des clients.

Education : - Adaptation des sujets d’apprentissage en

fonctions du niveau et des axes de progression

de l’élève ou du salarié.

Distribution : - Mise en place de stratégies multicanaux par

une vue de 360° du client,

- Adaptation de la communication et des

promotions produits en fonction des historiques

d’achat et de la localisation GPS du client.

Recherche : - Accélération des processus de recherche,

- Augmentation de la capacité d’innovation.

Voyage :

- Trouver des recommandations de voyage

personnalisées en croisant les données

utilisateurs et les informations locales.

Page 43: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 42

Comment mieux comprendre ses clients grâce au Big Data ? (souce : formation interne IBM)

La connaissance du client est un challenge depuis les premiers échanges commerciaux. Il est en

effet primordial d’adapter l’offre produit ou service de son entreprise aux besoins et aux attentes

des clients. Des simples retours clients « ancestraux » mais efficaces, aux analyses marketing, de

nouvelles méthodes amenées par le Big Data permettent aujourd’hui de réaliser simplement des

études clients approfondies afin d’anticiper : les besoins, les motivations profondes et de

proposer le bon produit (ou service), au bon endroit et bon moment ! Pour cela, nous pouvons

comparer l’analyse d’un individu à un Puzzle, afin de créer un tableau de bord expliquant

précisément les faits et gestes du consommateur.

D’où proviennent les informations pour constituer une analyse 360° d’un client actuel ou d’un

client potentiel :

Page 44: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 43

Grâce à cette analyse, il est certes aisé de cibler un potentiel client, de lui proposer le produit

recherché à un instant T. Ainsi, grâce à une analyse Big Data d’un client, la démarche d’un

service commercial est réinventée pour devenir plus simple, et d’une logique calculée

directement par les algorithmes.

Imaginons par exemple un cas commercial en Téléphonie. Nous pouvons imaginer qu’un client

ayant opté pour un forfait « 2ans » il y a 22 mois, a de grandes chances de s’intéresser aux offres

de la concurrence dans les semaines à venir. Alors, dans cette situation, que faire pour réduire les risques de perte client ? Exemple : Proposer un nouveau contrat plus court ? Moins cher ?

Du nouveau matériel ?

Aujourd’hui les solutions Big Data sont capables d’analyser de grands volumes de données

clients provenant de sources très variées (variété) afin d’en proposer en temps réel la solution

client adéquate maximisant les chances de prolongation du contrat du client. En effet, pourquoi

gaspiller de l’argent sur une réduction de forfait si le client n’est fondamentalement pas motivé

par une notion de prix ? Pour ce faire, les logiciels d’analyse vont corréler l’ensemble des actions

commerciales de l’entreprise avec les données de l’abonné présentes dans son Puzzle client, en

cherchant à détecter pour chaque action :

Ö L’impact sur la motivation au réabonnement ? Ö L’impact sur la vie quotidienne du client ? Ö La probité de réponse positive à cette action ?

ACTION COMMERCIALE

Impact sur la motivation au réabonnement

Impact sur la vie quotidienne du

client

Probabilité de réponse positive à

cette action Réduire la prochaine facture mensuelle de 20€ ?

30% 20% 70%

Expliquer au client que nous sommes en train d’améliorer nos services ?

10% 5% 10%

Offrir un avantage client de 6 mois (autre que financier, exemple Deezer) ?

50% 15% 80%

Offrir un nouveau téléphone ?

60% 40% 95%

Page 45: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 44

Fini l’improvisation commerciale et le “feeling” du super vendeur ! Grâce à ce résultat analytique, en entrant le numéro du client sur le CRM, n’importe quel vendeur en magasin est capable de proposer la solution commerciale la plus favorable au client afin de maximiser ses chances de signature.

Partons du constat de la virtualisation des forces de vente et imaginons à court terme ce système jumelé à la visioconférence. Voici l’écran que pourra voir un commerciale en BtoB (ou en BtoC) :

Ainsi, en plus de pouvoir

visionner les réactions de son

interlocuteur, le commercial

peut interroger en temps réel

le logiciel analytique afin de

l’aider à trouver la solution la

plus pertinente pour le client,

et donc quel produit ou service

proposer au client afin de le

satisfaire.

En clair, au 20ième siècle, nous proposions des affiches publicitaires à la « masse » de population,

nous sommes aujourd’hui capables de proposer le produit capable d’améliorer le quotidien du

client et de lui proposer les bons arguments pour stimuler son acte d’achat. Demain, les

nouvelles solutions « machines systèmes » étant déjà capables de reconnaitre des visages et de

comprendre les émotions des interlocuteurs.

Nous pouvons aisément imaginer l’avenir des

services commerciaux, pilotés par des services

marketings semi-automatisés qui permettront à des

forces de ventes « androïdes » de réaliser les

conclusions commerciales en BtoC, comme c’est le

cas aujourd’hui chez Nescafé, avec l’insertion sur

leurs points de vente des androïdes Pepper :

développés en partie par IBM. C’est en toute logique que cette poussée technologique impactera

rapidement le monde du BtoB. Alors les entreprises doivent déjà se poser des questions presque

Page 46: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 45

« surréalistes » : comment mettre en place une force de vente androïde sans perdre le contact

humain avec le client ? Le contact humain est-il finalement nécessaire dans le cadre d’une

démarche commerciale ?

L’apport de valeur du Big Data en sein des autres services de l’entreprise :

DATA Exemple de valeur par service

Marketing : - Définition de nouvelles offres et de nouveaux services,

- Prédiction des appétences en termes d’achat.

RH :

- Analyse prédictive du Turnover et des arrêts maladies

en identifiant les points de « rupture » des salariés,

- Identification des hauts potentiels,

- Détection des talents en école.

Ventes :

- Profilage des comportements clients,

- Détection des potentiels de ventes supplémentaires,

- Proposition du produit clé à l’instant T.

Finance / Contrôle de gestion :

- Aide à l’analyse de la performance des activités

DSI : - Prédiction des incidents IT.

Le champ des possibles du Big est beaucoup plus large et ne s’arrête pas à la présentation ci-

dessus. Pour compléter ce tableau, une analyse plus approfondie est présentée en fin de cette

partie : c. Analyse de la donnée, c1. L’évolution de l’analyse.

Le Big Data correspond bien à une réalité de l’usage de la donnée et de ce qui est désormais

attendu d’un système d’information. Quelque peu surréaliste et dépendant des technologies qui

permettent de « fouiller » dans des données de grands volumes, ces possibilités sont immenses :

Ö Analyser des volumes de données extrêmes, Volume

Ö Accéder à un éventail de données jamais atteint par le passé, Variété

Ö Capter la donnée en mouvement (« rapidement » et en temps réel), Vitesse

Page 47: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 46

Ö Corréler des volumes extrêmes : découvrir, expérimenter et analyser des données cohérentes,

Véracité

De nombreuses possibilités et évolutions qu’apportera le Big Data n’ont certainement, pour le

moment toujours pas été anticipées du fait d’une course à l’innovation trop peu réfléchie ou

simplement d’un manque de capacité du cerveau humain. Alors, le machine learning apportera

au grand jour bien plus de valeurs provenant du Big Data que nous pouvons l’imaginer

aujourd’hui !

Page 48: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 47

II. Appréhender l’univers du Cognitive Business :

Pour comprendre le choix de cette stratégie menée par l’équipe de direction du groupe IBM, il

est dans un premier temps important de comprendre la mutation en cours des entreprises du

monde numérique et la digitalisation en cours des entreprises de tout secteur.

Ayant traité en partie introductive l’évolution de la concurrence du groupe (p.14), nous allons

chercher à comprendre pourquoi et comment la digitalisation28 devient un enjeu majeur

d’entreprise de tout secteur.

Quand la concurrence stimule l’innovation ! Secteur industriel, grande distribution, banque ou

secteur agricole : un grand nombre d’entreprises a d’ores et déjà débuté une stratégie de

digitalisation pour conquérir ou sauvegarder des parts de marché.

Pour entamer cette évolution, les « règles d’or » pour lancer une telle mutation sont :

1. Anticiper la présence future des outils digitaux au moment du diagnostic,

2. Définir une stratégie autour de la création de valeur pour les différents acteurs,

3. Organiser : mobiliser les bonnes personnes au bon moment,

4. Tester, approuver, communiquer et lancer le changement,

5. Pérenniser la stratégie digitale en prouvant son succès par les chiffres.

La digitalisation en lien direct avec le Big Data ! Au cœur de la mutation digitale, le « big »

est considéré comme un des 5 piliers de la digitalisation avec : le cloud computing, les réseaux

sociaux, les technologies mobiles et les objets connectés.

Surfant sur cette vague de digitalisation, la stratégie du Cognitive Business a pour objectif

d’utiliser l’accroissement exponentiel du nombre de données et la puissance de l’intelligence

cognitive de l’outil IBM Watson afin d’apporter une analyse prédictive et ainsi orienter les

décisions de chacun. 28 Digitalisation : « intégration de technologies digitales grâce à la digitalisation de tous les objets pouvant être digitalisés (montre, voiture, machine de production, documents …) » http://www.businessdictionary.com

Page 49: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 48

Pour comprendre, la place du Big Data dans la nouvelle stratégie du groupe, ce mémoire

présente un schéma représentant quatre parties du CAMSS d’IBM (le Cloud, la Mobilité,

l’Analytique et le Social)29 croisées avec les cinq piliers de la digitalisation, auxquels ont été

ajoutés d’autres éléments pour compléter ce travail d’analyse :

Outre l’aspect analytique, il est extrêmement important de comprendre l’importance des données

qui fournissent aux logiciels suffisamment de matière pour produire des analyses prédictives.

Ainsi, nous pouvons répertorier quatre grands piliers producteurs de données :

Ö Les organisations (entreprise, ONG, association, gouvernement) : mails, contrats, volume de

vente, données financières, données RH…

Ö Les réseaux sociaux : textes, photo, vidéo, sons, logs…

Ö Les objets connectés (Internet of Things) : domotique, objets connectés à l’Homme,

machines de production… 29 Manquant à ce schéma, la partie Sécurité des données (non traitée dans le détail dans ce mémoire) mais qui pourrait être schématisée ci-dessus à chaque sortie et entrée de flux de données.

Page 50: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 49

Ö L’Open Data : horaires de transports en commun, statistiques sur les régions et les

gouvernements, réseau des entreprises, données sur les magasins…

La partie stockage est dominée par les différentes variantes du Cloud pour apporter les

meilleures solutions de stockage de données (et d’applications).

La partie analytique du schéma est représentée par l’outil IBM Watson : qui permet d’analyser

en temps réel des quantités astronomiques de données provenant de serveurs Cloud, d’apprendre

de ces données et d’en tirer des conclusions prédictives.

Un véritable tournant dans le monde des Systèmes d’Information : en reprenant la définition

des SI : « ensemble organisé de ressources (software, hardware, humain et processus) permettant

de collecter, regrouper, classifier, traiter et diffuser les données ». En reprenant cette définition et

suivant une certaine logique, la partie Big Data de ce mémoire sera guidée le parcours naturel de

la donnée :

Ö La création,

Ö Le stockage,

Ö L’analyse (puis la visualisation).

Cette première partie du mémoire traitera dans un premier temps d’une définition en profondeur

du Big Data puis de ces différents composants, dans un second temps du Cognitive Business et

de l’outil Watson. Puis dans un troisième temps, de l’implémentation de ce type de prestation

chez un partenaire.

Page 51: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 50

1. Les principaux composants du Big Data :

a) Production de la donnée :

a1. L’internet des Objets (IoT) :

Les débuts de l’internet des objets (internet of things = IoT) remontent à la fin des années 1980.

Il est constitué de l’ensemble des objets de la vie de tous les jours, dans notre vie privée ou en

entreprise, que nous connectons afin de connaître leur localisation ou leur niveau de

consommation et d’usure par l’installation de puces GPS et de capteurs à l’intérieur des objets.

Une fois collectées, les données de ces objets permettent de réaliser des analyses prédictives afin

d’anticiper une action sur l’objet en question ou sur un autre objet, potentiellement impacté par

l’objet connecté.

Dans ce cosmos d’objets connectés relativement nouveau, nous pouvons distinguer deux grandes

sortes d’IoT :

Ö Les objets communiquant d’objet à personne : à titre d’exemple, l’accès à distance à des

objets (contrôle d’un radiateur de son Smartphone). Ou l’inverse, les objets émettant

automatiquement et en continu (le Smartphone, et sa localisation GPS permettant de

localiser en temps réel la position de cet objet).

Ö Les objets communiquant automatiquement d’objet à objet sans l’intermédiaire de

l’homme : ces objets contrôlent d’autres objets (lorsqu’une machine de production envoie un

signal à une autre machine pour poursuivre l’exécution d’une tache).

Selon le célèbre Stanford Research Institute, l’internet des Objets est une innovation

technologique destinée à devenir dominante d’ici 2025 par la connexion d’une majorité des

objets qui nous entourent. Selon ce même institut, nous pouvons trouver quatre grandes étapes

dans cette évolution :

Page 52: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 51

2005 Puce RFID30 1ère génération : utilisée en

logistique, en grande distribution (contrôle de

stock et prévention des vols), ou sur nos cartes

bancaires.

2010 - 2015 Puce RFID 2ond génération : extension de

l’usage aux domaines de la santé, de la

surveillance, de l’industrie… grâce à une baisse

exponentielle des coûts.

2020 IoT 1 : géolocalisation permanente (intérieur et

extérieur) = suivi permanent des personnes et

des objets.

2025 IoT 2 : Téléopération et téléprésence =

surveillance et maîtrise des objets à distance

pour piloter un avion ou opérer un patient…

Nous pouvons néanmoins convenir que ce rythme d’évolution technologique est un peu

ambitieux. En effet, l’étape numéro 1 avec l’implémentation des puces RFID en grande

distribution n’est pas encore généralisée dans le monde. À noter, un équipement RFID de la

grande distribution américaine depuis les années « 2010 » (Wal-Mart en 2009), et un équipement

des firmes Françaises en cours d’implémentation (Décathlon en 2015). Alors, en restant dans

cette logique d’évolution, nous pouvons imaginer un développement généralisé des puces RFID

de seconde génération d’ici 2020 et un développement global de l’internet de objets d’ici 2030.

30 RFID : Radio-frequency identification = système de radio identification installé sur un objet. Composant électronique de dimension très réduite qui répond (à un mètre de distance) à une impulsion d’ondes radio par une autre impulsion radio délivrant le numéro identifiant de la puce.

Page 53: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 52

Outrepassé la technologie RFID, qui ne permet que de délivrer un simple « code barre » par

l’impulsion d’une onde radio d’un objet tiers à environ un mètre de distance. Les technologies

IoT permettent un champ d’application beaucoup plus varié et surtout un champ de transmission

d’information beaucoup plus large :

Ö Géolocalisation par puce GPS,

Ö Capteurs de mesures :

- variation de chaleur,

- variation de pression,

- variation de salinité,

- variation d’énergie,

- …

Ainsi, les entreprises peuvent collecter des informations relatives à leur business en temps

réel (éphéméride météo, éphéméride géo-spatiale dans une rue, croisement des données

comportementales des équipements …), pour anticiper une action (anticiper un service,

anticiper le lancement ou l’arrêt de la production ou anticiper une panne moteur sur une machine

et changement d’une pièce31).

De plus, grâce à la possibilité d’implantation de puces et de capteurs sur une grande partie des

objets et du vivant composant notre univers, la connexion de notre monde devient possible. La

connexion de notre environnement ne s’arrête en effet plus aux objets mais tend petit à petit vers

la connexion humaine. D’ores et déjà, un grand nombre d’entre nous possède des montres

connectées et des smartphones capables de contrôler notre rythme cardiaque, la fréquence de nos

pas ou notre taux de masse graisseuse. Demain, des capteurs présents à l’intérieur de nos

vêtements et à l’intérieur de notre corps permettront de capter nos faits et gestes et les différentes

variations de données provenant de notre corps (ingurgitation de gélule-capteur et/ou

implantation de puce) dans notre organisme. Selon Ray Kerzweil, directeur de l'ingénierie chez

Google, les humains deviendront des êtres hybrides dans le courant des années 2030 par

31 Source : http://www.industrie-techno.com/meme-les-ascenseurs-et-les-escalators-deviennent-intelligents-avec-watson.42747

Page 54: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 53

l’implantation de nanorobots dans le cerveau humain, ce qui permettra de démultiplier ses

capacités en le connectant aux objets qui l’entourent32).

Ces perspectives offrent et offriront aux analystes et aux machines learning un terrain de jeu très

fertile qui permettra de contrôler une grande partie de notre environnement.

Pour rester sur une approche de court et de moyen terme, tout un chacun devrait prochainement

être équipé de plus en plus d’objets connectés permettant de mesurer et de maîtriser les aspects

de notre vie courante : course à pieds, diabète, enfants, maison …

L’usage des objets connectés révolutionne d’ores et déjà notre quotidien entre autre avec

l’apparition des smartphones depuis une dizaine d’année. Dans le but de comprendre et

d’anticiper les évolutions qu’apporteront les objets connectés d’ici les prochaines années, ce

mémoire va déterminer une liste non exhaustive de mutations :

Secteur Technologie Evolution Donnée Apport

Grande distribution

RFID-1 Etiquetage RFID des produits

Transmission radio des

codes-barres

Maîtrise des stocks

(inventaires et vols)

Industrie RFID-1 Etiquetage des matières premières et des produits finis

Transmission radio des

codes-barres

Maitrise des stocks

(gestion de la

production)

IoT-1 Insertion de puces et capteurs à l’intérieur des

machines de production

Transmission d’information

d’une machine A vers une

machine B.

Continuité automatique

de la production et

prévision des pannes

Aéronautique IoT-1 Insertion de puces et capteurs dans les composants de l’avion

Transmission des évolutions

des composants de l’avion

au constructeur

Prévision des pannes et

réduction des risques

d’accidents

IoT-2 Téléopération : pilotage de l’avion à distance.

Transmission des données

d’opération d’un objet A

(ordinateur) vers un objet B

(physique)

Réduction des coûts et

réduction des risques

suicidaires des pilotes

Automobile IoT-1 Voiture connectée : Insertion de puces et

Transmission des données

GPS d’un véhicule lors du

Meilleure maîtrise de

la sécurité des clients

32 Souce : http://www.clubic.com/mag/actualite-769392-google-2030.html

Page 55: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 54

capteurs déclanchement d’un airbag

IoT-2 Voiture autonome : pilotage automatique

Analyse des données

environnementale du

véhicule

Réduction des erreurs

humaines.

Domotique RFID-2 Badge RFID à la porte d’entrée

Transmission radio du code

clé

Dématérialisation de

la clé physique

IoT-1 Insertion de puces et capteurs dans le lieu de vie, pour un pilotage à distance et/ou un pilotage automatique de la résidence (chauffage, rideaux, lumière …)

Transmission d’information

d’un objet A vers un objet

B.

Contrôle et

optimisation de la

consommation du

ménage

Textile IoT-1 Insertion de capteurs dans les vêtements

Transmission des données

corporelles pour analyse

Prévision des risques

de santé (incident

cardiaque, stress…)

Banque RFID-2 Insertion de puces RFID dans les cartes bancaires

Transmission radio du code

de carte bleue

Rapidité de paiement

Santé RFID-2 Bracelets RFID aux poignets des patients

Transmission radio des

données du patient

Traçabilité et suivi du

patient

IoT-1 Insertion de puces et capteurs dans le corps humain

Transmission des données

corporelles pour analyse

Prévision des risques

de santé

IoT-2 Télé-opération : réalisation d’une

opération chirurgicale à distance

Transmission des données

d’opération d’un objet A

(ordinateur) vers un objet B

(physique)

Amélioration des

possibilités

chirurgicales des

hôpitaux + Mobilité de

la machine dans des

zones à risques

Défense IoT-1 Insertion de puces et capteurs dans les armes

Transmission des données

GPS et de mesures

Géolocalisation des

combattants, et des

ennemies (en cas de

vol des armes) +

prévision de

Page 56: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 55

l’enraiement de

l’armement

IoT-2 Télé-opération : réalisation d’une attaque

militaire à distance

Transmission des données

d’opération d’un objet A

(ordinateur) vers un objet B

(physique)

Anéantissement du

risque de perte

humaine

Smart city IoT-1 Insertion de puces et capteurs dans les véhicules et les citoyens et insertion de caméras de surveillances

Transmission des données

GPS et reconnaissance

faciale

Amélioration des flux

de circulation +

Sécurisation policière

de lieux jugés

dangereux par les

logiciels

L’internet des objets représente une source de données importante dans la course au Big Data. Il

est désormais important pour toute entreprise, de n’importe quel secteur de prendre en compte

l’importance de la connexion de son environnement pour augmenter son volume de données

analysables, maximiser les chances de réussite d’une stratégie Big Data et éventuellement

commercialiser les données collectées.

De 0,5 à 50 milliards33, ceci est le nombre d’objets connectés dans le monde respectivement en

2000 et en 2020. Aujourd’hui en 2016, environ 23 Milliards d’objets transmettent des données à

travers le monde. Ce chiffre devrait plus que doubler en 4 ans, les perspectives de marché et les

enjeux autour des objets connectés sont donc immenses. La course à l’IoT devient donc

stratégique pour toute entreprise afin de garder une connaissance de son environnement

acceptable par rapport à la connaissance environnementale que pourra avoir la concurrence.

Vision IBM : vers une décentralisation du Cloud pour l’internet des objets !

Selon Andy Thurai (directeur de programme IoT chez IBM), la prochaine grande évolution des

systèmes d’information passera par l’internet des objets. En effet, pour lui l’aspect cognitif doit

être le plus tôt possible pour générer de la valeur. En anticipant le futur volume de données

33 Annexe 8 : p.116

Page 57: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 56

mondiales en 2020, en grande partie due à l’augmentation du nombre d’utilisateur des réseaux

sociaux et à l’explosion du nombre d’objets connectés. Les masses de données à transférer

risquent de devenir trop importantes pour les infrastructures actuelles. Alors il sera nécessaire de

court-circuiter et d’analyser la donnée avant qu’elle ne pénètre les serveurs de stockage de

l’entreprise. Alors l’analyse devra être effectuée en local au niveau de l’objet pour permettre aux

serveurs de respirer. Selon le directeur de programme IoT, dans l’avenir, un super calculateur

comme Watson agira comme le noyau central et prendra les décisions majeures, et les objets

connectés seront capables de fonctionner intelligemment en autonomie, même en cas de perte de

synchronisation.

Respectant les lois de Moore, de Kryder et de Neilsen, le marché des nouvelles technologies va continuer son évolution et son développement par la baisse des coûts et par la miniaturisation des composants informatiques. Ainsi, l’insertion de puces et de microprocesseurs à l’intérieur des objets connectés sera un enjeu important pour IBM dans le but d’assoir son positionnement dans le cognitif business.

Page 58: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 57

a2. Open Data34 :

Provenance de la donnée ouverte ? Littéralement « données ouvertes » en Français, ce concept,

prônant la libération de la donnée individuelle est encore relativement peu connu dans le monde

l’entreprise. Son origine daterait de 1995 et proviendrait des Etats-Unis, ou son utilisation est

aujourd’hui à un stade avancé. Évidemment, les données clés à la protection gouvernementale

ne sont pas en accès libre et ne seront sûrement jamais ouvertes au grand public. Néanmoins, la

notion d’Open Data englobe la collecte de données « citoyennes » permettant le développement

économique et social d’une collectivité. Alors, une collectivité ou un gouvernement à tout intérêt

de favoriser la naissance de ce type d’initiative pour multiplier les sources de données

analysables et améliorer l’attractivité de leur zone économique. Il est donc clair que les données

proviennent de certaines applications privées utilisées par les citoyens et par des objets mis en

place par les municipalités pour collecter de la donnée (exemple : les caméras de surveillance).

Une stratégie publique/privée/citoyenne en gagnant/gagnant ?

34 Source : Formation IBM (Open Data as a platform for grow - Steven Adler /responsible for global IBM Information Strategy)

Page 59: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 58

Très souvent absente des sources potentielles de données du Big Data, cette opportunité de

données « en Open Source » permet à une organisation d’augmenter le volume et la véracité des

données analysées de façon non négligeable.

D’une vision « business », cette opportunité de données provient de la mise en circulation des

données « publiques » afin de soutenir l’implantation et la croissance des entreprises du secteur

privé. Déjà bien implantée en Amérique du Nord, cette notion commence à se faire une place en

Europe avec la naissance d’initiatives gouvernementales dans les pays d’Europe du Nord.

Néanmoins, l’effort de la part de l’Union Européenne doit encore s’intensifier pour rattraper le

retard pris sur le gouvernement américain. Nous pouvons par exemple citer la création du site :

http://open-data.europa.eu/en/data/ permettant de trouver des données des marchés européens et

placé en 4ème position du classement forbes35 des meilleures sources Open Data36 en janvier

2016, derrière trois plateformes américaines : http://data.gov (1er),

http://www.census.gov/data.html (2nd), Socrata (3ème). L’effort Européen est à poursuivre pour

offrir aux citoyens européens une offre open data de meilleure qualité. Pour preuve, la non-

accessibilité en mars 2016 aux serveurs de la plateforme européenne fraichement classée au

classement forbes.

Comme son nom l’indique, une donnée ouverte est une donnée qui peut être librement utilisée

par n’importe quelle organisation dans le but de compléter une analyse en Big Data et par

exemple de compléter une analyse de marché. Alors, cette source permet de répondre rapidement

et à moindre coût à des informations capitales pour assurer la viabilité d’une activité sur un

marché. Sur le marché Français, cette solution d’analyse est donc extrêmement intéressante pour

des entreprises de petite taille (Start-up, TPE-PME) pour acquérir une quantité des données

analysables en temps réel via des plateformes web pour acquérir un premier volume de données

ouvrant les portes du Big Data. Pour les plus grandes entreprises, ayant déjà lancé la carte du big,

cette opportunité permet de croiser les données existantes sur leurs serveurs afin de croiser leurs

données avec les données en open source mises à disposition sur la toile. Ainsi, l’open data

permet de soutenir une notion chère à IBM en appuyant la vélocité des données d’une entreprise

en augmentant la qualité des données analysées.

35 Source : http://www.forbes.com/sites/bernardmarr/2016/02/12/big-data-35-brilliant-and-free-data-sources-for-2016/#1e4c96ee6796 36 Autre plateforme de données US très intéressante (hors classement forbes) : Data USA http://datausa.io/

Page 60: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 59

- Exemple d’implantation d’une nouvelle structure commerciale :

Définition d’un lieu stratégique d’implantation : Connaitre les revenus des citoyens, le taux de

criminalité et les flux humain par quartier ?

En prenant cet exemple de la carte de

New York (ville pionnière dans le

domaine de l’Open Data), il est

possible de connaître l’impact de

l’ouverture de mon commerce dans

une rue. Il est ainsi possible d’enlever

de sa liste finale, les zones moins

attractives (forts taux de criminalité,

revenu moyen faible), pour privilégier

les quartiers et les rues permettant de

maximiser les chances de réussite de mon nouveau point de vente et par exemple d’obtenir plus

facilement un crédit de la part d’une banque.

Les données gouvernementales permettent donc aux organisations de tout secteur de comprendre

d’où vient le business local pour assurer la pérennité économique du secteur privé pour une

meilleure sérénité gouvernementale, nous pouvons donc parler de stratégie Gagnant/Gagnant.

D’un point de vue social, il est clair que cette stratégie d’Open Data accentuera les inégalités

entre les quartiers en favorisant l’accélération économique de certains. D’un point de vue

éthique, cette stratégie de favoritisme permet de cibler de manière précise les zones « faibles »

d’une ville afin de permettre aux collectivités locales de mettre en place des plans d’actions pour

inverser la tendance.

- Exemple d’amélioration de la qualité des données analysée :

Croisement des données de l’entreprise avec des données publiques en Open Sources ?

Pour améliorer la véracité des données d’une organisation, il est possible de croiser les données

provenant des serveurs de l’entreprise avec des données gouvernementales. Par exemple mieux

Page 61: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 60

connaître le profil de ses clients. Pour ce faire, une application : Fillr, permet de valider et de

compléter les informations personnelles pour posséder une meilleure véracité des données.

Une collecte de données gouvernementales pour un bénéfice d’utilisation universel et

social et économique ?La stratégie d’Open Data est déjà bien implantée aux USA. Pour faciliter

la vie des citoyens, cette démarche vise à s’étendre au reste du monde en démocratisant des

applications utilisant exclusivement des données ouvertes. Pour mieux comprendre le

phénomène de l’Open Data et anticiper la monté en puissance de ce dernier en Europe, ce

mémoire présente un tableau non-exhaustif d’applications existantes aux USA :

APPLICATION Utilité Publique 596 Acres

Lien : http://596acres.org/

Application Newyorkaise permettant de présenter les parcelles

cultivables autour de soi. Le but principal de cette application est

de promouvoir la souveraineté alimentaire de la ville. Le

fonctionnement est simple, la commune et les personnes

souhaitant prêter une parcelle de terre indiquent sa localisation sur

l’application pour informer les néo-jardiniers.

New York Trip Builder Lien :

http://NYTripBuilder.com

Application permettant de personnaliser son voyage. L’application

croise vos données personnelles avec les données de la ville pour

créer un itinéraire personnalisé en ne se concentrant pas

uniquement sur les « must see » de la ville.

Farmers Markets Cette application permet aux habitants de Chicago de mettre en

place des réseaux alimentaires en circuit court et bio, en

permettant aux producteurs locaux de communiquer en temps réel

leur positionnement géographique et leur marchandise.

GoChicago Lien : sur App Stores

Application permettant aux habitants de Chicago de trouver les

lieux leur permettant de s’épanouir dans leur ville en recevant des

notifications d’évènements et de lieux susceptibles de les

intéresser, en fonction de leur position géographique dans la ville.

Exemple : vous passez devant un congrès sur le thème du digital !

Autres Apps : WasMyCarTowed, Taxi Share Chicago, Chicago City Crime…

Page 62: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 61

Cette évolution numérique est en cours sur l’ensemble des parties du

monde. Pour preuve, une application mobile Africaine : « MedAfrica »

(http://medafrica.org/), qui a pour objectif d’améliorer la santé de la

population en analysant et en communiquant des données médicales

(trouver un médecin, trouver une place libre dans un hôpital, service

d’automédication, auto détection de pathologie par la formation…).

Gratuite, cette application a pour objectif de devenir la plateforme leader

sur le marché Africain.

Outre l’avancé de ce type de service, cette notion de données universelles peut permettre de

fournir aux citoyens d’autres avantages en transformant globalement le milieu urbain en offrant

par exemple un renforcement de la sécurité, de meilleurs moyens de locomotion (géolocalisation

des demandes de besoins de taxis pour mettre en place des solutions de transports en commun,

géolocalisation de besoins de rénovations routières, géolocalisation d’un incident bloquant la

circulation …).

Vers une utilisation ludique et artistique ? Des arbres connectés : dans le cadre d’un

programme pour améliorer la vie de ses citoyens, la ville de Melbourne (Australie) a affecté aux

arbres de la ville des e-mails afin que les habitants puissent signaler les branches mortes pour

encourager l’engagement civique et l’entretien de la ville. Très « romantique», à la place

d’envoyer les informations attendues, de véritables déclarations d’amour sont arrivées par

milliers sur les boîtes mails afin de déclarer leur flamme à leurs arbres adorés et à la nature. En

plus de recevoir ce genre de mails, d’autres messages plus basiques sont parvenus (comment

allez-vous ?, que pensez-vous de cela ?). Il est alors possible, en imaginant l’intégration d’une

intelligence cognitive pour répondre aux messages reçus, d’imaginer un monde où l’Homme

serait connecté aux arbres, ce qui risquerait de modifier la relation entre l’individu et son

environnement en encourageant les personnes à réaliser qu’il ne s’agit pas seulement de

« choses ».

Page 63: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 62

Malgré une période de crise et une dette mondiale grandissante, les gouvernements ne

seront pas à court de données. Dans un contexte de plus en plus mondialisé, cette dernière sera

un levier économique intéressant voir indispensable à étudier par l’ensemble des gouvernements

pour impulser la mise en place d’une stratégie d’Open Data au sein des collectivités locales pour

améliorer l’attractivité économique et sociale de zones clés.

Selon Jonathan Reichental37, l’implémentation d’une solution Open Data n’est pas si simple car

la donnée ouverte est plus qu’une évolution technologique, elle pousse en effet la porte d’une

évolution culturelle et sociale. “There’s nothing better than an informed populace” selon lui, la

transparence de données liée à l’implantation de ce type de solution peut régler des problèmes de

corruption et de criminalité en limitant les motivations d’actions malsaines par les concitoyens.

Dans le cadre de ce mémoire, nous ne rentrerons pas en profondeur sur le sujet des solutions et

des limites d’implémentation d’une solution Open Data.

a3. Les données des organisations :

Selon le site Planetoscope, les 2,5 milliards d’internautes à travers le monde enverraient 3

millions de mails chaque seconde, soit 200 milliards de mails par jours, ce qui représenterait

environ 90% des flux d’information présents sur les serveurs à travers le monde. Générés

principalement dans un cadre professionnel voir promotionnel (spam), ces mails constituent donc

aujourd’hui la majeure partie du volume de données de l’humanité.

Dans le monde de l’entreprise, les données proviennent de l’ensemble des services et après

analyse, guident les dirigeants dans la prise de décision. Pour encadrer le circuit de la donnée en

entreprise, des outils ont vu le jour pour structurer la donnée dans l’ensemble des services. Le

célèbre ERP (Enterprise Resource Planning)38 ou PGI (Progiciel de Gestion Intégré) en français,

et un logiciel de gestion d’entreprise présent depuis une vingtaine d’années qui permet (entre

37 Jonathan Reichental (CIO de la ville de Palo Alto « USA » et pionnier dans le développement de solutions Open Data). 38 Annexe 15 : Schéma ERP

Page 64: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 63

autre) de posséder une meilleure structuration de la donnée interne de l’entreprise. Il permet en

effet, d’assurer la disponibilité en temps réel de l’intégralité de la base de données à partir de

différentes applications, rattachées aux différents services de l’entreprise. Ce type de logiciel

permet donc d’améliorer la traçabilité et l’auditabilité des données de l’entreprise. Dans le cadre

de ce mémoire, il m’a semblé intéressant de de réaliser un léger focus sur l’ERP car il permet

également d’améliorer le traitement analytique des données en regroupant l’ensemble des

informations en apportant une évolution structurelle du système d’information de l’entreprise.

Alors pour nous aider à comprendre le parcourt de vie de la donnée en entreprise, ce mémoire

présente ci-dessous un tableau présentant les points importants guidant la donnée de

l’acquisition, jusqu’à l’analyse prédictive.

Pour une meilleure compréhension du sujet, il semble intéressant de comparer le parcours de la

donnée au parcours de traitement des eaux usées. Tout comme l’eau, la donnée a besoin d’être

acheminée, pour être traitée, contrôlée et diffusée, afin de rendre une ressource brute

« inemployable » en ressource clé pour l’entreprise. De plus, pour appuyer cette comparaison,

nous pouvons voir aujourd’hui une demande accrue du monde de la finance en profils maîtrisant

la mécanique des fluides pour optimiser la gestion de leurs données et gagner des microsecondes

d’analyse.

Comment les données sont-elles organisées ?39

Parcours de la donnée

Apports du Big Data et de l’analyse cognitive

1. Acquisition Acquisition de l’information interne

provenant des différents services

(finance, production, CRM, RH,

Supply chain…).

Augmentation du Volume de

donnée : Acquisition d’information

externe à l’entreprise (météorologie,

réseaux sociaux, open data …).

2. Traitement primaire

Traitement de la donnée afin de rendre

la masse de données internes

exploitables.

Filtrage des données et recherche de

corrélation entre la donnée interne et

la donnée externe de l’entreprise.

39 Annexe 14 : L’organisation des données

Page 65: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 64

3. Contrôle Contrôle de la fiabilité des données

avant la mise à disposition sur des

bases.

Augmentation de la véracité par une

augmentation du volume de données

pertinentes.

4. Organisation Organisation des bases opérationnelles

en fonction de :

a. La provenance de la donnée,

b. Son niveau de fiabilité.

IBM travaille aujourd’hui sur la mise

au point d’un outil cognitif capable

de gérer et d’organiser les données

d’une entreprise en total autonomie.

5. Diffusion Historiquement papier, le mode de

diffusion se digitalise depuis de

nombreuses années

Proposition automatique de tableaux

de bord stratégiques pour faciliter les

processus décisionnel.

Le monde de l’entreprise est dépendant de la donnée depuis l’apparition de la première entreprise

pour contrôler son niveau de performance et évaluer les évolutions de son marché. Aujourd’hui

le Big Data lié à l’intelligence cognitive ne déplace finalement pas la place de l’importance de la

donnée au sein de l’organisation, mais la réorganise par la bais des nouvelles technologies. Pour

augmenter son volume, sa variété et sa véracité, afin de prendre un temps d’avance en identifiant

dans un premier temps les problématiques récurrentes à l’analyse du niveau de performance

(prédiction de rupture : humaine ou d’objet), puis en anticipant dans un deuxième temps les

mouvements du marché afin de mener la stratégie globale d’un groupe.

Pour cela il est important de comprendre que cette évolution technologique ne peut venir que par

une amélioration de l’entreprise à la collecte de ses données internes, stockées sur un Data

Warehouse interne ou stockées en externe (Cloud). Puis par la connexion des données internes à

des données externes pour augmenter le volume de données à analyser, alors nous pouvons

parler de Data as Service. Pour visualiser cette approche, se reporter au schéma ci-dessous :

Relation entre la donnée interne et externe dans le cadre d’une analyse Big Data (avec IBM

Watson) :

Page 66: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 65

En résumé, le Big Data correspond bien à une réalité de l’usage de la donnée. Par son

changement d’échelle, ces nouvelles approches d’analyse de l’information, les entreprises

guident leurs architectures vers une centralisation numérique, centralisant la place de la donnée

dans l’entreprise.

a4. Les réseaux sociaux :

Présent depuis près de vingt ans, les réseaux sociaux ont considérablement modifié les usages

culturels, économiques et sociaux d’une grande partie de l’Humanité, ayant accès à Internet

(environ 40% de la population mondiale soit près de 3 milliards d’individus). En près de vingt

ans, les réseaux sociaux ont connu de grandes évolutions. À noter, une transformation

technologique majeure dans les pays dit « développés », par l’augmentation de la mobilité des

supports de connexion web grâce à l’arrivée des smartphones et des tablettes dans les années

Page 67: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 66

2000 (voir page 26 de ce mémoire) qui ont permis à l’individu de rester connecté 24h sur 24h

avec le reste de leurs communautés : amis, collègues ou membres du même centre d’intérêt.

Autre statistique importante démontrant l’impact des réseaux sociaux sur notre société : les

utilisateurs restent en moyenne (dans le monde), connectés durant 2h par jour sur les Réseaux. 2h

durant lesquelles de l’information est échangée, des giga-octets de données sont créés et des

publicités sont apparues sur les pages des utilisateurs. Un marché colossal !

Les grandes dates des réseaux sociaux : Nombre

d’internautes

dans le monde

Nombre d’utilisateurs de

réseaux sociaux

1997 Naissance du premier réseau social nommé

« Six Degrees ». Ce réseau et vécu 5 ans, son

objectif était de créer un profil et d’inviter

d’autres utilisateurs. Durant la fin des années

90, d’autres sites ont vus le jour aux US, en

Europe et Amérique du Sud.

10 millions N/A

2000 Boom d’Internet ! 100 millions N/A

2003 Arrivée de MySpace et de Linkedin 600 millions 1 million

2004 Arrivée de Facebook 750 millions 10 millions

2006 Arrivée de Twitter 1,2 milliards 50 millions

2010 Depuis 2010, arrivée d’autres acteurs majeurs :

Instagram, Snapchat, Google+, Pinterest

2 milliards 1 milliards

2016 Arrivée perpétuelle de nouveaux acteurs avec

un gout prononcé pour l’Uberisation40 de

l’économie.

3 milliards 2,2 milliards

Identifié comme un des principaux acteurs du Big Data, les réseaux sociaux sont capables de

fournir des volumes colossaux de données : tel que les commentaires et messages postés sur le

mur, les photos, les vidéos ainsi que tout autres contenus sous forme de texte accessible au

40 UBERISATION : copiant le modèle économique du groupe Uber, ce terme désigne le phénomène par lequel une start-up ou un nouveau modèle économique lié à l’économie digitale peut menacer et remettre en cause « rapidement » un modèle économique traditionnel.

Page 68: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 67

public, peuvent être extraits directement des sources des réseaux sociaux et mis à disposition à

des fins de reporting et d'analyse. L’analyse des sentiments est un nouveau challenge pour les

réseaux sociaux. Toujours en quête de matière brute analysable, les acteurs peuvent aujourd’hui

appréhender la confiance des consommateurs, rapidement et avec précision, en s'appuyant sur

des algorithmes complexes pour évaluer précisément l'intensité émotionnelle au sein de grands

volumes de textes, y compris les mises à jour de statut Facebook, les tweets, les blogs et les e-

mails.

90% de ses données sont non structurées, un des grands challenges du Big Data est de

structurer cette donnée afin de déduire des modèles prédictifs sur les marchés (effet de mode,

tendance politique…) afin de proposer aux utilisateurs connectées des publicités potentiellement

impactantes et de revendre des données clés à d’autres entreprises. Des algorithmes avancés

permettent aux acteurs d’analyser les termes et de détecter facilement les mots et les phrases les

plus populaires en découpant les phrases en éléments individuels, en supprimant les mots

communs et en affichant de manière visuelle les termes les plus significatifs et les plus

fréquemment utilisés. On estime en 2015 qu’environs 90% des données produites étaient non

structurées et que parmi ces données non structurées, 68% provenaient directement du consommateur (plus de 5 zettaoctets de données41). Des données de consommateurs qui

viennent en grande partie des réseaux sociaux.

Toujours une longueur d’avance, et en quête d’acquisition de

données. S’est par cette stratégie que Facebook (acteur numéro 1 des

réseaux sociaux en 2016), a lancé le 24 février dernier, une stratégie

permettant à ses utilisateurs de réagir à des posts avec cinq nouveaux

émoticônes, en plus du traditionnel bouton “like”. Permettant à

Facebook de connaître précisément votre avis en un simple clic

(“like”, “love”, “triste”, “en colère”, “amusé” ou “impressionné”), le réseau social trouve un

nouveau moyen de rentabilité, les recettes du bouton « like » étant déjà un des piliers essentiels

de l’activité de Facebook. Grâce à ce panel de six émoticônes, le groupe Américain aura à

présent une idée fixe en temps réel de vos émotions et de vos goûts, une potentielle mine d’or

41 Annexe 9 : p.116

Page 69: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 68

pour le groupe et ses partenaires publicitaires. D’où l’art de « gérer » nos émotions en BtoC pour

nous proposer des produits en fonction de nos humeurs ou en BtoB pour détecter le

mécontentement d’un de nos clients en le commentant négativement un post sur les réseaux

sociaux. Nous entrons alors en phase de prédiction, nous sommes en effet aptes à anticiper le

besoin d’un consommateur ou d’anticiper l’éventuelle perte future d’un client.

Le prix de nos données personnelles ? Le principe des Softwares as a Service est simple, si vous

ne payez pas directement le service sur internet (facebook, snapchat, instagram, Twitter …) alors

ce sont vos données personnelles qui permettent la rentabilité du service. Dans cette logique,

certains acteurs42 spécialisés dans l’analyse de données se sont fait une place en exploitant les

données des grands acteurs du web.

Le prix des données personnelles à un instant T :

Type d’information personnelle Prix unitaire Marché global

(2,2 Milliards d’utilisateurs)

Ö 1. (Âge + Adresse + Sexe) 0, 007$ 15 400 000 €

Ö 1 + 2. (Mariage) 0,107$ 235 400 000 €

Ö 1 + 2 + 3. (Enfant) 0,187$ 411 400 000 €

Ö 1 + 2 + 3 + 4. (Maladie) 0,447$ 983 400 000 €

Ö 1 + 2 + 3 + 4 + 5. (Sport) 0,552$ 1 214 400 000 €

Le marché des données personnelles est colossal, mais il reste inexploitable sans ressource

informatique et analytique performante. L’essor récent de l’analyse prédictive tient moins à des

percées dans le domaine des algorithmes prédictifs, qu’aux nouvelles opportunités qu’offre la

disponibilité des données en quantités massives, aujourd’hui apportée en grande partie par les

réseaux sociaux, demain par les capteurs de l’internet des objets. Pour l’heure la manne

financière amenée par les données personnelles n’est pas sans interroger nombre d’internautes

« citoyens » à travers le monde. C’est le cas de Federico Zannier, un internaute Italien qui a mis

ses données personnelles aux enchères à 2$ pour faire prendre conscience à la communauté du

42 ACXIOM = plus grand exploiteur de données au monde (CA : 1,7 milliard de dollars en 2015).

Page 70: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 69

web que leurs données sont utilisées pour réaliser des profits et qu’elles ont une valeur

intrinsèque. En attendant le grand boom de l’internet des objets, les grands acteurs des réseaux

sociaux vont pouvoir continuer à profiter de cette opportunité de capital provenant des données

et se positionnant sur une nouvelle niche : les réseaux sociaux d’entreprises43, poussés par la

montée en puissance de la génération « Y » dans le monde de l’entreprise, réclament de

nouveaux outils sociaux et collaboratifs permettant de réduire les barrière physiques et sociales

du monde de l’entreprise et de proposer de nouvelles méthodes de gestions de projet.

a5. Une avancée par le Cloud Computing :

Une définition du terme Cloud sera apportée dans la partie suivante de ce mémoire. Néanmoins,

acteur important de l’augmentation globale de la donnée, cette partie traitera l’impact du Cloud

Computing sur l’évolution de la donnée.

Facilitant l’accès aux infrastructures, l’informatique dans les nuages, est un des facteurs

important dans l’émergence du Big Data. Basé sur le concept de ressources ajustables (as a

service), par une durée indéterminée et un coût plus adapté, le Cloud Computing a ouvert de

nombreuses portes aux projets innovants en abaissant considérablement le coût des solutions

informatiques. Axe de communication important des fournisseurs Cloud, la plus part se retrouve

sur un argument de réduction du coût de l’infogérance classique pour permettre aux entreprises

de réinvestir en recherche et développement, garantissant ainsi un facteur clé de succès : une

meilleure capacité d’innovation. Nous parlons donc d’une externalisation de l’infogérance

classique possédée en interne de l’entreprise, software, application et infrastructure. Pour une

mise en commun des ressources stockées dans des data center de fournisseurs Cloud, proposant

des offres : Software as a Service – Application as a Service – Infrastructure as a Service.

Consommez ce dont vous avez besoin !

Alors, le Cloud Computing, une révolution économique mais pas technologique ? La réponse est

non, ce terme à largement sa place de cette partie du mémoire pour deux raisons :

43 Solution IBM : Réseau social d’entreprise = IBM Cloud Connections

Page 71: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 70

Premièrement, qui dit baisse des coûts, dit extension de la cible, et donc extension du nombre

d’entreprises pouvant se doter de nouvelles technologies, productrices de données. Car la

notion de « as a service » ouvre les champs des possibles technologiquement parlant à tous

types d’entreprises en terme de création, de gestion et d’analyse de données.

Deuxièmement, le Cloud Computing permet d’apporter des solutions Big Data en permettant

à l’entreprise de croiser ces données avec d’autres données (externes) d’origines très diverses

(météo, localisation, économie, tendances …) cf. schéma p67. l’informatique en nuage

permet d’entrer dans des domaines de croisement et d’études rarement tentés par le passé, en

combinant l’analyse de données internes avec des données externes pour en déduire des

conclusions prédictives.

Le Cloud laisse les non-technophiles perplexes. En effet, ce terme est très fréquemment reprit par

les communicants, faisant miroiter dans l’imaginaire collectif la chimère d’une hyper puissance

technologique provenant de l’au-delà ! En réalité, « tout le monde » fait du Cloud sans le savoir

depuis les débuts d’Internet. Le Cloud Computing étant défini par l’accès à une ressource

informatique quelque part dans le monde, nous pouvons alors en déduire que les premières

entreprises ayant utilisés l’e-mail pour échanger et stocker des fichiers dans les années 90, étaient

les entreprises pionnières du Cloud. Dans le cadre de ce mémoire, nous reviendrons

ultérieurement sur cette notion de démystification du mythe.

Pour refermer cette partie creusant les sources de la donnée, il n’est pas sans dire que le

contrôle de cette dernière est et sera un challenge primordiale dans la course technologique

menée par le cognitive business. La notion de sécurité étant un élément majeur du digital,

l’investissement humain et matériel pour réduire et contrôler les risques de sécurité, doit être en

rapport avec le volume de données exploitées par l’entreprise, et en rapport avec le degré de

sensibilité des données.

Page 72: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 71

b) Infrastructure Cloud :

Clé du mouvement de la donnée vers des structures externes, ce mémoire présente le phénomène

dématérialisant l’informatique en nuage.

Suite logique de l’informatique, le Cloud Computing permet à une entreprise d’avoir une

consommation en informatique (hardware comme software) en fonction de ses besoins, afin

d’être facturée comme elle pourrait l’être pour sa consommation d’eau ou d’électricité.

Beaucoup plus élastique que l’informatique originelle, le Cloud Computing permet à une

structure de se développer en lançant par exemple un nouveau service, sans investir dans

l’acquisition de serveurs, sans prendre en charge la partie réseaux et sans prendre en charge la

partie résilience44 du système. Et ce, de façon maniable, en fonction des besoins de

l’organisation. Pour cela, la DSI peut prendre la décision d’externaliser une partie de ses

ressources :

. Software as a Service : Logiciel en ligne,

. Plateform as a Service : Développeur

d’application en ligne,

. Infrastructure as a Service : Infrastructure

serveur et réseau en ligne.

L’informatique dans les nuages étant une nouvelle façon de délivrer les ressources

informatiques, ce mémoire présente l’émergence de cette technologie.

44 Résilience : capacité d'un système ou d'une architecture réseau à continuer de fonctionner en cas de panne (exemple : transmission des données vers un autre data center en cas de catastrophe naturelle sur le premier).

Page 73: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 72

b1. L’émergence du Cloud

Le Cloud Computing comme synthèse des évolutions précédentes : (Source: Cloud Computing, 2015, p.18)

Trois informations sont

identifiables sur ce

schéma :

Le premier est le

déplacement de

l’informatique

traditionnelle vers le Cloud,

Le second est la

monté en puissance des -

appareils mobiles,

le dernier est la

possibilité de connecter les

données internes de

l’entreprise avec des applications externes pour profiter de leur puissance d’analyse à

moindre coût.

En proposant l’hébergement de services (logiciel, réseau et stockage) sur des plateformes

accessibles depuis Internet, le Cloud Computing est « simplement » un aboutissement

technologique, permettant la virtualisation (l’externalisation) des ressources informatiques. Tout

comme ce fut le cas pour l’acheminement de l’eau par des aqueducs dans l’Antiquité, nul besoin

de creuser son propre puits pour y trouver ses ressources vitales, les ressources sont acheminées

automatiquement.

Comme il s’avère souvent plus facile de déconstruire plutôt que de comprendre la transition vers

le Cloud d’une multinationale, ce mémoire présente ci-dessous les évolutions technologiques

menant vers le Cloud en analysant le transfert progressif des logiciels (SaaS) puis de

l’infrastructure globale : serveur, stockage et réseau (PaaS + IaaS) vers Internet :

Page 74: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 73

Cette évolution numérique n’arrive pas sans interpeler les DSI, en effet, malgré son aspect

idyllique par la réduction des coûts et par la rapidité des processus. Deux questions légitimes se

posent :

1. la sécurité des données par la localisation et le partage des serveurs,

2. le temps de calcul causé par la distance entre les serveurs et l’entreprise.

Page 75: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 74

Pour cela, des décisions doivent être prises en mesurant le risque lié à chaque opération. C’est

ainsi par exemple, que la DSI de la Bourse de Paris a délocalisé ses serveurs à Londres pour

gagner des microsecondes d’analyses sur les mouvements boursiers de la capitale anglaise.

En prenant en compte l’ensemble des besoins de l’entreprise, il importe de prendre des décisions

adéquates pour poursuivre la bonne stratégie Cloud en mesurant l’impact potentiel de la prise de

décision sur le chiffre d’affaires ou sur la réputation de l’entreprise. Il est par exemple évident

qu’une société de vente en ligne prend un risque très élevé en transférant le cœur de l’activité de

son site sur le Cloud, car pour elle, le moindre problème de connectivité sur leur interphase web

équivaut à la rupture pure et simple du contact avec leurs clients. En contre-exemple, dans le

cadre de la gestion de ressources internes (applications de comptabilité, de paye, de gestion des

plannings, de gestion de projet…), un risque de rupture de connectivité peut être acceptable car

elle n’a pas d’impact direct sur le business de l’entreprise. C’est pourquoi, plus que jamais, la

DSI est le point névralgique de l’entreprise et suppose donc d’être mise en relation directe avec

l’ensemble des acteurs afin que l’entreprise puisse évoluer vers une transition digitale Cloud.

Pour faire ces choix, la DSI peut faire le choix entre trois types de Cloud :

b1.1 : le Cloud public : est un mode de consommation de l’informatique par la

mutualisation des ressources : serveur, stockage, réseau et licence de logiciel.

L’infrastructure et les données sont exclusivement stockées chez un tiers (fournisseur de

Cloud), l’infrastructure est managée par le fournisseur et peut être partagée avec d’autres

organisations ou individus, en fonction de la place disponible sur le Data Center.

Ö Avantage : solution la moins onéreuse (consommation nette = facture) – une simple

connexion internet suffit – pas de nécessité de créer un réseau privé.

Ö Inconvénient : une sécurité « limitée » par un partage des ressources – une rapidité de

calculs amoindris par la distance entre le data center et l’entreprise.

b1.2 : le Cloud privé : a. Cloud privé managé : l’infrastructure et les données sont stockées chez un tiers

(fournisseur de Cloud), néanmoins, un espace précis est mis à la disposition

exclusive de l’entreprise.

Page 76: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 75

Ö Avantage : amélioration de la sécurité par la privatisation des ressources dans le data center

+ management des services par le fournisseur de Cloud. Ö Inconvénient : figeant des ressources dans le data center, cette solution Cloud est plus

onéreuse qu’une solution Cloud public.

b. Cloud privé interne : l’infrastructure et les données sont géographiquement situées

dans le périmètre de l’entreprise. Ö Avantage : amélioration de la sécurité par le management interne des ressources dans les

locaux de l’entreprise + amélioration du temps de calcule grâce au rapprochement

géographique des ressources. Ö Inconvénient : utilisant les normes et les standards du fournisseur Cloud, l’entreprise prend

le risque d’une certaine dépendance envers les technologies utilisées par le fournisseur – plus

adaptée au client, cette solution Cloud est la plus onéreuse

Pour mieux comprendre les grandes différences entre Cloud privé et Cloud public, ce mémoire

expose un tableau présentant l’orientation stratégique IT de certains secteurs d’activités :

Secteurs Raisons

Cloud Public Société de transport Données peu sensibles et risque de panne

d’infrastructure acceptable

Cloud Privé (managé)

Site de ventes en ligne Infrastructure non partageable car non-

tolérance du modèle économique à une

rupture d’accès au site.

Cloud Privé (interne) Banque, Finance et Santé Besoin maximal de sécurité des données.

Ce tableau est à analyser à titre d’exemple, les entreprises de tout secteur préfèrent aujourd’hui

opter pour une solution de Cloud Hybride, reprenant les différents types de Cloud, plus ou moins

adaptés aux différents besoins de l’entreprise.

b1.3 : le Cloud Hybride : est un mode de fourniture de services Cloud qui s’appui sur

des ressources mixtes apportées par différents fournisseurs :

= [Cloud Public] + [Cloud Privé (managé) + Cloud Privé (interne)] + [IT interne]

Page 77: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 76

La solution de Cloud hybride, plus flexible, est aujourd’hui très appréciée par le client. En effet,

même si le fait de partager vos ressources personnelles (covoiturage, colocation, achats

groupés…) vous permet de réduire vos dépenses, vous n’avez surement pas envie de partager

n’importe quoi avec n’importe qui ! Dans cette même logique et grâce au Cloud hybride,

l’entreprise peut décider de partager une partie de ses ressources informatiques (serveur,

stockage, réseau ou licence) et de garder sous sa coupe, la gestion du reste de ces ressources.

Cela permet aux entreprises de stocker des données protégées ou avec privilèges dans un Cloud

privé, tout en conservant la possibilité d'exploiter les ressources informatiques du Cloud public

pour exécuter des applications reposant sur ces données.

Une transition en douceur vers le Cloud semble impérative malgré la rapidité du marché.

En effet, les risques sur l’ensemble de l’entreprise doivent être connus et mesurés afin de prendre

les décisions nécessaires au fonctionnement de l’entreprise. Cette transition est aujourd’hui

souvent nécessaire. Parce qu’il est vecteur de gain de productivité et qu’il évolue dans un secteur

plus ou moins concurrencé, le Cloud Computing se révèle être souvent un moyen pour les

entreprises de rester dans la course afin d’atteindre des coûts de productivité permettant aux

commerciaux de proposer des prix susceptibles de contractualiser des opportunités de marché.

Les DSI doivent alors composer des formules Cloud en fonction des enjeux et des risques

rattachés à chaque logiciel (Software), à chaque plateforme de programmation et à chaque pièce

d’infrastructure (serveur et réseau), consommable aujourd’hui en fonction des besoins de

l’entreprise : « as a Service ».

b2. Cloud SaaS (Software as a Service)

Cette partie de Cloud et la dématérialisation du CD-ROM ont rendu possible l’installation et

l’utilisation d’un logiciel. Qu’ils permettent de manager la paye, la comptabilité ou le

recrutement, les logiciels ont longtemps été utilisés de façon aléatoire dans le temps et le plus

fréquemment, seule une partie des fonctionnalités était utilisée. Alors, pourquoi ne pas proposer

une offre de logiciel à distance, comme un service consommable ? C’est exactement l’objectif du

« Software as a Service », qui consiste à louer un logiciel ou une de ses fonctionnalités, sur une

période précise, en fonction des besoins du client.

Page 78: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 77

La différence entre SaaS et logiciel est importante. Le SaaS est disponible directement sur

Internet sur tout type de support (PC, Smarphone et tablette), il permet de profiter de ses

fonctionnalités sans passer par une étape d’installation, et sans aucune tâche de maintenance.

D’autre part, les SaaS sont conçues pour une utilisation simultanée par un grand nombre de

collaborateurs. Ceci permet par exemple à plusieurs prestataires de service de travailler en temps

réel sur le même projet. La plus part d’entre nous utilise ce genre de technologie depuis plusieurs

années. Le très populaire Microsoft Office 365 permet de travailler en ligne sur des outils tels

que « World » ou « Excel », de partager et de collaborer en temps réel avec potentiellement

plusieurs centaines de personnes sur le même fichier. L’éditeur américain propose également une

solution d’analyse de données BI (Business Intelligence) avec la mise en SaaS de son logiciel

Power BI. Ainsi, nul besoin pour une société d’investir dans des machines performantes pour

utiliser un système Microsoft Office et un système d’analyse BI, une simple tablette connectée à

internet permet de modifier et de visualiser des données en profitant de la puissance de calcul des

serveurs des data centers. Ce modèle est identique pour les autres logiciels de création, de

gestion et d’analyse, disponibles en SaaS.

L’évolution du marché a poussé les

éditeurs vers un nouveau modèle en

transformant petit à petit à « opérateur

SaaS ». En effet, leur travail ne

consiste plus à produire puis vendre un

logiciel. Aujourd’hui, ils doivent

développer une solution en ligne puis

vendre des logins45 capables d’accéder

à cette solution sur une période définie.

(Source: Cloud Computing, 2015, p.23)

« Pay as you Go », par cette logique, l’entreprise ne paye plus une licence complète mais le

nombre de connexion à l’outil ou le volume de consommation des fonctionnalités.

45 Loggin : processus par lequel un individu possède un accès sécurisé à une application.

Page 79: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 78

Le canal d’accès aux applications étant internet, la nécessité d’une connexion rapide (fibre) est

aujourd’hui vital au fonctionnement d’une entreprise utilisant les fonctionnalités du Cloud.

b3. Cloud PaaS (Platform as a Service)

« Platform as a Service » ou plateforme sous forme de service correspond à la location de

plateforme technique, permettant l’exécution de code pour développer des applications. Les PaaS

s’adressent donc aux développeurs.

Cette expression désigne donc une plateforme d’exécution hébergée par un fournisseur de Cloud

et possible d’accès depuis internet. Grâce à cette plateforme, il est possible de développer des

sites Internet, des SaaS ou toute autre application de gestion spécifique à chaque entreprise.

Ce type de service permet d’externaliser le développement des applications et le stockage des

données en relation, en gardant le contrôle des actions par la présence des développeurs, restés

en interne de l’entreprise. Ainsi, les API (applications) sont hébergées sur le PaaS tout en étant

intégrées au système d’information de l’entreprise.

La facturation de ce type de prestation est relativement simple et dans l’esprit du Cloud

Computing. « Pay as you Go », les Applications développées en PaaS sont facturées à

l’entreprise selon la consommation de CPU46, de réseau (bande passante, volume…) et d’espace

disque utilisé.

Point important en termes de dépendance, les applications développées en PaaS sont exécutées

selon le langage défini par le fournisseur. Rendant difficile une migration des API sur un serveur

Windows ou Linux en entreprise.

Dans l’approche PaaS, le fournisseur ne procure pas seulement un environnement d’exécution

déporté, mais également un service d’infrastructure en lien avec l’application.

46 CPU : central processing unit (unité centrale de traitement)

Page 80: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 79

b4. Cloud IaaS (Infrastructure as a Service)

IaaS ou infrastructure sous forme de service, présente une forme de location technique,

permettant l’exécution d’architectures applicatives complètes : base de données, serveurs

d’applications…). Cette forme de Cloud s’adresse donc aux équipes d’exploitation.

Tout comme le PaaS, l’IaaS désigne une plateforme d’hébergement exploitée par un opérateur et

accessible depuis Internet. Ce type de plateforme peut être utilisé pour héberger un logiciel

acheté auprès d’un éditeur (ERP, CRM…), ou un progiciel développé en interne. Contrairement

au PaaS, tout type d’architecture peut être déployé sur une plateforme IaaS. Cette liberté

nécessite des compétences sur l’administration de systèmes d’exploitation et de serveurs. Cette

forme de Cloud s’adresse donc à des administrateurs et non à des développeurs.

PaaS versus IaaS : le PaaS permet à une entreprise de se concentrer sur le développement de

son application, sans se soucier de la partie administration de systèmes d’exploitation et de

serveurs. Les start-ups préfèrent généralement ce type de solution car il leur permet de focaliser

leur recrutement sur des développeurs et de laisser la gestion de la partie administration de

systèmes d’exploitation et de serveurs au fournisseur de Cloud. D’autre part, les applications

développées en PaaS sont facturées à la consommation processeur réelle, contrairement à l’IaaS

facturé sur une période définie. À titre d’exemple, dans le cadre d’une application n’ayant pas

d’utilisateur la nuit, le choix du PaaS est donc préférable.

Cette révolution de l’usage simplifie l’accès technologique aux entreprises à partir d’une

simplification de l’accès par une simple interface web et d’une baisse des coûts de licences,

provoquée par une globalisation du marché et une mutualisation de l’outil. Dans cette

perspective, nous pouvons alors imaginer un niveau d’accessibilité acceptable des petites

Page 81: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 80

entreprises à des logiciels de hautes performances (calcul, analyse prédictive, cognitif…) d’ici

quelques années.

En poussant la logique du Cloud SaaS et en suivant une logique d’externalisation de la ressource

informatique qui devient accessible par des Internet, il est à prévoir une montée en puissance de

matériels simplement pourvus d’une interphase web et totalement incapables de générer ou de

calculer de la donnée. Ainsi, sans système d’exploitation interne, mais grâce à un accès direct

aux fonctionnalités de logiciels SaaS, Google est d’ores et déjà capable de fournir un appareil

ressemblant à un ordinateur portable pour moins de 150$ : le Chromebook. Ces perspectives

risquent de faire encore évoluer fortement le marché du Cloud en ouvrant au plus grand nombre

l’accès privatif à l’interphase web et en multipliant la demande de login sur les logiciels SaaS.

Si l’on projette plus avant notre réflexion en considérant l’arrivée de la véritable rupture

technologique qu’est l’ordinateur quantique47 permettant de multiplier par 100 millions la

puissance des ordinateurs classiques. Il ne serait pas illogique que le Cloud de demain soit

l’accès à des applications utilisant les performances d’un super ordinateur multipliant les

possibilités de calcule d’une entreprise classique et anéantissant au passage la problématique de

distance entre l’entreprise et le data center.

Travaillant sur ces deux aspects, Google devrait guider rapidement le marché de l’informatique

vers un nouveau modèle permettant à des machines dépourvues d’intelligence et ressemblant

étrangement à des ordinateurs, à des smartphones et à des tablettes, d’accéder à une puissance de

calcul fabuleuse et à un ensemble de services en ligne proposés par les géants du web. Le marché

entrerait dans une nouvelle ère, où le hardware devrait définitivement basculer du côté du Cloud,

ne laissant que des interfaces visuelles au sein des entreprises. Alors, la question de la propriété

des données serait plus que jamais d’actualité !

47 Présentation en décembre 2015 du premier ordinateur quantique par Google. Installé dans le centre de recherche Ames de la Nasa dans la

Silicon Valley, le super ordinateur « D-Wave 2 » démultiplie la puissance originelle de l’informatique et pousse la porte de nombreuses

possibilités spatiales, aéronautiques, militaires ou financières.

Page 82: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 81

b5. Les couts cachés d’une offre Cloud

Globalement, le Cloud est vecteur de gains de productivité par l’externalisation et la

mutualisation de ressources IT. De source IBM, le Cloud Computing permettrait en moyenne de

réduire les coûts d’infogérances d’une entreprise de 56%. Du point de vue d’une multinationale,

cette manne financière peut représenter plusieurs dizaines de millions d’euros par an.

Néanmoins, une mauvaise compréhension d’un contrat ou un mauvais suivi des processus

d’exécution peut mener l’entreprise fraîchement digitalisée vers des coûts cachés, rendant les

nuages du Cloud quelque peu orageux. Notre mémoire présente ainsi ci-dessous une liste des

coûts cachés à ne pas négliger dans le cadre d’une transition d’une infrastructure IT vers le

Cloud :

Frais supplémentaires sur le transfert de données : surfacturation due à un « download » et à

un « upload » de données décapant la capacité de bande passante négociée contractuellement.

Frais d’accès aux disques de données : surcoût provenant d’une négociation de nombre

d’accès aux disques trop faible pour un type d’utilisation.

Coût du dépassement de la capacité de stockage des données : tout comme une facture

téléphonique, les fournisseurs de Cloud n’hésite pas à fortement sanctionner les entreprises

dépassant les frontières contractuelles.

Coût de réversibilité en cas de rupture du contrat : Extrêmement important et fréquemment

négligé par les DSI en quêtes de gains de productivité, la notion de réversibilité doit être une

priorité en cas de rejet de l’ensemble ou d’une partie de la migration de l’écosystème IT vers

le Cloud. Virtualisant en partie les ressources informatiques (humaines et matérielles), il est

facilement compréhensible qu’un retour en arrière concernant la réintégration de

compétences humaines et de la totalité d’une infrastructure IT dans une entreprise, peut avoir

Page 83: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 82

des conséquences économiques et potentiellement sociales qui se révèleraient dramatiques

pour un groupe.

Pour IBM, le Cloud Computing est une véritable opportunité de marché. Néanmoins, il reste un

marché comme les autres, où la satisfaction client est la clé de la réussite. Ainsi, il est du devoir

des Ingénieurs Commerciaux, d’accompagner les DSI vers une signature de contrat en accord

avec leurs attentes, et vers une évolution d’infrastructure IT sûre en réduisant les risques

d’échecs et en apportant une véritable plus-value finale pour les utilisateurs finaux des

applications.

Page 84: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 83

c) Analyse de la donnée :

L’augmentation exponentielle du volume de données accessible aux entreprises apporte de

nouvelles perspectives d’analyse et de nouvelles perspectives de marchés. Grâce à l’arrivée des

réseaux sociaux, à la mobilité des outils, à la connectivité grandissante des objets, mais encore

grâce à une baisse exponentielle des coûts de l’IT, le volume de données mondiales devrait

dépasser les 10 zettaoctets d’ici 2020 (pour rappel, multiplication par 10 du volume de données

entre 2010 et 2020). Perçu par certain comme nouveau fléau ne causant qu’une source

supplémentaire de pollution due à une présence accrue de Data Centers très énergivores, ce

“déluge” de données est néanmoins considéré par d’autres comme une manne analytique

encore largement inexploitée qui permettra, dans un futur proche, de réinventer de nouveaux

modèles économiques et éventuellement sociaux. Cet état de fait pousse les développeurs de

logiciel et la création de nouveaux outils, dépassant largement les compétences de l’ancestral

Excel et des presque dépassés outils de BI (Business Intelligence). Pour comprendre cette

évolution analytique, nous présenterons dans cette partie :

l’évolution des outils d’analyses et leur contexte technologique,

quels sont les perspectives analytiques des explorations Big Data,

une présentation concrète du Machine Learning.

c1. L’évolution de l’analyse

En quelques décennies, l’évolution de l’informatique a démultiplié les capacités analytiques des

entreprises. Des premiers tabulateurs datant du début du siècle dernier, jusqu’au fameux

tableur de Microsoft (Excel) très largement démocratisé dans les années 1990, une véritable

rupture technologique soutenue par une montée en puissance du Cloud Computing et une

augmentation générale du volume de données permet aujourd’hui d’entrevoir de nouvelles

perspectives d’analyses, traduites chez IBM par le lancement d’une nouvelle stratégie : le

Cognitive Business.

Page 85: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 84

Afin de comprendre cette évolution digitale, nous proposerons ci-dessous un schéma

démontrant l’importance de trois ruptures numériques qui participent aujourd’hui de la

montée en puissance du Cognitive Business :

Internet dans les années 1990,

L’arrivée du Cloud en fin des années 2000,

La monté en puissance actuelle du Big Data.

Evolution de l’infrastructure et de l’analyse de données entre 1990 et 2016 :

Ainsi, une connexion du monde par Internet, additionné à une augmentation du volume de

données et à une virtualisation de l’infrastructure IT et des logiciels, permettent aujourd’hui à

IBM d’axer sa stratégie sur un outil : Watson (logiciel disponible en SaaS), capable d’analyser

des volumes de données extrêmes, de compiler de grands ensembles de bases de données et de

Page 86: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 85

les mettre en correspondance, afin de renforcer des associations entre les données et d’en déduire

des analyses prédictives.

c2.Les perceptives analytiques

Pour rendre compte cette évolution, nous voudrions tenter de comprendre, par exemple, ce que

cette nouvelle technique d’analyse peut apporter à un service ressources humaines dans le cadre

d’une analyse de problèmes relatifs à l’absentéisme :

Exemples Outils

Années 1990

Recensement des absences par le bais

d’extractions manuelles sur BD grâce à des

tableaux croisés dynamiques et des formules de

recherches (V-H LOOKUP)

Excel

Années 2000 Recensement des absences par le bais

d’extractions automatiques sur BD et

visualisation automatique de Dashboards.

Outils BI

Post 2016

DONNEES 100% INTERNES : Identification des causes majeures de

l’absentéisme par une analyse internes des

données et présentation automatique du résultat

sous forme de Dashboards.

DONNEES INTERNES + EXTERNES : En ajoutant des données externes à l’analyse

provenant par exemple des réseaux sociaux, une

entreprise peut trouver d’autres corrélations entre

le comportement des salariés sur les réseaux

sociaux et leur taux d’absentéisme.

Machine Learning

L’analytique franchit un cap majeur en accompagnant le management dans le cas des

recherches de la source de la problématique.

Page 87: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 86

Ce type d’analyse ne s’arrête pas aux ressources humaines mais s’étend à l’ensemble des

services de l’entreprise et a de fortes répercussions sur la relation entre le client et l’entreprise.

Ci-dessous apparaissent des exemples concrets qui permettent de donner vie à la donnée :

Apports possibles de cette nouvelle technique analytique à d’autres services de l’entreprise :

Service Commercial Analyse des réseaux sociaux (Facebook and Twitter) pour comprendre en

profondeurs les choix des consommateurs : leurs comportements, leurs

préférences et la perception qu’ils peuvent avoir d’un produit ou d’un service.

Service Communication

Analyse de réactivité à une campagne publicitaire en étudiant en temps réel le

nombre de vues, le nombre de « like » et le nombre de partage sur les réseaux

sociaux.

Mesure en temps réel de l’image dégagée par l’entreprise.

Identifier les consommateurs possédant une image négative du groupe afin de

mener des actions correctrices de communication.

Service Marketing

Aide aux choix d’une nouvelle collection de produit. Proposition en pré-

saison, à une cible définie, d’une collection « élargie » produite en petite

quantité, puis lancement en saison des produits les plus commandés.

Maketing Viral : détecter les potentiels susceptibles d’avoir une influence

positive, c’est-à-dire, enthousiastes vis-à-vis de la marque ou d’un produit,

afin de lancer un programme de recommandations.

Service Production

Surveillance des données provenant des machines de production en temps

réel, pour détecter des changements dans les flux de données et anticiper une

intervention technique ou un remplacement de matériel.

Analyse des réseaux sociaux pour détecter une problématique de production,

en identifiant une récurrence de problématiques sur un produit.

Anticipation des capacités de production et de stockage.

Page 88: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 87

Nous pouvons voir grâce au tableau présenté ci-dessus, la place importante des réseaux sociaux

dans ce type d’analyse.

Pour réaliser ce type de recherche, des outils sont indispensables à la quête et à l’analyse des

données. Ce mémoire présente dans la prochaine partie, un élément clé de ce type d’analyse : le

machine learning.

c3. Le Machine Learning

Pronostiquer le comportement militaire d’un ennemi, anticiper l’arrivée de la pluie pour

organiser le cycle de semence ou prédire les phénomènes de marée : la quête de compréhension

de l’univers et la quête de prédictions ne sont pas nouvelles à l’échelle de l’humanité.

Aujourd’hui, parce qu’ils participent de la conquête de nouveaux marchés ou d’élections

présidentielles, les outils d’analyses se tournent vers cette récente immensité de données qu’est le

Big, pour anticiper les mouvements de chacun.

Dernière partie des principaux composants du Big Data, cette présentation du machine learning

est un prélude à la dernière partie du mémoire. En effet, située au cœur de la stratégie du groupe

IBM, cette technologie permet de mieux comprendre l’univers dans lequel une entreprise ou un

gouvernement évolue par le biais de statistiques et d’algorithmes très poussés. Dans le cadre de

ce mémoire nous n’entrerons pas dans le détail des différents algorithmes, néanmoins le modèle

de régression linéaire48 semble le modèle algorithmique le plus utilisé par les ingénieurs.

La montée en puissance du machine learning ne s’explique pas par la découverte de nouveaux

algorithmes. En effet, cette technologie utilise des formules connues depuis parfois plusieurs

décennies, mais mises récemment en lumière par l’arrivée d’ordinateurs suffisamment puissants

pour calculer des systèmes de grandes tailles, et bien sûr, par l’arrivée de bases de données de

grandes tailles caractéristiques du Big Data.

48 Algorithme de régression linéaire = l’erreur de prédiction est définie comme la somme des carrés des écarts entre les observations et les prédictions.

Page 89: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 88

Dun point de vu conceptuel, selon Yann LeCun49 : « le Machine Learning est

un phénomène d’apprentissage automatique de la machine, consistant à

trouver le minimum d’une fonction, en ajustant ces paramètres de manière à

minimiser l’erreur moyenne que produit la machine ».

En d’autres termes, et selon Pirmin Lemberger50 : « le Machine Learning

(ML) est un ensemble d’outils statistiques ou géométriques et d’algorithmes

informatiques qui permettent d’automatiser la construction d’une fonction de

prédiction f, à partir d’un ensemble d’observations que l’on appelle

l’ensemble d’apprentissage ».

Le ML est donc une nouvelle discipline se nourrissant de plusieurs sciences et de nouvelles

technologies : l’analyse statistique, l’intelligence artificielle et l’IT. Ce mémoire défini alors le

ML de la façon suivante :

le Machine Learning est une démarche d’apprentissage automatique d’un ordinateur par la lecture de la donnée, permettant de calculer des hypothèses prédictives et de comprendre des phénomènes observés. Afin de construire des systèmes d’aide à la

décision se basant sur des calculs algorithmiques provenant de grands volumes de données. D’autres termes sont fréquemment utilisés pour employer cette notion de ML : le Deep learning et l’intelligence artificielle.

Pour imager de façon biologique le ML, il est intéressant de reprendre l’image des ingénieurs

ayant copié les caractéristiques de l’oiseau pour produire les premiers avions. De fait, les

ingénieurs étudient aujourd’hui le fonctionnement du cerveau humain pour reproduire sa

fameuse analyse cognitive.

De quoi se nourrit le Machine Learning ? Le ML est capable d’analyser des volumes

colossaux de données présents généralement sur les serveurs des géants Américains du web. Il

est capable de reconnaître différents types de données présentes sur la toile :

reconnaissance de textes,

49

Yann LeCun = directeur de la division Intelligence artificielle de Facebook et professeur à l’Université de New York, 50 Pirmin Lemberger = Data Scientist et auteur de l’ouvrage « Big Data et Machine Learning ».

Page 90: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 89

reconnaissance de forme (photo et vidéo),

reconnaissance de la parole (discours).

A titre d’exemple, le géant des réseaux sociaux Facebook, collecte chaque jour près de six cents

millions de photos. Il s’agit d’une manne énorme d’analyse pour le géant Américain qui est

capable de reconnaître le visage de ses utilisateurs par le biais du logiciel Deepface (encore non

utilisé en Europe pour cause de non maturité du marché).

Imaginez alors ce que « certains » peuvent analyser et comprendre sur votre style de vie en étudiant vos conversations, vos posts, vos images et vos vidéos postées sur les réseaux sociaux ?

A titre d’exemple, l’analyse par la reconnaissance de formes existe déjà en banque depuis de

nombreuses années pour reconnaître automatiquement le montant des milliers de chèques

déposés chaque jour. Aujourd’hui, d’autres perspectives d’analyses s’ouvrent à l’humanité par le

biais de la reconnaissance de formes. Notamment dans le monde médical, où ce système est

utilisé pour analyser des radiographies ou pour identifier des cellules infectées et des mélanomes

sur la peau.

D’autres possibilités s’offrent aux plus technophiles d’entre nous, en domotique la possibilité de

posséder des robots capables de reconnaître et d’analyser leur propriétaire ou la possibilité de se

déplacer par le bais d’une analyse vidéo en temps réel. Cette fameuse technologie ouvre la porte

à deux nouvelles innovations technologiques très controversées et liées au déplacement

autonome des objets par la reconnaissance de forme sur vidéo :

les véhicules autonomes : des investissements

importants sont réalisés depuis plusieurs années par

les grands groupes automobiles et d’autres acteurs

tels que Google et Uber. Ce type de véhicule est

aujourd’hui capable de se déplacer seul par le biais

de capteurs, néanmoins un point important pose

encore la question de la viabilité de ce projet : la

responsabilité en cas d’accident.

Page 91: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 90

les robots bipèdes et quadrupèdes développés par Boston

Dynamics (une société rachetée par le groupe Google). Ils

sont capables de se déplacer au sol à plus de 40

kilomètres/heure. Contrairement au drone, ils se déplacent

en totale autonomie et choisissent leur cible grâce à des

algorithmes identifiant un individu ou un véhicule comme

ennemi par le biais de capteurs vidéo51.

Pour mieux comprendre les controverses et le futur bouleversement social résultant de l’analyse

du Big Data par le machine learning, décryptons par exemple l’analyse d’un film réalisable par

le biais de cette technologie. Puis remplaçons ce film par votre nom, présent sur les réseaux

sociaux et sur les moteurs de recherches :

FILM DONNEES PERSONNELLES

Visionnage du film, Visionnage des données,

Enregistrement et stockage des paroles du

film,

Enregistrement et stockage des textes, des

photos, des vidéos et des paroles

comportant votre nom,

Analyse du film. Analyse de votre style de vie, de vos goûts,

de vos orientations.

Un autre enjeu important a été soulevé par Yann LeCun et par Pirmin Lemberger :

l’apprentissage non supervisé. Contrairement au modèle actuel de machine learning,

l’apprentissage supervisé suppose que l’ordinateur soit entraîné par l’homme pour reconnaître un

objet. Dans le cadre de l’apprentissage non supervisé, l’ordinateur parviendrait de lui-même à

regrouper les informations et à apprendre sans un entraînement donné par l’homme. Alors, nous

pouvons imaginer que la machine pourrait être capable de créer des programmes en totale

autonomie, ce qui constituerait un danger pour le contrôle de notre vie privée et de notre

économie. C’est d’ailleurs ce qui constitue l’origine d’une des grandes controverses

eschatologiques de Stephen Hawking.

51 Annexe 10 : p.117 : Système de calculs automatisés pour véhicule par capteurs vidéo.

Page 92: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 91

2. IBM à l’ère du Cognitive Business :

a. Définition :

IBM est entré dans l’ère du Cognitive Business. Cette nouvelle stratégie s’appuie sur la

puissance de calcul d’un nouvel outil créé par les chercheurs du groupe : IBM Watson. L’objectif

de cette stratégie est de permettre aux partenaires IBM de posséder un outil capable de

comprendre des phénomènes et de prédire des tendances avant qu’elles ne voient le jour. Cette

stratégie est rendue possible par la mise en relation de données internes de l’entreprise et de

données provenant du reste de toile.

b. Un nouveau marché 52 :

A la recherche d’un océan bleu en se différenciant fortement de la concurrence, c’est ainsi

qu’IBM souhaite convaincre de nouveaux partenaires, en proposant ses nouveaux logiciels

utilisant l’intelligence cognitive. Big Blue souhaite impacter dans un premier temps, le monde

Médical, dans un second temps, le monde Industriel, puis dans un troisième temps, le monde au

sens large du terme. Selon Ginni Rometty, « le marché du cognitive Business représente à long

terme plusieurs centaines de milliards de dollars. Dans le même temps, ce marché devrait

permettre au groupe IBM d’engendrer 200 Milliards de chiffre d’affaires par an (d’ici les

prochaines années) ». Durant cette annonce stratégique, Ginni Rometty a particulièrement

insisté sur le fait que l’ancien cheval de bataille nommé CAMSS (Cloud, Analytics, Mobility,

Security & Social) lancé en 2014, restait un socle indispensable au lancement de cette nouvelle

stratégie.

Miser l’avenir du groupe sur une machine de guerre nommée Watson, le mot peut paraître

fort. Toutefois le monde a assisté aux débuts de l’informatique cognitive en 2011, lorsque

Watson a remporté un célèbre jeu télévisé américain avec une seule et unique application.

Aujourd’hui, Watson compte vingt-huit applications différentes qui intègrent cinquante

technologies innovantes. Watson travaille aux côtés d’hommes et de femmes, en utilisant ses

applications pour comprendre, raisonner et apprendre. 52 Annexe 11 : p.117

Page 93: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 92

Les ordinateurs du passé (programmables) seront demain remplacés par des systèmes cognitifs

comme Watson. Ces systèmes sont en effet capables d’exploiter de nouveaux volumes de

données (y compris les 80% de données non structurées sur les serveurs) afin d’aiguiller

l’individu dans sa prise de décisions. Repoussant grâce à lui de nombreux obstacles de temps et

de créativité, l’individu sera très certainement capable de surmonter les plus grands défis : établir

un business plan, prévenir les maladies, réduire les risques d’échec ou dépasser rapidement ses

concurrents.

c. Les avantages du Cognitive Business pour le client :

L’engagement : Un business cognitif peut appréhender les traits de personnalité et le contexte

d’un client, pour lui offrir un engagement plus personnalisé.

Watson aide d’ores et déjà une grande chaîne hôtelière, une banque de premier plan et une

administration locale à dépasser l’insatisfaction client.

L’expertise : Watson comprend le langage naturel et se forme auprès d’experts de tous

domaines. Cela permet à une entreprise cognitive de collecter les connaissances les plus

avancées de son secteur et de les utiliser pour améliorer son expertise à la qualité de ses analyses.

Watson aide actuellement une entreprise d’ingénierie et vingt cabinets d’avocats de premier

plan à dépasser le manque d’information.

Les produits et services : Watson propose des interphases clients, capables d’apprendre des

données non structurées et des données structurées afin d’orienter la stratégie produits et services

d’une entreprise.

Watson aide d’ores et déjà un réseau de diffusion et un fabricant de jouets à maîtriser leurs

premiers développements.

L’exploration et la découverte : Un business cognitif peut révéler des liens invisibles entre les

données structurées et non structurées de l’entreprise, afin de stimuler l’innovation.

Watson aide une entreprise pharmaceutique et une faculté de médecine à maîtriser le cancer.

Page 94: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 93

d. Travailler avec un assistant cognitif :

Pour conceptualiser la notion d’assistant cognitif, nous pouvons comparer ce dernier à un second

cerveau nous permettant d’améliorer les capacités humaines et trouvant des solutions aux

problématiques de tous les jours. De plus, il accroît la productivité de chacun grâce à de

nouvelles fonctionnalités novatrices dans de nombreux domaines :

R&D : Automatiser et optimiser l’analyse et la recherche d’information afin d’accélérer le

processus de prise de décisions.

Santé : Vers la médecine préventive. Aider les chercheurs à être mieux informés et améliorer

l’efficience de leurs résultats.

Business : Aider les décisionnaires (Présidents, Responsable Marketing, Responsable

Commercial…) à anticiper les mouvements du marché pour faire évoluer sa stratégie.

Voyage : Trouver des recommandations de voyage personnalisées en croisant les données

utilisateurs et les informations locales.

Vente : Conseiller un client en le questionnant, en enregistrant, en analysant ses données

personnelles avec celles des clients possédants les mêmes caractéristiques afin de proposer le

produit idéal pour réaliser la vente et maximiser la notion de « rachat » (améliorer le processus

de fidélisation).

Cuisine : Générer des recettes de cuisine innovantes en analysant des millions d’ingrédients et

de recettes à travers l’API53 Chef Watson.

53 API = Application Programming Interface

Page 95: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 94

e. L’offre IBM :

Watson est une “Machine Learning” utilisant le volume de données du Big Data pour

comprendre, raisonner, apprendre en continu et aider le monde de demain à être plus intelligent.

En simplifiant pour le client la gestion analytique de ses données, de leurs créations à leurs

valorisations, Watson permet entre autres de :

Répondre à certaines questions clients,

Extraire des informations clés d’un document,

Analyser les données non structurées (80% des données),

Présenter la réponse à une question en quelques secondes.

Révéler des idées, des modèles et des relations entre les données,

Croiser les volumes de données internes avec des volumes externes.

En plus de proposer les fonctionnalités de l’outil, l’objectif du groupe est de veiller à aider ses

partenaires dans la gestion de globale de son IT54 en prenant les décisions optimisant la réussite

d’une transition vers le Big Data :

Volume : produire plus de données par l’optimisation de la connexion des « objets » de

l’entreprise, et par l’analyse de données externes à l’entreprise (réseaux sociaux, open data,

météorologie).

Variété : analyser un plus large spectre de données en accompagnant l’ensemble des services

de l’entreprise vers une transformation digitale.

Vélocité : accompagner le partenaire vers la solution Cloud adéquate, permettant d’optimiser

la vitesse de circulation des données.

Véracité : accompagner le partenaire vers la solution Cloud adéquate, permettant d’optimiser

la sécurité et la pertinence des données analysées.

54 Annexe 12 : p.118 = liste des produits et des services proposés par IBM

Page 96: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 95

Afin de se différencier des autres acteurs présents sur le marché, il est important de pousser les

clients vers la réflexion la plus appropriée afin d’apporter une réelle plus-value au consommateur

final. Nous présenterons donc une liste non exhaustive de questions relatives à cette démarche :

- Comment permettre au partenaire de mieux connaître ses clients ?

- Comment optimiser la consommation du partenaire (électricité, gaz, infogérance, ressources

humaines, entrepôts…) ?

- Comment améliorer la sécurité des employés et des clients ?

- Comment obtenir plus de données des machines de production pour anticiper les pannes et

optimiser la production (insertion de puces dans les moteurs…) ?

- Comment et pourquoi connecter les véhicules de production et les véhicules commerciaux de la

société (puces GPS, capteurs météorologiques…) ?

- Comment rendre possible la consommation d’un produit par l’implantation de capteurs

(Consume as you Need) ? Exemple : définir par la mise en place de capteurs, le niveau de

dégradation d’un bien pour faciliter sa revente : bouteille de gaz, pneumatique, ski…

- Comment permettre au client d’optimiser ses processus de gestion ?

e1. Les compétences de Watson :

De la famille des Machines Learning, Watson est capable d’analyser trois types de données qui

permettent le développement de 18 types d’applications différentes :

11 API d’analyse de langage : les textes alphabétiques sur les documents,

2 API d’analyse de la parole : les voix enregistrées les bandes audio et sur les vidéos,

3 API d’analyse par la vision : les formes sur photos et vidéos.

En plus de ses 16 applications, 2 autres API permettent d’élargir l’offre du groupe.

Page 97: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 96

APPLICATIONS WATSON FONCTIONNALITE LA

NG

AG

E

Alchemy Language Application d’analyse de texte par le traitement du langage naturel. Extraction des mots-clés et des concepts clés d’un texte.

Concept Expansion Réorganisation de texte par la création de dictionnaires de mots clés. (en suppression)

Concept Insights Exploration et explication de continu + mise en relation vers d’autres documents connexes.

Dialog Utilise le langage naturel pour répondre automatiquement aux clients.

Document Conversion Permet de transformer le format de documents pour améliorer le niveau de lecture des autres applications de Watson.

Language Translation Application de traduction de documents.

Natural Language Classifier

Application d’aide au développement d’interfaces utilisant les fonctionnalités du langage naturel (pour les développeurs débutants).

Personality Insights Extraction et analyse des traits de personnalité d’une personne ou d’une entité par le biais d’analyses textuelles.

Relationship Extraction Application de recherche de corrélations entre textes provenant de sources internes et de sources externe à l’entreprise.

Retrieve and Rank Application de récupération d’informations. Utile par exemple pour trouver des données clients pour compléter un CRM.

Tone Analyzer

Application d’analyse linguistique pour détecter trois types de tonalité de texte : l’émotion, les tendances sociales et le style de la langue utilisé. Ce type d’API peut permettre anticiper le niveau de perception d’un mail avant qu’il soit envoyé.

PAR

OLE

Speech to Text

Cette application est utilisable partout, elle permet de traduire des paroles en texte (dans plusieurs langues). Cette application peut être utile par exemple pour des call centers en détectant les mots clés des conversations.

Text to Speech

Transformation de texte en parole. Ajouter à l’application de réponse automatique (Dialog), ce couple d’API permet de créer un assistant virtuel capable de reproduire la réflexion cognitive et le langage humain.

VIS

ION

Alchemy Vision Application de reconnaissance de formes sur format image.

Visual Insights Application de ciblage marketing par l’analyse visuelle des contenus stockés sur les pages des réseaux sociaux des clients potentiels.

Visual Recognition Application de reconnaissance de formes sur format vidéo.

+

Alchemy Data News Application d’enrichissement de données par les News, en proposant de compléter les données internes d’une entreprise avec une base de données d’informations économiques et sociales (fraicheur= 60 jours).

Tradeoff Analytics

Application d’aide à la prise de décision, grâce à la mesure statistique de chaque issue possible pour répondre à une problématique. Cette application cible les responsables marketing pour accélérer la vitesse d’études de marché, les financiers pour améliorer leurs stratégies d’investissement, ou les responsables de projets pour améliorer la gestion du risque et la gestion des coûts.

Page 98: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 97

e2. Sur le terrain dès 2016 :

Pour appuyer le lancement de la stratégie Cognitive Business, Ginni Rometty (CEO IBM) a

donné en janvier 2016, aux côtés d’invités prestigieux, une conférence présentant trois

partenariats de digitalisation signés avec des partenaires de secteurs variés :

- un groupe Américain de vêtements de sport : Under Armour,

- un des leaders de la commercialisation de matériel médical : Medtronic,

- une multinationale Japonaise de télécommunication : Softbank.

Under Armour : l’objectif de ce partenariat est d’aider le créateur d’articles de sport à collecter

les données personnelles de ses clients pour les aider à optimiser leurs séances de sport et

améliorer le bien-être quotidien du consommateur, en proposant des réponses aux questions

suivantes : à quel moment et durant combien de temps faut-il dormir ? Que manger et à quel

moment le faire ? Quand est-il préférable de faire du yoga ?...

Pour ce faire Big Blue a pour mission d’aider Under Armour sur trois points :

- la collecte de données, en proposant des solutions innovantes

pour capter les données du corps humain : capteur sur les vêtements et

chaussures, montres et bracelets connectées.

- l’analyse et la visualisation de données : cette collaboration a

permis la naissance d’une nouvelle application permettant de mesurer

en temps réel les performances du sportif, afin de le conseiller et de le

challenger au jour le jour. L’application : Record by Under Armour,

permet au groupe d’offrir une véritable plus-value à l’utilisateur final

en lui offrant un produit innovant permettant de compléter la gamme de

produits existante.

Medtronic : une collaboration avec le département Watson Health, a permis le développement

d’une application santé capable de changer la vie des personnes atteintes de diabète. Cette

application permet de prévenir les crises d’hypoglycémie chez le patient trois heures avant le

déclenchement des premiers signes d’une crise.

Page 99: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 98

L’objectif de cette application et de traiter les données provenant du

matériel médical proposé par Medtronic (pompes à insuline et lecteurs

de glycémie en continu). L’analyse de ses données peut être vitale pour

le patient parce qu’elle donne lieu à la réalisation d’une action

préventive plusieurs heures avant une crise.

Le département Watson Health continue ses partenariats afin d’étendre

ses technologies d’analyse à d’autres services de santé. Cette équipe

travaille aujourd’hui sur une application capable de prévenir les risques

d’arrêts cardiaques.

Softbank : Cette alliance a permis de mettre au monde un des premiers humanoïdes de notre

histoire. Développées à des fins commerciales, les compétences de ce robot nommé Pepper,

additionnent les compétences robotiques développées par Softbank et la puissance analytique de

Watson pour offrir une véritable puissance de calcul cognitive à ce bijou de technologie.

Cette évolution apporte une véritable rupture technologique dans le cadre de la gestion du service

client :

- Pepper est capable de reconnaître le visage d’un client,

d’analyser son historique de consommation et d’identifier ses habitudes

et ses comportements à partir de l’analyse des données présentes sur les

réseaux sociaux. Ainsi, pourra-t-il proposer le produit le plus adapté à

la situation.

- Pepper est également capable d’anticiper le comportement

d’achat négatif ou positif d’un client, par la lecture des mouvements de

son visage.

Page 100: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 99

Si une compagnie fait l’acquisition d’une flotte de Pepper à travers le monde, nous pouvons

imaginer acheter un produit le lundi matin à Paris, et retourner ce même produit dans une

boutique de New York le mardi, en ayant la certitude que le robot New Yorkais reconnaîtra notre

visage, analysera notre historique de consommations et nous répondra en français avant même de

lui avoir dit “bonjour” ! Plusieurs groupes internationaux ont déjà accepté d’intégrer une flotte de

robots Pepper au sein de leurs services commerciaux : Nestlé et Mizuho Bank. Le groupe Hilton

Hôtel a quant à lui choisi d’intégrer Watson à l’intérieur d’un autre type d’humanoïdes.

Le marché à court et moyen terme des humanoïdes est monumental, néanmoins son impact sur

l’économie mérite d’être dès aujourd’hui anticipé pour ne pas subir les effets d’une nouvelle

catastrophe économique.

Page 101: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 100

CONCLUSION :

Loin d’être un défi purement technologique consistant à faire face au développement des

nouvelles technologies, le Cognitive Business promet de bouleverser le monde de l’entreprise,

aussi bien son organisation, que ses métiers et ses modes de décisions. En effet, il accorde une

plus large place à l’intelligence artificielle et donne pour la première fois à l’humanité une

confiance constante dans la machine pour aider l’homme à dépasser de nouvelles frontières.

D’un point de vue économique, cette transition reste difficile à aborder pour IBM. Comme à son

habitude, pionnier sur le marché, Big Blue lance cette stratégie afin de se différencier de

nombreux acteurs se disputant les parts de marché du Cloud Computing. Bien plus qu’une

simple externalisation de l’infogérance vers le fameux nuage, IBM propose à ses partenaires de

développer sur ses serveurs un ensemble d’applications permettant d’analyser l’ensemble des

données d’une entreprise (texte, image, vidéo) afin d’en extraire une certaine valeur et d’aiguiller

l’individu dans la prise de décisions stratégiques. La relance du groupe prendra certainement

quelques années, le temps que les efforts de communications autour de la nouvelle stratégie

donnent des résultats et que les prix de l’informatique baissent, permettant ainsi l’accès au plus

grand nombre.

Parce qu’elle supposait que nous maîtrisions les caractéristiques du Big Data afin d’être en

mesure de nous intéresser à cette nouvelle stratégie, notre étude nous a permis de comprendre la

provenance de la donnée, son parcours, ainsi que les immenses possibilités analytiques qu’offre

le Big. Cependant, cette augmentation soudaine du volume de données ne constitue sans doute

pas une révolution de l’ampleur de celles de l’agriculture ou de l’industrie. De plus, le Big Data

ne devrait pas engendrer un nouvel âge d’or en faisant décoller l’économie mondiale par la

création de nouvelles perspectives de marché. Néanmoins, l’ensemble des évolutions

technologiques permettant au Big Data de se développer devrait atteindre le volume de dix

zettaoctets de données d’ici 2020. Ces évolutions apportent et apporteront de profondes

mutations économiques et sociales dans notre société. Le cas du très controversé Uber, qui

redistribue les cartes économiques du marché par le biais des nouvelles technologies semble

l’indiquer. D’autre part, parce qu’il ouvre la porte à une puissance analytique inégalée et donc au

Cognitive Business, le Big Data permet aujourd’hui d’entrevoir la possibilité d’offrir à la

Page 102: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 101

machine une intelligence supérieure à l’homme. Déjà installé dans le cerveau d’humanoïdes,

pour le moment « vendeurs » et « réceptionnistes », IBM Watson est prêt à conquérir le monde

en proposant de nouvelles solutions de gestion, d’analyse et de prise de décisions.

Véritable phénomène de société, il suscite des attentes, qui, dans le cas de l’infiniment grand,

sont immenses. Pour l’heure, et en conclusion de notre travail, voici une première réponse à la

problématique.

A l’heure du Cognitive Business, pour quelles raisons et par quels procédés le Big Data se positionne-t-il au centre de la réussite stratégique des entreprises ?

En prenant appui sur nos recherches, nous pouvons synthétiser en cinq points les clés du

succès afin de mettre en place une transformation digitale cohérente, pour une collecte optimale

des données. Cette transformation passe par une optimisation de l’infogérance d’un groupe afin

de lui offrir une plus grande capacité analytique :

9 Restructurer les processus internes pour centraliser le parcours de la donnée,

9 Connecter le maximum d’objets dans l’entreprise pour augmenter le volume et la variété de

données analysables,

9 Rechercher des donnés externes concernant le marché ciblé, sur les plateformes Open-Data,

9 Opter pour une solution d’infrastructure Cloud pour réduire les coûts d’infogérance, afin de

dégager des fonds pour l’innovation,

9 Invertir sur une solution analytique Big Data (type Watson) pour rechercher de la valeur à

l’intérieur des données internes de l’entreprise. Permettant également de croiser ces données

avec des sources externes (météorologie et réseaux sociaux).

Vecteur d’innovation et véritable enjeu stratégique pour les entreprises, l’implémentation d’une

stratégie Big Data devient cruciale si l’on ne veut pas être dépassé par la concurrence. Dans

l’avenir, toute entreprise, start-up comme multinationale, devra apprendre à évoluer avec les

assistances cognitives découlant du Big Data aussi bien pour détecter de nouvelles cibles sur un

marché, développer ces gammes de produits que réduire sa consommation énergétique ou tout

simplement automatiser ces processus.

Page 103: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 102

En plus de toucher l’ensemble du monde de l’entreprise, le Big Data entend bien apporter

des évolutions dans la vie de tous les jours :

x Il permet notamment d’améliorer la sécurité des citoyens, par le biais de logiciels

analytiques connectés aux caméras de sécurités de zones à risques. Aux Etats-Unis, grâce

à l’utilisation des logiciels d’anticipations du crime tel que « Prepole » ou « Blue

Crush », les administrations arrivent à réduire la criminalité de 30%.

x Il permettra également d’allonger la durée de vie des citoyens en proposant des

applications permettant de prévenir des pathologies vitales, ou plus simplement

d’accompagner les personnes connectées vers une consommation plus saine et une

réalisation d’efforts plus fréquents. D’autres applications destinées au monde médical tel

que Watson Health permettent d'ores et déjà d’accompagner les médecins dans la prise

de décisions et dans l’accompagnement des patients dans le suivi de leur traitement.

Malgré les évolutions plus qu’alléchantes présentées ci-dessus, de nombreuses voix s’élèvent

contre le contrôle de cette manne de données à des fins politiques ou commerciales.

Alors, quels sont les différents risques de cette mutation technologique et sociale ?

Outre l’aspect de l’éternelle limite de la fiabilité des algorithmes, de nombreux sujets viennent

alimenter une potentielle cartographie des controverses autour du Big Data, capable à elle seule

d’être le sujet d’études d’un mémoire. Dans le cadre de la conclusion de mon travail de fin

d’études, nous présenterons ci-dessous une brève présentation de ces controverses :

o Le pouvoir donné à certains géants de l’Internet : Aujourd’hui, 80% de nos données seraient

détenues par les fameux GAFA (Google, Apple Facebook, Amazon). Grâce à cette source de

profit inépuisable, les GAFA réunissent à eux quatre une capitalisation boursière de plus de

2000 milliards de dollars. Véritable puits de pétrole, le Big Data permet de créer de nouveaux

modèles économiques et de nouveaux modèles d’autorités. Le très controversé Google, qui

ambitionne de collecter l’ensemble des données de l’Humanité, et qui investit près d’un

Page 104: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 103

milliard de dollars par mois en R&D en orientant ses recherches sur la robotique, la voiture

autonome, l’Internet mondial par satellite, la domotique ou les biotechnologies en est un

exemple. Devant les immenses possibilités du groupe déployées par une capacité en

autofinancement gargantuesque, les nations prennent un risque non négligeable si elles ne

mènent pas une politique d’ingérence face à ce type de néo-entreprise.

o La question de l’éthique : de nos jours, l’ensemble des données générées par l’humanité est

trié afin d’en retirer des mots-clés, des expressions permettant à certains de tirer des

hypothèses commerciales ou civiques. En temps réel, 70% de nos appels entre mobiles sont

enregistrés et 100 % de nos échanges par le biais de nos boîtes mails et des réseaux sociaux

sont transcrits et analysés par des logiciels cognitifs. En 2013, le cas Edward Snowden,

révèle l’existence de programmes de surveillance de masse de la NSA, dont, entre autres, le

programme PRISM ayant pour objectif d’espionner les conversations de chacun pour réduire

les risques d’insécurité du gouvernement américain. Il se déploie à partir d’ accords avec des

compagnies privées dont le célèbre réseau social : Facebook. Ouvrant la porte à un deuxième

scandale d’espionnage de masse, l’accessibilité des données par le FBI de neuf géants

d’Internet (dont Microsoft, Yahoo, Google, Apple et Skype) pour surveiller l’activité des

internautes. La question de la liberté individuelle revient très fréquemment lors de

discussions sur le sujet du Big Data, des réseaux sociaux ou des caméras de surveillance.

Depuis 2013, et malgré de nombreuses manifestations populaires à travers le monde, peu de

choses ont réellement évolué et de nouvelles écoutes gouvernementales ont été mises au jour.

o La durabilité des données : la transmission des informations de l’humanité aux prochaines

générations est une véritable problématique. Il convient de se demander tout d’abord quelles

informations retirer des zettaoctets de données produites aujourd’hui par les réseaux sociaux

et demain par les millions d’objets connectés ? Ensuite, malgré le développement incessant

de nouvelles technologies de stockage, le stockage massif de nos données sur des serveurs ne

dépasse pas une espérance de vie de quelques décennies pour les plus performants. Alors,

comment permettre aux générations naissant en l’an 3000 d’analyser notre mode de vie et

Page 105: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 104

d’étudier notre degré d’évolution technologique ? Pour répondre à ces questions, deux

modèles totalement opposés sont en cours de développement :

� La gravure sur pierre (dont la durée de vie est estimée à 10 000 ans) : système

aujourd’hui utilisé par les sociétés en charges de l’enfouissement de déchets

nucléaires pour indiquer aux futurs archéologues de ne pas creuser sur certaines

zones devenues dangereuses par l’activité humaine des années 2000.

� La gravure sur quartz : de nombreux chercheurs à travers le monde oeuvrent

aujourd’hui pour aboutir à cette révolution du stockage. Cette technologie permet

en effet de réduire considérablement les volumes de stockages. Elle a notamment

stocké dernièrement 360 Téraoctets de données sur un minuscule disque de quartz

de la taille d’une pièce de monnaie. Cette avancée serait capable de stocker le

volume actuel de données de l’humanité sur un bloc de quartz de 2 mètres cube.

D’autre part, cette technique de stockage est incroyablement résistante. Capable

de supporter une chaleur de 1000 degrés, sa durée de vie est estimée à plusieurs

millénaires. Son éventuelle démocratisation d’ici les prochaines décennies, ne

manquerait pas de faire évoluer fortement le monde du Cloud Computing.

o L’impact écologique du stockage : les centres de traitement de données, ou Data Centers,

fleurissent depuis de nombreuses années de façon disparate, aux quatre coins du monde.

Contrairement à la baisse des coûts et au rétrécissement de la taille des composants

informatiques, ni la taille ni le nombre de data center n’ont diminué. Bien au contraire, cette

évolution de l’informatique a permis l’émergence de nouveaux outils de connectivité et de

réseaux sociaux entraînant avec elle une explosion du volume de données mondiales qui

viennent remplir des Data Centers toujours plus performants. En 2013, selon Greenpeace, ces

regroupements de serveurs consommeraient 2% de l’énergie mondiale. La commission

européenne estime que le besoin énergétique pour alimenter les Data Centers dans le monde

devrait doubler entre 2008 et 2020.

Et si l’éco-consommation passait aussi par la toile ? De quoi réfléchir à deux fois à l’utilité

de l’envoi d’un mail en copie à l’ensemble d’une communauté, ou de reposter des vidéos de

Page 106: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 105

plusieurs mégaoctets sur la toile. Néanmoins, deux sources de progrès restent à exposer pour

démontrer les efforts réalisés pour absorber les besoins énergétiques des milliers de serveurs :

� Google travaille depuis plusieurs années à San-Francisco, sur un concept de Data

Centers flottants et autosuffisants, qui s’établirait par la récupération énergétique

des mouvements de l’eau. Autre l’aspect très séduisant de la mobilité de ce type

de structure par son positionnement maritime, le principal défi pour le groupe

américain est de construire un modèle de structure capable de résister aux

catastrophes naturelles.

� Un autre axe de progrès nous vient d’Amsterdam, où la société Equinix a mis au

point un système de pompage d’eau souterrain à 180 mètres de profondeur, pour

refroidir les salles de serveurs grâce à des échangeurs, afin de garantir une

température de 25°C dans le Data Center. Une fois que les calories énergétiques

sont récupérées par l’eau, cette dernière est redistribuée dans la ville pour chauffer

des bâtiments administratifs.

o L’impact sur l’emploi : Révolutionnant aujourd’hui les usages des services commerciaux et

demain, d’autres services, l’impact sur l’emploi de l’utilisation à grande échelle de cette

nouvelle technologie risque d’avoir de fortes répercussions sur notre modèle économique

actuel. Devant cette menace pour l’emploi, illustrée en dernière partie de notre mémoire, de

véritables questions sociales se poseront aux prochaines générations, notamment la question

du revenu universel qui est déjà étudiée dans certains pays scandinaves. Cette solution

permettrait aux ménages de maintenir leur consommation, et notamment à l’économie

d’amortir les effets violents d’une perte importante d’emplois, due à un remplacement massif

par des humanoïdes, d’une partie des employées du secteur tertiaire, qui regroupe

aujourd’hui plus de 75% des emplois en France55.

55 Annexe 14 : p.118 : (Source Le Figaro) LE SCAN ÉCO - L'Insee offre un tableau complet des 28,6 millions de Français actifs

Page 107: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 106

o La théorie eschatologique56 relative à l’indépendance de la machine mérite également un

commentaire. Pour certains, rendre l’intelligence artificielle (IA) accessible à tous est une

façon pour les entreprises du numérique de pénétrer l’univers de chacun. Pour d’autres, le

développement de l’intelligence artificielle est un moyen comme un autre de créer de la

valeur et de pérenniser une société. C’est le cas du très célèbre Elon Musk, patron de Tesla

Motors et de Space X, qui a annoncé en décembre 2015 la création d’OpenAI, une

organisation à but non lucratif ayant pour objectif de faire avancer la recherche sur

l’Intelligence Artificielle « pour bénéficier à l’humanité ». Quel que soit le point de vue de

chacun, il est évident que l’humanité est en train de vivre une évolution technologique sans

précèdent. En janvier 2015, un collectif de 700 scientifiques et chefs d’entreprises a publié

une lettre ouverte pour s’assurer que les futures avancées dans le domaine de l’IA

bénéficiaient en priorité à la société. Mené entre autres par le physicien Britannique Stephen

Hawking, ce groupe de pensées convient que l’Intelligence Artificielle pourrait mettre fin au

monde que l’on connaît aujourd’hui. Le physicien, qui s’exprime grâce à un ordinateur en

raison d’une paralysie, avait déjà déclaré lors d’un entretien accordé à la BBC en fin d’année

2014 : « Les formes primitives d'intelligence artificielle que nous avons déjà se sont

montrées très utiles. Mais je pense que le développement d'une intelligence artificielle

complète pourrait mettre fin à la race humaine ». Partagée par des centaines d’autres

intellectuels, cette pensée, à laquelle s’ajoute la motivation profonde des scientifiques de

l’informatique de mener la machine vers l’apprentissage non supervisé (p.91 de ce mémoire)

ne peut que nous interroger sur l’avenir de l’espèce humaine, et devrait motiver notre société

à mettre en place des autorités de surveillance pour contrôler le développement de

l’Intelligence Artificielle.

56 Eschatologie : (source Larousse) Ensemble de doctrines et de croyances portant sur le sort ultime de l'homme après sa mort (eschatologie individuelle) et sur celui de l'univers après sa disparition (eschatologie universelle).

Page 108: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 107

Les différentes évolutions liées à l’émergence du Big Data risquent d’être fortement

accentuées d’ici les prochaines années par l’accroissement continuel de la donnée et la puissance

démultipliée de l’informatique. En effet, l’essor de la donnée ne cessera de progresser par

l’accessibilité galopante à Internet des pays en voie de développement et par l’envol programmé

de l’Internet des objets. Parallèlement à cette augmentation continuelle de la donnée, la capacité

analytique de l’informatique est en train d’être multipliée par 100 millions par l’arrivée tant

attendue de l’ordinateur quantique, provoquant ainsi une véritable rupture technologique. Les

enjeux économiques liés aux Big Data sont colossaux, et la guerre de la donnée et de son analyse

ne fait que commencer. Place alors à de nouvelles spéculations économiques et sociales, où nous

pouvons imaginer une libéralisation plus profonde de la donnée et une connexion toujours plus

importante de l’objet ultime : l’Homme !

Page 109: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 108

BIBLIOGRAPHIE :

Ouvrages :

- Pierre Delort, Le Big Data, Ed. Puf, 115p.

- Pirmin Lemberger, Big Data et Machine Learning, Ed. Dunod, 213p,

- Guillaume Plouin, Cloud Computing, Ed. Dunod, 257p.

Documentaires :

- France télévision : Marie-Hélène Soenen, 2016, Spéciale Investigation : Big Data – les nouveaux devins

- Arte : Futuremag, 2014, Les enjeux du big data,

- TV5 Monde : Quentin Domart, 2013, Datacenter - Les gardiens de la mémoire.

Webographie : Classement des sources web par catégorie :

Ö Abonnements : CourrierInternational.com, LeMonde.fr. Certaines pages ne sont donc pas accessibles en intégralité.

Big Data

Cooper Smith, 24/04/2014, Social Networks Are Only Just Getting Started In Mining User Data, Techinsider.io, http://www.techinsider.io/social-medias-big-data-future-2014-2, consulté le 18/01/2016 Acquia Groupe, Examples of Big Data Projects, acquia.com, https://www.acquia.com/examples-big-data-projects, consulté le 20/01/2016 André Blavier, 26/05/2015, Big Data. La révolution des données, digitalwallonia.be, https://www.digitalwallonia.be/big-data-la-revolution-des-donnees/, consulté le 20/01/2016

Cloud

Amir Rezaee, 18/04/2014, Le Trading Haute Fréquence, une méthode de spéculation ultra rapide... et ultra dangereuse, Nouvelobs.com, http://leplus.nouvelobs.com/contribution/1191975-le-trading-haute-frequence-une-methode-de-speculation-ultra-rapide-et-ultra-dangereuse.html, consulté le 15/03/2016 Jeff Sampler, 04/04.2015, Clouds Over China, Forbes.com, http://www.forbes.com/sites/ceibs/2015/02/04/clouds-over-china/#2e48469353e6, consulté le 15/03/2016

IoT

Julien Bergounhoux, 13/01/2016, Il faut décentraliser le cloud pour l'Internet des objets, L’usine Digitale.fr, http://www.usine-digitale.fr/article/il-faut-decentraliser-le-cloud-pour-l-internet-des-objets-selon-andy-thurai-directeur-de-programme-iot-chez-ibm.N373430, consulté le 11/02/2016 Lucie P. (bloggeuse), 28/07/2015, Australie : des adresses e-mails pour les arbres !, objetconnecte.net, http://www.objetconnecte.net/australie-adresses-e-mails-arbres-2807/, consulté le 12/02/2016 Margaret Walker, 19/05/2015, How Big Data And The Internet Of Things Create Smarter Cities, Forbes.com, http://www.forbes.com/sites/bernardmarr/2015/05/19/how-big-data-and-the-internet-of-things-create-smarter-cities/#6bf618fa63d8, consulté le 22/02/2016

Page 110: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 109

Mehdi Nemri, 12/01/2015, Demain, l'Internet des objets, Strategie.gouv.fr, http://www.strategie.gouv.fr/publications/demain-linternet-objets, consulté le 22/02/2016

Open Data

Derrick Harris, 04/01/2014, 5 reasons why good governments should embrace open data, Gigaom.com, https://gigaom.com/2014/01/04/5-reasons-why-good-governments-should-embrace-open-data/, consulté le 25/02/2016 Annick Rivoire, 13/05/2014, La bataille de l'open data, Arte.tv.fr, http://creative.arte.tv/fr/episode/la-bataille-de-lopen-data, consulté le 08/03/2016

Machine

Learning

Julien Bergounhoux, 05/03/2016, Mais au fait, c'est quoi exactement le Deep Learning ?, L’usine Digitale.fr, http://www.usine-digitale.fr/article/video-mais-au-fait-c-est-quoi-exactement-le-deep-learning.N382631, consulté le 16/04/2016 Laurent Lagneau, 28/07/2015, Des chercheurs réclament l’interdiction des robots autonomes tueurs, Opex360.com, http://www.opex360.com/2015/07/28/des-chercheurs-reclament-linterdiction-des-robots-autonomes-tueurs/, consulté le 16/04/2016

Cognitive Business

Watson at work, IBM.com, http://www.ibm.com/smarterplanet/us/en/ibmwatson/ces.html, consulté le 17/01/2016

Watson Services, IBM.com, http://www.ibm.com/smarterplanet/us/en/ibmwatson/developercloud/services-catalog.html, consulté le 17/04/2016

Réseaux Sociaux

Paolo Garoscio, 23/09/2014, Internet : 2,9 milliards d'humain connectés... et c'est pas fini !, Economie Matin.fr, http://www.economiematin.fr/news-nombre-personnes-connectees-internet-monde-pays-plus-connecte-islande, consulté le 17/01/2016 Corentin Pennarguear, 25/02/2016, Réseaux sociaux. 5 nouvelles émotions sur Facebook – et une tonne de données sur vous, Courrier International.com, http://www.courrierinternational.com/article/reseaux-sociaux-5-nouvelles-emotions-sur-facebook-et-une-tonne-de-donnees-sur-vous?utm_campaign=Echobox&utm_medium=Social&utm_source=Facebook#link_time=1456400290, consulté le 02/03/2016 Thierry Gauthé, 26/04/2016, Où se trouvent les utilisateurs d’Internet sur la planète ?, Courrier International.com, http://www.courrierinternational.com/grand-format/cartographie-ou-se-trouvent-les-utilisateurs-dinternet-sur-la-planete, consulté le 27/04/2016 Maëlle Becuwe, 22/04/2016, Facebook, Twitter, Instagram et les autres : ce qu'il faut savoir sur les réseaux sociaux, Chefdentreprise.com, www.chefdentreprise.com - "Facebook, Twitter, Instagram et les autres : ce qu'il faut savoir sur les réseaux sociaux", consulté le 25/04/2016

Partenariats IBM

Jasmine Khounnala, 15/07/2014, Apple et IBM nouent un partenariat international pour transformer les solutions mobiles en entreprise, Apple.com, https://www.apple.com/fr/pr/library/2014/07/15Apple-and-IBM-Forge-Global-Partnership-to-Transform-Enterprise-Mobility.html, consulté le 11/12/2015 Antoine Crochet- Damais, 01/02/2016, IBM finalise le rachat de la Weather Company, JDN.com,

Page 111: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 110

http://www.journaldunet.com/solutions/cloud-computing/1165366-ibm-conclut-le-rachat-de-weather-company-pour-2-milliards-de-dollars/, consulté le 04/02/2016 L'agence EP, 30/10/2014, Partenariat entre Twitter et IBM autour de l’analyse de données, zdnet.fr, http://www.zdnet.fr/actualites/partenariat-entre-twitter-et-ibm-autour-de-l-analyse-de-donnees-39808713.htm, consulté le 14/01/2016 Agence France-Presse (San Francisco), 22/02/2016, IBM annonce de nouveaux partenariats, Lapresse.ca, http://affaires.lapresse.ca/economie/technologie/201602/22/01-4953328-ibm-annonce-de-nouveaux-partenariats.php, consulté le 16/03/2016 Diabète, medtronic.be, http://www.medtronic.be/fr/votre-sante/Diabete/Vivreavec/Viequotidienne%E2%80%93Mesureduglucoseencontinu/index.htm, consulté le 12/04/2016

Controverses

Audrey Garric, 01/07/2013, Les centres de données informatiques avalent des quantités croissantes d'énergie, Le Monde.fr, http://abonnes.lemonde.fr/planete/article/2013/07/01/les-centres-de-donnees-informatiques-gros-consommateurs-d-energie_3439768_3244.html?xtmc=data_center&xtcr=42, consulté le 16/04/2016 27/10/2013, Google construirait un centre de données flottant à San Francisco, Le Monde.fr, http://abonnes.lemonde.fr/technologies/article/2013/10/27/google-construirait-un-centre-de-donnees-flottant-a-san-francisco_3503629_651865.html?xtmc=data_center&xtcr=34 http://abonnes.lemonde.fr/pixels/article/2015/12/15/rendre-l-intelligence-artificielle-accessible-a-tous-une-facon-de-se-blanchir-pour-les-entreprises_4832326_4408996.html?xtmc=stephen_hawking&xtcr=7, consulté le 16/04/2016 13/01/2015, Des scientifiques américains s'inquiètent de l'évolution de l'intelligence artificielle, Le Monde.fr, http://abonnes.lemonde.fr/pixels/article/2015/01/13/des-scientifiques-americains-s-inquietent-de-l-evolution-de-l-intelligence-artificielle_4554856_4408996.html, consulté le 17/04/2016 (Extrait) Financial Time, 22/10/2015, Internet : doit-on rapatrier nos données personnelles en Europe ?, Courrier International.com, http://www.courrierinternational.com/article/controverse-internet-doit-rapatrier-nos-donnees-personnelles-en-europe, consulté le 10/03/2016 09/06/2013, Surveillance d'Internet : un ancien employé de la CIA à l'origine des fuites, , Le Monde.fr, http://abonnes.lemonde.fr/ameriques/article/2013/06/09/un-ancien-employe-de-la-nsa-derriere-les-revelations-sur-les-ecoutes-numeriques_3426888_3222.html?xtmc=cas_snowden&xtcr=314, consulté le 17/04/2016 07/06/2013, Le FBI aurait accès aux serveurs de Google, Facebook, Microsoft, Yahoo! et d'autres géants d'Internet, Le Monde.fr, http://abonnes.lemonde.fr/ameriques/article/2013/06/07/le-fbi-a-acces-aux-serveurs-des-geants-d-internet_3425810_3222.html, consulté le 14/03/2016

Divers

Julia Lemarchand, 01/04/2015, Les six métiers les plus prometteurs en finance d’ici à 2020, efinancialcareers.com, http://news.efinancialcareers.com/fr-fr/203940/les-six-metiers-les-plus-prometteurs-en-finance-dici-a-2025/, consulté le 15/01/2016 Hannah Kuchler, 10/04/2016, Facebook et Google à la conquête de l’Inde, Courrier International.com, http://www.courrierinternational.com/article/internet-facebook-et-google-la-conquete-de-linde, consulté le 15/04/2016

Page 112: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 111

Robert MacIntosh, 06/02/2016, L’empire Google en quête d’immortalité, Courrier International.com, http://www.courrierinternational.com/article/internet-lempire-google-en-quete-dimmortalite, consulté le 10/02/2016 Sebastien Bourguignon, 31/12/2014, L'inévitable transformation digitale de l'entreprise, Les Echos.fr, http://www.lesechos.fr/idees-debats/cercle/cercle-120535-de-limportance-de-la-transformation-digitale-pour-les-entreprises-1079279.php, consulté le 14/02/2016 LEILA MARCHAND, 10/12/2015, Google présente son ordinateur quantique, 100 millions de fois plus rapide qu'un ordinateur classique, Les Echos.fr, http://www.lesechos.fr/10/12/2015/lesechos.fr/021548110969_google-presente-son-ordinateur-quantique--100-millions-de-fois-plus-rapide-qu-un-ordinateur-classique.htm http://www.universetoday.com/126978/extinction-alert-stephen-hawking-says-technology-might-wipe-us/, consulté le 14/12/2015 Tobias Schwab, 28/04/2010, Les miracles du revenu minimum garanti, Courrier International.com, http://www.courrierinternational.com/article/2010/04/29/les-miracles-du-revenu-minimum-garanti,consulté le 14/03/2016 Marine Rabreau, 02/03/2016, Plus de 75% des Français travaillent désormais dans le secteur tertiaire, Le Figaro.fr, http://www.lefigaro.fr/economie/le-scan-eco/dessous-chiffres/2016/03/01/29006-20160301ARTFIG00273-plus-de-75-des-francais-travaillent-desormais-dans-le-secteur-tertiaire.php, consulté le 16/04/2016 Marion LONGUET, 07/01/2016, BIG DATA, le pétrole du XXIème siècle, Timedia.fr, http://www.timedia.fr/2016/01/dossier-big-data/, consulté le 12/01/2016 Thomas Pontiroli, 22/04/2016, Google : 1 milliard de dollars en R&D par mois, Cublic.com, http://www.clubic.com/pro/entreprises/google/actualite-803742-google-resultats.html, consulté le 24/04/2016 17/09/2015, Extrait de : The Economist, Juin 2015, « le quantique c’est fantastique », Courrier International, http://www.courrierinternational.com/article/informatique-le-quantique-cest-fantastique, consulté le 24/09/2015

Formations IBM :

- Essentials of Cloud Computing,

- GBS CloudCasts (GBS Global Cloud Community),

- Big data & Analytics for new IBMers (Replay),

- Big Data Analytics,

- IBM Watson,

- CAMSS - Big Data & Analytics,

- Big Data Usecase: 360 Degrees View of the Customer,

- Smarter Planet Powered by Bid Data ? (Replay),

- Open Data as a platform for growth (Replay),

- IoT par Serge Bonneaud : Rendre le monde plus digital.

Page 113: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 112

Annexe 1 : Méthodologie de conceptualisation des schémas (exemple) :

- 1. Regroupement des concepts sur tableau, - 2. Réalisation des schémas sur power point.

* dans le cadre de ce mémoire, les images utilisées et non-sourcées, ont été créées par l’auteur de ce mémoire et peuvent provenir de sources internes du groupe IBM.

Page 114: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 113

Annexe 2 (p.16) : par de marché du groupe Amazon Q4 2014 :

Annexe 3 (p.22) : Google Trends (mot : Big Data)

Page 115: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 114

Annexe 4 (p.25) : Evolution des prix des ressources IT :

Source : Big Data et

Machine Learning, 2015,

p.6

Annexe 5 (p.25) : baisse de prix exponentielle des IT :

Page 116: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 115

Annexe 6 (p.35) :

Annexe7 (p.39) : Les rôles clés et gouvernance symboles de l’alliance Marketing – DSI : (source : http://www.it-expertise.com/dsi-et-big-data-developpez-la-proximite-avec-le-marketing-et-embarquez-le-dans-la-strategie-data/)

Page 117: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 116

Annexe 8 (p.55) : Evolution Internet des Objects

Source image : http://tarrysingh.com/2014/07/fog-computing-happens-when-big-data-analytics-marries-internet-of-things/

Annexe 9 (p.67) : Donnée structurée et non structurée : Source image : http://www.techinsider.io/social-medias-big-data-future-2014-2

Page 118: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 117

Annexe 10 (p.90) : Système de calculs automatisés pour véhicule par capteurs vidéo :

Annexe 11 (p.91) : Evolution of Technologies

Page 119: Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

– M é m o i r e 2 0 1 6

P a g e | 118

Annexe 12 (p.94) : Liste des produits et des services proposée par IBM (mars 2016)

Produits :

Services :

Annexe 14 (p.105) :

Source Le Figaro : LE SCAN ÉCO - L'Insee offre un tableau complet des 28,6 millions de Français actifs