1
Tél : +41 21 312 94 15 www.octo.com
© OCTO 2015
Avenue du théâtre 7 CH-1005 Lausanne - SUISSE
Des small data aux big data Méthodes et technologies
2
Tél : +41 21 312 94 15 www.octo.com
© OCTO 2015
Avenue du théâtre 7 CH-1005 Lausanne - SUISSE
Benoît Béraud Consultant OCTO Suisse [email protected]
Nicolas Cavallo Consultant OCTO France [email protected]
3
Pourquoi les bigdata ?
De la statistique à l’apprentissage
Aperçu des technologies
Cas client
Conclusion
4
Pourquoi les big data ?
5
Source : Intel Free Press
6
Source : Intel Free Press
7
Source : Intel Free Press
8
Un monde qui change
Plus de Volume Plus de Vitesse Plus de diVersité
Ceci est un constat (les 3V) mais pas une définition du bigdata
Quid de la production de valeur ?
9
10
Moore à la rescousse
Mais pas partout …
Vive la loi de Moore
Des disques dur plus volumineux
Des CPUs plus rapides
De la RAM de moins en moins
chère
11
Tout augmente ! Sauf…
0
10
20
30
40
50
60
70
1991 1996 1998 2001 2006
Déb
it (M
B/s
) Gain : x91
64 MB/s
0,7 MB/s
Seagate Barracuda 7200.10
Seagate Barracuda ATA IV
IBM DTTA 35010
Gain : x100 000
1990 2010 Lire l’intégralité d’un disque prend aujourd’hui 100 à 1000 fois plus de temps qu’il y a 30 ans
12
On a besoin de nouveaux outils pour
Adresser les limitations d’IO
Traiter des volumes
gigantesques
Réagir de plus en plus vite
13
De la statistique à l’apprentissage
14
« Science et techniques d'interprétation mathématique de données complexes et nombreuses» définition LeRobert
La Statistique
STATISTIQUE
Activité qui consiste à
réunir des données
Méthode de traitement et d’interprétation des
données
15
De 1900 à 1950
Décrire des « grands » ensembles de données
Les sondages Les Tests
Les intervalles de confiance
Extrapoler un échantillon à une population mère
Statistique descriptive
Statistique inférentielle Statistique exploratoire
unidimensionnelles
bidimensionnelles
La méthodologie statistique n’apparait véritablement qu’en 1900. Deux grandes familles émergent alors :
16
Evolution du contexte technologique
Des small Data … Au Big Data
1970 -1980 Taille : Ko Les premiers outils informatiques, l’analyse de données se développe (ACP AFC). On explore les données
1980 -1990 Taille : Mo Début de l’intelligence artificielle. Apprentissage des « réseaux de neurones »
1990 -2000 Taille : Go On stocke les données (DataWarehouse), on commence à s’en servir pour l’aide à la décision grâce à la fouille de données (Data Mining )
2000 - … Taille : To Le nombre de données explose. Le fléau de la dimension oblige la statistique à évoluer
1940 -1970 Taille : Octets <100 individus, <10 variables Modèle linéaire Test
17
Les limites de la statistique inférentielle
Risque de conclure à des liens artificiels
Corrélation fallacieuse Régression fallacieuse p-value concluant
systématiquement à une significativité statistique
Limites de l’analyse statistique « classique » lorsque les données sont volumineuses
Statistique inférentielle
Conséquence : la prédiction deviendrait impossible ?
18
Un autre paradigme : l’apprentissage statistique
Statistique inférentielle
Statistique exploratoire
Théorie de l’apprentissage statistique
• On n’extrapole plus à une population mère : le modèle suit les données, et non plus l’inverse
• La découverte de régularités dans les données permettent de comprendre et/ou de prédire
• L’objectif de qualité de la prédiction l’emporte sur la réalité du modèle devenu « boite noire »
• Le rééchantillonnage permet de valider les structures
19
Un autre paradigme : l’apprentissage statistique
Théorie de l’apprentissage statistique
Apprentissage non supervisé
Apprentissage supervisé
20
Validation croisée Objectif : on veut vérifier que notre modèle s’applique à de nouvelles données
Besoin de données pour le rééchantillonnage validation croisée
Base initiale
On crée notre modèle On le teste
L’efficacité de notre modèle est mesurée sur des nouvelles données X 10
Validation croisée
21
Les méthodes ensemblistes Objectif : Prédire ! Au risque de complexifier le modèle…
Besoin de données pour le rééchantillonnage les méthodes ensemblistes
X1 X2 X3 X4 X5
Individu 1 3 1 4 0 2
Individu 2 2 2 7 0 1
Individu 3 5 5 4 1 4
Individu 4 3 4 3 1 2
Individu 5 2 6 1 0 3
Vote ou moyenne
Prédiction
Modèle 1
Modèle 2
Modèle 3
Exemple : les Random Forest Bagging : constitution de plusieurs arbres par tirages aléatoires successifs d’individus
22
Besoin de données pour le rééchantillonnage les méthodes ensemblistes
X1 X2 X3 X4 X5
Individu 1 3 1 4 0 2
Individu 2 2 2 7 0 1
Individu 3 5 5 4 1 4
Individu 4 3 4 3 1 2
Individu 5 2 6 1 0 3
Vote ou
moyenne Prédiction
Modèle 1 Modèle 2 Modèle 3
Exemple : les Random Forest Feature sampling : constitution de plusieurs arbres par tirages aléatoires successifs de variables
ATTENTION Les modèles deviennent
souvent des « boites noires »
POUR EN SAVOIR PLUSData Science : fondamentaux et
études de cas livre OCTO (EYROLLES)
23
𝑤↓1
𝑤↓2 𝑤↓𝑃
Le retour des réseaux de neurones
𝑋↓1
𝑋↓2 𝑋↓𝑝
…
Un neurone
Un réseau de neurones (perceptron)
Couche cachée
Couche de sortie
Couche d’entrée
y ∑ | 𝑓
∑ | 𝑓
∑ | 𝑓
∑ | 𝑓
…
𝑓
𝑓
𝑓
𝑓
𝑋↓1 𝑋↓2
𝑋↓𝑝
𝑋↓𝑗
24
Layer 4Layer 3Layer 2Layer 1
Années 1980 : « à l’époque, c’était bien difficile. Nous n’avions pas de grands ensembles de données, ni d’ordinateurs rapides » (Yann Lecun)
De plus en plus utilisé : Reconnaissance vocal : Siri, Cortana, google now, Reconnaissance d’images : google maps (déchiffrer les textes dans le paysage),
Deep Face (facebook), googLeNet
L’avènement du Deep Learning
Le deep learning, un fonctionnement multi-couche
25
Description d’images grâce au Deep Learning
GoogLeNET, ça c’est du Deep Learning :
A group of young people playing a game of frisbee
A yellow school bus parked in a parking lot
26
Jusqu’à présent, on avait besoin d’énorme base de données supervisée
Mais en 2012, « Google Brain » découvre par lui-même le concept de chat… …. En visionnant 10 millions de captures d’écrans de Youtube… non étiquetées !
L’apprentissage non supervisé, plus proche encore de l’apprentissage humain
L’apprentissage non supervisé
On détecte les objets Avec une seule image, on les nomme
Nuage Eléphant
Etoile Chat
Apprentissage non supervisé Apprentissage supervisé
On observe notre environnement
27
Pour tirer vraiment parti de la puissance de l’apprentissage statistique, il faut entrer pleinement dans l’ère des big data : plus on a de données, plus les apprentissages peuvent être fins
En conséquence, les exigences en termes de stockage et de capacité de traitement sont fortes
L’apprentissage a besoin de données
Il faut donc maitriser les technologies, et il n’est pas étonnant que les leaders actuels dans la R&D en machine learning soient aussi des leaders technologiques : Google, Facebook…
28
Aperçu des technologies
29
Comment faire encore plus ?
Stratégies de montée en puissance
Scale-up Scale-out
30
Nouveaux problèmes
Toute solution amène de nouveaux problèmes. Loi de Murphy
Pas ACID
Atomicity Coherency Isolation Durability
Théorème CAP
Coherency Availability Partition
Nouveaux paradigmes
Drivers Tests
MapReduce
31 Image from - http://mm-tom.s3.amazonaws.com/blog/MapReduce.png
3 étapes : Une étape « Map » où les données au format d’entrée sont découpées au
format clef/valeur Une étape « Shuffle » qui opère une passe de tri et regroupe les données par clef Une étape « Reduce » qui agrège les différents résultats par clef et produit le résultat
final
MapReduce
MapReduce est une façon de formaliser un traitement pour être efficace lors d’une exécution distribuée.
Ce n’est pas une technologie, ni un algorithme, ni une implémentation
32
Application orientée Flux évènementiel
Application orientée Transaction
Application orientée Calculs
Application orientée Stockage
Stockage distribué
Share nothing
eXtreme Transaction Processing
Programmation parallèle
Event Stream Processing
Univers « standard » SGBDR,
Serveur d’application, ETL, ESB
Le diamant Big Data (1/2)
10 To en ligne 3.000 TPS
10 threads/core 1.000 évts/s
33
Application orientée Flux évènementiel
Application orientée Transaction
Application orientée Calculs
Application orientée Stockage
Le diamant Big Data (2/2)
In Memory
Redis. Memcached, GemFire/Geode, Spark
NoSQL NewSQL
MongoDB, CouchDB, Cassandra, Hbase, Neo4j.
CEP, ESP
Spark Streaming, Storm, Flink, Samza, Heron Parrallel database
Teradata, Vertica
34
Technologies vs solutions
Les technologies sont au service du métier et non l’inverse, à nous de faire le bon choix.
Chacune de ces technologies ont été pensées pour répondre à un problème métier.
35
Cas client – analyse de signaux faibles
36
Le web…
37
38
Données à prédire : prestations de mutuelle
39
Traitement des données client
EXEMPLE DE COURBE DISCRETISÉE
40
Modèle prédictif
Séries Google Trends
exogènes
Série à modéliser
41
Modèle prédictif
RECHERCHE DE PRÉDICTEURS
Calculs de similarité
10.8
12.6
12.4
12.6
Séries Google Trends
exogènes
Série à modéliser
42
Champ sémantique Client
CROISEMENT DES DONNÉES CLIENT ET EXOGÈNES Construction pour un type d’acte (Hospitalisation, Pharmacie, Optique ou Dentaire)
Caractéristiques : Noeuds : mots-clefs les plus corrélés à la série client
Liens : mots-clefs liés Force des liens : corrélations entre mots-clefs
Optique
Santé
Evénements de vie
43
Modèle prédictif
APPRENTISSAGE DU MODÈLE
Le modèle de prédiction des dépenses de santé est une combinaison linéaire des séries exogènes les plus corrélées.
44
Quelle capacité du modèle à prédire de nouvelles données ?
Client
45
Quelle capacité du modèle à prédire de nouvelles données ?
Client
46
Cette approche est universelle.
Elle s’applique à chaque série temporelle pouvant être reliée à la sphère digitale par les recherches sur les moteurs de recherche.
47
Est-ce fiable ?
Quelle confiance peut-on avoir
dans ces nouveaux
systèmes ?
48
49
Un système complexe, nécessitant une attention particulière
Des boucles de feedback pouvant fausser le système
Un monde en constante évolution
50
Un nouveau regard sur le monde
51
52
Jakob von Uexküll : le « savoir » d’une espèce dépend de ses capacités perceptives
Un monde de plus en plus multidimensionnel
vision de l’homme vision de la mouche vision du mollusque
La technologie accroît notre capacité de perception des phénomènes physiques, chimiques, sociaux :
accéléromètre, oxymètre, activité sur les réseaux sociaux… sont autant de moyens de perception, de moins en moins coûteux
vision grâce aux machines
53
Chaque année, 2 exabytes de données sont générés dans le monde
Avec le cloud, l’accès à la donnée s’affranchit potentiellement de toute contrainte géographique
La constitution d’une mémoire collective numérique ?
Evoque la constitution d’une mémoire collective numérique ubiquitaire, qui dépasse largement nos capacités de mémorisation individuelles
54
Les algorithmes d’apprentissages statistiques sont de plus en plus puissants, s’appliquent à tout type de données
Grâce à la technologie, l’accès à la donnée est de plus en plus aisée et nous disposons d’une puissance de calcul incroyable
Conclusion
Les capacités d’apprentissage apportent un nouveau regard sur le monde