Decideo - Actualités sur le Big Data, Business Intelligence, Data Science

Abonnez-vous gratuitement à Decideo !


Decideo

 


Big Data : Pour doper la BI traditionnelle


Rédigé par par Romain Chaumais, Ysance le 15 Juin 2011

Face à la démultiplication des systèmes produisant de la donnée – réseaux sociaux, tablettes, mobiles, applications, capteurs électroniques…- le volume d’informations fabriquées au quotidien croît de façon exponentielle. Parallèlement, les entreprises perçoivent désormais la valeur économique des informations comportementales détaillées. Complémentaire des plateformes décisionnelles, le Big Data cherche à naviguer dans cette avalanche de données afin d’y identifier en temps réel des informations pertinentes et utiles sur un mode, avant tout, exploratoire et peu structuré.



Romain CHAUMAIS, co-fondateur de Ysance
Romain CHAUMAIS, co-fondateur de Ysance
Après le Cloud Computing, voici le Big Data. Même phénomène de mode, même saupoudrage marketing et au fond, même incompréhension. Que recouvre donc ce nouveau concept?

En réalité, le Big Data est né de la convergence de deux phénomènes majeurs : l’explosion des données générées (Data Deluge) et la prise de conscience de la valeur des données brutes (Raw Data).
La volumétrie des données à la disposition des entreprises croît exponentiellement depuis plusieurs années. Dans tous les domaines de l’économie (industrie, domotique, transport…), l’essor des technologies machine-to-machine et autres capteurs connectés permet à des objets dits « intelligents » de communiquer sans intervention humaine avec un système d'information centralisé. En résulte une démultiplication des informations à conserver sur chaque interaction. Du côté du web, les technologies sont passées au fil des ans d’une approche site centric (un objet analysé) à une logique user centric (plusieurs milliers ou centaines milliers d’individus analysés). Plus récemment, l’essor des réseaux sociaux et de la mobilité a imposé un modèle d’analyse de type social centric (plusieurs millions d’individus et d’interactions avec leur environnement à analyser). Si Facebook compte pas moins de 6 milliards de photos partagées et 22 milliards de commentaires publiés chaque mois, de nombreuses entreprises beaucoup plus petites brassent chaque jour des centaines de millions de transactions et/ou d’événements et stockent plusieurs téraoctets de données chaque année.
Par ailleurs, les entreprises perçoivent désormais que la moindre donnée comportementale, le moindre log, aussi isolés soient-ils, recèlent une valeur économique. Il en va de l’individualisation du marketing, de l’optimisation des processus, de la traçabilité des transactions ou encore de la pertinence des alertes. Auparavant noyée dans des approches ensemblistes forcément réductrices, chaque aberration devient dès lors riche d’enseignements. Résultat : chaque donnée brute doit être stockée.

Le voilà donc, le rôle du Big Data. Dans un environnement foisonnant d’une masse sans cesse plus dense d’informations brutes, il consiste à collecter, à stocker, puis à interroger en quasi temps réel un puits de données directement exploitables et orientées « usage ». Une nécessité rendue possible par la concomitance d’innovations techniques majeures : Cloud Computing, base de données nouvelle génération (bases de données en colonnes notamment), architecture de type MapReduce,…

Cette montée en puissance du Big Data marque une (r)évolution majeure dans l’informatique décisionnelle. A la différence des solutions décisionnelles traditionnelles, celui-ci apporte une donnée « chaude », certes moins structurée, mais avec un niveau de détail tel qu’il permet d’isoler et d’analyser, au cas par cas, chaque transaction et événement. L’analyse au fil de l’eau des grands flux d’information sur les produits et services, les acheteurs ou les fournisseurs, ou encore les préférences des consommateurs apporte ainsi souplesse et réactivité à des outils décisionnels certes robustes, mais structurellement trop figés. Cette nouveauté n’est pas anodine pour les directions générales. Par son mode exploratoire, le Big Data offre une capacité d’observation pointue de nature à analyser les réussites comme les échecs, voire remettre en question l’activité et l’organisation de l’entreprise.

En somme, le Big Data dope les systèmes décisionnels traditionnels, auxquels il ajoute une dimension inédite : pouvoir exploiter d’immenses volumes de données au niveau de détail le plus fin. Le Big Data ne s’oppose donc pas à la Business Intelligence, mais la complète en lui apporter un degré de précision et une souplesse jusqu’ici inédites. Ainsi, l’informatique décisionnelle offre des outils industrialisés, pré-formatés pour répondre à des questions précises. En revanche, le Big Data permet d’explorer un dédale de données interdépendantes et de faire émerger des phénomènes significatifs pour identifier de nouvelles informations pertinentes.

Cette complémentarité doit logiquement se répercuter sur la conception des systèmes d’information décisionnels . D’un point de vue technique, une approche Big Data en amont des solutions de BI traditionnelles permet de simplifier l’architecture décisionnelle et d’optimiser les outils de pilotage. Déjà révolutionnée par l’essor du Saas, l’informatique décisionnelle est donc loin d’avoir achevé sa mue.




Commentaires

1.Posté par marc le 15/06/2011 12:01
Bon article, riche en explications et peu orienté.
Existe t-il des outils big data ? si oui lesquels? webcasts?

2.Posté par Jean-Michel Franco le 15/06/2011 23:04
Très bien vu que de traiter ce sujet sous l'angle de la complémentarité. Car les systèmes décisionnels traditionnels (avec ou sans bases de données colonnes, mémoire...) ont effectivement toutes les peines du monde à gérer les données chaudes. Le "juste à temps" reste un exercice compliqué dans le décisionnel.

Mais cela ne veut pas dire pour autant qu'il faut jeter le bébé avec l'eau du bain. Les systèmes décisionnels tels qu'on les connait conservent en effet des vertus qu'on aurait tort de laisser de côté (capacité d'unifier des sources de données hétérogènes en maitrisant la qualité du résutlat, d'assurer la cohérence des données entre elles, historisation des données...).
On voit à contrario effectivement apparaître de nouvelles idées très intéressantes dans le "Big Data". L'exemple que je préfère est celui de la recherche dans twitter : chaque requête est "vivante", c'est à dire que son résultat se rafraîchit en permanence lorsque de nouvelles occurrences correspondant à la recherche apparaissent dans la base. De quoi faire hurler les puristes des bases de données traditionnelles car en totale opposition avec ses concepts fondateur (le "I" de l'acronyme ACID).... c'est pourtant ce qui fait la valeur de twitter, car il permet ainsi à tout le monde d'accéder à une information réactualisée en permanence, en temps réel.

Par contre, ces nouvelles fonctionnalités peuvent se faire au détriment de choses que les systèmes traditionnels font parfaitement depuis des années. Pour reprendre l'exemple de twitter et de ses index (appelés Hashtag) : ceux ci n'indexent que les données les plus récentes. Une recherche sur un hashtag ne permet pas d'obtenir les tweets émis 3 ou 4 jours avant l'instant de la recherche.




3.Posté par Michel Bruley le 16/06/2011 14:50
C’est dans un esprit de complémentarité que Teradata a acquis récemment la société Aster Data qui offre une solution brevetée « SQL –MapReduce », pour le traitement et l'analyse de volumes massifs de données non-structurées. Pour plus d’information voir le site : http://www.asterdata.com/

4.Posté par rchaumais le 16/06/2011 17:03
Twitter
Merci pour vos retours.

Pour répondre à Marc, ils existent effectivement beaucoup d'outil qui se positionnent sur la vague du Big Data. A mes yeux, le Big Data est aussi une rupture des architectures et des usages autant que des outils.

Je crois que les solutions Hadoop ou Vertica/Infobright sont un bon début pour aborder les enjeux techniques des projets de Big Data.

Je partage aussi l'opinion de Jean-Michel à savoir que nous ne remontons pas en cause les plates-formes décisionnelles classiques. Le Big Data y ajoute juste une nouvelle dimension qui n'était pas encore envisageable il y a 3 ans.

Mais avant tout cela, il reste à expliquer les vertus possibles du Big Data et à préserver ce slogan de toutes dérives marketing inévitables.

5.Posté par Benoit CAYLA le 20/06/2011 13:44
Merci pour cet article qui est totalement en phase avec la stratégie d'Informatica 9.1 :

http://www.decideo.fr/La-plate-forme-Informatica-9-1-pour-les-grands-volumes-de-donnees-ou-Big-Data-donne-aux-entreprises-les-moyens-de-se_a4286.html

6.Posté par Patrick De Freine le 23/06/2011 12:06
Cette association "Big data = active warehouse" est intéressante. Je ne suis pas sûr toutefois qu'on ait attendu le concept "Big data" pour exposer les données du data warehouse à des services opérationnels, du moins dans les entreprises les plus matures en matière de décisionnel. Ce qui ne veut pas dire que les deux concepts ne soient pas à l'ordre du jour des plans de développement décisionnels modernes.

J'associe, pour ma part et peut-être à tort, les big data aux données non structurées en général et issues du canal internet en particulier ; dans ce cadre, le lien avec l'opérationnel est une façon de voir les choses, sans doute non exhaustive. On peut faire de l'active warehouse sans big data, et inversément. Je suis donc 100% d'accord avec les autres avis sur la complémentarité.

L'utilisation d'architectures modernes de "grille" (type Hadoop/Mapreduce ?) sur des Big Data est là aussi un des usages possibles, mais sans doute pas le seul : je vous conseille l'article récent et d'un rare intérêt d'Octo sur l'utilisation d'Hadoop dans un contexte de "value at risk" dans le domaine bancaire. Pragmatique et totalement convaincant (http://blog.octo.com/utiliser-hadoop-pour-le-calcul-de-la-value-at-risk-partie-1/)

De manière générale, je suis en tous cas preneur de tout "use case" convaincant sur le sujet, car aujourd'hui, il en est un peu des big data comme des promesses électorales : tout le monde en parle mais moins nombreux sont ceux qui en ont vu les effets, surtout depuis une entreprise. ;-) bien sûr

7.Posté par Michel Bruley le 23/06/2011 16:00
Pour répondre à la demande de Patrick De Freine ci-joint un premier case study celui de ComScore - http://t.co/lPdafbs

Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store