Big Data, Science des données, aide à la décision en entreprise, business intelligence, data warehouse, reporting, OLAP, web analytics, data visualization, data mining, internet des objets, informatique cognitive, intelligence artificielle...

Abonnez-vous gratuitement à Decideo !


Decideo

 


RAPID BI, la Nouvelle Vague de la BI bouscule l’Ancienne Génération


Rédigé par par Pierre Formosa, Umanis le 28 Juin 2011

Sous l’impulsion de nouveaux entrants tels que Qliktech, Tableau Software ou Digdash, (…) qui prônent une nouvelle façon de concevoir et de consommer le décisionnel en entreprise, on voit apparaître une nouvelle génération d’outils d’analyse et de reporting « in-memory » calqués sur les usages google-isés du grand public : prise en main intuitive, self-service, « plug and play », instantanéité des réponses aux questions posées et TCO minime. Tous les éditeurs historiques du décisionnel (SAP BusinessObjects, IBM Cognos, Oracle, Microsoft, etc.) lancent leurs offres à leur tour. L’effondrement du coût de la mémoire et l’explosion de la puissance matérielle semblent sonner le glas des plateformes décisionnelles telles qu’on les connait avec leur complexité (BDD, dimensions, requêtes SQL, etc.) et leur lenteur souvent frustrantes.



Pierre Formosa, Responsable Avant-Vente, Umanis
Pierre Formosa, Responsable Avant-Vente, Umanis
Et parmi nos clients, vous êtes un sur deux à déclarer avoir un projet sur ce sujet. Nous vous proposons donc de faire le point sur ce que sont réellement les solutions dites de « RAPID BI », leurs domaines d’application et leur réalité opérationnelle dans les systèmes existants.

Tout d’abord, qu’y a t-il derrière cette notion de Rapid BI ?

Elle repose tout principalement sur le temps nécessaire pour accéder à l’information, devenu bien plus rapide sur la mémoire que sur le disque, et sur l’utilisation de bases de données vectorielles permettant de compresser fortement la volumétrie des données stockées dans les bases de données traditionnelles ainsi que leurs capacité à stocker ces informations « in-memory »*.

Est-ce que les outils dits de nouvelle génération représentent une véritable rupture et peuvent réellement remplacer les outils traditionnels existants ?

La tendance actuelle, notamment sous la pression conjointe des utilisateurs et des éditeurs, est à la fusion des systèmes d’information opérationnels et des systèmes d’information décisionnels. La nécessité se fait de plus en plus grande d’offrir aux métiers une capacité de pilotage en temps réel de leurs activités opérationnelles. Il est vrai que les populations issues de la vente, du marketing ou encore de la finance cherchent à gagner toujours plus en autonomie et rêvent de partir explorer les informations de l’entreprise pour identifier de nouveaux leviers business ou d’économies potentielles. Si ces populations appartiennent en plus à la génération « Y », vous vous retrouvez face à des utilisateurs qui n’ont jamais eu à suivre une formation pour prendre en main un outil et qui sont même réfractaires à ce type d’approche. Ainsi, nous pensons qu’il s’agit davantage de nouveaux outils plus « light », en réponse à de nouveaux besoins, plutôt que de solutions de remplacement des systèmes en place.

Opérer la fusion entre l’opérationnel et le décisionnel peut-il fonctionner ?

Les éditeurs de « Rapid BI » prônent ce rapprochement et proposent au travers du in-memory un pilotage adossé aux données de l’entreprise, qu’il s’agisse des bases opérationnelles ou de DataWarehouse. En-effet, la Rapid-Bi présente de nombreux avantages (temps réel, moins de décalage entre les systèmes de production et mon système décisionnel, diminution du coût et de la complexité de l’infrastructure…), mais l’argument qui semble le plus prometteur aux yeux des utilisateurs est celui de leur indépendance vis-à-vis de la DSI. A contrario, bénéficier d’une grande liberté dans la conception de ses analyses peut aussi engendrer certaines difficultés (difficultés ayant données naissance aux infrastructures et architectures décisionnelles actuelles) qu’il ne faut pas occulter. Il est donc nécessaire de mettre en place les « gardes fous » suffisants pour continuer à garantir un haut niveau de qualité des indicateurs de pilotage que les utilisateurs manipulent, et guider ceux-ci dans ce nouvel espace de liberté apporté avec le « Rapid-BI ». Sans ces « gardes fous », les risques sont grands d’obtenir une vision décisionnelle divergente entre les différentes strates hiérarchiques de l’entreprise.

Cette nouvelle approche du décisionnel semble séduisante et les éditeurs vantent tous les intérêts de ces nouvelles solutions, mais qu’en est-il de l’approche « traditionnelle » que l’écosystème décisionnel porte depuis des années ? Faut-il pour autant tout remettre en cause ? Doit-on faire table rase de tous les développements actuels ? Que faire des investissements passés ? Peut-on laisser une totale autonomie aux utilisateurs dans la manipulation des données et leur interprétation ? Autant de questions qu’il convient de se poser pour percevoir l’intérêt, ou non, de mettre en œuvre une démarche outillée de « Rapid-BI » au sein de l’entreprise.

Aujourd’hui, le décisionnel s’appuie sur une démarche structurée et cohérente, capable d’intégrer des données de sources hétérogènes provenant d’horizons dispersés au sein de l’entreprise mais également à l’extérieur de celle-ci : partenaires, fournisseurs, web, concurrence, organismes réglementaires, clients, etc.… L’approche plus « directe » proposée par les nouvelles solutions « Rapid BI » est-elle adaptée et dimensionnée pour répondre aux enjeux actuels de multiplicité des sources, et prendre en considération les enjeux de demain avec notamment l’intégration dans les SID des informations non-structurées ?

Curieusement, le discours porté par les éditeurs de « Rapid-BI » se retrouve dans le discours énoncé dans les années 1985/1990 par les éditeurs de l’époque, Information Builders, Nomad, Harry… qui proposaient déjà des solutions d’analyse capable d’interroger les bases de données opérationnelles. Aujourd’hui la puissance des serveurs et le coût très faible de la mémoire (contrairement aux années 90) permet de tirer partie de cette technologie « in-memory »… la boucle serait-elle en train d’être bouclée ? Rentrons-nous dans le second cycle de vie du décisionnel ?

Quels sont les acteurs de ce marché ?

Aujourd’hui tous les éditeurs se lancent dans la « Rapid-BI », mais nous pouvons distinguer 2 catégories : les « pure-players de la Rapid-BI » et les acteurs traditionnels qui font évoluer leurs offres vers cette nouvelle catégorie de solutions.

Dans la catégorie Pure-Player, nous retrouvons des acteurs tels que Qlicktech, Tableau Software, et Digdash. Dans la seconde catégorie, nous retrouvons quasiment tous les acteurs avec leur propre technologie et notamment SAP/BI 4.0 avec l’infrastructure HANA. Entre tous ces acteurs, il existe tout de même un point commun, le principe d’architecture repose sur une base de données vectorielle, soit sur un format propriétaire, soit sur un format existant. Avant la mise en œuvre d’une architecture « Rapid-BI » il faut nécessairement se poser la question de l’impact sur les systèmes en place (qui peut s’avérer critique), soit en terme de coût, soit en terme d’organisation. D’autant plus si la cible doit s’appuyer sur une solution « pure-player » et que l’entreprise dispose d’une solution historique de BI.

Umanis a benché trois éditeurs proposant une offre de Rapid-BI : Qlicktech, Tableau Software, et Digdash.

Qlicktech est l’éditeur fer de lance de ce marché. Son positionnement est basé sur la simplicité d’utilisation au travers d’une interface intuitive permettant d’analyser et de découvrir l’information facilement. Le format propriétaire Qlikview s’ouvre aux autres ETL dont (bientôt) Informatica. On peut se demander si l’avantage concurrentiel acquis par Qliktech sera maintenu avec la montée en puissance de Tableau Software ainsi que le développement du in-memory dans les offres traditionnelles.

Tableau Software propose une solution d’analyse de données ergonomique et intuitive avec un affichage très rapide intégrant les concepts de drill-down, de tendances, d’analyse cartographique et de KPIs… L’interface très graphique et orientée poste Utilisateur et Web permet de créer des « dashboards » et des « sheets » très simplement par « drag-and-drop ».

Cette solution est idéale pour la définition de reportings en mode prototype ou pour une population de « power users » (sur bases traditionnelles et décisionnelles), et peut-être mise à disposition de manière directe à des utilisateurs finaux (directions financières et commerciales).

Cependant, il est encore très difficile d’avoir du recul sur cette solution (au niveau projet) car celle-ci vient juste de s’implanter en France.

Digdash est un nouvel entrant français qui propose une solution supportant nativement de nombreuses sources (Oracle, SQL Server, …) de plus une particularité intéressante de la solution est de pouvoir utiliser des univers BO ou des catalogues Cognos comme source de données et donc de se présenter comme no intrusifs dans ce type d’architecture. Digdash se présente comme un fédérateur BI pouvant parfaitement venir en complément de solution existante et pouvant être exploité sur mobile.

Nous attendons également la sortie prochaine de SAP BO 4.0, Hana (en réponse aux projets de grande envergure). Cette solution logicielle permettra d’effectuer en temps réel des analyses haute performance sur des données de Production.

Nous avons consacré le 7 juin dernier un 5à7 sur le sujet de la Rapid BI, si vous désirez plus d’informations n’hésitez pas à nous contacter service-clients@umanis.com.

*Le principe du « in-memory » est assez simple, il s’appuie sur le principe suivant : « le nombre de valeurs distinctes d’une base de données est inférieure au nombre de lignes de cette base » ! Par ailleurs le mode de stockage permet une compression importante des données ce qui permettra de manipuler un très grand volume d’informations sans dégradation sensible des temps de réponse pour les utilisateurs.




Commentaires

1.Posté par Jean-Marc Dupont le 28/06/2011 21:49
Twitter
Si le sujet vous intéresse, voir également l'article publié sur decideo : http://www.decideo.fr/Comparatif-entre-Digdash-et-QlikView_a4193.html

2.Posté par Alexandre Schneider le 30/06/2011 15:16
Article intéressant mais je me permet, si vous le permettez, d'y apporter quelques précisions. Je représente l'éditeur Prelytis qui, malheureusement, n'a pas eu l'honneur de faire partie de ce bench mais qui rencontre pratiquement chaque fois en short-list les outils cités.
Vous faîte un amalgame, je pense, entre Rapid BI et la technologie "In-memory" . Les outils de nouvelle génération sont avant tout plus rapides à mettre en oeuvre que les solutions traditionnelles. "In-memory" ou pas, cela n'y change rien. Une mise en place d'un tableau de bord est déjà finie avec QV, Tableau ou Prelytis, alors que l'installation des autres solutions n'est pas terminée. C'est la raison pour laquelle je préfère parler de BI agile plutôt que de Rapid BI qui peut porter à confusion.
Bien sûr, les technologies "In-memory" apportent de la rapidité d'execution et des performances plus grandes avec de larges volumes de données mais cela ne fait pas la force principale de ces outils malgré ce qui est souvent dit. Ce qui change la donne, c'est la flexibilité de ces solutions qui rendent possible des projets avec des méthodologies agiles.
J'ajouterai également que "In-memory" n'est égale à l'aggregation que vous mentionnez a la fin. Cette aggregation peut être réalisée dans une base relationnelle standard presque sans outils tiers. Cette notion s'appelle d'ailleurs la vectorisation et c'est IBM qui le premier a travaillé sur le sujet. La technologie "In-memory" permet d'inclure cette notion en mémoire en profitant des tailles importantes de la mémoire vive disponible aujourd'hui et des processeurs 64 bits rendant possible l'adressage de ces plages mémoires.
En résumé, ce n'est pas en incluant une base "In-memory" à une architecture BI ancienne que l'on fera de la BI agile et que l'on répondra aux attentes des utilisateurs qui souhaitent des mises en place rapides, des modifications rapides quelque soit les sources de données.
Cordialement

3.Posté par Pierre Formosa le 05/07/2011 11:41
Merci de vous joindre à nos nombreux clients qui nous ont fait l’honneur de répondre à notre invitation, et qui partagent avec nous l’intérêt pour ces nouvelles solutions.

Prelytis est effectivement un acteur de ce secteur d’activité, mais comme toujours il est difficile de réaliser une étude sur tous les outils et cela de façon exhaustive. Il est donc malheureusement nécessaire de faire des choix et les notre furent ceux affichés pour cet événement.

Je reste naturellement, très intéressé, soit pour évaluer Prelytis et ainsi l’inclure dans notre prochaine session sur ce thème, ou à vous rencontrer pour échanger sur ce sujet.

Je vous remercie de vos remarques, qui ont le mérite sans aucun doute d’attirer l’attention du lecteur sur quelques points essentiels, et vous permettrez que j’apporte quelques précisions, à mon tour, en rebondissant sur vos remarques :
• Amalgame entre « Rapid BI » et « in-memory », il clair que le premier tire partie de façon évidente du second, à minima dans le discours sinon dans les faits.
• Concernant le temps d’installation, vraiment est-ce là un point différenciateur stratégique ?
• Certains affirme que l’heure du Data Warehouse est révolue… que ces solutions s’intègrent directement dans le SI opérationnel… outre que ce discours me rappelle vaguement un discours déjà entendu, mais que les moins de 20 ans ne peuvent pas connaître… je reste pour le moins intéressé par la démarche, mais prudent sur son application…
• Flexibilité… dans le sens d’une plus grande liberté offerte aux utilisateurs ? en quoi les solutions « plus anciennes » ne pourrait pas être flexible ?... Ce qui est certain c’est que ces nouvelles solutions tirent profit de plus de 25 années de savoir faire, des nouvelles capacités techniques de nos servers, et c’est très bien ! mais attention de ne pas retomber dans les travers du passé.
• Enfin, le « In-memory » ne date pas d’aujourd’hui, ce qui, aujourd’hu,i rend son exploitation possible c’est justement les nouvelles infrastructures techniques, notamment grâce à l’OS 64bits mais également à la capacité des processeurs. Vous avez parfaitement raison sur un point, il ne suffit pas de mettre en œuvre une base de données « in-memory » pour faire de la « BI Agile », d’ailleurs ce n’était pas le thème de notre événement.
En conclusion, je vous rejoins le « In-memory » et « BI agile » sont 2 démarches différentes et de mon point de vue complémentaires. La première étant au service de la seconde.

4.Posté par Jean-Marc Dupont le 07/07/2011 14:59
Twitter
D'accord avec vous deux ;-)

La BI est agile par ses outils, par le process de mise en oeuvre et par le process de deploiement

Cf. un autre article sur Decideo : http://www.decideo.fr/La-BI-2-0-agile-mobile-et-collaborative_a4256.html

Nouveau commentaire :
Facebook Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.