Decideo - Actualités sur le Big Data, Business Intelligence, Data Science

Abonnez-vous gratuitement à Decideo !


Decideo

 


La Business Intelligence traditionnelle est-elle menacée ?


Rédigé par Par Arnaud DELAMARE, Groupe Keyrus le 22 Février 2011

La Business Intelligence (BI) traditionnelle peine à satisfaire les besoins d’analyse des entreprises. Une nouvelle génération d’outils séduit les directions métiers par leur facilité d’utilisation et la valeur quasi immédiate qu’en tirent les utilisateurs. Ces outils sont-ils en passe de détrôner la BI traditionnelle ? Peuvent-ils au contraire la régénérer en lui apportant la souplesse et la réactivité qui lui fait défaut ?



Arnaud DELAMARE, Directeur du Centre Innovation du Groupe Keyrus
Arnaud DELAMARE, Directeur du Centre Innovation du Groupe Keyrus
Dès l’origine, une promesse majeure de la business intelligence (BI) a été de mettre la manipulation et l’analyse de données à la portée des non-spécialistes. Avec une quinzaine d’années de recul, force est de constater que ce n’est pas vraiment le cas : la BI s’est effectivement démocratisée, mais principalement en tant qu’outil de reporting et de diffusion d’informations – informations dûment contrôlées et validées, ce qui n’est pas le moindre apport de la BI traditionnelle face à la marée informationnelle qui frappe toutes les entreprises. Dans le domaine de l’analyse, le moins qu’on puisse dire est que les utilisateurs n’ont pas suivi la voie fixée par les éditeurs. La dernière enquête de Gartner auprès des utilisateurs de BI confirme ce que nous constatons chez nombre de nos clients : largement utilisées (76%), les fonctions de reporting obtiennent une note de satisfaction de 8,5 sur 10, tandis que les capacités d’interrogation et d’analyse ad-hoc sont jugées insuffisantes ou inadéquates et rencontrent, par conséquent, une faible adhésion.

Les raisons de la désaffection
« Les contraintes de la BI traditionnelle sont incompatibles avec la réactivité, la créativité et l’autonomie que l’entreprise attend aujourd’hui de ses managers et de ses collaborateurs. »

Ce n’est pas faute de besoins que les fonctions d’analyse des plates-formes décisionnelles classiques n’ont pas rencontré leur public. Au contraire : le nombre de métiers de l’entreprise où il est indispensable de pouvoir manipuler des données de plus en plus complexes n’a pas cessé d’augmenter. Trois facteurs expliquent en grande partie le relatif insuccès de ces outils auprès des utilisateurs.
Tout d’abord, ils ne sont pas si simples qu’on a bien voulu le dire ! Ils exigent de l’utilisateur un investissement considérable, et en particulier une bonne compréhension des données sous-jacentes et de logique de la plate-forme elle-même. Or, vu la pression et les rythmes de travail actuels, rares sont ceux qui ont le temps – et le désir – de se plonger dans les arcanes d’un outil de travail qui, étant nécessaire, devrait a minima être facile à utiliser.
Ensuite, les grands systèmes de BI que les entreprises ont adoptés comme standard sont structurellement rigides. Pour des raisons techniques et d’architecture, ils ne peuvent fondamentalement répondre qu’à des questions prévues et préalablement modélisées. Cette réalité ne correspond pas à la façon de raisonner et de réfléchir des utilisateurs dans des contextes professionnels qui évoluent très vite et où la valeur ajoutée se mesure précisément à la capacité à trouver rapidement des réponses pertinentes à des questions inédites. Enfin, même les utilisateurs chevronnés, capables de modéliser des requêtes plus ou moins sophistiquées, sont rapidement dépendants du département informatique qui, dans la majorité des entreprises, reste le point de passage obligé pour toute nouvelle demande liée au système décisionnel. Si ce processus est garant de la cohérence du tout, les nouvelles demandes rejoignent une file d’attente souvent déjà fort longue – au regret des équipes informatiques (manquant de ressources) et au grand dam des demandeurs (toujours pressés)…

Les outils qui apportent la rupture
« Ces nouveaux outils créent la rupture en accompagnant l’utilisateur dans son raisonnement et en lui permettant de suivre le cheminement de son choix pour trouver les réponses à ses questions »

De telles contraintes sont incompatibles avec la réactivité, la créativité et l’autonomie que l’on attend aujourd’hui des managers et des opérationnels. Conséquence, le taux d’utilisation des plates-formes qui font référence dans le monde de la BI a tendance à stagner, voire à diminuer. Ce recul se fait au profit d’une nouvelle génération d’outils d’analyse qui, aux yeux des utilisateurs, concrétisent la promesse initiale de la BI : faciliter et fiabiliser la prise de décisions grâce à la possibilité d’explorer et analyser rapidement les données disponibles.
La percée de solutions comme QlikView, Tableau ou encore Spotfire s’explique aisément. Ces solutions possèdent nativement les qualités qui font défaut aux plateformes plus anciennes ou qu’elles peinent à acquérir : pour l’utilisateur, l’intuitivité et l’interactivité qu’offre une approche très graphique des données ; pour les directions métiers, une rapidité de déploiement et une plus grande indépendance vis-à-vis de la direction informatique. Ces outils fonctionnent en effet sans demander la construction d’une couche sémantique et acceptent directement les données de la plupart des sources structurées que l’on trouve dans les entreprises. Ainsi, là où une direction métier devait attendre plusieurs mois la création d’un datamart correspondant à ses besoins – ce qui revenait à définir et modéliser ex ante toutes les questions que seraient susceptibles de poser les utilisateurs et les axes selon lesquels ils pourraient analyser les indicateurs –, elle peut aujourd’hui disposer en quelques jours d’un outil performant du point de vue des principaux intéressés : les utilisateurs.


Un engouement contagieux

Les bénéfices rapides de ces nouveaux outils poussent les utilisateurs à s’en faire les promoteurs enthousiastes. Le bouche à oreille fonctionne d’un département à l’autre, d’une entreprise à l’autre. La contagion progresse si bien que les directions sont de plus en plus nombreuses à rechercher de ce côté ce qu’elles n’arrivent pas à obtenir des systèmes de BI traditionnels : la souplesse, la réactivité, l’autonomie. Ce qui séduit en premier lieu les utilisateurs, c’est la rapidité avec laquelle une solution comme QlikView, Tableau ou certaines nouvelles lignes de produits des grands éditeurs leur apportent une aide tangible dans leurs tâches et décisions quotidiennes, sans nécessiter des heures et des heures d’apprentissage. Ils se piquent rapidement au jeu de leur approche très visuelle et abandonnent sans regret l’analyse d’indicateurs purement chiffrés, plutôt fastidieuse, pour des représentations graphiques variées qui rendent immédiatement saillants les exceptions, les écarts, voire les aberrations sur lesquels ils doivent concentrer leur attention.
Grâce à leurs capacités intrinsèques d’analyse, de comparaison dans le temps et entre indicateurs, d’inclusion, d’exclusion et de lien entre plusieurs analyses, ces outils intuitifs libèrent complètement l’utilisateur de la complexité sous-jacente, tout en le mettant à l’abri des erreurs de construction les plus grossières. Les modélisations se font à la volée, les traitements sont instantanés, les analyses par simple glisser-déposer ne brident pas l’utilisateur. Bien au contraire, elles accompagnent et stimulent son raisonnement et lui permettent de vérifier ses hypothèses et ses intuitions, en procédant par tâtonnements, par retours en arrière – sans perte de temps ni conséquences sur le système. De plus, si un cheminement s’est révélé fructueux, l’utilisateur peut le mémoriser et le partager très facilement via des outils de commentaires et de collaboration.


Jouer la synergie plutôt que la concurrence

Face à cet engouement, les DSI sont prises entre deux feux. Ces nouveaux outils d’analyse et de dashboarding sont incontestablement porteurs d’une rupture attendue, qui bénéficie tant aux utilisateurs métiers qu’aux équipes informatiques dont ils allègent a priori la charge de travail.
D’un autre côté, les DSI s’inquiètent de voir se multiplier des projets départementaux dispersés qui, s’ils satisfont les utilisateurs, sont susceptibles de porter atteinte à la cohérence globale du système décisionnel de l’entreprise. Pour les DSI, la contrepartie de l’autonomie décisionnelle acquise par les directions métiers qui déploient ces solutions est en effet le risque de voir proliférer des instruments d’analyse reposant sur des technologies hétérogènes, sur des systèmes insuffisamment sécurisés et sur autant de définitions de données qu’il y a d’outils, sinon d’utilisateurs. Cela va bien sûr à l’encontre d’un des fondamentaux de la BI, à savoir : faire en sorte que toute l’entreprise parle le même langage. Comme il est illusoire d’espérer voir reculer la popularité de ces technologies, les DSI ont intérêt à jouer la carte de la complémentarité plutôt que celle de la concurrence avec l’environnement décisionnel existant. En répondant efficacement à des besoins que la BI traditionnelle ne satisfait pas, ces technologies ont indiscutablement leur place dans le système décisionnel de l’entreprise. En revanche, l’expérience prouve qu’elles ne donnent leur pleine mesure que si elles s’appuient sur un substrat décisionnel solide.
Une autre stratégie consiste à retarder l’échéance et à s’appuyer sur les partenaires éditeurs historiques car les grands acteurs de la Business Intelligence ne comptent pas laisser passer le train. Ainsi Microsoft a largement communiqué sur Powerpivot ou encore SAP peut faire valoir Xcelsius et les technologies liées à l’acquisition de Sybase. En conséquence, les DSI qui veulent renforcer les synergies entre ces deux générations d’outils, peuvent engager deux types d’actions : d’une part, réaliser un audit approfondi de l’utilisation du système décisionnel pour identifier ce qui n’est pas utilisé et comprendre pourquoi ; d’autre part, construire le cadre méthodologique et de gouvernance dans lequel les directions métiers pourront développer leurs initiatives sans réduire à néant les années d’efforts et d’investissements BI qui ont permis de normaliser et de fiabiliser les informations de l’entreprise. Les nouveaux acteurs de la Business Intelligence ont indéniablement comme vertu de mettre en exergue deux enjeux : tout d’abord, que l’ergonomie, à l’instar de tout applicatif, est clé dans le succès d’une application analytique. D’autre part, que la conservation d’espaces de libertés reste une nécessité pour toutes les directions métiers. En cela, ils ne sont évidemment pas antinomiques de la construction de socles décisionnels solides.

1. « BI Platforms User Survey, 2010: Customers Rate their BI Platform Functionality », Rita L. Sallam, Gartner Inc., février 2010.

Arnaud DELAMARE, directeur du Centre Innovation de Keyrus, pilote aujourd’hui ce centre après avoir passé plus de 10 années au sein du Groupe à accompagner les plus grandes entreprises françaises et internationales dans l’intégration de technologies de Business Intelligence et de Performance Management. Il s’appuie dans sa mission sur une équipe dédiée d’experts répartis dans les 11 pays d’implantations du Groupe ainsi que sur un dispositif de capitalisation des savoir-faire à l’échelle du Groupe Keyrus.




Commentaires

1.Posté par cook le 23/02/2011 08:10
QlikView n'est tout de même pas un modèle de facilité pour créer ou modifier rapidement des rapports contrairement à ce que l'on dit. Nous l'avons expérimenté. Cela nécessite une bonne connaissance du SQL. Ce qui est parfois intéressant tout de même.

Par contre d'autres solutions comme StarQuery de SYMTRAX nous ont permis de répondre à cette demande de simplicité de nos utilisateurs finaux.

Keyrus est Partner of the year de Qliktech en temps que revendeur...

2.Posté par Stefan le 23/02/2011 16:22
Chaque outil a son usage et ses forces/faiblesses par rapport à un usage particulier. Toute autre considération serait forcément partisane.

Ce que l'auteur souligne , c'est l'émergence d'un nouveau type de besoin ( le "datavis" ) : la visualisation de données. Néanmoins , ce type d'outil d'analyse visuel touche relativement peu de monde dans une entreprise , et c'est très gourmand en RAM , donc pas forcément adapté à une diffusion de masse.

Pour faire court , c'est un truc sympa que je trouve très bien pour avoir utilisé Tableau et testé Qlikview. Excellente approche user-centric.

Je ne suis pas très d'accord avec le "soulagement" de l'IT , les "datavis" ne corrigent aucunement la mauvaise qualité de données par exemple , bien au contraire , sans un vrai projet MDM , on peut faire du "Quick and Dirty" avec ces outils. Ce sera beau , rapide , intuitif et...totalement faux par endroit :-).

Donc y aller tout feu tout flamme sans un effort IT attentionné , aie aie aie...

Finalement , comme Keyrus c'est promo Qliktech à fond, on peut effectivement s'intérroger sérieusement sur l'objectivité de l'auteur. Il y a d'autres sources d'innovation ces temps-ci surtout coté open-source BI et cloud , mais bien entendu , comme par hazard , Keyrus n'est pas très bien positionné sur ce segment :D

3.Posté par Audrey le 24/02/2011 12:11
Effectivement, je prendrais aussi cet article avec parcimonie... Article ou Publi-communiqué... telle est la question?

4.Posté par Jean-Michel Franco le 25/02/2011 08:39
L'article est très intéressant.
Un point de débat cependant sur la phrase "Ces outils fonctionnent en effet sans demander la construction d’une couche sémantique ".
Certains outils évoqués répondent effectivement à cette définition, mais j'ai le sentiment que d'autres au contraire proposent cette couche sémantique. Dans ce dernier cas, un des différences entre cette catégorie et la génération précédente c'est que cette couche sémantique est plus facile d'accès, donc qu'elle peut être construite par ou avec la participation plus forte de certains "utilisateurs avancés" .

A mes yeux, l'absence de couche sémantique mène à un impasse. Il pousse les utilisateurs à définir leur propre langage. Dans le monde réel, on appelle ça la cryptophasie, c'est à dire un langage développé un très petit nombre de personne incompréhensible par le reste du monde. C'est la hantise des parents de jumeaux, triplés... que de voir leurs enfants se développer en étant déconnectés du reste du monde.
L'analogie s'apparente parfaitement au monde de la BI, me semble-t-il. En BI, la couche sémantique est le ciment. A l'heure du web 2.0 et du read write web, on peut sans doute reprocher aux outils de BI traditionnels de ne pas donner suffisamment d'autonomie aux métiers dans la phase de définition ou de personnalisation de cette couche sémantique, et voir arriver une nouvelle génération d'outil pour les challenger est à ce titre une excellente nouvelle. Mais, attention de ne pas considérer qu'on n' a plus besoin de cette couche, car ce serait jeter le bébé avec l'eau du bain.

5.Posté par Nicos le nantais le 12/04/2011 15:07
Article très intéressant, en prise avec la réalité des attentes des utilisateurs métiers. Je trouve le dernier paragraphe sur la nécessité de créer des synergies particulièrement vrai, mais cela nécessite de repenser les relations métiers, AMOA, IT comme le précise Arnaud DELAMARRE et passer du dogme de la BI maitrisée par l'IT au dogme de la BI maitrisée par les métiers ne résoudra rien... il faut penser un nouveau modèle empreint de synergies, donnant agilité et réacitivité aux métiers et maitrise et capacité d'industrialisation à l'IT.

"...Comme il est illusoire d’espérer voir reculer la popularité de ces technologies, les DSI ont intérêt à jouer la carte de la complémentarité plutôt que celle de la concurrence avec l’environnement décisionnel existant. En répondant efficacement à des besoins que la BI traditionnelle ne satisfait pas, ces technologies ont indiscutablement leur place dans le système décisionnel de l’entreprise. En revanche, l’expérience prouve qu’elles ne donnent leur pleine mesure que si elles s’appuient sur un substrat décisionnel solide..."

Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store