Decideo - Actualités sur le Big Data, Business Intelligence, Data Science

Abonnez-vous gratuitement à Decideo !


Decideo

 


Business Intelligence : L’innovation est-elle en panne ?


Rédigé par le 20 Mai 2019

Après le choc de la fin des années 2000, la décennie 2010 a vu l’émergence de la Business Intelligence agile, et de concepts tels que la mobilité, la visualisation graphique, la mise en récit des données, le langage naturel, l’analyse prédictive. Mais depuis quelques temps, le rythme d’innovation semble se ralentir. C’est en tous cas la perception de nombreux analystes et utilisateurs. Sommes-nous parvenus à la fin d’un cycle ? Sur quoi devraient travailler les éditeurs de logiciels pour reprendre l’initiative ?



Photo by Katie Moum on Unsplash
Photo by Katie Moum on Unsplash
Il y a une dizaine d’années, le monde des outils de Business Intelligence était en pleine révolution. Petit retour en arrière. Nous sommes en 2008, et une vague de rachats sans précédent touche le secteur des outils de reporting et d’analyse de données. Comme l’analysait à l’époque Michael Albo, les rachats se sont enchainés : dont les plus importants ont été, Hyperion par Oracle, Business Objects par SAP et Cognos par IBM. Entre temps, beaucoup de plus petits fournisseurs avaient déjà été avalés.
La décennie 2010 s’ouvre donc avec un nouveau décor : un marché des outils de reporting devenus des commodités et intégrés aux grandes plates-formes ; de rares indépendants, Microstrategy ou Information Builders, dont on se demandait chaque semaine quand ils allaient être rachetés, et qui finalement sont toujours là dix ans après ; et surtout de nouveaux fournisseurs, dont la croissance s’est appuyée sur la concentration précédente, Qlik et Tableau par exemple.

Une décennie riche en progrès pour l’utilisateur

Les « stars » de cette intelligence d’affaires en libre-service sont Qlik, Tableau, TIBCO Spotfire, Microsoft PowerBI essentiellement. A eux seuls, ils détiennent la majorité du marché mondial. La plupart existait avant 2008, mais c’est l’espace laissé vacant par les rachats des outils de reporting qui leur a permis de gagner d’importantes parts de marché, auprès des utilisateurs métiers.

Beaucoup de progrès ont été faits durant la décennie et les outils de « self-service BI » se sont imposés, de gré ou de force, dans les entreprises. Ils ont modifié l’organisation, la répartition des rôles, et soutenu l’émergence de l’économie des données dans laquelle nous sommes plongés. Sans ses outils, et leurs capacités d’analyse et de représentation graphique, il serait impossible de prendre autant de décisions quotidiennes, basées sur les données.

Les grandes fonctions que l’on a vues se développer durant la décennie sont :
- L’extrême simplification des interfaces utilisateurs : alors qu’il fallait un informaticien pour chaque évolution de rapports Business Objects et Cognos, manipuler aujourd’hui les outils de BI agile est à la portée de tout utilisateur d’Excel.
- La représentation graphique a trouvé sa place, non comme un accessoire, mais au cœur de la navigation dans les données. Dans Tableau, Qlik, Spotfire, elle est un point d’entrée et de découverte des données.
- L’intégration avec des fonctions avancées de modélisation ou d’analyse prédictive, au travers de fonctions ou de saisie de code Python ou R.
- L’accès, plus ou moins complet, aux données et aux analyses en situation de mobilité, au travers de téléphones et de tablettes.
- En revanche, la plupart de ces solutions restent conçues pour un usage individuel, ce qui a fait leur succès. Elles ont toutes développé des extensions « serveur », mais sont moins bien intégrées aux plates-formes d’entreprises que les outils de reporting qui les précédaient.
Mais voici que depuis environ un an, les questions se multiplient sur le futur des outils de Business Intelligence et l’absence relative d’innovation depuis ces deux dernières années.
Alors que se passe-t-il ? Simple trou d’air après des années de nouvelles fonctionnalités ? Ou véritable fin de cycle qui va nous obliger à inventer la prochaine étape à partir de la feuille blanche ?

Ce qui laisse une impression d’inachevé… et pourrait être amélioré

Bien sûr, il reste possible d’enrichir le vocabulaire graphique de tous ces outils, et ajouter encore de nouveaux modèles. Mais ils ne concerneront que quelques utilisateurs très avancés. Le niveau général atteint par les grands logiciels cités plus haut est excellent. Les différences entre les outils relèvent plus de l’ergonomie que des fonctionnalités clefs. Bien sûr, la plateforme éventuellement retenue par le client pourra l’orienter vers un outil de BI. Ainsi une entreprise qui aura misé sur la plateforme Microsoft pour ses bases de données aura tout intérêt à choisir Power BI comme outil d’analyse.

Conjuguer l’analyse en libre-service et la gouvernance des données

C’est sans doute le point le plus délicat constaté sur l’ensemble des projets, dans l’ensemble des organisations. Plus les utilisateurs sont autonomes, plus ils analysent leurs données, et plus les règles de gouvernance des données sont bafouées ou ignorées. L’exemple le plus flagrant est l’application du RGPD. Alors qu’il concerne bien sûr l’ensemble des données personnelles de l’entreprise, le plus souvent les fichiers extraits par les analystes métiers, conservés sur leurs postes de travail, dans des répertoires partagés, ou stockés dans un data lake, ne sont pas connectés à la base de consentements, ne sont pas cartographiés, et les traitements réalisés ne sont pas référencés dans le registre des traitements.
Par ailleurs, les données de référence sont souvent ignorées des applications décisionnelles, tout comme la génération automatique des métadonnées qui permet de garder la trace de l’ensemble des modifications.
A ce jour, la combinaison de l’agilité des analyses en libre-service avec les données stockées dans les nouveaux espaces de stockage (NoSQL, Hadoop, etc.) ne respecte absolument pas les règles légales et de gouvernance des données personnelles et des données de référence.
Attention, cela ne doit pas être reproché aux seuls outils de BI ; mais à la fois au manque de prise de conscience des utilisateurs, et à la faiblesse des solutions de BI agile en matière d’administration des données.

Aller plus loin en matière de mise en récit des données

Tableau, mais également Qlik et Microsoft, ont développé des outils permettant de mettre en récit les données présentées par les utilisateurs. Mais après avoir investi plusieurs années de recherche sur le sujet, le résultat semble incomplet. L’idée d’inclure l’outil de présentation dans l’outil de BI est intéressante. Mais les versions actuelles proposées sont encore grandement insuffisantes. Il manque de nombreuses fonctions de base des outils de présentation, et il n’existe actuellement aucun outil d’aide à la conception des présentations ; c’est-à-dire d’assistance à la mise en œuvre d’une méthodologie de mise en récit des données. Or depuis deux ans environ, les éditeurs concernés semblent avoir abandonné le développement de nouvelles fonctions de data storytelling. C’est dommage !

Poser des questions en langage naturel

Popularisée par Apple Siri, Amazon Alexa ou encore Google Home, la reconnaissance vocale est maintenant combinée à la compréhension des questions posées, afin de servir d’interface à votre outil décisionnel. Peut-être les prochaines générations de professionnels préfèreront-elles parler à l’ordinateur… mais pour les analystes actuels c’est une perte de temps. Tout comme si cet article était dicté à un ordinateur. Le processus de création d’un contenu (un article tout comme une requête), est la connexion entre la pensée et l’expression de ce besoin au travers des doigts qui se déplacent sur le clavier. Les deux vitesses sont coordonnées. Si l’on remplace l’expression au clavier par l’expression orale, l’ensemble du processus est à ré-apprendre. C’est pour cela que l’usage actuel de ces solutions de langage naturel ne nous semble pas… naturel… Et que la plupart des utilisateurs reviennent au clavier. Là encore, nous ne sommes qu’au milieu du gué, et les éditeurs de logiciels doivent encore largement améliorer leurs solutions.

Connecter les décisions au système opérationnel

Nous revenons ici un peu à la première remarque concernant la gouvernance. Les outils décisionnels ont besoin d’être connectés aux outils opérationnels. On passe de l’aide à la décision à la prise de décision automatisée. C’est ce que l’on appelle l’automatisation des processus (RPA). Mais pour cela, à la fois pour des raisons de sécurité et de gouvernance, ces outils décisionnels doivent être encadrés, et leurs résultats ne peuvent pas être directement transformés en décision sans un minimum de contrôle. Ce contrôle ne plait pas aux utilisateurs, qui y voient un retour en arrière dans leur agilité. C’est pourtant indispensable. Et lors des discussions en entreprises, il est à la fois inquiétant et triste de constater que les difficultés de communication entre direction informatique et directions métiers, ne se sont pas beaucoup améliorées depuis plusieurs décennies. La création de directions « data », la nomination d’un CDO (Chief Data Officer) parfois concurrent volontaire ou involontaire du CIO, la mise en place d’une stratégie d’entreprise orientée données, tout cela ne peut se faire sans coordination. L’agilité des outils de BI est un atout essentiel, mais peut être un frein à la mise en œuvre de bonnes pratiques. Les éditeurs devraient se préoccuper autant du déploiement de leurs solutions en entreprise que de la conquête de nouveaux utilisateurs.

Alors, cette innovation est-elle en panne ? Avons-nous atteint la fin d’un cycle ? Ou les éditeurs de logiciels peuvent-ils encore améliorer certains points ?
Qu’en pensez-vous ? Utilisateurs et fournisseurs, les commentaires vous sont ouverts. A condition qu’ils soient constructifs, et pas simplement « mon produit est le meilleur du monde »… cela fait longtemps que les utilisateurs n’y croient plus !




Commentaires

1.Posté par Sebastien Cognet le 21/05/2019 17:48
Je partage ce point de vue sur le coup de mou des solutions BI. Mais avant la suppression des analystes, je discerne quelques sujets qui devraient encore occuper le marché de la BI.

Pour les acquis de la dernière décennie, et plus particulièrement l’intégration de l’analyse prédictive dans la BI, ce sujet n’est pour moi pas encore bien stable.
Certes le rôle de l’analyste BI analysant des KPIs et prenant des décisions est définitivement complété aujourd’hui par de la valeur additionnelle ajoutée quasi-automatiquement par les algorithmes analytiques. Mais ce processus a besoin d’encore plus de data en entrée et recentre le sujet sur la data intégration. Celle-ci doit surmonter le critère temps et tenir compte des dernières data générées, temps réel. Les modèles analytiques quant à eux doivent évolués en toute autonomie face à l’accroit de ces data supplémentaires (plus uniquement mes mesures opérationnelles mais également des « sentiments » extraits d’autres sources comme les réseaux sociaux …etc…). Alors, le machine Learning doit-il être inclus dans la BI ou dans la Data Intégration ? Chacun prêche pour sa paroisse. En tout état de cause je dirai que cette pratique est encore en évolution aujourd’hui et que des fusions/absorptions devraient se jouer soit entre des acteurs DI ou BI et les nombreuses « data-agency » nées de l’analyse prédictive qui auront prouvées leur leadership.

Pour la gouvernance des données et plus particulièrement les nouvelles régulations sur la confidentialité, c’est un chapitre qui s’ouvre et qui doit en effet solutionner la problématique des analyses BI disséminées et non inventoriées dans l’entreprise. Là je rentre dans mon domaine, la Data Privacy, mais le lien avec la BI est que de nombreux acteurs s’efforcent de gérer la confidentialité au niveau de l’outil de BI, c’est à dire au niveau de l’utilisateur. Or plus de 60% des fuites de données proviennent des salariés des entreprises elle-même, donc de personnes qui ont accès aux données. Ainsi il semble préférable de dissocier la sécurité définie pour un utilisateur et l’anonymisation des données utilisées au sein de l’entreprise. Quelles-sont les analyses BI que vous réalisez pour lesquelles vous avez besoin d’autant de données sensibles concernant les personnes ?
Je pense ainsi que nous allons apprendre à faire de la BI et de l’analyse prédictive sur la base de données qui auront été anonymisées au préalable en conservant bien entendu leur utilité et leur intégrité. Si vous découvrez que le client ABC doit être particulièrement soigné et qu’on doit lui suggérer d’acheter le produit XYZ, alors si vous en êtes autorisé par l’entreprise, ces informations seront re-identifées et vous en connaitrez les identités précises. Ce scénario, qui peut paraître futuriste à certains, est déjà mis en place dans de nombreuses entreprises souhaitant protéger au maximum leur réputation.


Enfin, autre mouvement en cours, et présent à tous les niveaux, le Cloud. Pourquoi n’est-il pas évoqué dans votre article ?
Certes il ne s’agit que d’infrastructure qui au lieu d’être en locale sont dans le nuage, mais ce mouvement accélère l’utilisation de nombreux nouveaux logiciels y compris dans la BI. Comme mentionné les types de stockage se multiplient (RDBMS, Hadoop, NoSql, Stream, …) mais nous restons avec des outils BI qui ne connaissent quasiment que le SQL comme langage de requête. Aussi aujourd’hui ils utilisent tous leurs « drivers JDBC » magiques mais dans ce domaine on devrait constater des évolutions. J’observe une communauté, DRUID, qui permet de conserver les structures de ce langage mais qui l’enrichie afin de pouvoir mixer dans une même requête des sources s’appuyant chacune sur des technologies distinctes et qui sont lues comme des tables. Je ne sais pas si cette logique s’imposera (elle est déjà utilisée par de nombreuses Licornes), mais c’est définitivement un sujet qui peut soulager les outils BI de devoir stocker une énième version des données et d’être ainsi directement consommateur des données sources. Cela rejoint le sujet du langage de requête.

Le machine learning, la data privacy et l’évolution du langage sont donc pour moi des sources d’innovation qui n’ont pas encore dis leurs derniers mots. A suivre…

2.Posté par Renaud de CRECY le 05/06/2019 10:31
Merci de cet article intéressant.
Je suis un peu surpris (mais assez content aussi) que l'article n'évoque pas la tarte à la crème de l'intelligence artificielle (ou "augmentée) mise à toutes les sauces, comme le cloud ou le big data il y a quelques années.
Ceci dit, je pense que les avancées récentes du "deep learning" qui permettent maintenant non seulement de "reconnaitre" des "motifs" (images) mais aussi d'en identifier de nouveaux vont permettre d'avancer dans l'analyse de données, et en particulier dans le domaine des données temporelles.
En utilisant l'apprentissage par les analystes (livraisons d'analyses à partir des résultats, détections d'évolutions significatives par l'esprit humain, etc..), l'analyse prédictive pourrait en être révolutionnée, tout comme le test d'hypothèses et les simulations..
Et là on ferait vraiment de la "business intelligence augmentée" dans ce qui est aujourd'hui, il faut le reconnaître, plutôt du "business reporting évolué".

Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store