Dans les entreprises industrielles ou commerciales la mise en place d’un système d’information décisionnel, conduit systématiquement à mettre d’abord en place des tableaux de bord, qui permettent d’appréhender certains aspects de la situation des activités concernées. Rapidement cependant ces tableaux de bord suscitent beaucoup de questions qui restent sans réponse, et les utilisateurs souhaitent alors dépasser la simple description des situations, en faisant des analyses qui permettent de rechercher les causes des résultats qu’ils observent. Lorsqu’une organisation commence à identifier et comprendre les paramètres de ses activités, elle cherche alors à exploiter ses informations pour faire des prévisions, car la capacité de prévoir et d’anticiper le futur est toujours essentielle pour une gestion stratégique de l’entreprise.
La prévision économique est une discipline qui est aujourd’hui bien maîtrisée. La gamme des théories et des outils à la disposition des prévisionnistes est très étendue, et la pratique effective de la prévision a connu de nombreux développements dans les organisations. Il existe une grande diversité de techniques pour répondre à la variété des tâches de prévision des différentes fonctions des entreprises, et le progrès constant de l’informatique décisionnelle joue un rôle prépondérant dans la généralisation de la production d’informations prévisionnelles. Cependant la prévision économique est toujours incertaine, et aux estimations des valeurs futures sont toujours associés des intervalles de confiance, des incertitudes sur les décisions des acteurs concernés et les réactions en chaîne qui en découlent, tout cela rendant toute prévision périlleuse (voir le thème de la théorie des jeux).
Si les tableaux bord peuvent être utilisés par des milliers de personnes dans une grande entreprise, les analystes et les prévisionnistes sont toujours beaucoup moins nombreux. Mais si le nombre d’utilisateurs finaux qui applique des techniques avancées d’analyse et de prévision est dans une entreprise généralement limité, ce petit nombre de personnes est par contre générateur de beaucoup de valeur pour la conduite des activités. Les analystes et prévisionnistes sont aussi de grands consommateurs de ressources informatiques, et peuvent générer en pointe jusqu’à 50% de la charge de traitement d’un système d’information décisionnel. Cette lourde utilisation de ressources s’expliquant par la complexité du travail effectué et les volumes de données historiques à traiter, car l’élaboration de modèles implique généralement l’utilisation de métriques complexes dérivées de nombreuses observations.
Les systèmes d’information opérationnels représentent des mines d’informations élémentaires, qui permettent par leur traitement des anticipations efficaces et précises. Les champs d’application sont extrêmement étendus, qu’il s’agisse de l’optimisation de la gestion des contacts clients, de la gestion des risques (détection de fraude, lutte anti-blanchiment, lutte antiterrorisme), de merchandising, d’optimisation de la chaîne logistique et de la gestion de stock, d’optimisation des flux de matières, d’informations, d’optimisation de gestion de production, d’optimisation de l’emploi des ressources humaines, de service client, de gestion de configuration, etc. Pour répondre à ces besoins les systèmes décisionnels doivent gérer des informations plus ou moins fraîches, et pour certaines applications il est parfois nécessaire d’intégrer des données opérationnelles plusieurs fois par jour, voir en quasi temps réel.
Pour aller plus loin vous pouvez utilement consulter ci-dessous mes autres articles sur ce sujet :
De la prévision de la demande client
Entrepôt de données et prévision de la demande
Lablaw où comment réduire les ruptures de stock avec un bon système de prévision;
Overstock.com un entrepôt de données actif
La prévision économique est une discipline qui est aujourd’hui bien maîtrisée. La gamme des théories et des outils à la disposition des prévisionnistes est très étendue, et la pratique effective de la prévision a connu de nombreux développements dans les organisations. Il existe une grande diversité de techniques pour répondre à la variété des tâches de prévision des différentes fonctions des entreprises, et le progrès constant de l’informatique décisionnelle joue un rôle prépondérant dans la généralisation de la production d’informations prévisionnelles. Cependant la prévision économique est toujours incertaine, et aux estimations des valeurs futures sont toujours associés des intervalles de confiance, des incertitudes sur les décisions des acteurs concernés et les réactions en chaîne qui en découlent, tout cela rendant toute prévision périlleuse (voir le thème de la théorie des jeux).
Si les tableaux bord peuvent être utilisés par des milliers de personnes dans une grande entreprise, les analystes et les prévisionnistes sont toujours beaucoup moins nombreux. Mais si le nombre d’utilisateurs finaux qui applique des techniques avancées d’analyse et de prévision est dans une entreprise généralement limité, ce petit nombre de personnes est par contre générateur de beaucoup de valeur pour la conduite des activités. Les analystes et prévisionnistes sont aussi de grands consommateurs de ressources informatiques, et peuvent générer en pointe jusqu’à 50% de la charge de traitement d’un système d’information décisionnel. Cette lourde utilisation de ressources s’expliquant par la complexité du travail effectué et les volumes de données historiques à traiter, car l’élaboration de modèles implique généralement l’utilisation de métriques complexes dérivées de nombreuses observations.
Les systèmes d’information opérationnels représentent des mines d’informations élémentaires, qui permettent par leur traitement des anticipations efficaces et précises. Les champs d’application sont extrêmement étendus, qu’il s’agisse de l’optimisation de la gestion des contacts clients, de la gestion des risques (détection de fraude, lutte anti-blanchiment, lutte antiterrorisme), de merchandising, d’optimisation de la chaîne logistique et de la gestion de stock, d’optimisation des flux de matières, d’informations, d’optimisation de gestion de production, d’optimisation de l’emploi des ressources humaines, de service client, de gestion de configuration, etc. Pour répondre à ces besoins les systèmes décisionnels doivent gérer des informations plus ou moins fraîches, et pour certaines applications il est parfois nécessaire d’intégrer des données opérationnelles plusieurs fois par jour, voir en quasi temps réel.
Pour aller plus loin vous pouvez utilement consulter ci-dessous mes autres articles sur ce sujet :
De la prévision de la demande client
Entrepôt de données et prévision de la demande
Lablaw où comment réduire les ruptures de stock avec un bon système de prévision;
Overstock.com un entrepôt de données actif
Rédigé par Michel Bruley le Mardi 1 Septembre 2009 à 08:24
|
Permalien
|
{0}

A trop avoir voulu intégrer de fonctionnalités dans leurs produits, les éditeurs de progiciel de gestion intégré (PGI) ont créés des dinosaures informatiques dont la disparition est amorcée. Au départ il y avait eu l’idée de faciliter l’intégration de la gestion en construisant des applications informatiques (comptabilité, paie, gestion de stocks, …), de manière modulaire (modules indépendants entre eux), et de rester ouverts aux spécificités des métiers et donc à l’intégration avec d’autres systèmes.
Très rapidement les éditeurs ont été hégémoniques et ont développés des offres cherchant à couvrir tous les besoins fonctionnels opérationnels ou décisionnels, avec de nombreuses variantes sectorielles. De plus avec le développement de la globalisation des affaires, les éditeurs ont été amenés à faire en sorte que leurs progiciels puissent gérer et prendre en charge plusieurs entités ou organisations (filiales, etc.), périodes différentes simultanées (exercices comptables par exemple), devises, langues pour les utilisateurs et les clients (cas des multinationales), législations et plans de comptes.
Les inconvénients majeurs de cette approche se sont vite révélés : coût élevé, lourdeur, rigidité de mise en œuvre et surtout périmètre fonctionnel le plus souvent inadapté, trop étroit sur le cœur du métier et trop large pour la plupart des autres fonctions. Il faut en outre ajouter des difficultés d'appropriation par les collaborateurs, la nécessité parfois d'adapter certains processus au progiciel, l’importance de la maintenance continue, sans oublier la captivité vis à vis de l'éditeur.
Pour pallier à cette situation hautement dommageable, un virage fonctionnel et technique est en cours vers la distribution des fonctions en différentes applications, indépendantes techniquement et interfacées avec le noyau du progiciel de gestion intégré, le tout architecturé autour d’un EAI. L'intégration d'applications d'entreprise (en anglais Enterprise Application Integration, EAI) est une architecture informatique permettant à des applications hétérogènes de gérer leurs échanges en temps réel. Cette architecture permet d’intégrer des applications spécifiques centrées sur une fonction ou un aspect particulier d’une entreprise ou d’un métier comme la gestion des ateliers (MES), la gestion des laboratoires (LIMS), la gestion de la réservation dans les transports, la gestion des risques dans la banque, des réseaux dans les télécommunications, etc….
Les systèmes d’information architecturés avec un EAI sont plus à même d’intégrer la diversité, de concilier la profondeur métier avec l’intégration, tout en gardant l’indépendance de maintenance de chaque application. Cela est favorable aussi l’ouverture, comme pour l’EDI (Échange de Données Informatisé) qui permet d'échanger des informations selon un format standardisé comme l’EAN (biens de consommation), ODETTE ou CAP (Industrie automobile), RosettaNet (électronique), CIDX (chimie), PIDX (pétrole). C’est aussi une bonne architecture pour intégrer activement un entrepôt de données d’entreprise.
En matière de système décisionnel la problématique est la même, l’architecture intégrant un entrepôt de données via un EAI est mieux que les batteries de tableaux de bord et des moyens d’analyse fournit en standard avec un progiciel de gestion intégré. D’autant plus que les PGI cohabitent pratiquement toujours avec de nombreuses autres applications comme déjà évoqué plus haut (celles qui sont spécifiques à certains aspects du cœur du métier de l’entreprise), dés lors il est pertinent de vouloir maîtriser ces multiples sources de données, de relier à un niveau détaillé les données clés de l’activité et de ne pas se contenter de rapprocher des données agrégées dans des tableaux de bord.
(Voir l’architecture de référence Teradata via le lien http://www.teradata.com/t/page/132236/ )
L’apport essentiel d’un entrepôt de données est de mettre à disposition des utilisateurs des données historiques qui permettent une vue complète, détaillée et transverse des activités. Cette complétude est obtenue par l’intégration de toutes les données relatives aux activités, et donc concrètement par une standardisation & une organisation des données de tous les systèmes opérationnels correspondants dans un gisement unique, comme par exemple et de façon non limitative celles relatives aux applications suivantes : Customer Relation Management, Demand Planning and Forecasting, Supplier Relation Management, Advanced Planning & Scheduling, Enterprise Resources Planning, Transportation Management System, Warehouse Management System, Distributed Controlled System, Manufacturing Execution System.
Teradata, collabore sur ce thème avec de nombreux fournisseurs de progiciels et a même développé des partenariats approfondis avec certains, pour optimiser les services rendus aux utilisateurs tant sur le plan opérationnel que décisionnel. Par exemple avec SAP nous avons une équipe permanente à Walldorf, pour répondre à nos clients communs, de grandes entreprises leaders de divers secteurs comme : Coca Cola Enterprises Inc., Migros, Posteitaliane, Grupo Gigante, Metro, Dupont, Samsung, etc. …
Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :
PGI versus Best of Breed : en décisionnel la question ne se pose même pas
A chacun son rôle : ERP ou progiciels pour administrer et entrepôt de données actif pour conduire les affaires
PGI / Tableaux de bord / Entrepôt de données : complémentarité porteuse de valeur
SAP & Teradata : le duo gagnant
Le pilotage stratégique beaucoup de monde en parle, mais peu d’entreprises savent réellement en tirer parti. Elles n’y voient, trop souvent, qu’une version améliorée des bons vieux tableaux de bord. Ce faisant, elles oublient l’apport majeur du pilotage stratégique : il s’agit de mobiliser l’énergie collective dans le cadre d’un processus d’apprentissage continu de son environnement.
Mais comment parler d’énergie collective quand on voit telle entreprise vanter les mérites de son nouveau système d’informations, reposant sur 17 objectifs stratégiques et une quarantaine d’indicateurs… qui sont analysés par les cinquante cadres dirigeants gravitant autour de la direction générale. Pourquoi cinquante personnes seulement, alors que cette vision et ces objectifs stratégiques devraient être partagés par l’ensemble de l’entreprise ?
L’expérience montre que si les entreprises sont aujourd’hui en mesure de définir leur vision et leurs objectifs stratégiques, elles ont en revanche toujours autant de mal à les mettre en œuvre et les diffuser dans l’ensemble de leurs équipes. Au mieux parvient-on à mobiliser la direction générale et les forces commerciales et marketing, par nature sensibles à leur environnement. Mais par exemple les équipes de production sont encore trop souvent mises à l’écart. Pourquoi ? Parce que les entreprises sont encore très cloisonnées. Parce que chaque service interprète les objectifs stratégiques en fonction de sa culture et de ses propres intérêts. Parce que l’empilement des structures et des systèmes d’informations complique la mobilisation de l’ensemble de l’effectif, autour d’objectifs globaux.
Or, les nouveaux outils de BI facilitent la mise au point d’indicateurs fédérant toutes les couches de l’entreprise. La vision stratégique de la direction générale doit en effet être diffusée et déclinée dans tous les services de l’entreprise : il s’agit de fixer à chacun des objectifs qui lui « parlent ». Parce qu’un chef d’équipe sur une chaîne de montage se sentira infiniment plus concerné par un objectif de réduction des délais de mise en route de la chaîne ou par un ratio de défauts, que par un objectif d’accroissement de part de marché au plan mondial.
Le véritable enjeu du pilotage stratégique consiste donc à décliner une vision globale en une batterie de tableaux de bord pertinents : chaque tableau de bord étant un affinage de l’objectif général adapté aux réalités de chaque équipe. La mise au point de ces tableaux de bord repose sur un système décisionnel performant, permettant d’exploiter conjointement l’ensemble des informations internes à l’entreprise, des informations issues des veilles technologique, commerciale et sociétale, ainsi que du benchmarking, de façon à mettre au point des tableaux de bord prospectifs et véritablement orientés vers l’amélioration de la performance sur un marché donné.
Pour être efficaces, ces outils de gestion de la performance doivent concerner le plus de gens possible : le système de pilotage stratégique du Réseau de Distribution d’un Grand Constructeur Automobile mobilise ainsi plus de 2 500 salariés autour d’une batterie de 2 000 indicateurs. Dans une grande entreprise, un bon pilotage stratégique doit fédérer plusieurs milliers de collaborateurs autour d’autant d’indicateurs (à raison d’une dizaine d’indicateurs au maximum par équipe, et d’une cinquantaine pour la direction générale). Dans ces conditions - et s’il est porté par une direction générale et des contrôleurs de gestion motivés- le pilotage stratégique peut devenir un thème aussi porteur et novateur pour les entreprises que l’ont été les enjeux de qualité totale et de CRM.
Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :
Besoins & tendances en matière de décisionnel dans un contexte de globalisation
Etre dans le vent, c’est une ambition de feuille morte : parlez métier
L'entrepôt de données un des outils de l'Intelligence Economique
La BI en trois étapes de bon sens : partez lentement pour aller vite
Mais comment parler d’énergie collective quand on voit telle entreprise vanter les mérites de son nouveau système d’informations, reposant sur 17 objectifs stratégiques et une quarantaine d’indicateurs… qui sont analysés par les cinquante cadres dirigeants gravitant autour de la direction générale. Pourquoi cinquante personnes seulement, alors que cette vision et ces objectifs stratégiques devraient être partagés par l’ensemble de l’entreprise ?
L’expérience montre que si les entreprises sont aujourd’hui en mesure de définir leur vision et leurs objectifs stratégiques, elles ont en revanche toujours autant de mal à les mettre en œuvre et les diffuser dans l’ensemble de leurs équipes. Au mieux parvient-on à mobiliser la direction générale et les forces commerciales et marketing, par nature sensibles à leur environnement. Mais par exemple les équipes de production sont encore trop souvent mises à l’écart. Pourquoi ? Parce que les entreprises sont encore très cloisonnées. Parce que chaque service interprète les objectifs stratégiques en fonction de sa culture et de ses propres intérêts. Parce que l’empilement des structures et des systèmes d’informations complique la mobilisation de l’ensemble de l’effectif, autour d’objectifs globaux.
Or, les nouveaux outils de BI facilitent la mise au point d’indicateurs fédérant toutes les couches de l’entreprise. La vision stratégique de la direction générale doit en effet être diffusée et déclinée dans tous les services de l’entreprise : il s’agit de fixer à chacun des objectifs qui lui « parlent ». Parce qu’un chef d’équipe sur une chaîne de montage se sentira infiniment plus concerné par un objectif de réduction des délais de mise en route de la chaîne ou par un ratio de défauts, que par un objectif d’accroissement de part de marché au plan mondial.
Le véritable enjeu du pilotage stratégique consiste donc à décliner une vision globale en une batterie de tableaux de bord pertinents : chaque tableau de bord étant un affinage de l’objectif général adapté aux réalités de chaque équipe. La mise au point de ces tableaux de bord repose sur un système décisionnel performant, permettant d’exploiter conjointement l’ensemble des informations internes à l’entreprise, des informations issues des veilles technologique, commerciale et sociétale, ainsi que du benchmarking, de façon à mettre au point des tableaux de bord prospectifs et véritablement orientés vers l’amélioration de la performance sur un marché donné.
Pour être efficaces, ces outils de gestion de la performance doivent concerner le plus de gens possible : le système de pilotage stratégique du Réseau de Distribution d’un Grand Constructeur Automobile mobilise ainsi plus de 2 500 salariés autour d’une batterie de 2 000 indicateurs. Dans une grande entreprise, un bon pilotage stratégique doit fédérer plusieurs milliers de collaborateurs autour d’autant d’indicateurs (à raison d’une dizaine d’indicateurs au maximum par équipe, et d’une cinquantaine pour la direction générale). Dans ces conditions - et s’il est porté par une direction générale et des contrôleurs de gestion motivés- le pilotage stratégique peut devenir un thème aussi porteur et novateur pour les entreprises que l’ont été les enjeux de qualité totale et de CRM.
Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :
Besoins & tendances en matière de décisionnel dans un contexte de globalisation
Etre dans le vent, c’est une ambition de feuille morte : parlez métier
L'entrepôt de données un des outils de l'Intelligence Economique
La BI en trois étapes de bon sens : partez lentement pour aller vite
Le succès du décisionnel a généré une demande de moyens d’aide à la décision forte depuis plusieurs années, qui s’est traduite dans les entreprises par la mise en place de nombreux systèmes, afin de répondre progressivement à tous les besoins, émanant de tous les services, départements ou divisions des différentes fonctions. La plupart du temps le décisionnel n’a pas été la priorité des directions informatiques, occupées à rationaliser les systèmes de production, par la mise en place de systèmes de gestion des opérations type ERP ou CRM. Dans ce contexte les projets décisionnels ont rarement été bien traités, ils ont très souvent été mis en œuvre sans plan d’ensemble, de façon désordonnée, en multipliant les solutions techniques et fonctionnelles, laissant à l’arrivée les entreprises avec de nombreux systèmes hétérogènes tant en termes techniques que métiers. Cette situation est très pénalisante, notamment car elle crée de véritables dédales pour accéder aux informations, et elle ne permet pas de dépasser les jargons des métiers, en fixant une vérité d’entreprise dans un langage commun.
Les architectures de systèmes décisionnels hétérogènes posent des problèmes spécifiques, qui impactent très négativement la gestion des données, la possibilité de les exploiter à des fins décisionnelles, et la capacité à suivre l’évolution du rythme des affaires d’aujourd’hui. La redondance et la fragmentation des données, la difficulté à synchroniser voir à gérer des règles métier distribuées dans de nombreux flux, ou l’absence d’un référentiel commun, perturbent les utilisateurs dont les différents systèmes produisent des résultats présentant des incohérences inexpliquées. L’absence d’une vision intégrée et transversale multi domaines fonctionnels, limite largement la capacité des entreprises à comprendre et maîtriser leurs activités ou leur environnement. Les délais de maintenance des flux redondants, les difficultés d’évolution vers les nouveaux besoins d’alimentation en temps réel et d’intégration des moyens décisionnels avec les applications opérationnelles, obèrent la capacité à mettre en place de nouvelles solutions métier, aujourd’hui nécessaires aux entreprises pour rester concurrentielles.
Pour sortir de cette impasse, la solution est d’optimiser l’architecture en suivant deux voies. Il convient de simplifier et factoriser les flux des données des systèmes hétérogènes, chaque système opérationnel source livre ses données à un système unique. Ensuite il s’agit d’intégrer techniquement dans l’entrepôt de données, les différents systèmes, pour qu’ils bénéficient des avantages de la centralisation en matière d’optimisation des coûts et de partage des données. Les différents systèmes ne disparaissent donc pas fonctionnellement, et même les applications décisionnelles complémentaires, telle que par exemple une application d’élaboration budgétaire avec une base de données multidimensionnelle, s’intègrent naturellement en aval de cette architecture en échangeant des données avec l’entrepôt central d’entreprise.
Les bénéfices principaux d’une approche de consolidation consistent à diminuer les coûts, améliorer la qualité et augmenter les capacités fonctionnelles. Au niveau des coûts il s’agit, dans l’immédiat mais aussi dans le cadre de la montée en charge des usages et des évolutions fonctionnelles, de diminuer les charges de développement, d’administration et de maintenance des procédures d’alimentation, de l’architecture matérielles et logicielles, de la mise en œuvre de nouveaux projets, et de diminuer les risques inhérents à la gestion de composants multiples. L’amélioration de la qualité des données vient du référentiel unique et de la simplification de la gestion des flux, qui augmentent les performances, et permettent d’alimenter l’entrepôt de données d’entreprise dans des délais plus courts. L’amélioration des capacités fonctionnelles est induite par l’approche intégrée et transversale qui permet aux utilisateurs d’accéder plus facilement à l’information centralisée, d’augmenter la sophistication de leurs études (marketing, logistiques, financières, …), et de mettre en œuvre plus rapidement des applications analytiques (CRM, rentabilité, ABC/ABM…), qui nécessitent des données auparavant stockées dans divers systèmes.
En conclusion, il faut donc consolider et intégrer les systèmes décisionnels spécialisés indépendants (ou Data Marts indépendants), qui se limitent chacun à un sujet (métier) donné, par exemple le marketing, et sont mis à la disposition exclusive des utilisateurs d’un département ou d’un groupe de travail. Il faut créer un entrepôt de données d’entreprise (ou Data Warehouse) pour stocker et intégrer de manière centraliser toutes les données de l’entreprise, et mettre à disposition de tous les utilisateurs décisionnels, directement ou indirectement (vue, data mart intégré, data mart dépendant alimenté par l’entrepôt de données central).
Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :
Impasse du Data Mart Indépendant, des gains à court terme, des couts à long terme.
Des Data Marts pour créer un monde d’aveugles.
Data Warehouses distribués : voyage jusqu’au bout des inconvénients.
Consolidation des « data warehouses » : la voie du salut.
Data Marts Consolidation.
Exemple de consolidation de data marts dans un entrepôt de données actif dans le secteur public.
Quelques décennies après les premières déclarations de Mac Luhan sur l’âge électronique, force est de constater que pour une fois un « futurologue » avait attiré notre attention dans la bonne direction. Les nouvelles technologies de l’information et des communications ont en effet bouleversé notre façon de faire des affaires et notre vie privée. Aujourd’hui elles étendent nos pouvoirs et nous permettent d’échanger avec la terre entière, ou du moins avec ses parties connectées. Cependant des perspectives non prévues se dessinent : par exemple d’une part un monde virtuel voit le jour dans lequel l’information supplante l’expérience et d’autre part la masse d’informations qui nous arrive chaque jour prend de plus en plus la forme d’une inondation.
Un nouveau déluge a-t-il commencé ? Des cassandres nous prédisent que nous allons être submergés par un tel volume d’informations que nous n’arriverons plus à le traiter, à le canaliser et qu’il nous imposera une vérité incontrôlée. Ici les défis sont de savoir définir ce qui est de l’information et pas seulement des données, de savoir industrialiser le traitement des données pour livrer des éléments qui ont du sens, de savoir gérer les flux d’informations pour alimenter nos activités. Au-delà de la définition des besoins et des priorités, la question centrale est celle de l’architecture de la gestion des données. Faut-il un système d’information décisionnel à côté des systèmes opérationnels ? Vaut-il mieux des systèmes décisionnels spécialisés par fonction plutôt qu’un gisement commun ? Jusqu’à quel niveau de détail et sur quelle profondeur d’historique faut-il conserver les données ?
Les réponses à ces questions sont maintenant établies et expérimentées depuis quelques années, la gestion de données historiques détaillées doit être au cœur de toute solution. La pollution ne vient pas du volume des données mais de la perte de contrôle due à l’absence de réponse aux questions car l’historique est trop court, ou le niveau de détail insuffisant ou qu’il y a de multiples réponses à la question, émanant de systèmes différents gérant des vues différentes de la même réalité. Les meilleurs experts donnent sur ce sujet les principaux conseils suivants : utilisez uniquement la terminologie de votre entreprise de façon à ce que tout le monde puisse comprendre ; mettez toutes vos données dans un seul entrepôt, peu importe sa taille ; gérez les données au niveau le plus détaillé ; structurez vos données grâce un modèle d’entreprise ; facilitez l’accès direct aux données détaillées ; mesurez/mesurez/mesurez votre entrepôt de données (usage, adoption, temps de réponse, …etc).
Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :
De l'utilisation des données historiques
Un Data Warehouse d'entreprise pour tirer toute la valeur de son capital informationnel
Data Warehousing : la vérité... rien que la vérité
Un entrepôt de données central pour l'armée de l'air des Etats-Unis;
Les Technologies de l’Information et des Communications sont essentielles pour aider les entreprises à s’adapter à l’évolution de leurs marchés, notamment aux nouvelles demandes, nouvelles offres, nouvelles réglementations, à la globalisation, à l’évolution des techniques, à la saturation de certains marchés. Dans ce contexte les entreprises doivent faire preuve de beaucoup d’intelligence pour maîtriser leur destinée. Les analystes réputés disent que seules les plus intelligentes survivront. Chez Teradata nous pensons que l’une des clés majeures réside dans la possibilité de transformer des analyses en actions efficaces. Concrètement il ne s’agit pas seulement de faire de la « Business Intelligence » en travaillant des données d’un « Data Warehouse » qui gère des informations plus où moins fraîches, mais de coupler l’Entrepôt de Données avec les systèmes opérationnels de façon à pouvoir toujours fournir au moment voulu, l’information historiques nécessaires pour l’analyse et l’action : c’est le concept d’Active Enterprise Intelligence (AEI).
L’AEI vise à faire passer les moyens décisionnels d’un rôle « passif » à un rôle « actif ». Il ne s’agit plus de seulement supporter les décisions stratégiques comme la détermination des buts, des politiques, la définition des objectifs des organisations, mais de supporter aussi des décisions tactiques, en dotant de moyens décisionnels des opérationnels clés, par exemple ceux qui sont en relation quotidienne avec les partenaires de l’entreprise comme les clients ou les fournisseurs. Dans la fonction Marketing Vente, il s’agit de ne pas se limiter à définir des segmentations, des tarifications, à effectuer des analyses de vente ou de rentabilité, mais de supporter aussi les opérations de Marketing Direct, ou de permettre à un télévendeur de fonder son action sur les données historiques concernant le client avec qui actuellement il est en discussion. L’aide à la décision tactique ou opérationnelle, consiste à donner accès à des informations historiques pour une prise de décision immédiate sur le terrain.
La grande ambition de l’AEI est de permettre un support optimum de l’utilisateur dans son cycle de travail de la donnée à l’action. Vu dans une logique d’apprentissage, ce cycle comprend cinq étapes : observer, comprendre, prévoir, agir, capitaliser l’expérience. Une solution active suppose une grande qualité d’intégration du système d’information, tant au niveau des données historiques prises en compte dans les analyses, qu’au niveau de la liaison avec les systèmes opérationnels pour mener les actions. Les critères de qualité ici sont fraîcheur des données et vitesse de réaction. Concrètement la solution doit offrir des services automatisés spécifiques, tels que des rapports pointant spécialement les exceptions, des analyses ad hoc qui débouchent sur des propositions, des alertes adressées directement à la bonne personne et en temps utile, ou par exemple le déclenchement d’une action externe impliquant aucune ou un minimum d’intervention d’un membre de l’organisation.
L’AEI suppose une architecture adaptée qui permet de prendre en charge les contraintes inhérentes aux fonctions esquissées dans les paragraphes ci-dessus. Dans les grandes entreprises un tel système a les caractéristiques suivantes : multiples domaines fonctionnels, téras octets de données, plusieurs centaines de tables, milliers d’utilisateurs, plusieurs années d’historiques détaillés, services particulièrement exigeants de mises à jour et de requêtes. Concrètement au niveau de l’entrepôt de données les entreprises ont le choix entre une approche centralisée ou une approche départementale, mais tous les grands analystes s’accordent aujourd’hui pour reconnaître la supériorité d’une centralisation des gisements de données, le coût financier prohibitif et l’inefficacité des solutions construites sur des data marts indépendants.
L’AEI ne transforme pas automatiquement la façon de faire des affaires, il apporte seulement une potentialité qui doit être exploitée, il s’agit là d’organisation, de formation, de créativité, d’expérimentation de nouvelles voies, d’évolution de la culture de l’entreprise. Il est clair qu’une entreprise ne peut pas passer en une seule étape d’un décisionnel primaire construit sur des infocentres ou des data marts indépendants, à un Entrepôt de Données Actif ; mais par une urbanisation des systèmes décisionnels et un lotissement correct des projets, il est possible en six à dix mois pour une grande entreprise de mettre en production une infrastructure et les premières applications opérationnelles d’AEI.
Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :
L’avenir des entrepôts de données est dans le Real Time BI et l’Active Enterprise Intelligence
Mise en œuvre d’Active Intelligence Enterprise et de Real-Time BI
Champs d’application & cas concrets d’Active Intelligence Enterprise et de Real-Time BI (Distribution)
Active Intelligence Enterprise et Real-Time BI dans le secteur Bancaire
De l’intelligence active pour les industries Manufacturières
De l’intelligence pour supporter les entreprises actives (Télécommunications)
Le data mining, la fouille de données ou toutes les approches analytiques de pointe représentent les formes les plus ambitieuses de l’Informatique Décisionnelle. Les techniques sous jacentes sont issues des Statistiques ou de l’Intelligence Artificielle, et certaines comme les Réseaux de Neurones, les Arbres de Décision, les Réseaux Bayésiens ou la Logique Inductive furent développées il y a plusieurs décennies dans des contextes très différents. Attention il ne s’agit pas de techniques informatiques, mais de processus de recherche automatique d’information dans un grand volume de données en mettant en œuvre toute technique appropriée.
Le postulat fondamental de ces approches est que dans toute base de données enregistrant les événements d’un processus économique, les données ne sont pas distribuées au hasard. Bien que ces données soient simplement constatées, le plus souvent collectées à des fins purement opérationnelles, on suppose qu’elles ont été générées par une réalité en grande partie déterministe, mais selon des processus que généralement on ne connaît pas. Les approches analytiques cherchent à mettre en évidence, décrire et permettre de reconstruire les effets de ces processus. Cette action d’identification des effets d’un processus à partir de données se caractérise par la construction d’un modèle, ensemble de règles, d’équations, de formules qui rendent compte de la distribution des données dans la base.
Construire méthodiquement un modèle des données dont on dispose sur un objet de gestion, est un saut important sur le chemin de la connaissance et de la décision. Au lieu de gigaoctets de données brutes, le décideur dispose alors d’une vue interprétable de son sujet d’étude. Mais attention de ne pas se laisser piéger par la métaphore liée à l’expression data mining qui suggère que les données (data) ne seraient qu’un amoncellement de débris, que l’on creuse (mining) à la recherche de la pépite. Elle fait croire que le data mining rejette une grande proportion des données disponibles, pour ne conserver qu’une petite partie particulièrement significative. Or ce n’est pas exactement le cas, dans l’élaboration d’un modèle toutes les données sont prises en compte et traitées sensiblement sur un pied d’égalité. Le modèle est construit en fonction des régularités (patterns) de l’ensemble des données. Le succès de l’analyse se mesure à sa capacité à détecter les régularités fortement significatives.
D’autre part pour certains, toutes ces approches analytiques de pointe, data mining ou fouille de données ne seraient que de nouveaux noms branchés de la vénérable statistique. La réponse est : oui, mais …. Oui, car si vous faisons abstraction des techniques mises en œuvre, l’objectif est le même : élaboration et interprétation de modèles de la réalité construits à partir d’une description partielle de cette réalité par des données. Mais …, car la statistique traditionnelle ne répond pas complètement aux attentes des utilisateurs potentiels. Le progrès le plus attendu des nouvelles approches c’est l’industrialisation des analyses, alors que la statistique reste une activité artisanale, réservée à un petit nombre de spécialistes traitant avec beaucoup de soin un petit volume de données très structurées, et mettant en œuvre un savoir faire peu automatisé. Or l’ambition des nouvelles approches c’est d’amener les biens faits de la statistique à tous les responsables sans qu’ils aient constamment recours à des statisticiens.
Cependant il ne faut pas se cacher, que la réalité est souvent compliqué, voire complexe, et que les approches analytiques peuvent être délicate à mettre en œuvre et leurs résultats parfois ambigus ou incertains, même si de nombreuses entreprises utilisent ces techniques avec beaucoup de succès dans toutes les fonctions de l’entreprise et en particulier dans les domaines de la relation client, de la logistique, de la qualité.
Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :
5 mythes sur le data mining
En analyse de données comme en cuisine, la réussite se joue en grande partie avec les ingrédients
Fouille de données : une démarche en cinq étapes
Fouille de données : les biens faits des approches en laboratoire
Faire son data mining directement dans son entrepôt de données
Fouille de données & PMML : vers une extraction de données plus rapide, plus facile et moins coûteuse
Comment choisir un outil d’exploration de données
Le système d’information décisionnel des dirigeants et des collaborateurs d’une entreprise, a pour objet de permettre de rassembler et d’analyser des données concernant le passé, le présent et le futur, de façon à faciliter le suivi et la compréhension détaillée de l’environnement, des résultats, des acteurs internes ou externes, notamment les clients, pour optimiser les décisions stratégiques et la conduite des opérations.
Pour qu’une entreprise obtienne un avantage sur la concurrence, il convient qu’elle mobilise de nombreux acteurs dans le cycle qui mène de la donnée à l’action. En effet un avantage significatif s’obtient par la mise en œuvre d’actions permettant la réalisation profitable d’une opportunité : opportunité + action = avantage. L’opportunité elle même est le produit d’une information et d’une décision : information + décision = opportunité. Dans ce cycle, différents acteurs (statisticiens, analystes métier, responsables d’activité, collaborateurs en charge des clients, des fournisseurs, etc.), sont impliqués aux différentes étapes qui voient la naissance des opportunités et leur réalisation.
Si la qualité d’un système d’information décisionnel permet d’espérer le succès, il est certain que celui-ci ne s’obtient pas de façon mécanique. Les paragraphes ci-dessous présentent de façon résumée, quelques idées à méditer sur le cycle : Données – Informations – Décisions - Actions.
Il est fondamental de bien séparer les données et l'information
Entre la donnée et l'information, au sens général du terme, il y a nécessairement un ou plusieurs médiateurs qui organisent, choisissent, rapprochent certaines données, décident d'en abandonner d'autres, pour pouvoir en tirer une sorte de synthèse d'un niveau plus élaboré que ses éléments constitutifs de base. Au final le travail de l'analyste est de dégager des faits, de les replacer dans une perspective, de les pondérer les uns par rapport aux autres, de les rendre clairs et compréhensibles : faits plus commentaires donnent alors l’information.
Transformer les données en information est un métier qui nécessite des compétences, une morale pour passer de la donnée à l'information, car cela implique d'y ajouter du subjectif, du spéculatif. L'essentiel des informations utiles à la décision sont extérieures à l'entreprise (clients, concurrence, ...), et l'utilisateur doit cerner les informations dont il a besoin, or on entend souvent les utilisateurs se plaindre de ne pas avoir la "bonne" information. Souvent cela vient du fait que les définitions employées ne correspondent pas à leurs visions personnelles.
Une information n'a pour raison d'être que d'aboutir à une décision qui souvent se traduit en action
Les passages de la donnée à l'information et de l'information à la décision supposent une suite d'actions volontaires, réfléchies, intelligentes. Les mots information et décision sont tellement multiformes qu'ils peuvent avoir des sens contraires : une information peut être une désinformation, et une absence de décision faire office de décision. Décider est différent de ratifier, c'est aussi créer et imaginer. Décision peut dire fixation de règles, étant entendu que l'application d'une règle ne suppose aucune prise de décision, mais par contre ne pas appliquer une règle est une décision. Souvent le contenu d'une décision sert d'information pour prendre une autre décision, on constate qu'il y a un réseau de décisions, avec des liens de dépendance et des liens pour information et pour action. Enfin, force est de constater que de nombreuses actions ne sont pas la suite d’un acte de décision.
La maîtrise de l'information est source de pouvoir
Les utilisateurs cherchent des systèmes à leur mesure et qu’ils maîtrisent. Ceci induit le risque de voir apparaître dans l'entreprise de multiples systèmes, non nécessairement cohérents entre eux, voire redondants. Les directions générales souhaitent des systèmes qui supportent en priorité leurs initiatives stratégiques et assurent la cohérence d’ensemble de l’entreprise. Ceci conduit à mettre en place des systèmes qui visent à partager les informations entre les différents utilisateurs.
Les informaticiens veulent bâtir des systèmes qui répondent à tous les besoins, qu'ils soient exprimés ou non. L'intention est louable, mais certainement un peu utopique, car les activités et les besoins d’une entreprise sont par essence évolutifs. Cependant suivant l’infrastructure mise en place (systèmes indépendants ou système d’entreprise), il est plus ou moins facile de concilier personnalisation, performance, cohérence et évolution.
Pour aller plus loin sur le sujet :
Donnée
Information
Décision
Action
Pour qu’une entreprise obtienne un avantage sur la concurrence, il convient qu’elle mobilise de nombreux acteurs dans le cycle qui mène de la donnée à l’action. En effet un avantage significatif s’obtient par la mise en œuvre d’actions permettant la réalisation profitable d’une opportunité : opportunité + action = avantage. L’opportunité elle même est le produit d’une information et d’une décision : information + décision = opportunité. Dans ce cycle, différents acteurs (statisticiens, analystes métier, responsables d’activité, collaborateurs en charge des clients, des fournisseurs, etc.), sont impliqués aux différentes étapes qui voient la naissance des opportunités et leur réalisation.
Si la qualité d’un système d’information décisionnel permet d’espérer le succès, il est certain que celui-ci ne s’obtient pas de façon mécanique. Les paragraphes ci-dessous présentent de façon résumée, quelques idées à méditer sur le cycle : Données – Informations – Décisions - Actions.
Il est fondamental de bien séparer les données et l'information
Entre la donnée et l'information, au sens général du terme, il y a nécessairement un ou plusieurs médiateurs qui organisent, choisissent, rapprochent certaines données, décident d'en abandonner d'autres, pour pouvoir en tirer une sorte de synthèse d'un niveau plus élaboré que ses éléments constitutifs de base. Au final le travail de l'analyste est de dégager des faits, de les replacer dans une perspective, de les pondérer les uns par rapport aux autres, de les rendre clairs et compréhensibles : faits plus commentaires donnent alors l’information.
Transformer les données en information est un métier qui nécessite des compétences, une morale pour passer de la donnée à l'information, car cela implique d'y ajouter du subjectif, du spéculatif. L'essentiel des informations utiles à la décision sont extérieures à l'entreprise (clients, concurrence, ...), et l'utilisateur doit cerner les informations dont il a besoin, or on entend souvent les utilisateurs se plaindre de ne pas avoir la "bonne" information. Souvent cela vient du fait que les définitions employées ne correspondent pas à leurs visions personnelles.
Une information n'a pour raison d'être que d'aboutir à une décision qui souvent se traduit en action
Les passages de la donnée à l'information et de l'information à la décision supposent une suite d'actions volontaires, réfléchies, intelligentes. Les mots information et décision sont tellement multiformes qu'ils peuvent avoir des sens contraires : une information peut être une désinformation, et une absence de décision faire office de décision. Décider est différent de ratifier, c'est aussi créer et imaginer. Décision peut dire fixation de règles, étant entendu que l'application d'une règle ne suppose aucune prise de décision, mais par contre ne pas appliquer une règle est une décision. Souvent le contenu d'une décision sert d'information pour prendre une autre décision, on constate qu'il y a un réseau de décisions, avec des liens de dépendance et des liens pour information et pour action. Enfin, force est de constater que de nombreuses actions ne sont pas la suite d’un acte de décision.
La maîtrise de l'information est source de pouvoir
Les utilisateurs cherchent des systèmes à leur mesure et qu’ils maîtrisent. Ceci induit le risque de voir apparaître dans l'entreprise de multiples systèmes, non nécessairement cohérents entre eux, voire redondants. Les directions générales souhaitent des systèmes qui supportent en priorité leurs initiatives stratégiques et assurent la cohérence d’ensemble de l’entreprise. Ceci conduit à mettre en place des systèmes qui visent à partager les informations entre les différents utilisateurs.
Les informaticiens veulent bâtir des systèmes qui répondent à tous les besoins, qu'ils soient exprimés ou non. L'intention est louable, mais certainement un peu utopique, car les activités et les besoins d’une entreprise sont par essence évolutifs. Cependant suivant l’infrastructure mise en place (systèmes indépendants ou système d’entreprise), il est plus ou moins facile de concilier personnalisation, performance, cohérence et évolution.
Pour aller plus loin sur le sujet :
Donnée
Information
Décision
Action
> A LIRE EN CE MOMENT SUR DECIDEO
-
CSRD : objectiver le climat social grâce au Big Data
-
L’USF réagit à l’annonce de la hausse de la maintenance des licences SAP pour 2024
-
Cloudflare aide les entreprises à réduire jusqu'à 96 % l'empreinte carbone de leur infrastructure informatique en migrant vers le cloud
-
IA Générative : Infosys et NVIDIA s’allient pour faire gagner les entreprises en productivité
-
Starburst étend sa plateforme analytique data lake pour prendre en charge toutes les étapes de la migration vers le cloud
-
Le secteur de l’informatique est de plus en plus concerné par l’impact du stockage et de l’utilisation des données sur le climat
-
Domo nommé Leader Global pour les Dresner Advisory Services’ 2023 Industry Excellence Awards (pour la 7ème fois)
-
Elastic annonce AI Assistant for Observability et la disponibilité générale d'Universal Profiling
-
4.71 lève 1,4 million d’euros pour accélérer son développement et lancer la comptabilité carbone en temps réel
-
IBM renforce sa gamme de solutions de développement durable de nouvelles fonctionnalités destinées à aider les entreprises à exploiter de manière précise et efficace les informations relatives aux émissions de gaz à effet de serre du Scope 3
Profil
Michel Bruley

Liste de liens
Dernières notes
RECETTE DE LA DINDE AU WHISKY
27/01/2023
Le 1 to 1 marketing a bientôt trente ans
24/09/2022
À propos de l’intelligence économique
23/07/2022
Comment définir la stratégie ?
23/05/2022
SUN TZU L’ART DE LA GUERRE Résumé
23/03/2022
Galerie
Archives