Créer son blog Recommander ce blog Avertir le modérateur

L’analyse est un processus structuré de construction, traitement et production d’informations. L’information, est à la fois matière première et produit généré. La pertinence de l’analyse dépend en partie de la qualité et parfois de la quantité des informations prisent en compte. Mais par-dessus tout l’analyse nécessite une sérieuse dose de rigueur (démarche méthodique). Cependant il ne faut pas tomber dans un excès de rigueur, dans des analyses trop pointillistes interdisant une vue d’ensemble et amenant à ne pouvoir conclure, ou qu’avec des propositions précises mais très limitées, en refusant celles qui seraient globale mais imparfaitement vraies.

L’analyste ne doit pas se laisser submerger de données multiples, disparates, contradictoires parfois, et savoir identifier les informations cruciales, synthétiques, bien construites et suffisamment fiables. Cependant il faut avoir conscience que les données chiffrées et plus encore monétaires, même lorsqu’elles sont fausses avec précision - exemple comptabilité analytique avec critères de répartition obsolètes -, tendent à s’imposer aux données qualitatives, qui pourraient n’être qu’approximativement exactes. Les informations complètes, fines, certaines et rétrospectives sont généralement plus valorisées, que des informations partielles, agrégées, incertaines, tournées vers le futur.

Suivant leur (dé)formation d’origine, les analystes ont tendance à accorder trop de poids à certains facteurs. Les économistes privilégient les variables d’environnement au détriment de celles d’organisation ou de gestion. Les responsables des ressources humaines voient très systématiquement dans les jeux des acteurs, les blocages internes ou les qualifications des individus, les causes fondamentales des difficultés. Enfin les financiers cèdent régulièrement aux délices de l’analyse des flux de fonds, du bilan et du compte de résultat, pour y rechercher des déséquilibres qui ne font que traduire des dysfonctionnements stratégiques, organisationnels ou de gestion. Cependant, l’un des défis majeurs pour les analystes consiste à éviter les écueils dans les raisonnements : multiplication des perceptions, parcellisation des perceptions, éparpillement analytique, diversion-distraction et approfondissement du faux problème.

S’il doit se méfier de lui-même, l’analyste doit faire preuve de prudence à l’égard des personnes et des groupes avec lesquels il est en relation. L’analyste peut se laisser prendre en otage par une direction qui cherche plus à faire entériner son point de vue qu’à obtenir des conclusions neutres. L’analyse peut être un alibi, une caution morale pour légitimer certaines décisions douloureuses. La lucidité de l’analyste, son aptitude à découvrir les buts cachés éventuels assignés à son intervention, sont essentiels à la réussite de sa mission. D’un point de vue déontologique, les conclusions d’un analyste n’ont pas à être inféodées aux intérêts de celui qui les a demandées, mais se doivent de servir en priorité l’entreprise dans son ensemble. L’analyste peut être confronté à des processus de désinformation, soit en provenance des sources extérieures, soit même au sein de l’entreprise. Sans tomber dans la paranoïa, il convient donc que l’analyste garde sa lucidité et fasse des recoupements.

Enfin, probablement on pourrait appliquer aux analystes en général, la boutade qui dit : « Si vous voulez cinq avis sur un problème économique, faites discuter quatre économistes ».

Pour aller plus loin vous pouvez utilement consulter mes autres articles ci-dessous :

Méthode et stratégie de résolution de problème

Analyse de données, information et stratégie le modèle militaire

Décision, aide à la décision : un monde complexe

Au-delà de la décision, l’action

Rédigé par Michel Bruley le Mardi 1 Décembre 2009 à 09:15 | Permalien | Commentaires {0}


Les entreprises s’appuient sur de nombreux moyens informatiques pour fonctionner et réaliser leurs activités physiques (production, logistique, ...) ou de gestion (comptable, ressources humaines, ...). Ces moyens gèrent des données communes, par exemple les données d’identification des clients ou des produits, mais le plus souvent les définissent de façon hétérogènes. L’hétérogénéité des définitions a deux causes, d’une part les besoins des différents acteurs de l’entreprise ne sont pas exactement les mêmes et d’autre part les solutions informatiques sont différentes. Même les entreprises qui utilisent un progiciel de gestion intégré n’échappent pas à cette problématique, car leur PGI ne couvre généralement pas tous leurs besoins informatiques, et dans les grandes entreprises il est rare qu’elles en aient fait une mise en œuvre homogène.

La gestion des données de référence, en Anglais Master Data Management (MDM), a pour objet de répondre à cette problématique, elle consiste à gérer la qualité et la cohérence des données du système d’information de l’entreprise. Il s’agit de regrouper, l'ensemble des données permanentes ou dont la durée de vie est longue, dans un système qui a pour fonction de fournir la version standardisée d’une donnée, qui doit être systématiquement utilisée pour mettre à jour les différentes applications informatiques de l’entreprise. Concrètement ce référentiel contient l'ensemble des objets essentiels à la vie de l'entreprise, et décrit les liens qu'ils entretiennent entre eux, par exemple : numéro de référence clients, adresse de livraison, code produit, hiérarchie produit, plan de comptes, classification des postes, etc. Grâce à un référentiel et à des processus de contrôle et de validation, les données sont gérées de façon cohérente et les doublons évités.

Une bonne gestion des données de référence présente un grand intérêt dans de nombreux domaines. En matière de relation client par exemple, il est essentiel que tous les acteurs de l’entreprise puissent avoir les meilleures données possibles pour réaliser leurs activités. Des données incohérentes ou incomplètes peuvent conduire à une dégradation du service rendu ou à rater des opportunités de vente. Il y a d’autant plus besoin de bien gérer l’homogénéité, qu’il y a un grand nombre d’acteurs ou de systèmes en relation avec le client, c’est particulièrement le cas pour les industries qui vendent à travers de multiples canaux (internet, centre d’appel, borne automatique, point de vente, ...). Au-delà de la dimension opérationnelle et quelque soit le domaine fonctionnel, il est aussi intéressant d’avoir une bonne gestion des données de référence pour le système d’information décisionnel, par exemple pour les statistiques, les tableaux de bord et les prévisions.

Pour aller plus loin sur ce dernier sujet, vous pouvez utilement consulter mes autres propos ci-dessous :

Gérer l’ADN du système décisionnel;

Gérer le référentiel métier dans l’entrepôt de données

Gestion des données métier de référence (MDM) : où en sommes-nous ?

Solutions de gestion des données de référence (MDM)

Gestion des données de référence et entrepôt de données

Rédigé par Michel Bruley le Dimanche 1 Novembre 2009 à 09:32 | Permalien | Commentaires {0}

Dans l’entreprise la notion de gouvernance fait souvent l’objet de commentaires critiques et de scepticisme. Au-delà du fait que les modes de direction évoluent plus ou moins vite selon les entreprises, le souhait d’une régulation fondée sur une plus grande implication des parties prenantes est lui par contre très partagé. Le système d’information est l’un des domaines où une plus grande participation aux décisions est recherchée. L’informatique a pris une telle importance pour toutes les activités d’une organisation, que de nombreux choix qui la concerne ont un impact majeur voir stratégique pour les grandes fonctions, et peuvent déterminer le devenir de l’entreprise. Pour les utilisateurs il ne s’agit donc pas simplement de veiller à ce que la direction informatique « aligne les technologies sur la stratégie d’entreprise », mais bien de travailler ensemble pour gérer la maison commune.

Partie importante du SI, les systèmes décisionnels font plus que d’autres l’objet d’une demande d’évolution de la gouvernance, et compte tenu de la complexité du domaine, les directions informatiques sont souvent plus facilement ouvertes à de nouvelles pratiques. Cependant, rares sont les entreprises qui ont radicalement transformé leur façon de diriger, d’administrer et de contrôler cette partie du SI, les directions informatiques très jalouse de leurs prérogatives, mettent toujours en avant les dimensions techniques des choix pour conserver tout leur pouvoir. Malgré tout il est fréquent de voir des avancées en matière de gouvernance de données et le cas de British Airways est en ce sens représentatif.

Bristish Airways a depuis longtemps mis en place son premier entrepôt de données et l’a depuis fait évoluer pour répondre aux besoins de l’ensemble de ses activités, cherchant à supporter aussi bien des décisions stratégiques, qu’opérationnelles, avec quinze domaines fonctionnels aujourd’hui couverts. Dans le cadre de ses développements successifs, British Airways a toujours eu en ligne de mire d’améliorer les relations avec ses clients en s’appuyant sur une bonne gestion de l’information et en particulier une bonne qualité des données. Pour cela la compagnie aérienne a engagé un projet conséquent de gouvernance des données.

La première phase de ce projet a consisté à identifier les différentes parties prenantes de cette problématique et à trouver des supports pour cette initiative de gouvernance, au plus haut niveau de la compagnie (direction générale, financière, commerciale, …). Cela s’est concrétisé par la mise en place d’un comité de direction spécifique incluant des utilisateurs, des informaticiens, et la désignation de quelqu’un du métier du transport aérien pour prendre la responsabilité à plein temps de ce programme de changement. A ce niveau ont été définis des principes de gouvernance des données et une organisation comprenant :
 18 responsables de grands ensembles de données (données clients, coupons de vol, contrôle de gestion, trafic, maintenance, …) s’appuyant sur 30 responsables métiers issus de toutes les directions métiers de l’entreprise et 12 responsables techniques issus de la DSI.
 Un programme de gestion proactive des données, incluant des processus de réponse aux besoins des utilisateurs et de gestion des projets de développement, des réunions régulières, des revues mensuelles, des indicateurs de suivi, etc.

Au-delà de l’implication, de la responsabilisation et de l’organisation de la prise en charge des problèmes quotidiens de gouvernance des données, ce projet a permis de traquer pro-activement des opportunités d’amélioration de la qualité des données, de la qualité des modèles, des technologies mis en œuvre, des architectures et des projets de développement. En termes de résultat, au niveau de l’utilisation des données cela s’est traduit par une meilleure compréhension des informations produites par les systèmes décisionnels, et le développement de nouveaux usages métier des gisements de données.

Sans rentrer dans tous les détails du fonctionnement de la gouvernance des données chez British Airways, le responsable de ce programme donne les conseils suivants aux personnes qui auraient la même mission que lui :
 Assurer vous que vous avez la bonne infrastructure de gestion des données en termes de modèle de données et de plateforme.
 Faites en sorte que le comité de direction vous supporte et vous fournisse le financement nécessaire au projet.
 Mettez en place une solide structure de gouvernance.
 Cherchez passionnément le succès.
 Soyez résilient.

Pour aller plus loin sur ce sujet de la gouvernance des systèmes d’information décisionnels, vous pouvez utilement consulter mes autres articles ci-dessous :

De la gouvernance des systèmes décisionnels

Conseil pour une bonne gouvernance des systèmes décisionnels

Développeurs fantômes et centre de compétence BI : l’expérience de Belgacom Group

Système décisionnel : comment concilier industrialisation et capacité d’innovation

Rédigé par Michel Bruley le Jeudi 1 Octobre 2009 à 08:27 | Permalien | Commentaires {0}
Dans les entreprises industrielles ou commerciales la mise en place d’un système d’information décisionnel, conduit systématiquement à mettre d’abord en place des tableaux de bord, qui permettent d’appréhender certains aspects de la situation des activités concernées. Rapidement cependant ces tableaux de bord suscitent beaucoup de questions qui restent sans réponse, et les utilisateurs souhaitent alors dépasser la simple description des situations, en faisant des analyses qui permettent de rechercher les causes des résultats qu’ils observent. Lorsqu’une organisation commence à identifier et comprendre les paramètres de ses activités, elle cherche alors à exploiter ses informations pour faire des prévisions, car la capacité de prévoir et d’anticiper le futur est toujours essentielle pour une gestion stratégique de l’entreprise.

La prévision économique est une discipline qui est aujourd’hui bien maîtrisée. La gamme des théories et des outils à la disposition des prévisionnistes est très étendue, et la pratique effective de la prévision a connu de nombreux développements dans les organisations. Il existe une grande diversité de techniques pour répondre à la variété des tâches de prévision des différentes fonctions des entreprises, et le progrès constant de l’informatique décisionnelle joue un rôle prépondérant dans la généralisation de la production d’informations prévisionnelles. Cependant la prévision économique est toujours incertaine, et aux estimations des valeurs futures sont toujours associés des intervalles de confiance, des incertitudes sur les décisions des acteurs concernés et les réactions en chaîne qui en découlent, tout cela rendant toute prévision périlleuse (voir le thème de la théorie des jeux).

Si les tableaux bord peuvent être utilisés par des milliers de personnes dans une grande entreprise, les analystes et les prévisionnistes sont toujours beaucoup moins nombreux. Mais si le nombre d’utilisateurs finaux qui applique des techniques avancées d’analyse et de prévision est dans une entreprise généralement limité, ce petit nombre de personnes est par contre générateur de beaucoup de valeur pour la conduite des activités. Les analystes et prévisionnistes sont aussi de grands consommateurs de ressources informatiques, et peuvent générer en pointe jusqu’à 50% de la charge de traitement d’un système d’information décisionnel. Cette lourde utilisation de ressources s’expliquant par la complexité du travail effectué et les volumes de données historiques à traiter, car l’élaboration de modèles implique généralement l’utilisation de métriques complexes dérivées de nombreuses observations.

Les systèmes d’information opérationnels représentent des mines d’informations élémentaires, qui permettent par leur traitement des anticipations efficaces et précises. Les champs d’application sont extrêmement étendus, qu’il s’agisse de l’optimisation de la gestion des contacts clients, de la gestion des risques (détection de fraude, lutte anti-blanchiment, lutte antiterrorisme), de merchandising, d’optimisation de la chaîne logistique et de la gestion de stock, d’optimisation des flux de matières, d’informations, d’optimisation de gestion de production, d’optimisation de l’emploi des ressources humaines, de service client, de gestion de configuration, etc. Pour répondre à ces besoins les systèmes décisionnels doivent gérer des informations plus ou moins fraîches, et pour certaines applications il est parfois nécessaire d’intégrer des données opérationnelles plusieurs fois par jour, voir en quasi temps réel.

Pour aller plus loin vous pouvez utilement consulter ci-dessous mes autres articles sur ce sujet :

De la prévision de la demande client

Entrepôt de données et prévision de la demande

Lablaw où comment réduire les ruptures de stock avec un bon système de prévision;

Overstock.com un entrepôt de données actif

Rédigé par Michel Bruley le Mardi 1 Septembre 2009 à 08:24 | Permalien | Commentaires {0}

A trop avoir voulu intégrer de fonctionnalités dans leurs produits, les éditeurs de progiciel de gestion intégré (PGI) ont créés des dinosaures informatiques dont la disparition est amorcée. Au départ il y avait eu l’idée de faciliter l’intégration de la gestion en construisant des applications informatiques (comptabilité, paie, gestion de stocks, …), de manière modulaire (modules indépendants entre eux), et de rester ouverts aux spécificités des métiers et donc à l’intégration avec d’autres systèmes.

Très rapidement les éditeurs ont été hégémoniques et ont développés des offres cherchant à couvrir tous les besoins fonctionnels opérationnels ou décisionnels, avec de nombreuses variantes sectorielles. De plus avec le développement de la globalisation des affaires, les éditeurs ont été amenés à faire en sorte que leurs progiciels puissent gérer et prendre en charge plusieurs entités ou organisations (filiales, etc.), périodes différentes simultanées (exercices comptables par exemple), devises, langues pour les utilisateurs et les clients (cas des multinationales), législations et plans de comptes.

Les inconvénients majeurs de cette approche se sont vite révélés : coût élevé, lourdeur, rigidité de mise en œuvre et surtout périmètre fonctionnel le plus souvent inadapté, trop étroit sur le cœur du métier et trop large pour la plupart des autres fonctions. Il faut en outre ajouter des difficultés d'appropriation par les collaborateurs, la nécessité parfois d'adapter certains processus au progiciel, l’importance de la maintenance continue, sans oublier la captivité vis à vis de l'éditeur.

Pour pallier à cette situation hautement dommageable, un virage fonctionnel et technique est en cours vers la distribution des fonctions en différentes applications, indépendantes techniquement et interfacées avec le noyau du progiciel de gestion intégré, le tout architecturé autour d’un EAI. L'intégration d'applications d'entreprise (en anglais Enterprise Application Integration, EAI) est une architecture informatique permettant à des applications hétérogènes de gérer leurs échanges en temps réel. Cette architecture permet d’intégrer des applications spécifiques centrées sur une fonction ou un aspect particulier d’une entreprise ou d’un métier comme la gestion des ateliers (MES), la gestion des laboratoires (LIMS), la gestion de la réservation dans les transports, la gestion des risques dans la banque, des réseaux dans les télécommunications, etc….

Les systèmes d’information architecturés avec un EAI sont plus à même d’intégrer la diversité, de concilier la profondeur métier avec l’intégration, tout en gardant l’indépendance de maintenance de chaque application. Cela est favorable aussi l’ouverture, comme pour l’EDI (Échange de Données Informatisé) qui permet d'échanger des informations selon un format standardisé comme l’EAN (biens de consommation), ODETTE ou CAP (Industrie automobile), RosettaNet (électronique), CIDX (chimie), PIDX (pétrole). C’est aussi une bonne architecture pour intégrer activement un entrepôt de données d’entreprise.

En matière de système décisionnel la problématique est la même, l’architecture intégrant un entrepôt de données via un EAI est mieux que les batteries de tableaux de bord et des moyens d’analyse fournit en standard avec un progiciel de gestion intégré. D’autant plus que les PGI cohabitent pratiquement toujours avec de nombreuses autres applications comme déjà évoqué plus haut (celles qui sont spécifiques à certains aspects du cœur du métier de l’entreprise), dés lors il est pertinent de vouloir maîtriser ces multiples sources de données, de relier à un niveau détaillé les données clés de l’activité et de ne pas se contenter de rapprocher des données agrégées dans des tableaux de bord.
(Voir l’architecture de référence Teradata via le lien http://www.teradata.com/t/page/132236/ )

L’apport essentiel d’un entrepôt de données est de mettre à disposition des utilisateurs des données historiques qui permettent une vue complète, détaillée et transverse des activités. Cette complétude est obtenue par l’intégration de toutes les données relatives aux activités, et donc concrètement par une standardisation & une organisation des données de tous les systèmes opérationnels correspondants dans un gisement unique, comme par exemple et de façon non limitative celles relatives aux applications suivantes : Customer Relation Management, Demand Planning and Forecasting, Supplier Relation Management, Advanced Planning & Scheduling, Enterprise Resources Planning, Transportation Management System, Warehouse Management System, Distributed Controlled System, Manufacturing Execution System.

Teradata, collabore sur ce thème avec de nombreux fournisseurs de progiciels et a même développé des partenariats approfondis avec certains, pour optimiser les services rendus aux utilisateurs tant sur le plan opérationnel que décisionnel. Par exemple avec SAP nous avons une équipe permanente à Walldorf, pour répondre à nos clients communs, de grandes entreprises leaders de divers secteurs comme : Coca Cola Enterprises Inc., Migros, Posteitaliane, Grupo Gigante, Metro, Dupont, Samsung, etc. …

Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :

PGI versus Best of Breed : en décisionnel la question ne se pose même pas

A chacun son rôle : ERP ou progiciels pour administrer et entrepôt de données actif pour conduire les affaires

PGI / Tableaux de bord / Entrepôt de données : complémentarité porteuse de valeur

SAP & Teradata : le duo gagnant

Rédigé par Michel Bruley le Mardi 4 Août 2009 à 09:55 | Permalien | Commentaires {0}
Le pilotage stratégique beaucoup de monde en parle, mais peu d’entreprises savent réellement en tirer parti. Elles n’y voient, trop souvent, qu’une version améliorée des bons vieux tableaux de bord. Ce faisant, elles oublient l’apport majeur du pilotage stratégique : il s’agit de mobiliser l’énergie collective dans le cadre d’un processus d’apprentissage continu de son environnement.

Mais comment parler d’énergie collective quand on voit telle entreprise vanter les mérites de son nouveau système d’informations, reposant sur 17 objectifs stratégiques et une quarantaine d’indicateurs… qui sont analysés par les cinquante cadres dirigeants gravitant autour de la direction générale. Pourquoi cinquante personnes seulement, alors que cette vision et ces objectifs stratégiques devraient être partagés par l’ensemble de l’entreprise ?

L’expérience montre que si les entreprises sont aujourd’hui en mesure de définir leur vision et leurs objectifs stratégiques, elles ont en revanche toujours autant de mal à les mettre en œuvre et les diffuser dans l’ensemble de leurs équipes. Au mieux parvient-on à mobiliser la direction générale et les forces commerciales et marketing, par nature sensibles à leur environnement. Mais par exemple les équipes de production sont encore trop souvent mises à l’écart. Pourquoi ? Parce que les entreprises sont encore très cloisonnées. Parce que chaque service interprète les objectifs stratégiques en fonction de sa culture et de ses propres intérêts. Parce que l’empilement des structures et des systèmes d’informations complique la mobilisation de l’ensemble de l’effectif, autour d’objectifs globaux.

Or, les nouveaux outils de BI facilitent la mise au point d’indicateurs fédérant toutes les couches de l’entreprise. La vision stratégique de la direction générale doit en effet être diffusée et déclinée dans tous les services de l’entreprise : il s’agit de fixer à chacun des objectifs qui lui « parlent ». Parce qu’un chef d’équipe sur une chaîne de montage se sentira infiniment plus concerné par un objectif de réduction des délais de mise en route de la chaîne ou par un ratio de défauts, que par un objectif d’accroissement de part de marché au plan mondial.

Le véritable enjeu du pilotage stratégique consiste donc à décliner une vision globale en une batterie de tableaux de bord pertinents : chaque tableau de bord étant un affinage de l’objectif général adapté aux réalités de chaque équipe. La mise au point de ces tableaux de bord repose sur un système décisionnel performant, permettant d’exploiter conjointement l’ensemble des informations internes à l’entreprise, des informations issues des veilles technologique, commerciale et sociétale, ainsi que du benchmarking, de façon à mettre au point des tableaux de bord prospectifs et véritablement orientés vers l’amélioration de la performance sur un marché donné.

Pour être efficaces, ces outils de gestion de la performance doivent concerner le plus de gens possible : le système de pilotage stratégique du Réseau de Distribution d’un Grand Constructeur Automobile mobilise ainsi plus de 2 500 salariés autour d’une batterie de 2 000 indicateurs. Dans une grande entreprise, un bon pilotage stratégique doit fédérer plusieurs milliers de collaborateurs autour d’autant d’indicateurs (à raison d’une dizaine d’indicateurs au maximum par équipe, et d’une cinquantaine pour la direction générale). Dans ces conditions - et s’il est porté par une direction générale et des contrôleurs de gestion motivés- le pilotage stratégique peut devenir un thème aussi porteur et novateur pour les entreprises que l’ont été les enjeux de qualité totale et de CRM.

Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :

Besoins & tendances en matière de décisionnel dans un contexte de globalisation

Etre dans le vent, c’est une ambition de feuille morte : parlez métier

L'entrepôt de données un des outils de l'Intelligence Economique

La BI en trois étapes de bon sens : partez lentement pour aller vite

Rédigé par Michel Bruley le Mercredi 1 Juillet 2009 à 08:04 | Permalien | Commentaires {0}

Le succès du décisionnel a généré une demande de moyens d’aide à la décision forte depuis plusieurs années, qui s’est traduite dans les entreprises par la mise en place de nombreux systèmes, afin de répondre progressivement à tous les besoins, émanant de tous les services, départements ou divisions des différentes fonctions. La plupart du temps le décisionnel n’a pas été la priorité des directions informatiques, occupées à rationaliser les systèmes de production, par la mise en place de systèmes de gestion des opérations type ERP ou CRM. Dans ce contexte les projets décisionnels ont rarement été bien traités, ils ont très souvent été mis en œuvre sans plan d’ensemble, de façon désordonnée, en multipliant les solutions techniques et fonctionnelles, laissant à l’arrivée les entreprises avec de nombreux systèmes hétérogènes tant en termes techniques que métiers. Cette situation est très pénalisante, notamment car elle crée de véritables dédales pour accéder aux informations, et elle ne permet pas de dépasser les jargons des métiers, en fixant une vérité d’entreprise dans un langage commun.

Les architectures de systèmes décisionnels hétérogènes posent des problèmes spécifiques, qui impactent très négativement la gestion des données, la possibilité de les exploiter à des fins décisionnelles, et la capacité à suivre l’évolution du rythme des affaires d’aujourd’hui. La redondance et la fragmentation des données, la difficulté à synchroniser voir à gérer des règles métier distribuées dans de nombreux flux, ou l’absence d’un référentiel commun, perturbent les utilisateurs dont les différents systèmes produisent des résultats présentant des incohérences inexpliquées. L’absence d’une vision intégrée et transversale multi domaines fonctionnels, limite largement la capacité des entreprises à comprendre et maîtriser leurs activités ou leur environnement. Les délais de maintenance des flux redondants, les difficultés d’évolution vers les nouveaux besoins d’alimentation en temps réel et d’intégration des moyens décisionnels avec les applications opérationnelles, obèrent la capacité à mettre en place de nouvelles solutions métier, aujourd’hui nécessaires aux entreprises pour rester concurrentielles.

Pour sortir de cette impasse, la solution est d’optimiser l’architecture en suivant deux voies. Il convient de simplifier et factoriser les flux des données des systèmes hétérogènes, chaque système opérationnel source livre ses données à un système unique. Ensuite il s’agit d’intégrer techniquement dans l’entrepôt de données, les différents systèmes, pour qu’ils bénéficient des avantages de la centralisation en matière d’optimisation des coûts et de partage des données. Les différents systèmes ne disparaissent donc pas fonctionnellement, et même les applications décisionnelles complémentaires, telle que par exemple une application d’élaboration budgétaire avec une base de données multidimensionnelle, s’intègrent naturellement en aval de cette architecture en échangeant des données avec l’entrepôt central d’entreprise.

Les bénéfices principaux d’une approche de consolidation consistent à diminuer les coûts, améliorer la qualité et augmenter les capacités fonctionnelles. Au niveau des coûts il s’agit, dans l’immédiat mais aussi dans le cadre de la montée en charge des usages et des évolutions fonctionnelles, de diminuer les charges de développement, d’administration et de maintenance des procédures d’alimentation, de l’architecture matérielles et logicielles, de la mise en œuvre de nouveaux projets, et de diminuer les risques inhérents à la gestion de composants multiples. L’amélioration de la qualité des données vient du référentiel unique et de la simplification de la gestion des flux, qui augmentent les performances, et permettent d’alimenter l’entrepôt de données d’entreprise dans des délais plus courts. L’amélioration des capacités fonctionnelles est induite par l’approche intégrée et transversale qui permet aux utilisateurs d’accéder plus facilement à l’information centralisée, d’augmenter la sophistication de leurs études (marketing, logistiques, financières, …), et de mettre en œuvre plus rapidement des applications analytiques (CRM, rentabilité, ABC/ABM…), qui nécessitent des données auparavant stockées dans divers systèmes.

En conclusion, il faut donc consolider et intégrer les systèmes décisionnels spécialisés indépendants (ou Data Marts indépendants), qui se limitent chacun à un sujet (métier) donné, par exemple le marketing, et sont mis à la disposition exclusive des utilisateurs d’un département ou d’un groupe de travail. Il faut créer un entrepôt de données d’entreprise (ou Data Warehouse) pour stocker et intégrer de manière centraliser toutes les données de l’entreprise, et mettre à disposition de tous les utilisateurs décisionnels, directement ou indirectement (vue, data mart intégré, data mart dépendant alimenté par l’entrepôt de données central).

Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :

Impasse du Data Mart Indépendant, des gains à court terme, des couts à long terme.

Des Data Marts pour créer un monde d’aveugles.

Data Warehouses distribués : voyage jusqu’au bout des inconvénients.

Consolidation des « data warehouses » : la voie du salut.

Data Marts Consolidation.

Exemple de consolidation de data marts dans un entrepôt de données actif dans le secteur public.

Rédigé par Michel Bruley le Mardi 2 Juin 2009 à 10:51 | Permalien | Commentaires {0}

Quelques décennies après les premières déclarations de Mac Luhan sur l’âge électronique, force est de constater que pour une fois un « futurologue » avait attiré notre attention dans la bonne direction. Les nouvelles technologies de l’information et des communications ont en effet bouleversé notre façon de faire des affaires et notre vie privée. Aujourd’hui elles étendent nos pouvoirs et nous permettent d’échanger avec la terre entière, ou du moins avec ses parties connectées. Cependant des perspectives non prévues se dessinent : par exemple d’une part un monde virtuel voit le jour dans lequel l’information supplante l’expérience et d’autre part la masse d’informations qui nous arrive chaque jour prend de plus en plus la forme d’une inondation.

Un nouveau déluge a-t-il commencé ? Des cassandres nous prédisent que nous allons être submergés par un tel volume d’informations que nous n’arriverons plus à le traiter, à le canaliser et qu’il nous imposera une vérité incontrôlée. Ici les défis sont de savoir définir ce qui est de l’information et pas seulement des données, de savoir industrialiser le traitement des données pour livrer des éléments qui ont du sens, de savoir gérer les flux d’informations pour alimenter nos activités. Au-delà de la définition des besoins et des priorités, la question centrale est celle de l’architecture de la gestion des données. Faut-il un système d’information décisionnel à côté des systèmes opérationnels ? Vaut-il mieux des systèmes décisionnels spécialisés par fonction plutôt qu’un gisement commun ? Jusqu’à quel niveau de détail et sur quelle profondeur d’historique faut-il conserver les données ?

Les réponses à ces questions sont maintenant établies et expérimentées depuis quelques années, la gestion de données historiques détaillées doit être au cœur de toute solution. La pollution ne vient pas du volume des données mais de la perte de contrôle due à l’absence de réponse aux questions car l’historique est trop court, ou le niveau de détail insuffisant ou qu’il y a de multiples réponses à la question, émanant de systèmes différents gérant des vues différentes de la même réalité. Les meilleurs experts donnent sur ce sujet les principaux conseils suivants : utilisez uniquement la terminologie de votre entreprise de façon à ce que tout le monde puisse comprendre ; mettez toutes vos données dans un seul entrepôt, peu importe sa taille ; gérez les données au niveau le plus détaillé ; structurez vos données grâce un modèle d’entreprise ; facilitez l’accès direct aux données détaillées ; mesurez/mesurez/mesurez votre entrepôt de données (usage, adoption, temps de réponse, …etc).

Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :

De l'utilisation des données historiques

Un Data Warehouse d'entreprise pour tirer toute la valeur de son capital informationnel

Data Warehousing : la vérité... rien que la vérité

Un entrepôt de données central pour l'armée de l'air des Etats-Unis;

Rédigé par Michel Bruley le Vendredi 1 Mai 2009 à 11:30 | Permalien | Commentaires {0}

Les Technologies de l’Information et des Communications sont essentielles pour aider les entreprises à s’adapter à l’évolution de leurs marchés, notamment aux nouvelles demandes, nouvelles offres, nouvelles réglementations, à la globalisation, à l’évolution des techniques, à la saturation de certains marchés. Dans ce contexte les entreprises doivent faire preuve de beaucoup d’intelligence pour maîtriser leur destinée. Les analystes réputés disent que seules les plus intelligentes survivront. Chez Teradata nous pensons que l’une des clés majeures réside dans la possibilité de transformer des analyses en actions efficaces. Concrètement il ne s’agit pas seulement de faire de la « Business Intelligence » en travaillant des données d’un « Data Warehouse » qui gère des informations plus où moins fraîches, mais de coupler l’Entrepôt de Données avec les systèmes opérationnels de façon à pouvoir toujours fournir au moment voulu, l’information historiques nécessaires pour l’analyse et l’action : c’est le concept d’Active Enterprise Intelligence (AEI).

L’AEI vise à faire passer les moyens décisionnels d’un rôle « passif » à un rôle « actif ». Il ne s’agit plus de seulement supporter les décisions stratégiques comme la détermination des buts, des politiques, la définition des objectifs des organisations, mais de supporter aussi des décisions tactiques, en dotant de moyens décisionnels des opérationnels clés, par exemple ceux qui sont en relation quotidienne avec les partenaires de l’entreprise comme les clients ou les fournisseurs. Dans la fonction Marketing Vente, il s’agit de ne pas se limiter à définir des segmentations, des tarifications, à effectuer des analyses de vente ou de rentabilité, mais de supporter aussi les opérations de Marketing Direct, ou de permettre à un télévendeur de fonder son action sur les données historiques concernant le client avec qui actuellement il est en discussion. L’aide à la décision tactique ou opérationnelle, consiste à donner accès à des informations historiques pour une prise de décision immédiate sur le terrain.

La grande ambition de l’AEI est de permettre un support optimum de l’utilisateur dans son cycle de travail de la donnée à l’action. Vu dans une logique d’apprentissage, ce cycle comprend cinq étapes : observer, comprendre, prévoir, agir, capitaliser l’expérience. Une solution active suppose une grande qualité d’intégration du système d’information, tant au niveau des données historiques prises en compte dans les analyses, qu’au niveau de la liaison avec les systèmes opérationnels pour mener les actions. Les critères de qualité ici sont fraîcheur des données et vitesse de réaction. Concrètement la solution doit offrir des services automatisés spécifiques, tels que des rapports pointant spécialement les exceptions, des analyses ad hoc qui débouchent sur des propositions, des alertes adressées directement à la bonne personne et en temps utile, ou par exemple le déclenchement d’une action externe impliquant aucune ou un minimum d’intervention d’un membre de l’organisation.

L’AEI suppose une architecture adaptée qui permet de prendre en charge les contraintes inhérentes aux fonctions esquissées dans les paragraphes ci-dessus. Dans les grandes entreprises un tel système a les caractéristiques suivantes : multiples domaines fonctionnels, téras octets de données, plusieurs centaines de tables, milliers d’utilisateurs, plusieurs années d’historiques détaillés, services particulièrement exigeants de mises à jour et de requêtes. Concrètement au niveau de l’entrepôt de données les entreprises ont le choix entre une approche centralisée ou une approche départementale, mais tous les grands analystes s’accordent aujourd’hui pour reconnaître la supériorité d’une centralisation des gisements de données, le coût financier prohibitif et l’inefficacité des solutions construites sur des data marts indépendants.

L’AEI ne transforme pas automatiquement la façon de faire des affaires, il apporte seulement une potentialité qui doit être exploitée, il s’agit là d’organisation, de formation, de créativité, d’expérimentation de nouvelles voies, d’évolution de la culture de l’entreprise. Il est clair qu’une entreprise ne peut pas passer en une seule étape d’un décisionnel primaire construit sur des infocentres ou des data marts indépendants, à un Entrepôt de Données Actif ; mais par une urbanisation des systèmes décisionnels et un lotissement correct des projets, il est possible en six à dix mois pour une grande entreprise de mettre en production une infrastructure et les premières applications opérationnelles d’AEI.

Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :

L’avenir des entrepôts de données est dans le Real Time BI et l’Active Enterprise Intelligence

Mise en œuvre d’Active Intelligence Enterprise et de Real-Time BI

Champs d’application & cas concrets d’Active Intelligence Enterprise et de Real-Time BI (Distribution)

Active Intelligence Enterprise et Real-Time BI dans le secteur Bancaire

De l’intelligence active pour les industries Manufacturières

De l’intelligence pour supporter les entreprises actives (Télécommunications)

Rédigé par Michel Bruley le Mardi 7 Avril 2009 à 09:01 | Permalien | Commentaires {0}

Le data mining, la fouille de données ou toutes les approches analytiques de pointe représentent les formes les plus ambitieuses de l’Informatique Décisionnelle. Les techniques sous jacentes sont issues des Statistiques ou de l’Intelligence Artificielle, et certaines comme les Réseaux de Neurones, les Arbres de Décision, les Réseaux Bayésiens ou la Logique Inductive furent développées il y a plusieurs décennies dans des contextes très différents. Attention il ne s’agit pas de techniques informatiques, mais de processus de recherche automatique d’information dans un grand volume de données en mettant en œuvre toute technique appropriée.



Le postulat fondamental de ces approches est que dans toute base de données enregistrant les événements d’un processus économique, les données ne sont pas distribuées au hasard. Bien que ces données soient simplement constatées, le plus souvent collectées à des fins purement opérationnelles, on suppose qu’elles ont été générées par une réalité en grande partie déterministe, mais selon des processus que généralement on ne connaît pas. Les approches analytiques cherchent à mettre en évidence, décrire et permettre de reconstruire les effets de ces processus. Cette action d’identification des effets d’un processus à partir de données se caractérise par la construction d’un modèle, ensemble de règles, d’équations, de formules qui rendent compte de la distribution des données dans la base.

Construire méthodiquement un modèle des données dont on dispose sur un objet de gestion, est un saut important sur le chemin de la connaissance et de la décision. Au lieu de gigaoctets de données brutes, le décideur dispose alors d’une vue interprétable de son sujet d’étude. Mais attention de ne pas se laisser piéger par la métaphore liée à l’expression data mining qui suggère que les données (data) ne seraient qu’un amoncellement de débris, que l’on creuse (mining) à la recherche de la pépite. Elle fait croire que le data mining rejette une grande proportion des données disponibles, pour ne conserver qu’une petite partie particulièrement significative. Or ce n’est pas exactement le cas, dans l’élaboration d’un modèle toutes les données sont prises en compte et traitées sensiblement sur un pied d’égalité. Le modèle est construit en fonction des régularités (patterns) de l’ensemble des données. Le succès de l’analyse se mesure à sa capacité à détecter les régularités fortement significatives.

D’autre part pour certains, toutes ces approches analytiques de pointe, data mining ou fouille de données ne seraient que de nouveaux noms branchés de la vénérable statistique. La réponse est : oui, mais …. Oui, car si vous faisons abstraction des techniques mises en œuvre, l’objectif est le même : élaboration et interprétation de modèles de la réalité construits à partir d’une description partielle de cette réalité par des données. Mais …, car la statistique traditionnelle ne répond pas complètement aux attentes des utilisateurs potentiels. Le progrès le plus attendu des nouvelles approches c’est l’industrialisation des analyses, alors que la statistique reste une activité artisanale, réservée à un petit nombre de spécialistes traitant avec beaucoup de soin un petit volume de données très structurées, et mettant en œuvre un savoir faire peu automatisé. Or l’ambition des nouvelles approches c’est d’amener les biens faits de la statistique à tous les responsables sans qu’ils aient constamment recours à des statisticiens.

Cependant il ne faut pas se cacher, que la réalité est souvent compliqué, voire complexe, et que les approches analytiques peuvent être délicate à mettre en œuvre et leurs résultats parfois ambigus ou incertains, même si de nombreuses entreprises utilisent ces techniques avec beaucoup de succès dans toutes les fonctions de l’entreprise et en particulier dans les domaines de la relation client, de la logistique, de la qualité.

Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :

5 mythes sur le data mining

En analyse de données comme en cuisine, la réussite se joue en grande partie avec les ingrédients
Fouille de données : une démarche en cinq étapes

Fouille de données : les biens faits des approches en laboratoire

Faire son data mining directement dans son entrepôt de données

Fouille de données & PMML : vers une extraction de données plus rapide, plus facile et moins coûteuse

Comment choisir un outil d’exploration de données
Rédigé par Michel Bruley le Lundi 9 Mars 2009 à 09:09 | Permalien | Commentaires {0}
1 ... « 17 18 19 20 21


> A LIRE EN CE MOMENT SUR DECIDEO
Profil
Michel Bruley
Michel Bruley



Galerie
scan0578.jpg
B6.JPG
B1.JPG
A.JPG
B4.jpg
B8.jpg

RSS ATOM RSS comment PODCAST Mobile


Rubriques

Rubriques