Créer son blog Recommander ce blog Avertir le modérateur


L’informatisation des entreprises a d’abord commencé par les fonctions générant beaucoup d’écritures ou de calculs (comptabilité, paie, stocks, facturation, ...), centrant les applications mises en place sur le support à la production des activités courantes et non sur leur pilotage. Toutes ces applications permettaient la saisie de données, leur traitement et la production en sortie de résultats prenant dans un premier temps la forme de documents opérationnels.

Ces systèmes de production regorgeaient d’informations, et très rapidement les entreprises ont cherché à exploiter ces dernières pour qu’elles servent de base à des analyses, à des prises de décision. Cependant si les systèmes de production étaient optimisés pour gérer des transactions ou des opérations élémentaires et peu consommatrices de ressources, ils n’étaient pas adaptés pour bien répondre aux volumes et à la complexité des traitements des activités d’analyse. En effet la gestion opérationnelle nécessite de traiter rapidement de très nombreuses requêtes simples, son cadre de travail est principalement celui d’une opération, alors que les applications d’aide à la décision n’ont pas les mêmes contraintes de temps de réponses et s’intéressent à des ensembles d’opérations sur des périodes de temps importantes.

La cohabitation d’applications de production et d’aide à la décision sur un même serveur informatique est très conflictuelle. Fortes consommatrices de ressources, les applications analytiques peuvent extrêmement dégrader les temps de réponse de toutes les applications avec lesquelles elles partagent un serveur, jusqu’à très fortement perturber les activités courantes. Cette situation inacceptable pour les équipes opérationnelles a conduit à mettre en œuvre des moyens séparés spécifiques pour répondre aux besoins d’analyse et d’aide à la décision. Ainsi sont apparus les premiers Infocentres (1980).

Les premiers infocentres se sont contentés de gérés une copie des données des applications de production dans des environnements séparés dédiés à l’analyse. Le plus souvent ils n’intégraient pas les données de plusieurs applications, et seules les applications les plus importantes voyaient leurs données régulièrement dupliquées dans un infocentre. Le rythme d’alimentation était habituellement mensuel, l’utilisation de ces systèmes n’étant pas aisées, des équipes d’assistance ont été alors souvent mise en place. Mais malgré leur rusticité ou leur coût, ces systèmes ont beaucoup apportés au management des activités, et les entreprises n’ont dés lors pas cessé de chercher à les multiplier.

De nombreux moyens d’analyse ont été développés au fil du temps en utilisant toutes les avancées technologiques qui ont vu le jour dans le monde de l’informatique (base de données, ordinateur multiprocesseurs, PC, réseaux locaux, internet, logiciels d’interrogation, de fouille de données, etc.). Mais au-delà de la technique, ce qui a guidé le développement des systèmes d’analyse, c’est l’envie des utilisateurs de mieux comprendre ce que l’entreprise a vécu, pour mieux gérer le futur. Dans cet esprit ils n’ont eu de cesse que d’obtenir une vue la plus globale et la plus exhaustive possible du passé pour mieux anticiper, préparer et conduire les actions à venir.

Concrètement cela a conduit les responsables à fonder leurs systèmes décisionnels sur des données historiques détaillées, de façon à obtenir une vision transverse de l’entreprise à travers toutes les fonctions ou départements, et de permettre dans les phases d’analyse de revenir aux événements opérationnels de base. Ils ont aussi cherché à aller au-delà des tableaux de bord et du reporting, et les plus en pointe ont développé des applications analytiques permettant de répondre aux cinq questions suivantes : « Que s’est-il passé ? », « Pourquoi cela s’est-il passé ? », « Que va-t-il se passer ? », « Que se passe-t-il en ce moment ? », « Que voudrais-je qu’il se passe ? ».

Les analyses correspondant aux questions ci-dessus sont le plus souvent effectuées avec des données relatives à des événements plus ou moins récents. Notamment toutes les questions relevant de l’étude et la définition d’une stratégie peuvent être traitées avec des données historiques annuelles. Pour certains suivis les rythmes budgétaires sont adéquats, mais pour des suivis plus opérationnels des rythmes quotidiens sont nécessaires. Enfin pour certaines opérations, de nombreuses entreprises se sont mises à intégrer de plus en plus rapidement des données dans leur système décisionnel, afin qu’il puisse offrir une aide à la décision et des canevas d’actions aux opérationnels. C’est le cas pour le support d’actions de télévente, de traque de fraude ou de personnalisation de site web, par exemple.

Aujourd’hui on ne fait plus d’infocentre, mais on met en place des infrastructure décisionnelle disponible 24h sur 24, 7 jours sur 7, 52 semaines par an, gérant des gisements de données historiques détaillées, avec des mises à jour en quasi temps réel pour certaines données. Ces gisements alimentent une grande variété d’applications décisionnelles de gestion (indicateurs, tableaux de bord), d’aide aux décisions opérationnelles, de fouille de données ou de pilotage, de façon à rendre les entreprises activement intelligentes.

Pour aller plus loin vous pouvez utilement consulter mes compilations d’articles ci-dessous :

Gérer des données historiques détaillées : une solution ou une pollution

Sortir de l’impasse des systèmes décisionnels hétérogènes par la consolidation

Boulimie des éditeurs de progiciel de gestion intégré

Activer l’intelligence de l’entreprise

Rédigé par Michel Bruley le Mercredi 1 Septembre 2010 à 09:14 | Permalien | Commentaires {1}

Beaucoup d’entreprises se laissent submerger par les données internes et externes qu’elles utilisent et qu’elles ont générées pour la plupart. Elles ne savent pas comment créer une infrastructure analytique adéquate pour convertir des données en information, des informations en opportunités et des opportunités en actions. Pourtant le domaine du décisionnel est mature et un grand nombre de spécialistes savent très bien ce qu’il faut faire pour aligner les collaborateurs, les processus et les moyens informatiques avec la stratégie, pour construire une plate-forme matérielle et logicielle rentable, évolutive, pouvant répondre aux besoins présents et futurs, pour identifier et concevoir des applications adaptées au secteur d’activité, pour tirer profit de la croissance explosive des données dans l’entreprise, pour proposer une solution globale adaptée à un budget donné, pour mettre en place une prise en charge technique permanente, enfin pour assurer que leur solution satisfait les attentes en matière de ROI.

Par exemple pour développer de bons outils d’aide à la décision il convient de bien maîtriser toute la chaîne de valeur du projet, depuis la définition des enjeux pour l’entreprise jusqu'à la traduction opérationnelle sur le terrain de la mise en œuvre des solutions, et la réalisation du retour sur investissement. Les facteurs clés de succès d’une telle démarche sont surtout la pluri-compétence des équipes, en termes de connaissance des métiers ou des technologies associées, et la capacité à gérer un projet, en respectant le périmètre, le budget ou les contraintes de délais. Il s’agit en particulier de maîtriser les risques, d'obtenir rapidement des résultats les métiers, de fonder son système sur des solutions techniques permettant une expansion, de limiter l'investissement initial et enfin de chercher à maximiser le ROI.

Au-delà des aspects techniques il convient aussi de savoir conduire les changements induits par l’introduction de nouveaux moyens d’aide à la décision. Pour cela il faut comprendre les transformations induites et les enjeux associés, anticiper les impacts, les moteurs, les freins, les leviers et compléter les traditionnels plan d’administration du changement par des actions dynamiques d’implication et d’incitation.

Comme toujours en matière de nouvelles technologies, les entreprises qui débutent n’ont pas intérêt à trop déléguer à des tiers les études et la réalisation d’un nouveau système, mais elles doivent s’impliquer fortement et pour beaucoup faire avec leurs propres équipes, quitte à les renforcer et en particulier à intégrer des conseillers dans le groupe de pilotage. Ceci est vrai pour la réalisation d’un grand projet comme pour l’introduction de nouveautés en matière d’architecture comme la SOA, ou en matière de méthodes comme les approches RAD par exemple.

Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes autres articles ci-dessous :

Entrepôt de données & SOA

Entrepôt de données & développement rapide d’application (RAD)

Au-delà de la flexibilité, l'agilité apportée par un bac à sable
Rédigé par Michel Bruley le Lundi 2 Août 2010 à 09:09 | Permalien | Commentaires {0}

L’emploi de systèmes décisionnels ne cesse de se développer ces dernières années. Non seulement ils sont mis en œuvre par toute les fonctions de l’entreprise, mais au-delà de leur vocation à supporter les décisions stratégiques, depuis quelques temps ils sont aussi utilisés pour supporter des décisions opérationnelles. Aujourd’hui alors que la plupart des systèmes décisionnels traitent des données correspondant aux objets traditionnels de gestion de l’entreprise du type, commande, facture, ordre de fabrication, bon livraison, etc., certains prennent déjà en compte de nouvelles données comme par exemple des données IP, des données GPS et des données RFID.

Données IP
Une directive européenne récente a imposée de nouvelles exigences en matière de rétention des données de communication. La directive stipule que les opérateurs doivent conserver toutes les donnés liées aux communications électroniques qu’ils génèrent ou traitent, et être en mesure de les mettre à disposition des organismes définis dans le cadre d’enquêtes et d’investigations concernant des crimes graves. Il s’agit en particulier de pouvoir retrouver les appels passés sur et vers des téléphones fixes ou mobiles, SMS, MMS, WAP, les appels VoIP, les courriels, les messageries instantanées, les connexions internet. Ces données capturées et archivées par les opérateurs doivent pouvoir servir de fil d’Ariane et être exploitées pour identifier des activités illégales.

Ces données sont à conserver de six à vingt quatre mois ce qui représente des téraoctets de données à gérer. Concrètement il s’agit de mettre en place un entrepôt de données capables de capturer et restituer les données sans délai pour analyse. Au-delà des volumes, tout ceci pose des défis techniques tant en termes de qualité des données, de sécurité, de célérité des processus, de traçabilité, de confidentialité et de complexité des analyses à réaliser qui doivent permettre de relier des données de télécommunications commutées à des communications sur IP du même abonné, de la même adresse ou du même destinataire.

Données GPS
Par exemple un assureur britannique a lancé une police d'assurance automobile « Pay As You Drive » basée sur l'utilisation du véhicule. A partir des données recueillies sur les comportements de conduite, cet assureur britannique propose une police qui facture le coût de l’assurance à partir de 1 penny seulement par mile (1,6 km).

Des systèmes GPS embarqués permettent à l’assureur de relever le comportement de chaque automobiliste. Les clients reçoivent des factures mensuelles basées sur l'utilisation de leur véhicule, notamment en fonction des plages horaires, du type de route et du kilométrage, ce qui constitue une innovation dans le domaine de l'assurance automobile. Les factures ressemblent donc à celles des opérateurs de téléphonie mobile, les primes d'assurance étant calculées et totalisées pour chaque déplacement. Cette approche transparente en matière d'assurance automobile permet aux clients de contrôler le coût de leur assurance d'une façon qui était jusqu’ici impossible.

Données RFID
La RFID apporte un nouveau standard d'identification des objets de gestion et automatise l'interface avec eux. Pour les produits par exemple on peut mettre en place une identification individuelle de chaque article, et enregistrer automatiquement tous les événements de leur vie de leur naissance à leur destruction. A noter que l'on peut mettre des puces RFID en bien d'autres endroits que sur des produits, sur des conditionnements (palettes, containers, ….), sur des cartes (paiement, fidélité, badge, …), etc. Les applications sont très nombreuses en particulier dans les domaines du paiement, du contrôle d'accès, de la sécurité et de la logistique, mais aussi pour toutes sortes d'opérations commerciales, industrielles ou relatives aux personnes.

Concrètement par exemple pour le secteur de l'industrie et en restant au niveau du produit, l’utilisation de la RFID est de nature a impacter fortement les domaines fonctionnels suivants : gestion des stocks, suivi des procédés de production, contrôle qualité, suivi des transports et de la logistique, carte d'identité produit, traçabilité du produit, dossier de la vie du produit & maintenance, lutte contre le vol et la contrefaçon, gestion des retours et des garanties, etc. En effet l'accélération de la saisie et de la circulation de l'information apportée par la RFID associée à un entrepôt de données actif permet de réinventer, d'optimiser les processus de gestion des produits et de réduire la charge de travail nécessaire.

Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :

Progiciel, entrepôt de données et RFID pour gérer les processus de demain

Des possibilités du Web Analytics

Compléter votre entrepôt de données d’entreprise avec des données géospatiales

Rapprocher les mondes de la technique et des affaires
Rédigé par Michel Bruley le Jeudi 1 Juillet 2010 à 07:42 | Permalien | Commentaires {0}

Il n’y a pas de jugement possible, pas d’appréciation saine de la réalité sans repère. Si l’on veut avoir une réflexion stratégique par exemple, il est préférable de l’inscrire dans une période longue et de se fonder sur des références solides pour projeter les différents avenirs possibles. Les entreprises gèrent des volumes considérables de données opérationnelles, mais sans un système d’information décisionnel correctement agencé, les responsables ou les opérationnels n’auront pas facilement accès aux données nécessaires pour réagir rapidement notamment aux situations non prévues.

Si nous regardons les entreprises qui ont un système d’information décisionnel performant, nous pouvons constater le grand nombre de solutions technologiques spécifiques au domaine du décisionnel qu’elles emploient (matériels, bases de données, modèles, outils et applications). En effet de très nombreuses solutions propres au monde du décisionnel ont été développées en parallèle du monde opérationnel pour couvrir les besoins particuliers qui ne pouvaient pas être pris en charge par des solutions standards. Il est ici amusant de se rappeler, que pendant longtemps certains fournisseurs de matériels, de base de données ou d’ERP, ont cherché à faire croire que leurs solutions standards permettaient de mettre en place des entrepôts de données ou des applications BI de qualité, mais depuis ils ont renoncés et les plus grands ont même rachetés des sociétés spécialisées pour se constituer une offre à la hauteur de leurs ambitions. Le domaine du décisionnel requiert des solutions technologiques spécifiques et pas seulement pour faire de la fouille de données.

Il est certain qu’un système décisionnel ne peut pas être trouvé tout fait prêt à l’emploi sur l’étagère d’un fournisseur, il faut obligatoirement le construire, l’agencer en fonction des besoins particuliers de l’entreprise. Si l’on excepte quelques rares domaines particuliers d’analyse plus matures que les autres pouvant faire l’objet de data marts, il n’existe pas encore de « progiciel décisionnel d’entreprise ». En matière de construction d’un système décisionnel, même si globalement la démarche obéit aux règles générales de conduite des projets informatiques, il convient cependant de ne pas sous estimer l’importance des caractéristiques spécifiques au domaine du décisionnel, et donc de privilégier le recours à des personnes expérimentées. Par exemple déterminer les modalités de transformation de données en information pour répondre à certains besoins métier d’une entreprise, n’est absolument pas trivial et nécessite de l’expérience.

Enfin il convient aussi de noter que si certaines solutions spécifiques au décisionnel sont clairement reconnues et largement mises en œuvre c’est le cas de l’olap, des modèles en étoiles ou en flocon par exemple, d’autres restent très confidentielles, comme les serveurs spécialisés massivement parallèles qui ont été jusqu’à très récemment avec l’arrivée des appliances pratiquement ignorés, malgré leur domination dans les très grandes entreprises.

Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :

Mettre les appliances à leur juste place

De la virtualisation & des entrepôts de données

De la Sécurité du Système d’Information et des Entrepôts de Données

Protéger votre entreprise contre le coût des temps d’arrêt informatique

Rédigé par Michel Bruley le Mardi 1 Juin 2010 à 08:21 | Permalien | Commentaires {0}

Pour toutes les sociétés, la qualité des données est une question importante. A mesure que de nouveaux domaines thématiques sont ajoutés dans un entrepôt de données, la valeur des informations se multiplie. Malheureusement, l’impact des erreurs se multiplie également. Le but d’une équipe de gestion de la qualité des données, est de développer des règles communes et une terminologie cohérente, qui seront utilisées par les diverses unités de l’entreprise. Un programme de gestion de la qualité des données permet de promouvoir l’instauration d’une information exploitable dans l’ensemble de l’entreprise, afin que celle-ci mette le cap sur la rentabilité.

Selon le Data Warehousing Institute, la médiocre qualité des données coûte chaque année des milliards d’euros aux entreprises. Dans une récente enquête, près de la moitié des personnes interrogées considère que les données de leur organisation sont «pires que ce qu’ils pouvaient imaginer». Dans ces conditions l’amélioration de la qualité des données, même à petite échelle, peut considérablement influencer la prise de décision dans les entreprises, favorisant ainsi une augmentation des bénéfices. Malheureusement, de nombreuses initiatives en matière de qualité des données ne voient jamais le jour, car la tâche est toujours perçue comme difficile. Ainsi la plupart des entreprises se focalisent principalement sur la rentabilisation à court terme de leur système d’information décisionnel, et n’investissent pas dans la qualité des données.

Cependant, une procédure simple consiste à pointer les principaux problèmes de qualité des données, à créer des règles pour isoler, réparer les erreurs et utiliser ensuite un tableau de bord, pour contrôler et évaluer les zones de qualité des données de manière constante. Un tableau de bord de la qualité des données bien conçu, aide les entreprises à mieux comprendre les problèmes de qualité des données, à évaluer les possibilités d'amélioration et à mesurer le progrès au fil du temps. Il est possible d’élaborer un tableau de bord de la qualité des données, et d'autres rapports de gestion des données en seulement trois semaines. Le tableau de bord peut être implémenté à l’aide d’un portail ou à l’aide de l'outil de reporting qu’utilise déjà l’entreprise.

Bien qu'un plan d'action de qualité des données soit impératif pour toutes les entreprises, cette approche est plus facile à mettre en œuvre dans les entreprises qui commencent à mettre en place leur entrepôt de données. En abordant très tôt les problèmes de qualité des données, les actions importantes nécessaires au succès sont plus faciles à organiser que lorsqu’il faut revenir sur des réalisations déjà mises en production. Il convient aussi dans le cadre du système d’information décisionnel, d’industrialiser le processus technique des contrôles et des rejets, et donc de mettre en place un outil générique pour les contrôles et les rapprochements.

Enfin, la qualité des données n’étant pas qu’une problématique technique, et comme elle touche avant tout les utilisateurs métiers de l’entreprise, il faut impérativement responsabiliser les propriétaires des sources et faciliter le processus de validation fonctionnelle des données. Pour cela il convient d’organiser une structure de gouvernance viable, en particulier de définir des gestionnaires de données.

Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :

Cap sur la qualité des données

Maîtriser la qualité des données : une tâche pour Sisyphe ?

Impact de la qualité des données sur les résultats des compagnies d’assurances

Rédigé par Michel Bruley le Samedi 1 Mai 2010 à 08:22 | Permalien | Commentaires {0}
Les Directions générales voient habituellement assez bien les dépenses liées à l’informatique, mais beaucoup moins clairement les bénéfices apportés. Dans la majorité des entreprises, seuls les grands projets font l'objet d'une évaluation des bénéfices. Mais, même dans ce cas, seul un projet sur deux bénéficie d'un suivi ou d'une analyse de rentabilité.

En fait, les maîtrises d’ouvrages ont du mal à justifier leurs projets, alors que les directions générales attendent une implication forte des directions métier, celles-ci ne répondent pas vraiment à leur demande. C'est sans doute là que se situe le principal problème des directions informatiques, qui n'ont pas assez le soutien des directions métier, et qui peinent à démontrer la valeur ajoutée des dépenses informatiques, les 3/4 sont convaincues d´amener à leur organisation une valeur ajoutée supérieure aux dépenses engendrées, mais près de 90 % d´entre-elles avouent être dans l´incapacité de le démontrer à leur direction générale.

Il n’y a pas de fatalité, une gouvernance des investissements informatiques est possible et pour être effective, elle exige que les directions informatiques maîtrisent les engagements de dépenses, établissent la valeur des investissements et des résultats livrés par les projets informatiques. Ceci peut se faire à travers des processus d’alignement stratégique et de planification (schéma directeur, étude d’opportunité, urbanisation, plan d’évolution), d’une gestion de portefeuille de projets, d’une gestion budgétaire, d’une gestion des projets informatiques et de leur mise en place focalisée sur la prise en main par les utilisateurs et la réalisation des bénéfices.

Normalement la mise en place d’un nouvel applicatif doit permettre à une maîtrise d’ouvrage de faire évoluer ses résultats métier, mais pour cela il convient de comprendre la logique de production des résultats, de définir une stratégie de réalisation des bénéfices, afin de les piloter et de livrer les meilleurs résultats possibles (résultats recherchés, à éviter, indicateurs utilisés, photo avant / photo après). La conduite du changement doit être fondée sur une démarche proactive de production des résultats.

Chaque projet doit faire l’objet d’une évaluation selon quatre critères : alignement stratégique (clarté et précision de la contribution), contribution métier (crédibilité des résultats annoncés), risques et enfin valeur financière calculable (clarté et crédibilité du ROI).

Pour aller plus loin sur le thème du retour sur investissement, vous pouvez utilement consulter mes articles ci-dessous :

Faut-il et si oui, comment, se préoccuper du retour sur investissement des projets NTIC ?

Anticiper, formaliser, concrétiser le ROI des projets informatiques, une nouvelle quête du Graal

Rédigé par Michel Bruley le Jeudi 1 Avril 2010 à 09:15 | Permalien | Commentaires {0}
Un bon système d’information décisionnel permet de développer la capacité de réflexion et d’action de l’entreprise (décider avant le concurrent, décider en temps réel, tirer parti d’un avantage concurrentiel, réaliser des économies grâce à l’identification des bonnes méthodes, ...). Mais l’information n’existe pas en soit, c’est un « produit » élaboré par un processus de transformation itératif, interactif à partir de données élémentaires relatives aux différents acteurs et aux évènements qu’ils vivent. Par exemple les données clients et les événements gérés par de nombreux services (commercial, service client, facturation, réclamations, sav, ...).

Historiquement les premiers systèmes décisionnels ont été développés pour répondre aux besoins en information d’une organisation fonctionnelle en particulier (marketing, comptabilité, ventes, ...) ignorant les besoins des autres entités et s’adressant à un nombre limité d’utilisateurs. Mais ces systèmes qui gèraient des données dupliquées et redondantes, offraient de multiples vues de la réalité, de multiples perspectives fonctionnelles. Faute d’une intégration des données dans un modèle unique d’entreprise, chaque organisation élaborait l’information selon sa perception, il n’y avait pas de vue globale, pas de vérité d’entreprise. Cela cloisonnait la connaissance, contrariait la mise en place de processus transversaux et limitait la prise de décision au niveau global.

Les entrepôts de données qui sont aujourd’hui mis en place sont notamment conçus pour pallier aux inconvénients décrits ci-dessus. Ils gèrent des données identiques, partagées entre toutes les organisations, orientées par sujet ou par thème, qui ne sont plus cantonnées à une seule sphère fonctionnelle mais valent pour l’entreprise toute entière. Ils offrent une vue unique des données, une information plus complète, plus précise qui facilite d’autant la prise de décision.

Il s’agit donc d’organiser les données intéressantes dans des structures cohérentes, en éliminant les redondances de données inutiles, et en définissant des relations entre les structures de données qui ont des rapports entre elles. Dans une première phase du projet de développement de l’entrepôt de données, il convient de réaliser un modèle conceptuel de données (MCD), puis celui-ci est affiné en un modèle logique de données (MLD) qui est dépendant du système de gestion de base de données utilisés. Par exemple dans un SGBDR (Système de Gestion de Bases de Données Relationnelles), les données sont enregistrées dans des tableaux à deux dimensions (lignes et colonnes). Enfin le MLD est traduit en un modèle physique de données (MPD), c'est-à-dire écrit dans un langage de définition de données, généralement le SQL.

Pour aller plus loin sur le sujet vous utilement lire mes autres propos ci-dessous :

Comment modéliser un entrepôt de données pour satisfaire les utilisateurs ?

Modèle Logique de Données : ou comment fonder ses connaissances sans jargon.

Construire un entrepôt de données pour saisir des opportunités.

Modèles de données et opportunités BI

Rédigé par Michel Bruley le Lundi 1 Mars 2010 à 08:11 | Permalien | Commentaires {0}
La mise en place d’un entrepôt de données a toujours pour objectif d’améliorer la compétitivité, en facilitant l’optimisation du fonctionnement et l’innovation. Parmi les fonctions de l’entreprise, après la fonction financière c’est celle de la relation client qui a fait le plus l’objet d’investissements en systèmes d’aide à la décision. Cependant depuis quelques temps les entreprises manufacturières ne se contentent plus de bien intégrer les données clients pour alimenter leur CRM, mais s’intéressent aussi aux données relatives aux produits, de façon à pouvoir les suivre globalement à travers les domaines de la conception, des achats, des stocks, de la production, de la qualité, des ventes, des transports, des services, de la maintenance, etc.

Concrètement, elles cherchent à réaliser un entrepôt de données d’entreprise qui intègre les données concernant les produits principalement issues du PLM, du SCM, du CRM et du MRO, de façon à optimiser la prise en compte exhaustive des contraintes de production et de support dès la conception, de maîtriser la chaîne d’approvisionnement, de réduire les coûts et les cycles de production, d’améliorer la qualité, de réduire les stocks, d’augmenter la satisfaction clients, de maîtriser les coûts de garantie et les processus de rappel, etc.... Les enjeux sont colossaux et en maîtrisant sa complexité, l’entreprise peut espérer au-delà d’une excellence opérationnelle, être réactive face aux exigences du marché et être à même de réaliser des innovations de rupture.

La vision 360° des produits est une cible qui ne peut être atteinte rapidement, et au niveau de la trajectoire il convient de définir des étapes porteuses de résultats. Lorsque l’on regarde les expériences de certains utilisateurs de solutions Teradata, on constate qu’ils ont toujours commencé par chercher à résoudre un de leurs problématiques spécifiques, comme 3M (optimisation de la planification de la production), Ford (vision de la situation de plus de 2000 fournisseurs), Ping (accélération du traitement des commandes), TSMC (contrôle de la chaîne d’approvisionnement à travers une batterie de KPI), Vector SCM (optimisation des transports), Wesco (amélioration de la vision de la disponibilité des produits), Western Digital (réduction du temps de traitement des problèmes de qualité), Whirlpool (réduction des coûts de garantie).

Teradata a formalisé les principaux thèmes d’amélioration qu’une organisation peut espérer couvrir avec un entrepôt de données d’entreprise (voir les thèmes pour les entreprises manufacturières. Chacun des thèmes listés peut faire l’objet d’une étape intermédiaire dans le chemin qui mène à la cible de la vision 360° des clients et des produits.

Pour aller plus loin, vous pouvez utilement consulter mes autres articles ci-dessous :

Un entrepôt de données pour la fonction Achat

Système d’analyse de la qualité chez Daimler AG

PGI, entrepôt de données d’entreprise et gestion des garanties

De l’importance des données détaillées pour les opérations de maintenance

Pour un système unique d’aide aux décisions de MRO

Rédigé par Michel Bruley le Lundi 1 Février 2010 à 07:42 | Permalien | Commentaires {0}

Dans le contexte de globalisation d’aujourd’hui, les exigences en matière d’approvisionnement des grandes entreprises sont extrêmement élevées, au point que des sociétés spécialisées voient le jour comme Vector SCM, qui gère 12 000 sources d’approvisionnement, 1200 transporteurs, charge 8 millions de véhicules par an, dessert 12 500 points de livraison et permet à de nombreuses entreprises de remplir les exigences logistiques de leurs grands donneurs d’ordres.

L’optimisation des chaînes d’approvisionnement est un enjeu dans la recherche d’avantages concurrentiels. Par exemple dans le secteur de la distribution une entreprise comme Wal-Mart a en partie construit son succès sur la création d’une chaîne d’approvisionnement particulièrement remarquable, qui entre autre a su remplacer des stocks par de l’information : plus vite les magasins envoient des informations sur ce que les clients achètent, plus vite l’information peut être transmise aux fabricants et aux concepteurs, plus vite la chaîne d’approvisionnement peut réagir.

Mais la plupart du temps dans les entreprises, la chaîne d’approvisionnement souffre de cloisonnements, car l’intégration et la synchronisation des flux physiques, des flux d’informations et des flux financiers n’est pas optimale. Or la réduction des stocks et l’optimisation de la chaîne d’approvisionnement ne peuvent se concevoir sans une bonne gestion de l’information, mais au-delà des traditionnels systèmes opérationnels qui permettent d’automatiser les processus, il convient sans aucun doute de s’appuyer sur un système décisionnel adapté. Ce dernier doit être fondé sur un entrepôt de données qui a pour vocation d’intégrer toutes les données logistiques internes ou externes, et offrir à toutes les parties prenantes les visions historiques, opérationnelles, prévisionnelles ou de simulation dont elles ont besoin.

Le système décisionnel doit intégrer des données de toutes les applications opérationnelles concernées, à savoir de façon non limitative, des données de : CRM – Customer Relation Management, DP&F – Demand Planning and Forecasting, SRM – Supplier Relation Management, APS – Advanced Planning & Scheduling, ERP – Enterprise Resources Planning, TMS – Transportation Management System, WMS – Warehouse Management System, DCS – Distributed Controlled System, MES – Manufacturing Execution System, etc.

Pour aller plus loin sur ce sujet vous pouvez utilement lire mes articles ci-dessous :

Tableaux de bord logistique et entrepôt de données d’entreprise

Optimisation des approvisionnements & entrepôt de données

Un entrepôt de données pour améliorer la distribution des pièces détachées chez Ford

ERP & entrepôt de données d’entreprise pour les entreprises manufacturières

Dossier : Gérer votre chaîne d’approvisionnement

Rédigé par Michel Bruley le Vendredi 1 Janvier 2010 à 10:03 | Permalien | Commentaires {0}
L’analyse est un processus structuré de construction, traitement et production d’informations. L’information, est à la fois matière première et produit généré. La pertinence de l’analyse dépend en partie de la qualité et parfois de la quantité des informations prisent en compte. Mais par-dessus tout l’analyse nécessite une sérieuse dose de rigueur (démarche méthodique). Cependant il ne faut pas tomber dans un excès de rigueur, dans des analyses trop pointillistes interdisant une vue d’ensemble et amenant à ne pouvoir conclure, ou qu’avec des propositions précises mais très limitées, en refusant celles qui seraient globale mais imparfaitement vraies.

L’analyste ne doit pas se laisser submerger de données multiples, disparates, contradictoires parfois, et savoir identifier les informations cruciales, synthétiques, bien construites et suffisamment fiables. Cependant il faut avoir conscience que les données chiffrées et plus encore monétaires, même lorsqu’elles sont fausses avec précision - exemple comptabilité analytique avec critères de répartition obsolètes -, tendent à s’imposer aux données qualitatives, qui pourraient n’être qu’approximativement exactes. Les informations complètes, fines, certaines et rétrospectives sont généralement plus valorisées, que des informations partielles, agrégées, incertaines, tournées vers le futur.

Suivant leur (dé)formation d’origine, les analystes ont tendance à accorder trop de poids à certains facteurs. Les économistes privilégient les variables d’environnement au détriment de celles d’organisation ou de gestion. Les responsables des ressources humaines voient très systématiquement dans les jeux des acteurs, les blocages internes ou les qualifications des individus, les causes fondamentales des difficultés. Enfin les financiers cèdent régulièrement aux délices de l’analyse des flux de fonds, du bilan et du compte de résultat, pour y rechercher des déséquilibres qui ne font que traduire des dysfonctionnements stratégiques, organisationnels ou de gestion. Cependant, l’un des défis majeurs pour les analystes consiste à éviter les écueils dans les raisonnements : multiplication des perceptions, parcellisation des perceptions, éparpillement analytique, diversion-distraction et approfondissement du faux problème.

S’il doit se méfier de lui-même, l’analyste doit faire preuve de prudence à l’égard des personnes et des groupes avec lesquels il est en relation. L’analyste peut se laisser prendre en otage par une direction qui cherche plus à faire entériner son point de vue qu’à obtenir des conclusions neutres. L’analyse peut être un alibi, une caution morale pour légitimer certaines décisions douloureuses. La lucidité de l’analyste, son aptitude à découvrir les buts cachés éventuels assignés à son intervention, sont essentiels à la réussite de sa mission. D’un point de vue déontologique, les conclusions d’un analyste n’ont pas à être inféodées aux intérêts de celui qui les a demandées, mais se doivent de servir en priorité l’entreprise dans son ensemble. L’analyste peut être confronté à des processus de désinformation, soit en provenance des sources extérieures, soit même au sein de l’entreprise. Sans tomber dans la paranoïa, il convient donc que l’analyste garde sa lucidité et fasse des recoupements.

Enfin, probablement on pourrait appliquer aux analystes en général, la boutade qui dit : « Si vous voulez cinq avis sur un problème économique, faites discuter quatre économistes ».

Pour aller plus loin vous pouvez utilement consulter mes autres articles ci-dessous :

Méthode et stratégie de résolution de problème

Analyse de données, information et stratégie le modèle militaire

Décision, aide à la décision : un monde complexe

Au-delà de la décision, l’action

Rédigé par Michel Bruley le Mardi 1 Décembre 2009 à 09:15 | Permalien | Commentaires {0}
1 ... « 16 17 18 19 20


> A LIRE EN CE MOMENT SUR DECIDEO
Profil
Michel Bruley
Michel Bruley



Galerie
scan0578.jpg
B6.JPG
B1.JPG
A.JPG
B4.jpg
B8.jpg

RSS ATOM RSS comment PODCAST Mobile


Rubriques

Rubriques