Créer son blog Recommander ce blog Avertir le modérateur


Quand une entreprise intègre dans sa stratégie le fait de focaliser son organisation sur ses clients, il est certain que si elle ne va pas essayer de traiter tous ses clients de la même façon, elle va quand même chercher à optimiser les « expériences » que ses clients ont avec elle. Ici optimiser ne veut pas dire maximiser et c’est bien entendu un optimum sous contrainte qui est recherché. Choisir un niveau d’optimum pour les expériences des clients nécessite d’arbitrer entre des intérêts externes (par exemple ce que les clients souhaitent) et des intérêts internes (chiffres d’affaires, marges), le tout dans un horizon temporel qu’il faut aussi fixer.

Concrètement il convient de traiter les principaux points suivants : créer des segments de clients durables, à partir d’une connaissance large des clients, incluant toutes leurs relations avec l’entreprise et ceci sur une période significative ; utiliser ces segments pour définir des scénarios des relations avec les clients dans le long terme qui puissent être mis en œuvre dans différents contextes d’interaction ; mettre en place des moyens qui permettent de reconnaître les clients, quel que soit le canal par lequel ils entrent en contact avec l’entreprise ; prendre en compte tous les besoins et donc intégrer tous les processus inhérents aux relations clients ; faciliter la réalisation d’analyse à tous les stades de façon à ce que les apprentissages possibles des expériences passées puissent être faits ; personnaliser l’offre au sens large, les produits et les expériences, de façon à ce que le client perçoive qu’il fait l’objet d’un traitement qui lui est spécifique ; gérer le portefeuille de clients, c'est-à-dire adapter les engagements de ressources pour assurer la qualité des expériences à la valeur des clients pour l’entreprise ; établir des règles et une discipline de façon à ce qu’à travers l’organisation les services soient assurés et à leur juste niveau ; organiser l’apprentissage de l’entreprise, partager les résultats de façon à faciliter la déclinaison des recettes de succès et éviter de persister dans l’erreur ; intégrer les équipes intervenant dans la chaîne de valeur de façon à ce qu’elles aient intérêt à travailler ensemble.

De fait il faut aussi que l’entreprise tienne compte de son niveau réel de maturité dans sa façon d’interagir avec ses clients pour définir des solutions pour les points listés ci-dessus. La tâche n’est pas triviale, mais les enjeux de satisfaction de la clientèle, de notoriété, de part de marché, de chiffre d’affaires et de marge sont motivants. Il faut absolument chercher à être progressif et cohérent dans l’introduction des changements dans l’offre, dans l’organisation et dans les outils. Il faut avant tout traiter le cas de l’entreprise et non plaquer une solution toute faite. Il n'existe pas de "one best way", ni de solution informatique unique et obligée. De fait il existe une grande variété de problématiques imputables à des situations d'entreprises très différentes (domaines d'activité, types de clientèle, culture organisationnelle, structure, etc.) qui doit nécessairement conduire à une diversité d'approches.

Les entreprises ne doivent pas compter sur une «approche métier » type pour optimiser l’expérience de leurs clients, ni non plus mettre en œuvre les mêmes technologies. Il faut en particulier éviter toute dérive techniciste et ne pas se focaliser sur les outils. Il convient d’avoir conscience de l’importance de la coordination de l’ensemble de l’entreprise et donc de la primauté des aspects métier.

L’optimisation des expériences client permet d’instaurer des relations plus durables et de consolider l’entreprise sur son marché. Très concrètement elle accroît la fidélité des clients et donc leur valeur pour l’entreprise, et autorise un développement de la connaissance du fonctionnement des marchés, source majeure de l’innovation. Cette approche permet de réfléchir et parfois de remettre en cause des composantes du modèle d'affaires à commencer par le mix des éléments formant la valeur pour le client ou sa propre chaîne de valeur. Tout cela débouche sur un renforcement de la position concurrentielle y compris dans des marchés sans croissance.

Rédigé par Michel Bruley le Samedi 15 Avril 2017 à 11:37 | Permalien | Commentaires {0}

Le domaine décisionnel, au sens Système d’Information du terme, correspond à un des moyens qui permet à l’entreprise de répondre à ses besoins d’Intelligence économique, il couvre la partie « data », la partie données quantitatives par opposition à la partie « explication », à la partie qualitative du discours.

Le domaine décisionnel devient critique pour les entreprises et de plus en plus d’entreprises ont besoin de pouvoir accéder 24h sur 24, 7 jours sur 7 à leurs données historiques.

Le domaine décisionnel a été historiquement peu et mal pris en compte par les DSI qui ont toujours considéré le domaine opérationnel du Système d’Information comme prioritaire. D’une façon générale, les applications du type ERP ont été prioritaires par rapport aux entrepôts de données et à l’intérieur d’un thème fonctionnel comme celui de la gestion des clients, l’automatisation des canaux a été prioritaire par rapport à la partie analytique.

Le domaine décisionnel concerne tous les thèmes fonctionnels de l’entreprise, mais les besoins sont très différents d’une fonction à l’autre, en termes de volumes de données, de profondeur d’historique nécessaire, de nombre d’utilisateurs, de complexité des questions.

Les utilisateurs du domaine décisionnel sont très variés et ont besoin d’outils différents :
• Les spécialistes de l’analyse de données, déploient des outils spécifiques (big data, data mining, …), pour explorer sans hypothèse a priori leurs données pour travailler des sujets comme : la rétention des clients, la propension à acheter, définir des modèles de réponse, analyser des paniers,
• Les analystes métiers mettent en œuvre des outils statistiques et partent de quelques hypothèses faibles pour mettre au point : la tarification, des packages produits, le marketing événementiel, les ventes croisées,
• Les super-utilisateurs d’une fonction utilisent des outils multidimensionnels et partant d’hypothèses analyse les risques, les ressources, les promotions, …
• Les utilisateurs de base d’une fonction (Marketing, Contrôle de Gestion, ….) se servent de requêtes plus ou moins préprogrammées en fonction d’hypothèses fortes pour : analyse des résultats, faire des comparaisons, des comptages, …

Le domaine décisionnel a été couvert dans les entreprises de façon hétérogène et anarchique, avec une multiplication de moyens. Dans de nombreuses entreprises les mêmes données sont gérées plusieurs fois dans des bases différentes, il n’existe le plus souvent aucune vision d’ensemble et de nombreuses analyses souhaitables sont infaisables ou nécessitent des délais et des coûts rédhibitoires.

Cependant quelques grandes entreprises expérimentent avec succès des voies nouvelles (entrepôt de données d’entreprise intégré, plateforme de découverte, lac de données, moteur CEP (Complex Event Processing) et s’ouvrent ainsi un large champ de perspectives économiques et techniques.

Quoi qu’il en soit les compétences informatiques à mobiliser sont nombreuses variées et compte tenu de l’évolution des offres, les besoins de formation sont très importants.

Enfin, il est certain que le décisionnel est complexe et qu’il est absolument nécessaire d’avoir une approche d’urbanisation qui permet d’envisager un projet d’entreprise dans ce domaine en définissant un cadre cohérent, stable et modulaire dans lequel peuvent venir s’insérer les développements d’applications analytiques.

Rédigé par Michel Bruley le Samedi 1 Avril 2017 à 09:11 | Permalien | Commentaires {0}

De la Gestion de ses Informations et de son Image

Chercher un avantage concurrentiel en tissant des relations avec des clients, pour mieux comprendre leurs besoins et leurs désirs, n’est pas nouveau. Exploiter des informations clients pour mieux se positionner est un réflexe commercial de base, que les entreprises ont d’autant plus facilement que pour la majorité la moitié de leurs bénéfices provient de 10% de leurs clients. Cependant, la plupart des entreprises vendant directement aux consommateurs échouent dans la gestion de l’un de leurs actifs majeurs : l’information client. La raison principale vient du fait que les entreprises n’ont pas une approche globale de la gestion de leur relation client.

Dans le contexte actuel de multiplicité des canaux de distribution et des offres analogues, le coût d’acquisition d’un nouveau client s’envole, les marges baissent et pour les produits en phase de maturité l’amortissement des coûts de recrutement peut nécessiter plus de deux ans de consommation et suppose donc une certaine fidélité. Tout cela conduit à la prolifération des programmes de fidélisation. Les entreprises développent donc des stratégies de focalisation client, qui les amènent à identifier leurs clients les plus intéressants ; créer des portefeuilles de clients homogènes (problématique, potentiel ...) ; se débarrasser des clients non profitables ; choyer les "clients avocats de leurs produits" ; se servir de leurs clients pour obtenir d'autres clients ; identifier les prospects les plus intéressants ; écouter, provoquer les suggestions de leurs clients ; et développer des programmes de fidélisation.

La plus grande difficulté dans ce type d’approche réside dans le fait que les hommes et informations nécessaires sont dispersés dans l’entreprise et relèvent de fonctions différentes comme le marketing, la finance, les ventes, les services après vente, etc. … Inversement les technologies de l’information ont tellement évolué, qu’aujourd’hui le stockage, l’analyse et l’accès distant à de grands volumes de données sont aisés. L’automatisation des Ventes & du Marketing apporte trois bénéfices majeurs : la réalisation d’approches commerciales des clients très personnalisées ; l’intégration des réactions des clients (produits, concurrents …) dans la définition de l’offre ; la création d’une infrastructure qui à moindre coût facilite la flexibilité et permet de constamment entretenir un portefeuille d’avantages concurrentiels (offre, personnalisation, coûts).

Pour obtenir ces bénéfices, les entreprises mettent en place des applications pour : cibler (segmentation) ; promouvoir (gestion de campagne marketing) ; fidéliser (fidélisation, rétention, attrition), prospecter (acquisition, vente croisée, additionnelle) ; suivre les résultats (ventes par produit, canal …) ; analyser la rentabilité (marge brute, nette …) ; définir l’offre (affinité, conception, chaîne d’approvisionnement).

Aujourd’hui, les entreprises utilisent le téléphone, internet, la poste, des vendeurs pour interagir avec leurs clients et plus particulièrement ceux à forts potentiels, mais il est essentiel pour réussir ces approches marketing de trouver la bonne combinaison de technologies et de ressources humaines qui permettent de mettre en œuvre une gestion optimum de la relation client : obtenir un signe d’intérêt, un premier achat ; augmenter la fréquence, la variété, le montant des achats ; réduire l’attrition et réactiver les inactifs.

Au moment de vous lancer dans ce type d’approche, pensez à la phrase de Sénèque : “ Il n’y a pas de vent favorable pour celui qui ne sait où aller ”. Gérer la relation client est un métier, des objectifs relationnels ne peuvent être atteints que dans la mesure où un cap est fixé et que quelques directives sont précisées de telle sorte que l’allocation des ressources et les choix d’actions opérationnelles puissent être réalisés pour permettre d’atteindre un objectif retenu. Un résultat significatif ne peut pas être attendu d’un ensemble d’activités déclenchées au hasard. Au de là du produit ou du service, la clé principale est dans la communication et dans la possibilité que le client a de différencier une offre. C’est pourquoi, positionnement et éléments de différenciation doivent être constamment maintenus attractifs et l’image de marque gérée. Les consommateurs se font une image des produits/services et des entreprises, à travers les emballages, les canaux d’interaction, le degré de courtoisie des réponses au téléphone par exemple, tout ce qu’ils voient ou entendent ; cette image les incitera ou non à acheter.

Rédigé par Michel Bruley le Lundi 13 Mars 2017 à 13:49 | Permalien | Commentaires {0}
Dans une démocratie, le gouvernement est le gardien des renseignements qui concernent la population, et les citoyens devraient avoir accès à la plus grande partie possible des données les concernant, le plus rapidement possible. L’information est une base nécessaire de la démocratie dans un esprit de connaissance civique des affaires. L’information, sans être une forme précise de participation, est un préalable nécessaire à toute participation. Cependant, il n’y a pas de développement ni de construction de la démocratie sans mise à niveau des mentalités et des comportements, sans civisme et sans participation citoyenne. La démocratie suppose un niveau de conscience individuelle et collective qui n’est ni inné ni donné, mais qui s’acquiert par l’éducation. On ne naît pas citoyen, on apprend à le devenir.

En démocratie, l’accès à l’information est essentiel et les technologies de l’information ont un rôle important, comme l’a souligné Al Gore il y a de cela plus de vingt ans « Je vois un nouvel âge athénien de la démocratie forgé dans les forums créés par l’infrastructure globale de l’information ». L’Internet est un instrument permettant de stimuler et d’enrichir la discussion entre citoyens.

Ci-dessous j’ai regroupé mes articles sur ce thème des données, des informations, de l’open data et de la démocratie :

De l’analyse de données aux choix politiques

Les données quantitatives sont des arguments de poids

Les données sont le carburant indispensable de la dynamique démocratique

L’open data au service des citoyens pour contrôler les politiques et l’administration

Données/analyses/commentaires de qualité pour alimenter la démocratie

Bienvenu dans le monde de la post-vérité, où règne la désinformation

Rédigé par Michel Bruley le Mardi 24 Janvier 2017 à 16:21 | Permalien | Commentaires {0}

Tous les citoyens sont aujourd'hui concernés par l'usage des nouvelles technologies d’information (informatique, systèmes d’information, bases de données, etc.), de communication (téléphonie cellulaire, internet, intranet, réseaux, etc.) et de production (automatisation, robotisation, etc.). Les nouvelles technologies sont devenues un élément de la culture générale du 21ème siècle. Elles transforment les métiers et les professions, elles impactent fortement les Sciences et contribuent à l’élaboration, l’évolution des connaissances et créent un nouveau type de rapport au monde et à la connaissance.

Les nouvelles technologies sont en évolution constante, et il y a régulièrement des révolutions techniques plus ou moins importantes qui remettent en cause la place de certains fournisseurs. Cependant il y a des constantes qui se retrouvent toujours, des questions comme celle relative à leur impact sur la vie en société, les droits individuels ou celles relatives aux hommes et à leur capacité à intégrer, utiliser, développer ces nouvelles technologies.

J’ai regroupé ci-dessous mes derniers articles sur ce thème du développement des nouvelles technologies :

Big data et open source

Big data : Hadoop doit être au cœur de votre système d’information décisionnel


Seul l’apprentissage automatique permettra à de nombreuses entreprises de valoriser leur big data

De l’analyse à l’action : 50 nuances à prendre en compte

Lutte antiterroriste et mégadonnées vont-elles conduire à des atteintes à la vie privée

Rédigé par Michel Bruley le Lundi 12 Décembre 2016 à 14:07 | Permalien | Commentaires {0}

La numérisation de la société provoque de grands chambardements (penser à la numérisation de la photo, numérisation des textes, des livres, de la presse, de la musique, du cinéma, des télécommunications, des mesures ; penser à la multiplication des capteurs, à l’impact sur les entreprises, les clients mieux informés, les citoyens, les gouvernements … ), la numérisation génère donc beaucoup de données que l’on peut analyser (big data) et en outre partager facilement (open data)

Le big data pénètre désormais de nombreux secteurs d'activité. Des données bien exploitées dotent les entreprises d’un avantage concurrentiel difficile à battre. Le temps des affaires menées à l’instinct est révolu, l’ère de la décision par les données a sonné. La plupart des décideurs dans le monde ont adopté les outils analytiques pour les aider à prendre des décisions. À noter que pour les pionniers le big data ne booste pas l’avantage concurrentiel, il est au cœur même de leur modèle d'affaires.

Les moyens matériels ou logiciels nécessaires ont vu le jour et continuent à être développés pour lancer, accompagner cette vague qui ne fait que commencer. Tout va bien, mais un domaine mérite cependant beaucoup d’attention, c’est celui de la mobilisation des compétences indispensables pour profiter des opportunités offertes par le big data. Ci-dessous j’ai regroupé mes différents articles sur ce sujet :

Propos sur les conseils en big data

Mégadonnées : la construction d'algorithme nécessite toujours du jus de cervelle

L'analyste de mégadonnées ou big data doit se méfier de son enthousiasme

Big data : au-delà des incontournables solutions open source, il faut savoir mobiliser les bonnes compétences

Big data : Il faut un bon équipage pour ne pas se noyer dans le data lake

L’avenir est radieux pour les spécialistes de l’analyse des données

Rédigé par Michel Bruley le Samedi 12 Novembre 2016 à 12:06 | Permalien | Commentaires {0}

La mise en place de PGI se développe dans toutes les entreprises, quel que soit leur taille ou leur secteur d’activité et dans l’industrie par exemple la plupart des grands groupes en sont équipés. Les fournisseurs de PGI proposent, outre leurs solutions pour automatiser et intégrer les opérations des entreprises, des tableaux de bord pour piloter les activités. Or certains éditeurs, entraînés par leur volonté de promouvoir leur offre, en arrivent à dire qu’avec ces tableaux de bord ils répondent aux besoins décisionnels des entreprises, et ceci est totalement faux, car ce type de moyens ne correspond qu’au premier niveau d’aide à la décision sur une échelle de cinq niveaux.

Un tableau de bord est un outil de pilotage qui permet à un gestionnaire de suivre périodiquement un objectif prédéfini et si nécessaire de réagir. Il correspond donc au besoin d’une personne, suppose un ensemble de données de références, se compose d’indicateurs pertinents par rapport à un objectif métier et est généralement publié à date fixe. Il correspond à la partie contrôle d’un cycle classique de gestion (planification, organisation, direction, contrôle) et grâce à un ensemble de données agrégées il permet de mesurer le niveau de performance (efficience, efficacité, économie, qualité …) d’une entité et d’être à l’origine d’éventuelles actions correctives.

Anticiper, formaliser les objectifs détaillés d’une entité, suivre périodiquement le déroulement des opérations et mener des échanges sur les résultats sont des actions clés d’une direction. Cependant ce ne sont pas les actions les plus créatives de valeur, il s’agit simplement de piloter au mieux l’entité vers des buts qui ont été définis par ailleurs avec d’autres moyens et précisément d’autres composants du système d’information que les tableaux de bord. Autrement dit les tableaux de bord sont nécessaires, mais très largement insuffisants pour permettre à une entreprise de s’insérer dans le monde compétitif d’aujourd’hui.

Fixer des stratégies, rechercher systématiquement à identifier et valoriser des avantages concurrentiels (marchés, produits, processus, connaissances) sont parmi les actions les plus porteuses de valeur pour une entreprise. Pour ce faire il convient de pouvoir aller au-delà du simple « que se passe-t-il ? » et faire par exemple des simulations, des analyses de sensibilité, d’optimisation qui prennent en compte des hypothèses, des cibles et des scénarios. En termes de systèmes d’information, il faut un lac de données et divers moyens pour faire parler les données historiques de façon non prévue et grâce à des analyses mieux comprendre son contexte, ses activités et en tirer des enseignements, des prédictions. Nous sommes là dans les niveaux deux et trois du décisionnel.

Pour revenir aux PGI, il est certain qu’ils constituent une solution logicielle incomparable pour harmoniser la gestion des procédures des entreprises et faciliter l’interaction en temps réel entre les grandes fonctions. En terme de positionnement parmi les outils de traitement de l’information ils permettent de couvrir les besoins de gestion des opérations, mais pour les autres besoins il faut d’autres moyens : coopération (groupware, workflow, …), décisionnel (lac de données, data mining …), communication (internet, intranet, extranet …).

Les entreprises ne peuvent pas se contenter pour répondre à leurs besoins décisionnels de déployer les tableaux de bord associés à leur PGI. Elles doivent mettre en place un ensemble de moyens spécifiques pour couvrir leurs besoins décisionnels. Ces derniers ne transformeront pas automatiquement la façon de faire leurs affaires, ils apporteront seulement des potentialités qui devront être exploitées. Il est clair qu’une organisation ne peut pas passer en une seule étape de tableaux de bord PGI à un cet ensemble de moyens, mais par une urbanisation des systèmes décisionnels et un lotissement correct des projets, une grande entreprise peut en quelques mois mettre en place un lac de données, ses premières applications décisionnelles actives et commencer à exploiter ses données & ses big data.
Rédigé par Michel Bruley le Lundi 2 Mai 2016 à 09:06 | Permalien | Commentaires {0}

Tout cuisinier sait que la réussite d'un chef-d'œuvre culinaire réside en grande partie dans les ingrédients. Il est difficile de préparer un excellent repas si les ingrédients sont mauvais ou si leur combinaison n'est pas adéquate. Il en va de même pour l'analyse de données. Si les données sont incomplètes, inexactes, ou sans rapport avec le problème à résoudre, il sera difficile, voire impossible, de créer un modèle. Par exemple, si le modèle de calcul de la valeur des clients attribue un faible score à certains clients rentables, car les transactions en ligne ou les commandes spéciales ne sont pas prises en compte, il y a le risque de perdre certains des meilleurs clients. L’efficacité d’un modèle d'analyse de données est donc directement proportionnelle à la qualité des données. En d'autres termes, on ne peut pas cuisiner un bon repas avec de mauvais ingrédients.

L'analyse de données exploite des algorithmes de statistiques et d'apprentissage automatique pour trouver des informations qui peuvent contribuer à résoudre les problèmes quotidiens que rencontrent les entreprises. Lorsque les utilisateurs font de l'analyse de données, ils mettent en œuvre en général des algorithmes mathématiques tels que des réseaux neuronaux, des arbres de décision et d'autres techniques statistiques complexes qui servent à rechercher des tendances dans les données. S'il est vrai que ces algorithmes sont une partie importante de l'analyse de données, il convient de noter que ces outils recherchent des tendances dans n'importe quelles données, quelles que soient les capacités de ces dernières à représenter les comportements et les tendances que l’on essaye de modéliser. Pour cette raison, la préparation des données est l'une des étapes les plus critiques dans l'analyse de données et pourtant, il s'agit souvent de l'une des étapes les plus négligées.

La première étape dans la préparation des données consiste à recueillir les données relatives au problème à résoudre. Si un utilisateur possède un data lake, le processus est considérablement simplifié. Au contraire, si les données sont stockées en divers endroits, il faut explorer plusieurs sources afin d'identifier les données disponibles pour résoudre le problème. Dès que les données qui doivent être analysées sont définies, il convient de les intégrer, les évaluer et éventuellement les transformer pour s’assurer qu'elles sont valides d'un point de vue conceptuel, cohérentes et statistiquement analysables. Par exemple, si les données proviennent de différentes sources, il faudra résoudre de nombreux problèmes de formats et de définitions.

Même si un utilisateur a la chance d'avoir un data lake, les données qu'il contient ne conviendront probablement pas en l’état pour l’analyse envisagée. Il faut alors isoler et préparer des données pour le modèle. Cela signifie qu’il faut travailler en collaboration avec les analystes et les experts en données afin de définir les éléments qui sont nécessaires pour réaliser le modèle. Il est primordial, pour chaque variable, de définir s’il faut utiliser toutes les données ou uniquement un sous-ensemble. Il convient aussi de définir une stratégie pour traiter les valeurs aberrantes (données hors norme) ou éventuellement développer quand même un modèle reposant sur ces valeurs. Par exemple, si l’objectif est de prévoir les taux de fréquentation et les revenus de rencontres sportives, il faut certainement éliminer les chiffres de fréquentations anormales dues à des événements particuliers, grève des transports, etc.… Au contraire dans le cas de la détection de fraudes, il peut-être pertinent de se concentrer sur certaines valeurs aberrantes, car elles sont peut-être la représentation de transactions frauduleuses.

Une fois que les données sont sélectionnées, il convient de les analyser à l'aide de techniques de statistique descriptive et de visualisation pour identifier les problèmes de qualité et mieux comprendre les caractéristiques des données. Des problèmes de qualité des données peuvent être mis en lumière, tels que des valeurs manquantes qui peuvent nuire à l'intégrité de n'importe quel modèle d'analyse. Il faut alors compenser et corriger les problèmes identifiés. Ainsi, s'il manque des données, il faut déterminer la meilleure méthode pour abandonner ou remplacer ces valeurs manquantes. Certaines techniques d'analyse de données permettent d’estimer les valeurs manquantes sur la base d'autres valeurs mesurées.

Il existe de nombreuses techniques qui peuvent être employées pour obtenir de meilleurs modèles. Il s'agit par exemple de créer des variables "dérivées", de remplacer des valeurs manquantes ou d’utiliser des techniques d'agrégation ou de réduction des données. Il peut être nécessaire de rechercher les meilleurs agrégats ou de nouvelles variables analytiques pour construire un modèle optimum. Par exemple, dans le cadre de la préparation des données relatives aux clients en vue d'un programme de marketing pour un nouveau prêt, le rapport endettement/revenu peut être un indicateur mieux adapté que le seul revenu ou le seul endettement.

Enfin, les données doivent être transformées dans un format adapté aux algorithmes d'analyse. De nombreux algorithmes d'analyse de données requièrent la transformation des données de classification (non numériques) en données numériques ou la réduction de celles-ci dans une plage particulière. Certains algorithmes et techniques statistiques nécessitent également que les données numériques possèdent des propriétés spécifiques qui n'existent peut-être pas dans les données avant la transformation. Pour ces variables, il faudra peut-être les encoder à nouveau ou les transformer pour produire les variables adéquates pour les techniques d'analyse de données. Ainsi la valeur des données est directement proportionnelle au temps et au soin consacrés à leur préparation en vue de régler un problème analytique particulier.

À l'instar de ce que dirait un cuisinier en préparant son plat, la qualité du résultat final dépend en grande partie des ingrédients, mais on voit bien que les processus décrits ci-dessus ne peuvent être mis en œuvre avec succès que par des équipes compétentes. Pour aller plus loin sur ce sujet vous pouvez utilement consulter mon article intitulé : L’analyste de « Mégadonnées ou Big Data » doit se méfier de son enthousiasme : cliquez ici



Rédigé par Michel Bruley le Lundi 4 Avril 2016 à 09:01 | Permalien | Commentaires {0}

La théorie veut que l’exploitation des données historiques consiste à les transformer en informations, puis en connaissances et enfin en sagesse. Ainsi l’utilisation des données historiques dans les entreprises ne doit pas être limitée à produire des tableaux de bord ou des indicateurs. Il y a un intérêt limité à mettre en œuvre un entrepôt de données uniquement pour faire le point de la situation présente sans se préoccuper par exemple de la dynamique historique ou de se projeter dans le futur.

Un entrepôt de données peut être exploité selon quatre angles. En premier l’évaluation des performances permet d’appréhender ce qui s’est passé. En second l’analyse du pourquoi cela s’est-il passé, conduit à établir des connaissances qui sont l’une des sources des avantages concurrentiels de l’entreprise. En troisième l’application de modèles analytiques qui synthétisent des connaissances aide à la prise de décisions. Enfin le support au fonctionnement opérationnel grâce à des alertes et des mises en œuvre automatiques de consignes qui suppose une maîtrise suffisante des processus pour « industrialiser de l’intelligence », apporte à l’entreprise une capacité de réaction temps réel qui est nécessaire au rythme accéléré des affaires d’aujourd’hui.

Les données historiques doivent permettre d’optimiser les processus de l’entreprise et en particulier ceux des cinq fonctions stratégiques : conception, production, marketing-vente, finance et ressources humaines. Mais elles doivent aussi être utilisées en particulier pour appréhender deux domaines clés de la vie de l’entreprise, celui des marchés & des produits et celui des techniques qui fondent la création de valeur de l’entreprise. Si au niveau de l’analyse des processus les données extraites des systèmes opérationnels de type PGI sont suffisantes, même si des données de benchmarking sont indéniablement un plus, pour l’analyse des marchés, il faut d’autres sources qui permettent d’englober ce que font les clients en dehors de la relation avec l’entreprise et en particulier ce qu’ils font avec les concurrents. Les entrepôts de données ont donc pour vocation d’accueillir toutes les données historiques internes ainsi que des données externes à l’entreprise, ponctuellement dans le cas de benchmarking ou d’études occasionnelles, ou régulièrement dans le cas de statistiques de la profession ou d’études régulières. Le rapprochement de données internes et externes est un exercice difficile qui a peu de chance d’aboutir si l’on ne dispose pas de données historiques détaillées.

Quel que soit le domaine de gestion, l’entrepôt de données est un des moyens qui permettent de piloter l’entreprise et de l’adapter à son environnement. Si l’entreprise arrête d’évoluer, elle se condamne. L’entreprise doit régulièrement revoir son portefeuille d’activité et son rôle dans la chaîne de valeur en partant du point de vue du client. Elle doit constamment chercher à développer, élargir, spécialiser, adapter ses lignes de produits à ses marchés et à des marchés nouveaux. Elle doit en permanence revoir l’organisation de ses processus et de ses compétences (intégration amont/aval, outsourcing). Enfin elle doit maîtriser la mise en œuvre et l’intégration des nouveautés technologiques de toutes natures relatives à son activité et en particulier les nouvelles technologies de l’information et des communications.

Malheureusement les entrepôts de données aujourd’hui disponibles dans les entreprises françaises n’ont la plupart du temps pas été conçus comme des supports à la stratégie et à la dynamique de l’entreprise, ni par les données retenues, ni par leur niveau de granularité, ni par leur fréquence de mise à jour, ni par leur organisation le plus souvent en gisements cloisonnés par fonction. Dès lors le plus souvent les réflexions sont fondées sur des approches trop synthétiques, à partir de données trop agrégées, analysées selon des schémas prédéfinis et tout cela conduit à de pauvres résultats. L’analyse doit précéder la synthèse. Une solide base d’informations détaillées ne contraint en aucun cas l’analyste, au contraire elle lui permet de s’exprimer librement et d’enrichir progressivement sa façon de poser son problème. Les idées créatrices naissent d’une interpellation des faits et l’analyste a besoin de vérifier ses intuitions et extrapolations par des retours aux faits.

Lors de la construction d’un entrepôt de données, on ne doit donc pas mettre en tête des préoccupations des aspects techniques ni chercher d’emblée une optimisation de sous fonctionnalités spécifiques à quelques individus. Il convient de prendre en considération l’ensemble de l’organisation concernée, son activité, sa stratégie et de bâtir une solution d’entreprise robuste fondée sur un gisement détaillé qui doit permettre d’affronter les aléas de la vie des affaires et éviter d’être obsolète peu après son lancement. Obsolète, car la stratégie évolue, l’organisation change et les indicateurs se révèlent rapidement inadéquats après quelque temps d’usage.

Enfin il convient de noter que les experts indépendants recommandent de mettre Hadoop au cœur de son système d’information décisionnel. Pour plus de précision sur cette recommandation on peut utilement consulter le lien suivant : cliquez ici

Rédigé par Michel Bruley le Vendredi 4 Mars 2016 à 14:31 | Permalien | Commentaires {0}

Depuis quelques années, les études réalisées sur la prise de décision dans les grandes entreprises constatent que les interviewés disent devoir prendre de plus en plus de décisions pour mener leur stratégie de gestion globalisée. Comme au même moment les responsables cherchent à être le plus rationnels possible et à tout aborder de façon scientifique, les fournisseurs de solution se voient un bel avenir.

Le support qu’une entreprise attend d’un système d’information pour s’aider dans une prise de décisions est fonction du niveau et du type de décision concerné. Mais il faut avoir conscience qu’information et décision ne sont pas des notions simples, en effet une information peut être une désinformation, et une décision une absence de décision. Décider est différent de ratifier, c’est aussi créer et imaginer. Dans certains cas, décider amène à fixer des règles, mais appliquer une règle n’est pas considéré comme une prise de décision, alors que ne pas appliquer une règle est vu comme une décision. Enfin, souvent le contenu d’une décision sert d’information pour prendre une autre décision, il peut y avoir alors un réseau de décisions avec des liens de dépendance et des liens pour information et pour action. Cependant, il convient de noter que toutes les actions ne sont pas la suite d’une décision.

Les gourous du management s’accordent pour distinguer quatre niveaux de décision pour les entreprises. Les décisions stratégiques définissent les relations de l’entreprise avec son environnement (choix des activités, des marchés, des filières technologiques …), elles fixent des axes et des politiques pour le long terme. Les décisions d’organisation définissent les structures, les processus, les systèmes d’information (métier, mission, délégation, responsabilité, moyens …) elles fixent le cadre de travail dans une perspective de moyen terme. Les décisions de gestion définissent pour le court terme la direction et la performance attendue (objectifs, ressources, contrôle …). Enfin, les décisions opérationnelles s’intéressent au fonctionnement quotidien tant au niveau de la supervision que de l’exécution.

Les décisions des différents niveaux peuvent être de différents types. Il y a les décisions non structurées, uniques, non routinières, ou l’incertitude est grande qui requiert beaucoup de jugement et présente des risques. À l’opposé, il y a les décisions structurées, répétitives, routinières, aux procédures définies qui laissent peu de place à l’incertitude. Entre les deux, il y a les décisions semi-structurées ou quelques facteurs introduisent des risques.

Face à une décision un responsable peut adopter différents comportements comme ne pas décider, s’en remettre au hasard, agir puis réfléchir, se fier à son intuition, réfléchir en solo, analyser des chiffres, se tourner vers un tiers, opter pour le collectif et enfin faire comme tout le monde. Qu’il travaille seul ou pas, en utilisant des moyens ou non, s’il ne s’abstient pas, il passe par quatre phases décisionnelles. Une phase d’instruction avec collecte d’information pour identifier le problème, les opportunités et définir ce qui peut faire une différence. Une phase de conception pour trouver, modéliser des options, définir et évaluer les solutions. Une phase de sélection de la ligne de conduite à adopter par comparaison des choix et prévisions des résultats. Enfin une phase de mise en application et d’évaluation des résultats.

Dans ce contexte rapidement esquissé et sans rentrer dans les dimensions fonctionnelles ou sectorielles, il est facile de comprendre que pour répondre à ces besoins il ne peut pas exister une solution universelle. Même le gisement centralisé de données détaillées que les grandes entreprises affectionnent tant n’est pas l’unique source des informations de certains décideurs. Les entrepôts de données gèrent des informations « blanches » issues des activités historiques des compétiteurs d’un marché, mais dans certains cas il est nécessaire de s’appuyer sur des données « plus ou moins grises » issues de la veille, de l’intelligence économique ou du renseignement. Par exemple, dans le cadre d’une négociation le fait de disposer de renseignements précis sur les interlocuteurs clés peut être un atout décisif.

Il faut être humble, le domaine du décisionnel est particulièrement complexe beaucoup plus que celui de la gestion administrative des activités qui est couvert par les ERP par exemple. Une grande entreprise ne saurait couvrir ses besoins en s’appuyant sur les solutions d’un seul éditeur. Les fournisseurs le savent bien qui tout en proposant leurs moyens d’infrastructure ou des applications décisionnelles issues de la capitalisation d’expériences de certains de leurs clients, multiplient les accords de partenariat et ouvrent technologiquement au maximum leurs solutions pour qu’elles s’intègrent au mieux dans les systèmes hétérogènes et complexes des grandes entreprises globalisées d’aujourd’hui.

Rédigé par Michel Bruley le Vendredi 1 Janvier 2016 à 16:00 | Permalien | Commentaires {0}
1 2 3 4 5 » ... 12


> A LIRE EN CE MOMENT SUR DECIDEO
Profil
Michel Bruley
Michel Bruley



Galerie
scan0578.jpg
B6.JPG
B1.JPG
A.JPG
B4.jpg
B8.jpg

RSS ATOM RSS comment PODCAST Mobile