Créer son blog Recommander ce blog Avertir le modérateur


Tout cuisinier sait que la réussite d'un chef-d'œuvre culinaire réside en grande partie dans les ingrédients. Il est difficile de préparer un excellent repas si les ingrédients sont mauvais ou si leur combinaison n'est pas adéquate. Il en va de même pour l'analyse de données. Si les données sont incomplètes, inexactes, ou sans rapport avec le problème à résoudre, il sera difficile, voire impossible, de créer un modèle. Par exemple, si le modèle de calcul de la valeur des clients attribue un faible score à certains clients rentables, car les transactions en ligne ou les commandes spéciales ne sont pas prises en compte, il y a le risque de perdre certains des meilleurs clients. L’efficacité d’un modèle d'analyse de données est donc directement proportionnelle à la qualité des données. En d'autres termes, on ne peut pas cuisiner un bon repas avec de mauvais ingrédients.

L'analyse de données exploite des algorithmes de statistiques et d'apprentissage automatique pour trouver des informations qui peuvent contribuer à résoudre les problèmes quotidiens que rencontrent les entreprises. Lorsque les utilisateurs font de l'analyse de données, ils mettent en œuvre en général des algorithmes mathématiques tels que des réseaux neuronaux, des arbres de décision et d'autres techniques statistiques complexes qui servent à rechercher des tendances dans les données. S'il est vrai que ces algorithmes sont une partie importante de l'analyse de données, il convient de noter que ces outils recherchent des tendances dans n'importe quelles données, quelles que soient les capacités de ces dernières à représenter les comportements et les tendances que l’on essaye de modéliser. Pour cette raison, la préparation des données est l'une des étapes les plus critiques dans l'analyse de données et pourtant, il s'agit souvent de l'une des étapes les plus négligées.

La première étape dans la préparation des données consiste à recueillir les données relatives au problème à résoudre. Si un utilisateur possède un data lake, le processus est considérablement simplifié. Au contraire, si les données sont stockées en divers endroits, il faut explorer plusieurs sources afin d'identifier les données disponibles pour résoudre le problème. Dès que les données qui doivent être analysées sont définies, il convient de les intégrer, les évaluer et éventuellement les transformer pour s’assurer qu'elles sont valides d'un point de vue conceptuel, cohérentes et statistiquement analysables. Par exemple, si les données proviennent de différentes sources, il faudra résoudre de nombreux problèmes de formats et de définitions.

Même si un utilisateur a la chance d'avoir un data lake, les données qu'il contient ne conviendront probablement pas en l’état pour l’analyse envisagée. Il faut alors isoler et préparer des données pour le modèle. Cela signifie qu’il faut travailler en collaboration avec les analystes et les experts en données afin de définir les éléments qui sont nécessaires pour réaliser le modèle. Il est primordial, pour chaque variable, de définir s’il faut utiliser toutes les données ou uniquement un sous-ensemble. Il convient aussi de définir une stratégie pour traiter les valeurs aberrantes (données hors norme) ou éventuellement développer quand même un modèle reposant sur ces valeurs. Par exemple, si l’objectif est de prévoir les taux de fréquentation et les revenus de rencontres sportives, il faut certainement éliminer les chiffres de fréquentations anormales dues à des événements particuliers, grève des transports, etc.… Au contraire dans le cas de la détection de fraudes, il peut-être pertinent de se concentrer sur certaines valeurs aberrantes, car elles sont peut-être la représentation de transactions frauduleuses.

Une fois que les données sont sélectionnées, il convient de les analyser à l'aide de techniques de statistique descriptive et de visualisation pour identifier les problèmes de qualité et mieux comprendre les caractéristiques des données. Des problèmes de qualité des données peuvent être mis en lumière, tels que des valeurs manquantes qui peuvent nuire à l'intégrité de n'importe quel modèle d'analyse. Il faut alors compenser et corriger les problèmes identifiés. Ainsi, s'il manque des données, il faut déterminer la meilleure méthode pour abandonner ou remplacer ces valeurs manquantes. Certaines techniques d'analyse de données permettent d’estimer les valeurs manquantes sur la base d'autres valeurs mesurées.

Il existe de nombreuses techniques qui peuvent être employées pour obtenir de meilleurs modèles. Il s'agit par exemple de créer des variables "dérivées", de remplacer des valeurs manquantes ou d’utiliser des techniques d'agrégation ou de réduction des données. Il peut être nécessaire de rechercher les meilleurs agrégats ou de nouvelles variables analytiques pour construire un modèle optimum. Par exemple, dans le cadre de la préparation des données relatives aux clients en vue d'un programme de marketing pour un nouveau prêt, le rapport endettement/revenu peut être un indicateur mieux adapté que le seul revenu ou le seul endettement.

Enfin, les données doivent être transformées dans un format adapté aux algorithmes d'analyse. De nombreux algorithmes d'analyse de données requièrent la transformation des données de classification (non numériques) en données numériques ou la réduction de celles-ci dans une plage particulière. Certains algorithmes et techniques statistiques nécessitent également que les données numériques possèdent des propriétés spécifiques qui n'existent peut-être pas dans les données avant la transformation. Pour ces variables, il faudra peut-être les encoder à nouveau ou les transformer pour produire les variables adéquates pour les techniques d'analyse de données. Ainsi la valeur des données est directement proportionnelle au temps et au soin consacrés à leur préparation en vue de régler un problème analytique particulier.

À l'instar de ce que dirait un cuisinier en préparant son plat, la qualité du résultat final dépend en grande partie des ingrédients, mais on voit bien que les processus décrits ci-dessus ne peuvent être mis en œuvre avec succès que par des équipes compétentes. Pour aller plus loin sur ce sujet vous pouvez utilement consulter mon article intitulé : L’analyste de « Mégadonnées ou Big Data » doit se méfier de son enthousiasme : cliquez ici



Rédigé par Michel Bruley le Lundi 4 Avril 2016 à 09:01 | Permalien | Commentaires {0}

La théorie veut que l’exploitation des données historiques consiste à les transformer en informations, puis en connaissances et enfin en sagesse. Ainsi l’utilisation des données historiques dans les entreprises ne doit pas être limitée à produire des tableaux de bord ou des indicateurs. Il y a un intérêt limité à mettre en œuvre un entrepôt de données uniquement pour faire le point de la situation présente sans se préoccuper par exemple de la dynamique historique ou de se projeter dans le futur.

Un entrepôt de données peut être exploité selon quatre angles. En premier l’évaluation des performances permet d’appréhender ce qui s’est passé. En second l’analyse du pourquoi cela s’est-il passé, conduit à établir des connaissances qui sont l’une des sources des avantages concurrentiels de l’entreprise. En troisième l’application de modèles analytiques qui synthétisent des connaissances aide à la prise de décisions. Enfin le support au fonctionnement opérationnel grâce à des alertes et des mises en œuvre automatiques de consignes qui suppose une maîtrise suffisante des processus pour « industrialiser de l’intelligence », apporte à l’entreprise une capacité de réaction temps réel qui est nécessaire au rythme accéléré des affaires d’aujourd’hui.

Les données historiques doivent permettre d’optimiser les processus de l’entreprise et en particulier ceux des cinq fonctions stratégiques : conception, production, marketing-vente, finance et ressources humaines. Mais elles doivent aussi être utilisées en particulier pour appréhender deux domaines clés de la vie de l’entreprise, celui des marchés & des produits et celui des techniques qui fondent la création de valeur de l’entreprise. Si au niveau de l’analyse des processus les données extraites des systèmes opérationnels de type PGI sont suffisantes, même si des données de benchmarking sont indéniablement un plus, pour l’analyse des marchés, il faut d’autres sources qui permettent d’englober ce que font les clients en dehors de la relation avec l’entreprise et en particulier ce qu’ils font avec les concurrents. Les entrepôts de données ont donc pour vocation d’accueillir toutes les données historiques internes ainsi que des données externes à l’entreprise, ponctuellement dans le cas de benchmarking ou d’études occasionnelles, ou régulièrement dans le cas de statistiques de la profession ou d’études régulières. Le rapprochement de données internes et externes est un exercice difficile qui a peu de chance d’aboutir si l’on ne dispose pas de données historiques détaillées.

Quel que soit le domaine de gestion, l’entrepôt de données est un des moyens qui permettent de piloter l’entreprise et de l’adapter à son environnement. Si l’entreprise arrête d’évoluer, elle se condamne. L’entreprise doit régulièrement revoir son portefeuille d’activité et son rôle dans la chaîne de valeur en partant du point de vue du client. Elle doit constamment chercher à développer, élargir, spécialiser, adapter ses lignes de produits à ses marchés et à des marchés nouveaux. Elle doit en permanence revoir l’organisation de ses processus et de ses compétences (intégration amont/aval, outsourcing). Enfin elle doit maîtriser la mise en œuvre et l’intégration des nouveautés technologiques de toutes natures relatives à son activité et en particulier les nouvelles technologies de l’information et des communications.

Malheureusement les entrepôts de données aujourd’hui disponibles dans les entreprises françaises n’ont la plupart du temps pas été conçus comme des supports à la stratégie et à la dynamique de l’entreprise, ni par les données retenues, ni par leur niveau de granularité, ni par leur fréquence de mise à jour, ni par leur organisation le plus souvent en gisements cloisonnés par fonction. Dès lors le plus souvent les réflexions sont fondées sur des approches trop synthétiques, à partir de données trop agrégées, analysées selon des schémas prédéfinis et tout cela conduit à de pauvres résultats. L’analyse doit précéder la synthèse. Une solide base d’informations détaillées ne contraint en aucun cas l’analyste, au contraire elle lui permet de s’exprimer librement et d’enrichir progressivement sa façon de poser son problème. Les idées créatrices naissent d’une interpellation des faits et l’analyste a besoin de vérifier ses intuitions et extrapolations par des retours aux faits.

Lors de la construction d’un entrepôt de données, on ne doit donc pas mettre en tête des préoccupations des aspects techniques ni chercher d’emblée une optimisation de sous fonctionnalités spécifiques à quelques individus. Il convient de prendre en considération l’ensemble de l’organisation concernée, son activité, sa stratégie et de bâtir une solution d’entreprise robuste fondée sur un gisement détaillé qui doit permettre d’affronter les aléas de la vie des affaires et éviter d’être obsolète peu après son lancement. Obsolète, car la stratégie évolue, l’organisation change et les indicateurs se révèlent rapidement inadéquats après quelque temps d’usage.

Enfin il convient de noter que les experts indépendants recommandent de mettre Hadoop au cœur de son système d’information décisionnel. Pour plus de précision sur cette recommandation on peut utilement consulter le lien suivant : cliquez ici

Rédigé par Michel Bruley le Vendredi 4 Mars 2016 à 14:31 | Permalien | Commentaires {0}

Depuis quelques années, les études réalisées sur la prise de décision dans les grandes entreprises constatent que les interviewés disent devoir prendre de plus en plus de décisions pour mener leur stratégie de gestion globalisée. Comme au même moment les responsables cherchent à être le plus rationnels possible et à tout aborder de façon scientifique, les fournisseurs de solution se voient un bel avenir.

Le support qu’une entreprise attend d’un système d’information pour s’aider dans une prise de décisions est fonction du niveau et du type de décision concerné. Mais il faut avoir conscience qu’information et décision ne sont pas des notions simples, en effet une information peut être une désinformation, et une décision une absence de décision. Décider est différent de ratifier, c’est aussi créer et imaginer. Dans certains cas, décider amène à fixer des règles, mais appliquer une règle n’est pas considéré comme une prise de décision, alors que ne pas appliquer une règle est vu comme une décision. Enfin, souvent le contenu d’une décision sert d’information pour prendre une autre décision, il peut y avoir alors un réseau de décisions avec des liens de dépendance et des liens pour information et pour action. Cependant, il convient de noter que toutes les actions ne sont pas la suite d’une décision.

Les gourous du management s’accordent pour distinguer quatre niveaux de décision pour les entreprises. Les décisions stratégiques définissent les relations de l’entreprise avec son environnement (choix des activités, des marchés, des filières technologiques …), elles fixent des axes et des politiques pour le long terme. Les décisions d’organisation définissent les structures, les processus, les systèmes d’information (métier, mission, délégation, responsabilité, moyens …) elles fixent le cadre de travail dans une perspective de moyen terme. Les décisions de gestion définissent pour le court terme la direction et la performance attendue (objectifs, ressources, contrôle …). Enfin, les décisions opérationnelles s’intéressent au fonctionnement quotidien tant au niveau de la supervision que de l’exécution.

Les décisions des différents niveaux peuvent être de différents types. Il y a les décisions non structurées, uniques, non routinières, ou l’incertitude est grande qui requiert beaucoup de jugement et présente des risques. À l’opposé, il y a les décisions structurées, répétitives, routinières, aux procédures définies qui laissent peu de place à l’incertitude. Entre les deux, il y a les décisions semi-structurées ou quelques facteurs introduisent des risques.

Face à une décision un responsable peut adopter différents comportements comme ne pas décider, s’en remettre au hasard, agir puis réfléchir, se fier à son intuition, réfléchir en solo, analyser des chiffres, se tourner vers un tiers, opter pour le collectif et enfin faire comme tout le monde. Qu’il travaille seul ou pas, en utilisant des moyens ou non, s’il ne s’abstient pas, il passe par quatre phases décisionnelles. Une phase d’instruction avec collecte d’information pour identifier le problème, les opportunités et définir ce qui peut faire une différence. Une phase de conception pour trouver, modéliser des options, définir et évaluer les solutions. Une phase de sélection de la ligne de conduite à adopter par comparaison des choix et prévisions des résultats. Enfin une phase de mise en application et d’évaluation des résultats.

Dans ce contexte rapidement esquissé et sans rentrer dans les dimensions fonctionnelles ou sectorielles, il est facile de comprendre que pour répondre à ces besoins il ne peut pas exister une solution universelle. Même le gisement centralisé de données détaillées que les grandes entreprises affectionnent tant n’est pas l’unique source des informations de certains décideurs. Les entrepôts de données gèrent des informations « blanches » issues des activités historiques des compétiteurs d’un marché, mais dans certains cas il est nécessaire de s’appuyer sur des données « plus ou moins grises » issues de la veille, de l’intelligence économique ou du renseignement. Par exemple, dans le cadre d’une négociation le fait de disposer de renseignements précis sur les interlocuteurs clés peut être un atout décisif.

Il faut être humble, le domaine du décisionnel est particulièrement complexe beaucoup plus que celui de la gestion administrative des activités qui est couvert par les ERP par exemple. Une grande entreprise ne saurait couvrir ses besoins en s’appuyant sur les solutions d’un seul éditeur. Les fournisseurs le savent bien qui tout en proposant leurs moyens d’infrastructure ou des applications décisionnelles issues de la capitalisation d’expériences de certains de leurs clients, multiplient les accords de partenariat et ouvrent technologiquement au maximum leurs solutions pour qu’elles s’intègrent au mieux dans les systèmes hétérogènes et complexes des grandes entreprises globalisées d’aujourd’hui.

Rédigé par Michel Bruley le Vendredi 1 Janvier 2016 à 16:00 | Permalien | Commentaires {0}

Faire de l’information une source de la compétitivité, c’est l’objectif que les systèmes décisionnels proposent aux plus grandes entreprises mondiales à travers la mise en œuvre de solutions d’infrastructure de gestion et d’analyses de données. Les entrepôts de données facilitent la compréhension du passé et du présent, l’anticipation du futur, la réalisation des actions et la capitalisation des connaissances. Dans le contexte de mondialisation qui est le nôtre aujourd’hui, les entrepôts de données bouleversent nos habitudes de management, nos stratégies, nos besoins en compétences et nos capacités à nous adapter à un monde complexe en perpétuelle évolution. Il faut se rappeler la phrase de Darwin « Ce ne sont pas les espèces les plus fortes qui survivent, ni les plus intelligentes, mais celles qui sont les plus à même de s’adapter aux changements ».

La première application des systèmes décisionnels a été l’aide aux décisions stratégiques. En effet, la stratégie qui était d'abord l'art de la guerre étend désormais son application à la plupart des activités humaines et notamment aux entreprises. Information et stratégie sont étroitement liées, car c'est à partir de la connaissance de la situation que l'action peut être décidée. Autrefois nous nous appuyions sur une logique en trois volets : stratégie/ mise en œuvre/ bilan. Aujourd'hui, la logique est plus cyclique : stratégie/ test/ réévaluation nécessaire/ aménagement de la stratégie/ test/, etc., car comme l’a dit un général lors de la dernière guerre d’Irak « aucun plan ne survit au contact de l’ennemi ».

L'information que nous prenons en compte dans le processus d'élaboration d'une stratégie est trop souvent l'information que nous avons nous-mêmes sélectionnée, c’est-à-dire celle qui peut servir notre stratégie. Pour ce motif, il est essentiel de séparer le donneur d'information du décideur. Il faut dans l’entreprise prendre comme modèle la sphère militaire, où l'on s'est toujours efforcé de séparer la responsabilité de l'information de celle de l'action. Sur un navire de guerre, par exemple, il existe d'un côté un officier spécifiquement chargé de recueillir et de traiter toutes les informations, et de l'autre des "metteurs en œuvre". Leurs fonctions respectives sont tout à fait exclusives, et cette dissociation est essentielle pour garantir une objectivité au niveau stratégique.

En stratégie, il faut appliquer des méthodes pour assurer une objectivité dans la prise de décision, mais force est de constater que les décideurs ont tendance à privilégier une perception intuitive des situations aux dépens des informations objectives. Dans les écoles de guerre, on enseigne ainsi des méthodes qui prennent en compte la situation, les objectifs et les modes d'action – des alliés comme des adversaires – et amènent à croiser ces données. L'exercice est souvent fastidieux, mais très profitable. L'information est indispensable dans l'élaboration d'une stratégie, mais certaines données sont difficilement quantifiables, par exemple comment évaluer la résistance potentielle d'un concurrent ? Comment quantifier sa détermination ? De plus il faut se méfier de l’intox et les veilleurs (technique, concurrence …) doivent se rappeler la phrase de Sun Tzu « tout l’art de la guerre est fondé sur la duperie ». L’information est souvent un mélange de données quantitatives et qualitatives et il semble difficile d’en obtenir une cohérence. C’est en fait le niveau de culture des co-décideurs et le dialogue qu’ils ont instauré qui permettent cette cohérence.

Aujourd'hui, l'on tend à concentrer de nombreux systèmes au sein de systèmes d'information uniques et de plus on tend à intégrer le décisionnel et l’opérationnel. Dans le monde militaire, ce phénomène existe aussi depuis quelque temps, par exemple le porte-avions Charles de Gaulle, est un modèle du genre, il dispose déjà d'un système qui fonctionne en temps réel et qui est très structurant pour l’organisation du navire. En matière de commandement (management), tout ceci n’est pas sans inconvénient, car si l'on peut voir en temps réel depuis les quartiers généraux (directions générales) l’action sur le terrain, on prend le risque d'une trop grande ingérence des échelons supérieurs. Or le manque de connaissance des réalités du terrain (les systèmes appréhendent toujours partiellement la réalité) rend toute intervention de ce type dangereuse. Ceci explique le développement de la réflexion sur le « Pilotage stratégique » dans les entreprises et la recherche de solutions (Balanced Scorecard, Businesss Activity Monotoring, …).

Rédigé par Michel Bruley le Mardi 24 Novembre 2015 à 12:17 | Permalien | Commentaires {0}

Aujourd’hui il devient essentiel de pouvoir mesurer avec précision la valeur de chaque client. L’expérience a montré que les approches ‘intermédiaires’ consistant à analyser la rentabilité sur la base d’échantillons ou de moyennes sont par trop restrictives et rigides pour assurer la flexibilité, la réactivité et la créativité commerciale aujourd’hui indispensables.

Le calcul de la valeur des clients (valeur actuelle et potentielle) est la clé privilégiée de l’approche différenciée des clients et du pilotage de la création de valeur sur les «clients en or ». Il s’agit en premier de savoir comment établir la valeur individuelle des clients. Ici il ne faut pas se contenter de définir une valeur en fonction du chiffre d’affaires, du nombre de produits ou de transactions effectuées, de l’ancienneté. Il convient de déterminer la contribution au résultat et de gérer un compte d’exploitation par client. Cette approche est très largement pratiquée dans le monde du B to B mais elle est novatrice dans le monde du B to C, car pendant longtemps l’importance des données et traitements nécessaires a rebuté les entreprises vendant au grand public.

Pour calculer la valeur de chaque client, il s’agit donc de prendre en compte à un niveau individuel les revenus, les dépenses de commercialisation, les coûts de production des produits et services, les frais généraux et les charges financières. La Royal Bank of Canada par exemple a appliqué cette méthode et a complètement changé son point vue sur ses clients et concrètement leur répartition en décile de rentabilité puisqu’elle a modifié le positionnement de 75% de ses clients d’au moins deux déciles (en plus ou en moins). Les approches 1 to 1 qui peuvent être faites après un tel changement de l’appréciation des clients, sont profondément différentes. Mais attention il ne faut pas se limiter au calcul de la valeur du client à partir des transactions historiques, il convient de projeter cette valeur dans le futur en tenant compte du profil et du cycle de vie spécifique des clients et de définir une valeur potentielle.

La capacité d’appréhender la rentabilité de chaque client procure des avantages à toute l’entreprise. Les avantages les plus immédiats s’observent au niveau du marketing et plus précisément de la gestion des clients. Chaque initiative de communication peut être améliorée si l’on sait mieux déterminer les produits essentiels et attrayants aux yeux de tels et tels clients, ainsi que les clients susceptibles d’acheter un produit à un prix rentable pour le fournisseur. Les actions de fidélisation et d’incitation peuvent être construites en fonction des données détaillées relatives à la rentabilité des clients. Le fait d’employer ces informations pour se concentrer sur les clients rentables par le biais d’une approche adaptée à leur comportement peut se traduire par des économies non négligeables sur le plan des budgets alloués à la fidélisation, la conquête et le développement de clients.

Au niveau de l’organisation puisque les entreprises orientent de plus en plus leur structure sur le client, les calculs de la valeur des clients peuvent offrir une base idéale lorsqu’il s’agit de définir la contribution de chaque unité fonctionnelle et être au cœur d’une évaluation des coûts ajoutés et des valeurs ajoutées sources de nombreuses réflexions stratégiques sur la création de valeur de l’entreprise. De façon plus normative, par exemple en ce qui concerne les ventes et le service, la mise en place d’un système de calcul de la valeur des clients peut fournir un support objectif et permanent dans le cadre de la définition de niveaux de service à la clientèle et de l’attribution de primes au personnel.

Le calcul de la valeur des clients fait partie des fonctions que doivent couvrir les solutions de CRM analytique qui par ailleurs doivent permettre d’appréhender toutes les dimensions de la relation client (accès à un historique 360°), de comprendre le comportement d’achat, de fixer les attentes de chaque client, de détecter des opportunités de vente, d’optimiser la segmentation & le ciblage, de modéliser & simuler les stratégies marketing.
Rédigé par Michel Bruley le Lundi 9 Novembre 2015 à 12:13 | Permalien | Commentaires {0}

Force est de constater la forte proportion des projets de CRM qui échouent. Ainsi les études publiées ces derniers temps montrent que la majorité des entreprises ayant mené un projet CRM n'ont connu aucune amélioration sensible suite à la mise en place de nouveaux moyens, et pour une proportion non négligeable elles ont même dégradé leurs relations clients. Au-delà des discours d'apologie et de dénonciation du CRM, il convient de prendre conscience que les entreprises font face à une grande variété de problématiques, imputable à des situations très différentes, et que n’il n'existe pas de solution informatique universelle et obligée.

Les entreprises ont à prendre en compte des situations de nature très variable, comme des évolutions de la clientèle ou à un changement dans les modes de distribution, l’augmentation de la défection des clients, la saturation de certains marché qui gêne le développement des ventes, l’augmentation des dépenses de communication, ou la nécessité de coordonner des actions à travers de multiples canaux. Pour simplifier les solutions CRM à mettre en place doivent répondre à au moins trois préoccupations principales des entreprises : le développement de la "part de client", qui passe par la fidélisation et la personnalisation, l’intégration multicanale et enfin l’optimisation des dépenses en fonction des enjeux.

Confrontées à des difficultés de nature différente, les entreprises ne doivent pas suivre une méthode unique de mise en œuvre de leur solution CRM. Cependant quelques points communs peuvent être décelés. Ainsi les investissements en CRM répondent généralement plus à un "acte de foi" qu’à une approche objective clairement argumentée. De même afin de conjurer la peur du « projet d’usine à gaz », la plupart du temps les entreprises se concentrent sans plan d’ensemble sur des actions prioritaires et mettent en place des moyens parcellaires. Ainsi conduit les projets de CRM correspondent à une prise de risque indéniable et si sur la ligne départ tout est déclaré techniquement possible, sur la ligne d’arrivée peut de moyens sont concrètement opérationnels et utilisés.

Le problème le plus fréquent vient du fait que la plus grande attention n’est pas apportée aux hommes (utilisateurs et informaticiens), alors qu’il est indispensable de concilier les bonnes volontés, surmonter les résistances – parfois légitimes – des collaborateurs. La formation des personnes est un élément essentiel et il faut d’autre part éviter toute dérive techniciste, c’est-à-dire une focalisation sur les outils au détriment des hommes et de l'organisation. Les projets CRM doivent être soutenus par la technologie (technology enabled) et non pas guidés par la technologie (technology driven).

Pour réussir son projet, il convient d’abord de bien traiter quelques questions métier fondamentales comme celle de la nature des relations à entretenir ou à créer avec ses clients. Désire-t-on une optimisation, c’est-à-dire une réduction des coûts et/ou un développement de la valeur ? La question de l'utilisation de différents canaux aux différentes étapes de la relation client doit aussi être traitée, il faut de plus que la solution supporte le processus de vente. Enfin il est indispensable d’introduire de l’intelligence dans les systèmes, c'est-à-dire concrètement qu’il faut constituer, partager et réellement exploiter la connaissance client.

Les informations clients doivent servir à les comprendre (valeur, affinité …), être le fondement des stratégies (ciblage, personnalisation …) et la source des mesures concrètes des résultats des actions. Rien de tel qu’un entrepôt de données client pour disposer des données historiques détaillées nécessaires au CRM analytique. Les informations générées grâce au CRM analytique sont indispensables pour mettre en œuvre des stratégies et des communications efficaces, avec des campagnes mieux ciblées, des frais de campagne réduits, des taux de réponse élevés. Tout ceci doit conduire à une meilleure rentabilité de la relation client et une perspective de valeur ajoutée importante qui peut également se mesurer à l’aide du CRM analytique.

Rédigé par Michel Bruley le Jeudi 1 Octobre 2015 à 16:44 | Permalien | Commentaires {0}

Chercher un avantage concurrentiel en tissant des relations avec des clients, pour mieux comprendre leurs besoins et leurs désirs, n’est pas nouveau. Exploiter des informations clients pour mieux se positionner est un réflexe commercial de base, que les entreprises ont d’autant plus facilement que pour la majorité la moitié de leurs bénéfices provient de 10% de leurs clients. Cependant, la plupart des entreprises vendant directement aux consommateurs échouent dans la gestion de l’un de leurs actifs majeurs : l’information client. La raison principale vient du fait que les entreprises n’ont pas une approche globale de la gestion de leur relation client.

Dans le contexte actuel de multiplicité des canaux de distribution et des offres analogues, le coût d’acquisition d’un nouveau client s’envole, les marges baissent et pour les produits en phase de maturité l’amortissement des coûts de recrutement peut nécessiter plus de deux ans de consommation et suppose donc une certaine fidélité. Tout cela conduit à la prolifération des programmes de fidélisation. Les entreprises développent donc des stratégies de focalisation client, qui les amènent à identifier leurs clients les plus intéressants ; créer des portefeuilles de clients homogènes (problématique, potentiel ...) ; se débarrasser des clients non profitables ; choyer les "clients avocats de leurs produits" ; se servir de leurs clients pour obtenir d'autres clients ; identifier les prospects les plus intéressants ; écouter, provoquer les suggestions de leurs clients ; et développer des programmes de fidélisation.

La plus grande difficulté dans ce type d’approche réside dans le fait que les hommes et informations nécessaires sont dispersés dans l’entreprise et relèvent de fonctions différentes comme le marketing, la finance, les ventes, les services après vente, etc. … Inversement les technologies de l’information ont tellement évolué, qu’aujourd’hui le stockage, l’analyse et l’accès distant à de grands volumes de données sont aisés. L’automatisation des Ventes & du Marketing apporte trois bénéfices majeurs : la réalisation d’approches commerciales des clients très personnalisées ; l’intégration des réactions des clients (produits, concurrents …) dans la définition de l’offre ; la création d’une infrastructure qui à moindre coût facilite la flexibilité et permet de constamment entretenir un portefeuille d’avantages concurrentiels (offre, personnalisation, coûts).

Pour obtenir ces bénéfices, les entreprises mettent en place des applications pour : cibler (segmentation) ; promouvoir (gestion de campagne marketing) ; fidéliser (fidélisation, rétention, attrition), prospecter (acquisition, vente croisée, additionnelle) ; suivre les résultats (ventes par produit, canal …) ; analyser la rentabilité (marge brute, nette …) ; définir l’offre (affinité, conception, chaîne d’approvisionnement).

Aujourd’hui, les entreprises utilisent le téléphone, internet, la poste, des vendeurs pour interagir avec leurs clients et plus particulièrement ceux à forts potentiels, mais il est essentiel pour réussir ces approches marketing de trouver la bonne combinaison de technologies et de ressources humaines qui permettent de mettre en œuvre une gestion optimum de la relation client : obtenir un signe d’intérêt, un premier achat ; augmenter la fréquence, la variété, le montant des achats ; réduire l’attrition et réactiver les inactifs.

Au moment de vous lancer dans ce type d’approche, pensez à la phrase de Sénèque : “ Il n’y a pas de vent favorable pour celui qui ne sait où aller ”. Gérer la relation client est un métier, des objectifs relationnels ne peuvent être atteints que dans la mesure où un cap est fixé et que quelques directives sont précisées de telle sorte que l’allocation des ressources et les choix d’actions opérationnelles puissent être réalisés pour permettre d’atteindre un objectif retenu. Un résultat significatif ne peut pas être attendu d’un ensemble d’activités déclenchées au hasard. Au de là du produit ou du service, la clé principale est dans la communication et dans la possibilité que le client a de différencier une offre. C’est pourquoi, positionnement et éléments de différenciation doivent être constamment maintenus attractifs et l’image de marque gérée. Les consommateurs se font une image des produits/services et des entreprises, à travers les emballages, les canaux d’interaction, le degré de courtoisie des réponses au téléphone par exemple, tout ce qu’ils voient ou entendent ; cette image les incitera ou non à acheter.

Rédigé par Michel Bruley le Mardi 1 Septembre 2015 à 10:11 | Permalien | Commentaires {0}

La complexité et le rythme des affaires dans le monde d’aujourd’hui exigent que nous ayons un accès simple, rapide et profond à notre capital informationnel. Régulièrement, nous devons faire face à des questions inattendues et les réponses ne peuvent être construites qu’en combinant des données en provenance de plusieurs sources internes ou externes à l’entreprise pour comprendre la situation et déclencher des actions appropriées. Face à l’avenir, nous pouvons adopter plusieurs attitudes : être passif, réactif, préactif (se préparer aux changements attendus) ou proactif (provoquer les changements souhaités).

Dans ce contexte, l’augmentation de l’efficacité ne viendra pas de systèmes décisionnels plus rapides, la technologie est nécessaire, mais pas suffisante. Le vrai saut dans l’efficacité ne peut venir que de cerveaux plus créatifs exploitant au mieux un capital informationnel consistant. La technologie n’est pas la principale source d’innovation, c’est seulement la plus connue, c’est surtout un fabuleux moyen de rationaliser les activités. Pour assurer un développement durable du chiffre d’affaires et de la productivité, il faut permettre aux collaborateurs des entreprises et en premier lieu à leurs analystes et stratèges, d’utiliser au mieux leur savoir en donnant de bonnes données à travailler à leurs neurones.

C’est par une bonne maîtrise de l’information qu’une entreprise peut être plus près de ses clients, fournisseurs, partenaires, collaborateurs et actionnaires. La clé de l’excellence n’existe pas, elle doit être remodelée en permanence au gré de l’évolution de l’environnement. Dans ce jeu les systèmes décisionnels sont essentiels pour éclairer le passé, le présent, pour simuler le futur et le piège est de se trouver face à des zones d’ombre. De nombreuses entreprises ont des systèmes hyper performants pour explorer à la vitesse de l’éclair un petit jeu de données agrégées et sont atteintes d’Alzeihmer dès qu’elles veulent retrouver certains détails. Le hasard ne favorise que les esprits bien préparés et le marché récompense l’agilité, alors les meilleures entreprises ont compris qu’il faut qu’elles gèrent leur passé et leur futur, car à la lumière du passé le présent s’éclaire et tout le monde sait que l’avenir vient de loin.

Pour parfaitement exploiter ses informations, une entreprise doit d’abord commencer par bien les entreposer de façon à correctement les capitaliser, pour que les différents utilisateurs puissent en tirer toute la valeur. Outre le fait que les utilisateurs doivent être compétents, d’un point vue métier et analyse de données, il convient qu’ils puissent orienter leur travail grâce à une claire vision de la stratégie de leur entreprise, avec le soutien de leur direction respective et en bénéficiant d’une culture d’entreprise ouverte aux approches factuelles et créatives. Il ne faut pas s’illusionner pour la plupart des entreprises il y a un long chemin à parcourir avant qu’elles puissent tirer de réels avantages de leur capital informationnel.

Continuellement générer les mêmes rapports ne permettra jamais de faire des analyses génératrices d’innovations. Il faut développer des approches, des réflexions nouvelles pour sortir des cadres convenus et se donner des chances de trouver des alternatives créatives. Il convient de poser des questions nouvelles, inusuelles, pénétrantes dont les réponses ne sont pas connues d’avance et peuvent être inattendues. Dans cette optique peu importe que les utilisateurs soient particulièrement pertinents s’ils butent sur des données inadéquates, c'est-à-dire fragmentées, dispersées ou agrégées avec de grandes difficultés, voire l’impossibilité de se constituer une base d’analyse valable. L’expérience montre que 80 pour cent du retour sur investissement des projets d’entrepôt de données provient de requêtes qui portent sur des données détaillées, dans une approche itérative où de questions en réponses qui suggèrent de nouvelles questions des opportunités sont mises à jour.

Les entreprises leaders obtiennent leur position sur le marché parce qu’elles se sont construites autour de systèmes d’informations opérationnels et décisionnels plus que solides qui leur facilitent l’élaboration de leur stratégie, une vision claire de leurs activités et qui permet à leurs collaborateurs formés et motivés d’aller au bout de leurs réflexions.

Rédigé par Michel Bruley le Vendredi 14 Août 2015 à 10:35 | Permalien | Commentaires {1}

Le Data Mining est une puissante technique d'analyse qui par exemple permet à des responsables d'entreprises d’aller plus loin que la simple description des comportements passés d'une clientèle et de prédire l'avenir. Il permet de déceler dans les comportements « mystérieux » des clients des règles qui les sous-tendent. Grâce à ces découvertes, il est possible d'augmenter les revenus, de réduire les dépenses, d'identifier des opportunités commerciales et donc de bénéficier d'avantages concurrentiels certains.

Mais à en croire certains fournisseurs de solutions et de prestations de data mining, il serait indispensable de disposer d'outils dédiés (base de données, data mart ou serveur analytique) pour faire du data mining. Ils invoquent pour cela la nécessité d'extraire les données sous un format propriétaire pour réaliser des traitements efficaces. Or, non seulement ces moyens spécialisés sont onéreux à mettre en place et à maintenir, mais ils exigent que les données soient extraites pour chaque projet distinct de data mining, ce qui représente une procédure coûteuse et fortement consommatrice de temps. Heureusement, les progrès réalisés dans le domaine des bases de données n'exigent plus d'effectuer le data mining dans des data marts distincts. En réalité, pour une opération de data mining efficace, il suffit de s’appuyer sur son entrepôt de données, ce qui, au regard du coût d'investissement total, se révèle considérablement moins cher que d'utiliser des moyens spécifiques.

Au fur et à mesure que les sociétés mettent en place des EDW (Enterprise Data Warehouse, entrepôt de données d'entreprise) et couvrent l'ensemble des besoins décisionnels des différentes divisions et fonctions de l’entreprise, le nombre d'utilisateurs exploitant des modèles de data mining ne cesse de croître. En effet un EDW bien architecturé ne se contente pas de stocker efficacement l'ensemble des données historiques, il rend inutiles d'autres data marts ou d'autres moyens spécialisés de stockage. Un EDW constitue la fondation idéale pour des projets de data mining, en fournissant un répertoire de données unique à l'échelle de l'entreprise, capable d'offrir une vision cohérente et actualisée des activités. En outre, l'intégration de fonctionnalités de data mining au sein de l’EDW permet à l'entreprise de réaliser deux types d'économies supplémentaires. Tout d'abord, il n'est plus nécessaire d'acheter et d'assurer la maintenance de matériel complémentaire uniquement dédié au data mining ; ensuite les entreprises ne sont plus obligées d’effectuer un va-et-vient de données depuis et vers l'entrepôt pour réaliser les projets de data mining, ce qui, nous l'avons vu plus haut, est une opération gourmande en temps et en ressources.

À titre d’exemple, l'un des plus grands opérateurs de téléphonie mobile aux USA utilise aujourd’hui un EDW pour fournir des informations à une large gamme d'applications commerciales et marketing. Cet opérateur, desservant de nombreux marchés régionaux, avait été conduit à établir différents data marts régionaux, et obtenir une vue d’ensemble des informations à l'échelle de l'entreprise était devenu particulièrement difficile. Les prises de décision souffraient de l’absence de données ou d’informations cohérentes, ce qui affectait les performances et le moral des équipes qui ne pouvaient pas anticiper et mesurer le fruit de leur travail. En transférant toutes ses données vers un EDW, cet opérateur a pu constater des résultats immédiats. Les données étaient mises en cohérence, les décisions pouvaient être prises en toute sécurité, avec l'assurance que les données reposaient sur des fondations saines. En termes d’efficacité, le nouvel EDW délivre des informations d’une meilleure qualité 90% plus vite qu'avec l'ancienne approche par data marts. Lorsqu’il est nécessaire d’analyser de grandes quantités de données, de tels gains permettent de faire la différence sur le marché.
Rédigé par Michel Bruley le Samedi 1 Août 2015 à 10:22 | Permalien | Commentaires {0}

Sans entrer dans la problématique du choix des fournisseurs, les lignes ci-dessous recensent sous forme de recommandations, les principales idées qui sont largement répandues et qu’il ne faut surtout pas suivre.

Pour réaliser votre entrepôt de données, ne consultez aucune personne extérieure à votre organisme. Votre cas est unique et seules des personnes de chez vous peuvent trouver la solution qui convient. Ne cherchez pas à savoir ce que font vos concurrents, ne regardez pas les références de fournisseurs de solutions décisionnelles.

Fixez-vous comme premier objectif de spécifier de façon exhaustive tous les besoins décisionnels de votre organisme, en particulier soignez particulièrement bien la définition détaillée des restitutions attendues.

Cherchez à satisfaire les utilisateurs en leur réalisant des systèmes personnels sur mesure. Concrètement il s’agit de multiplier les data marts dans une logique de construire pour chaque division, département voire service, des moyens totalement adaptés au périmètre de leur problématique, en particulier à leur vocabulaire, à leur façon de voir les données sans se soucier d’autre chose que de leur vision spécifique des affaires. À chacun sa vérité.

Planifiez de multiples projets décisionnels en parallèle, sans vous soucier de fixer des priorités ni de produire rapidement des résultats.

Évitez le plus possible de stocker des données détaillées et fondez les systèmes sur des données agrégées, des compteurs du type RFM, et faites une large place aux données d’enquêtes, d’études ponctuelles et d’informations qualitatives que les utilisateurs maîtrisent bien, voire produisent eux-mêmes.

Au niveau de la modélisation, bannissez la 3ème forme normale, fondez le plus possible les datamarts sur des modèles en étoile ou en flocon, de façon à optimiser au maximum les performances des requêtes qui sont envisagées au moment de la conception du système.

Pour les restitutions, simplifiez le plus possible la vie des utilisateurs en fournissant des résultats facilement compréhensibles comme des moyennes, des médianes ou des métriques synthétiques, qui permettent de suivre simplement des sujets complexes.

Pour faciliter l’appréciation des performances fondez exclusivement les suivis sur des comparaisons entre données de prévision et de réalisation, en veillant à ne pas trop multiplier les chiffres et à rester très synthétique, en particulier il convient de limiter la profondeur de l’historique des données.

Au niveau des moyens technologiques, privilégiez des solutions prêtes à l’emploi spécifiques, quitte à multiplier les fournisseurs et les moyens.

Défendez bec et ongles l’idée que la vérité est dans les statistiques.

Investissez un minimum dans votre entrepôt de données, gardez le plus possible votre argent au fond d’un coffre, il y sera en sécurité.

Rédigé par Michel Bruley le Jeudi 9 Juillet 2015 à 16:14 | Permalien | Commentaires {0}
1 2 3 4 5 » ... 11


> A LIRE EN CE MOMENT SUR DECIDEO
Profil
Michel Bruley
Michel Bruley



Galerie
scan0578.jpg
B6.JPG
B1.JPG
A.JPG
B4.jpg
B8.jpg

RSS ATOM RSS comment PODCAST Mobile