Sans entrer dans la problématique du choix des fournisseurs, les lignes ci-dessous recensent sous forme de recommandations, les principales idées qui sont largement répandues et qu’il ne faut surtout pas suivre.
Pour réaliser votre entrepôt de données, ne consultez aucune personne extérieure à votre organisme. Votre cas est unique et seules des personnes de chez vous peuvent trouver la solution qui convient. Ne cherchez pas à savoir ce que font vos concurrents, ne regardez pas les références de fournisseurs de solutions décisionnelles.
Fixez-vous comme premier objectif de spécifier de façon exhaustive tous les besoins décisionnels de votre organisme, en particulier soignez particulièrement bien la définition détaillée des restitutions attendues.
Cherchez à satisfaire les utilisateurs en leur réalisant des systèmes personnels sur mesure. Concrètement il s’agit de multiplier les data marts dans une logique de construire pour chaque division, département voire service, des moyens totalement adaptés au périmètre de leur problématique, en particulier à leur vocabulaire, à leur façon de voir les données sans se soucier d’autre chose que de leur vision spécifique des affaires. À chacun sa vérité.
Planifiez de multiples projets décisionnels en parallèle, sans vous soucier de fixer des priorités ni de produire rapidement des résultats.
Évitez le plus possible de stocker des données détaillées et fondez les systèmes sur des données agrégées, des compteurs du type RFM, et faites une large place aux données d’enquêtes, d’études ponctuelles et d’informations qualitatives que les utilisateurs maîtrisent bien, voire produisent eux-mêmes.
Au niveau de la modélisation, bannissez la 3ème forme normale, fondez le plus possible les datamarts sur des modèles en étoile ou en flocon, de façon à optimiser au maximum les performances des requêtes qui sont envisagées au moment de la conception du système.
Pour les restitutions, simplifiez le plus possible la vie des utilisateurs en fournissant des résultats facilement compréhensibles comme des moyennes, des médianes ou des métriques synthétiques, qui permettent de suivre simplement des sujets complexes.
Pour faciliter l’appréciation des performances fondez exclusivement les suivis sur des comparaisons entre données de prévision et de réalisation, en veillant à ne pas trop multiplier les chiffres et à rester très synthétique, en particulier il convient de limiter la profondeur de l’historique des données.
Au niveau des moyens technologiques, privilégiez des solutions prêtes à l’emploi spécifiques, quitte à multiplier les fournisseurs et les moyens.
Défendez bec et ongles l’idée que la vérité est dans les statistiques.
Investissez un minimum dans votre entrepôt de données, gardez le plus possible votre argent au fond d’un coffre, il y sera en sécurité.
Rédigé par Michel Bruley le Jeudi 9 Juillet 2015 à 16:14
|
Permalien
|
{0}
Ci-dessous une deuxième série d’articles publiée dans la communauté CherClient.com
Comprendre & servir le client digital
Pour une gestion intégrée de toutes les activités de commercialisation, médias sociaux compris
Les médias sociaux forment un nouveau canal de communication
Big Data : Au-delà de l'analyse, ce qui compte c'est l'action
Marketing digital quels avantages attendre des big data ?
Suivre ou non les Médias Sociaux s'équiper ou non en Big Data
Big Data : Tirez parti de l’analyse des réseaux sociaux pour optimiser les relations clients
Big Data mieux prendre en compte ce que disent les clients
Big Data & définition des assortiments et des promotions
CRM & Big Data non structurées
L’usage est la mesure du succès d’une innovation
Comprendre & servir le client digital
Pour une gestion intégrée de toutes les activités de commercialisation, médias sociaux compris
Les médias sociaux forment un nouveau canal de communication
Big Data : Au-delà de l'analyse, ce qui compte c'est l'action
Marketing digital quels avantages attendre des big data ?
Suivre ou non les Médias Sociaux s'équiper ou non en Big Data
Big Data : Tirez parti de l’analyse des réseaux sociaux pour optimiser les relations clients
Big Data mieux prendre en compte ce que disent les clients
Big Data & définition des assortiments et des promotions
CRM & Big Data non structurées
L’usage est la mesure du succès d’une innovation
Ci-dessous la première série des articles consacrés au marketing, à la relation client, que j’ai publiés dans d'autres communautés
Stratégie de commercialisation : le client est la source et la cible
Vendre ou faire acheter
Vendre aux clients multi-équipés
Intégrer ses systèmes opérationnels et décisionnels pour mieux gérer ses clients
Organiser la relation client
Optimiser l'expérience client
Solution CRM pour établir une relation durable avec vos clients
De l'importance de la connaissance client
Calculez la valeur de vos clients
De la coordination des canaux
Mobile Marketing
Un entrepôt de données au cœur relation client
Si les données ont du sens, elles deviennent des informations. Si ces informations sont réutilisables, elles deviennent des connaissances. Quand ces connaissances sont réutilisables dans un but donné, elles deviennent des compétences.
Différentes étapes :
• La production de connaissance : analyse, formalisation, capitalisation,
• La diffusion : consultation, recherche (annuaire des savoirs, cartographie des compétences …),
• L’utilisation : échanges, formation, mise en œuvre.
Impacts sur les affaires :
• Toutes les activités de l’entreprise sont concernées en termes de productivité, de vitesse, de qualité : les relations clients, partenaires, collaborateurs et la gestion (veille, innovation, stratégie, procédures opérationnelles),
• Dans les secteurs très concurrentiels, le critère vitesse est très important,
• 65% des entreprises avouent avoir des difficultés à mesurer et valoriser les gains de rentabilité générés par la gestion des connaissances
Impacts humains :
• Au vu dans certains secteurs, du turn-over ou des vagues de départ en retraite, la gestion des connaissances devient une problématique,
• Autrefois diffuseurs d’informations, les managers se muent en animateurs de réseaux de connaissances,
• Carrières d’experts : le titre d’expert n’a pas encore la reconnaissance sociale souhaitable,
• Comment distinguer le patrimoine de l’entreprise du capital intellectuel de chaque individu.
Impacts procédures :
• Passer de l’intelligence individuelle à l’intelligence collective,
• Intégrer de manière dynamique les connaissances dans l’activité,
• La gestion des connaissances est bien passée dans l’industrie alors que les sociétés de services commencent tout juste à se l’approprier.
Économie de la connaissance :
• L’économie de la connaissance repose en particulier sur les liens entre la recherche, l’enseignement supérieur et les entreprises industrielles ou commerciales,
• Les Etats Unis dépensent 190 milliards de dollars pour la recherche publique ou privée contre 130 pour l’ensemble de l’Europe.
Premiers pas dans le Big Data
Ci-dessous un livre blanc à télécharger qui est constitué d’une compilation de mes articles qui permettent d’explorer certains aspects des évolutions que les Big Data engendrent, en matière d’avantages concurrentiels, au niveau du marketing en particulier, pour ce qui concerne les infrastructures et les équipes informatiques, sans oublier les professionnels des différentes fonctions : Cliquez ici
Big Data & Open source : une convergence inévitable ?
L’enjeu majeur du Big Data n’est pas dans la collecte et le stockage, mais dans la valorisation de ces données. L’Open source peut-il répondre à cet enjeu ? – cliquez ici
Big Data technologies
Big Data is on everyone's lips, but what are the available technical solutions to deal with it? We give a brief overview of several solutions: distributed filesystems, NoSQL databases, and end-to-end solutions that take into account computations - cliquez ici
Big Data appliances
L’apport des Big Data vu par une société de conseil en SI – cliquez ici
Don’t be hadooped when looking for big data
Extracting value from Big Data is not easy. The field of technologies and vendors is fragmented and rapidly evolving. End-to-end, general purpose solutions that work out of the box don’t exist yet, and Hadoop is no exception. And most companies lack Big Data specialists. The key to unlocking real value /// extracting the gold nuggets at the end of the rainbow (???) /// lies with mapping the business requirements smartly against the emerging and imperfect ecosystem of technology and vendor choices.
– cliquez ici
Various presentations on Big Data
14 presentations on Big Data (Machine learning, Text mining, Sentiment analysis, Web log & Clickstream, Marketing attribution, Product affinity, Next best offer, Pricing …). – cliquez ici
Big data, les entreprises françaises toujours à la traine ?
Le big data entre dans une nouvelle phase, celle de l'industrialisation, surtout dans certains secteurs comme le retail, les telcos ou encore la banque/assurance. – Cliquez ici
Open Data : fiche synthétique
La réutilisation des informations publiques, souvent nommée par commodité open data, est devenue une des thématiques très porteuses dans le secteur public et dans le secteur privé où les initiatives se multiplient pour imaginer des produits et services innovants développés à partir de la réutilisation desdites informations publiques. – cliquez ici
Il est aujourd’hui possible de réaliser son système d’information décisionnel uniquement avec des solutions open source. Ci-dessous par catégorie une sélection de solutions réputées.
ETL pour Extract-Transform-Load.
Pentaho Data Integration : la solution permet de préparer et croiser des données afin de créer une vision complète de l’entreprise. La plate-forme complète d'intégration des données fournit aux utilisateurs finaux des données précises «prête pour l'analytique » à partir de n'importe quelle source. Grâce aux outils visuels qui éliminent la programmation et la complexité, Pentaho met les Big Data et toutes les sources de données à la portée aussi bien des utilisateurs métier que de l’informatique. Cliquez ici
Talend Open Studio : propose la seule plateforme unifiée simplifiant la gestion de données et l’intégration d’applications en fournissant un environnement unifié pour gérer le cycle de vie complet à travers les frontières de l’entreprise. La productivité des développeurs est considérablement améliorée grâce à un environnement graphique simple à utiliser, basé Eclipse, combinant l’intégration de données, la qualité de données, le MDM, l’intégration d’applications et le Big Data. Cliquez ici
Base de données SQL
PostgreSQL est le SGBDR open source le plus complet aujourd’hui. PostgreSQL est issue de Ingres. Le projet a été lancé en 1985, la première version bâtie sur l'architecture actuelle est sortie en 1995.
MySQL est un SGBDR rapide et robuste, particulièrement déployé dans les environnements Internet. MySQL a été créé en 1995.
Pour aller plus loin : cliquez ici
Base de données No SQL
Cassandra est une autre base de données de la mouvance NoSQL. Initialement développée par Facebook en 2008, elle a été par la suite libérée et son développement est aujourd'hui assuré par la fondation Apache.
MongoDB est une base de données orientée documents de la mouvance NoSQL permettant le stockage de documents au format BSON (une forme binaire de JSON).
Pour aller plus loin : cliquez ici
Designer de rapport
BIRT (The Business Intelligence and Reporting Tool) est un projet de la communauté Eclipse comprenant un générateur de graphiques, un générateur de rapports et un environnement de conception. Le projet a été initié en 2005. Cliquez ici
JasperReport (iReport) iReport est l'outil le plus populaire auprès des concepteurs de visuel. Il prend en charge tous les formats de sortie les plus importants et importe quelle source de données. Cliquez ici
Pentaho Report Designer est un outil simple à manipuler, bien intégré à la suite décisionnelle Pentaho pour la gestion des paramètres ou la publication sur la plateforme web. Il permet la génération de rapports aux formats PDF, HTML, XML, CSV, RTF, XLS et supporte les sources de données multiples. Cliquez ici
Analyse
Mondrian est un outil OLAP (traitement analytique en ligne) avec un moteur écrit en Java. Il lit à partir de sources de données JDBC, agrège les données dans une mémoire cache, et met en œuvre le langage MDX et l'olap4j et XML / A API. Cliquez ici
La suite Palo BI, totalement Open Source, donne un rôle central aux experts métiers voués à utiliser l'outil en leur proposant des outils simples, faciles à prendre en main, à gérer et à utiliser, elle plait aux utilisateurs avancés de tableurs en leur offrant la possibilité de gérer l'application depuis Excel (suite Microsoft Office) ou depuis Calc (suite Open Office). Cliquez ici
Saiku propose différents outils pour créer et analyser des modèles de données à partir d’un navigateur ; poser toutes les questions sur les données, déverrouiller les données dans les applications ou sites web. Cliquez ici
Data mining
Weka (Waikato Environment for Knowledge Analysis, en français : « Environnement Waikato pour l'analyse de connaissances ») est une suite populaire de logiciels d'apprentissage automatique. Écrite en Java, développée à l'université de Waikato, Nouvelle-Zélande. En 2006, Pentaho acquiert une licence exclusive pour utiliser Weka. Il forme le composant d'exploration de données analytique et prédictif de la suite de logiciels décisionnels Pentaho. Cliquez ici
MDM
Talend MDM : les solutions de MDM de Talend permettent aux données disparates, incohérentes des entreprises, telles que les données de produits et de clients, d’être vues sous une seule "version de la vérité", et accroissent ainsi la confiance dans les décisions. Cliquez ici
Quelques remarques, avant de se lancer - Cliquez ici
Le domaine des solutions Big Data est en très grand développement, de nombreuses solutions ont vu ou sont en train de voir le jour. Malheureusement beaucoup restent confidentielles. Sans avoir l’ambition de faire le tour, vous trouverez ci-dessous plusieurs solutions spécifiques à une fonction ou une industrie.
Marketing BtoB
Pour les équipes marketing, CRM, et commerciales, Datapublica propose un outil de marketing B2B offrant des fonctionnalités de : ventes prédictives (trouver les entreprises similaires à ses clients et identifier des leads rapidement) ; moteur de recherche entreprise (accéder à des fiches entreprises détaillées et à jour) ; segmentation en temps réel (explorer les caractéristiques de son écosystème – clients, fournisseurs, …) ; veille (suivre les offres d’emploi, levées de fond ou événements des entreprises mises sous contrôle). Cliquez ici
Transport aérien
Safety Line propose des solutions (logicielles et analyse statistique) pour la gestion des risques dans le domaine du transport aérien : gestion des risques opérationnels et techniques ; optimisation de la consommation et réduction des émissions de CO2 liées au transport aérien. Cliquez ici
Hôtellerie
Pricematch propose aux hôteliers une solution en mode cloud qui grâce à des algorithmes utilisant le Machine Learning (ou "apprentissage automatique") et conçus avec des experts du monde hôtelier, prennent en compte l’historique de réservation, les prix des concurrents, la saisonnalité, l’e-réputation de l’hôtel, les événements locaux, les prévisions météo, et bien plus encore... pour calculer une tarification optimale des chambres pour les mois à venir. En moyenne, les utilisateurs de cette solution ont mesuré une augmentation de 7% de leur RevPAR (revenue per available room). Cliquez ici
Pétrole & Gaz
Idmog propose une solution de gestion de données et des applications pour l’exploitation de champs de pétrole et de gaz, particulièrement robustes, délivrant de hautes performances avec une fiabilité inégalée, une grande simplicité et flexibilité, et d’autres avantages comme : une traçabilité des données, une disponibilité maximale du champ au bureau, une réduction du temps non productif des ingénieurs, … cliquez ici
Marché boursier
Kensho est un pionnier des systèmes informatiques statistiques en temps réel et des analyses évolutives. kensho réalise des calculs statistique massivement parallèle de données non structurées pour les professionnels de l'investissement de Wall Street par exemple. kensho est capable de répondre à des questions financières complexes posés dans un anglais simple et en temps réel. Cliquez ici
Assurance
Le Big Data ouvre de ¬nouveaux horizons pour lutter contre la fraude. Shift Technol propose une solution qui permet d’aller bien au-delà de la simple analyse de corrélations statistiques et est capable de détecter les vrais comportements frauduleux sous-jacents, en particulier les mécanismes de fraude en bande organisée. Par exemple Shift Technology estime pouvoir, sur un portefeuille de 300.000 sinistres automobiles par an, faire économiser aux assureurs au moins 9 euros par sinistre de plus que ce qu’ils détectent aujourd’hui. Cliquez ici
Cas d’entreprise : transport
Chronopost veut optimiser ses coûts de livraison grâce au Big Data. cliquez ici
Cas d’entreprise : banque
La Société Générale mobilise le Big Data pour la personnalisation et le time-to-market. cliquez ici
Le domaine des solutions Big Data est en très grand développement, de nombreuses solutions ont vu ou sont en train de voir le jour. Malheureusement beaucoup restent confidentielles. Sans avoir l’ambition de faire le tour, vous trouverez ci-dessous plusieurs solutions génériques qui peuvent intéresser la plupart des entreprises se lançant ou envisageant un projet Big Data.
Plateforme Big Data
Dataiku Science Data Studio (DSS) est une plate-forme logicielle qui permet de couvrir toutes les étapes nécessaires pour aller des données brutes à des applications prête de production. Il permet de raccourcit les cycles de déploiement. Grâce à son espace de travail visuel et interactif, elle est accessible à la fois aux scientifiques des données et aux analystes métiers. cliquez ici
Moteur d’analyse de données au format JSON
Les API et les applications modernes ne se présentent pas toujours sous forme de données tabulaires, mais le plus souvent sous forme de données au format JSON. Precog est un moteur d'analyse qui gère nativement JSON. Il est facile pour les développeurs à intégrer et est livré avec un outil de haut niveau appelé Labcoat qui permet aux scientifiques et analystes de données d’analyser en profondeur leurs données. cliquez ici
Analyse de logs
Sumo Logic propose une solution cloud pour gérer les logs. Elle permet de collecter, centraliser, rechercher et résoudre des problèmes, alerter et informer, visualiser et surveiller, analyser avec l’outil breveté LogReduce, faire des prévisions incluant la détection des anomalies et délivrer des analyses intégrant des éléments de contexte. cliquez ici
Reconnaissance faciale
Smart Me Up propose une solution d’analyse de visage en temps réel, fondée sur du machine learning et de l’intelligence artificielle. Cette solution de reconnaissance faciale permet de « taguer » automatiquement des individus figurant sur une vidéo, ce qui peut avoir de nombreuses applications, notamment en matière de sécurité. cliquez ici
Apprentissage automatique
PredicSis propose une plate-forme d'apprentissage automatique pour permettre à ses clients et leurs développeurs de mener facilement des analyses prédictives automatiques de qualité supérieure sur des gisements Big Data et des flux Fast Data. Il propose en outre trois applications pour mieux prédire les comportements des clients et adapter les stratégies commerciales : gestion de la clientèle, prévision d’abandon, gestion de la fraude. cliquez ici
Moteur de Recommandation
Search’XPR a développé une technologie qui s’intègre directement dans les systèmes de recommandation existants et qui a des retombées déterminantes pour les Applications de Search, les Réseaux Sociaux, les Sites de Rencontre, les Sites E-commerce et M-commerce ainsi que les sites de presse et de contenus en ligne. Elle permet de découvrir de manière inattendue et heureuse une information, un contenu, un produit/service, une personne ou une organisation. cliquez ici
Sécurité
Le stockage de données a évolué du niveau local vers le cloud avec des disques durs ou des serveurs externalisés. De plus, les données sont désormais partagées avec les fournisseurs, les régulateurs et parfois les appareils personnels des employés. Tout cela crée de la vulnérabilité pour les données sensibles. La politique de sécurité informatique doit s'adapter pour être en mesure de faire face. Cela implique non seulement la construction de clôtures autour des actifs afin de les protéger, mais un suivi plus important des menaces extérieures. CybelAngel offre une solution fiable. Plutôt que de défendre un périmètre qui n’existe plus avec le Big Data, vous avez besoin d'intercepter les données échangées ou recueillies par les attaquants. cliquez ici
Plateforme Big Data
Dataiku Science Data Studio (DSS) est une plate-forme logicielle qui permet de couvrir toutes les étapes nécessaires pour aller des données brutes à des applications prête de production. Il permet de raccourcit les cycles de déploiement. Grâce à son espace de travail visuel et interactif, elle est accessible à la fois aux scientifiques des données et aux analystes métiers. cliquez ici
Moteur d’analyse de données au format JSON
Les API et les applications modernes ne se présentent pas toujours sous forme de données tabulaires, mais le plus souvent sous forme de données au format JSON. Precog est un moteur d'analyse qui gère nativement JSON. Il est facile pour les développeurs à intégrer et est livré avec un outil de haut niveau appelé Labcoat qui permet aux scientifiques et analystes de données d’analyser en profondeur leurs données. cliquez ici
Analyse de logs
Sumo Logic propose une solution cloud pour gérer les logs. Elle permet de collecter, centraliser, rechercher et résoudre des problèmes, alerter et informer, visualiser et surveiller, analyser avec l’outil breveté LogReduce, faire des prévisions incluant la détection des anomalies et délivrer des analyses intégrant des éléments de contexte. cliquez ici
Reconnaissance faciale
Smart Me Up propose une solution d’analyse de visage en temps réel, fondée sur du machine learning et de l’intelligence artificielle. Cette solution de reconnaissance faciale permet de « taguer » automatiquement des individus figurant sur une vidéo, ce qui peut avoir de nombreuses applications, notamment en matière de sécurité. cliquez ici
Apprentissage automatique
PredicSis propose une plate-forme d'apprentissage automatique pour permettre à ses clients et leurs développeurs de mener facilement des analyses prédictives automatiques de qualité supérieure sur des gisements Big Data et des flux Fast Data. Il propose en outre trois applications pour mieux prédire les comportements des clients et adapter les stratégies commerciales : gestion de la clientèle, prévision d’abandon, gestion de la fraude. cliquez ici
Moteur de Recommandation
Search’XPR a développé une technologie qui s’intègre directement dans les systèmes de recommandation existants et qui a des retombées déterminantes pour les Applications de Search, les Réseaux Sociaux, les Sites de Rencontre, les Sites E-commerce et M-commerce ainsi que les sites de presse et de contenus en ligne. Elle permet de découvrir de manière inattendue et heureuse une information, un contenu, un produit/service, une personne ou une organisation. cliquez ici
Sécurité
Le stockage de données a évolué du niveau local vers le cloud avec des disques durs ou des serveurs externalisés. De plus, les données sont désormais partagées avec les fournisseurs, les régulateurs et parfois les appareils personnels des employés. Tout cela crée de la vulnérabilité pour les données sensibles. La politique de sécurité informatique doit s'adapter pour être en mesure de faire face. Cela implique non seulement la construction de clôtures autour des actifs afin de les protéger, mais un suivi plus important des menaces extérieures. CybelAngel offre une solution fiable. Plutôt que de défendre un périmètre qui n’existe plus avec le Big Data, vous avez besoin d'intercepter les données échangées ou recueillies par les attaquants. cliquez ici
3 millions d’emplois menacés en France à cause du numérique, à l’horizon 2025 – cliquez ici …
Les cinq métiers porteurs dans le numérique (dont data scientist et ingénieur big data) & les flops – cliquez ici …
Big Data
Big Data & Pricing - cliquez ici …
Seulement 13% des entreprises font du Big Data opérationnel - cliquez ici …
L’École Polytechnique mise sur le Big Data et crée une chaire « Data Scientist » – cliquez ici …
Big Data : la commission européenne engage 2,5 milliards d’euros – cliquez ici …
Big Data chez Telecom Italia : patience et longueur de temps – cliquez ici …
Il est urgent de former les équipes marketing au Big Data, – cliquez ici …
Lancement d'une Chaire dédiée au Big Data – cliquez ici …
IBM signe avec Twitter pour analyser le Big Data généré par les tweets, au profit des entreprises – cliquez ici …
Innovation scientifique & Big Data : comment gérer un tsunami de "milliards et milliards" de données – cliquez ici
Open Data
Données de santé inaccessibles - cliquez ici …
L'accès aux données publiques est un enjeu majeur de démocratie - cliquez ici
L’INPI livre 4,2 millions de documents en Open Data - cliquez ici …
La France ne transposera pas en temps voulu la directive européenne sur l’Open Data - cliquez ici …
L'association Opendata France prône l’obligation d’ouverture des données pour les collectivités – cliquez ici …
Projet de loi sur la santé : « Au fond, c'est un peu " closed data " ! » – cliquez ici …
Veille Open Data France : dernières sélections – cliquez ici …
Les cinq métiers porteurs dans le numérique (dont data scientist et ingénieur big data) & les flops – cliquez ici …
Big Data
Big Data & Pricing - cliquez ici …
Seulement 13% des entreprises font du Big Data opérationnel - cliquez ici …
L’École Polytechnique mise sur le Big Data et crée une chaire « Data Scientist » – cliquez ici …
Big Data : la commission européenne engage 2,5 milliards d’euros – cliquez ici …
Big Data chez Telecom Italia : patience et longueur de temps – cliquez ici …
Il est urgent de former les équipes marketing au Big Data, – cliquez ici …
Lancement d'une Chaire dédiée au Big Data – cliquez ici …
IBM signe avec Twitter pour analyser le Big Data généré par les tweets, au profit des entreprises – cliquez ici …
Innovation scientifique & Big Data : comment gérer un tsunami de "milliards et milliards" de données – cliquez ici
Open Data
Données de santé inaccessibles - cliquez ici …
L'accès aux données publiques est un enjeu majeur de démocratie - cliquez ici
L’INPI livre 4,2 millions de documents en Open Data - cliquez ici …
La France ne transposera pas en temps voulu la directive européenne sur l’Open Data - cliquez ici …
L'association Opendata France prône l’obligation d’ouverture des données pour les collectivités – cliquez ici …
Projet de loi sur la santé : « Au fond, c'est un peu " closed data " ! » – cliquez ici …
Veille Open Data France : dernières sélections – cliquez ici …
Face à un nouveau sujet, les entreprises ont généralement le réflexe de chercher à se faire conseiller sur la manière de l’aborder. Mais que peut-on attendre d’un conseil et qu'est-ce que le conseil ? Un conseil est un spécialiste extérieur à une organisation à qui l'on fait appel, afin d'obtenir un avis au sujet d'une question ou de l'aide pour résoudre un problème précis.
La prestation d’un conseil suit un processus dont il est difficile de caractériser l'essence en une phrase. Le processus de conseil est indépendant du contenu, c'est-à-dire que les conseils suivent les mêmes étapes, quel que soit leur domaine d'expertise. Quoique le processus de conseil soit indépendant du contenu, c'est une activité très dépendante du client. Il s’agit donc pour le conseil de mettre en œuvre ses compétences pour résoudre le problème de son client. Le conseil ne s'accommode pas de solutions standardisées. Le conseil doit être adapté spécifiquement aux besoins particuliers du client. Le conseil doit avoir des compétences c'est-à-dire une combinaison de connaissances, d’expériences et de comportements qui le qualifie pour conseiller sur un sujet.
Le processus du conseil comprend différentes dimensions, toutes liées entre elles. Il s’agit d’influencer sans pouvoir hiérarchique direct ; d’apporter son expertise et la faire appliquer ; d’établir une relation de confiance avec le client ; de s’impliquer tout en restant impartial ; de travailler sous pression et dans le conflit ; de fournir un cadre pour la recherche de solution ; et au final d’avoir un impact sur l’entreprise.
Un conseil s’efforce toujours de répondre aux besoins spécifiques de son client, mais son rôle évolue avec les circonstances. Au cours de la même mission ¬peut-être même dans le même jour il est amené à jouer des rôles bien différents : médecin, facilitateur, ambassadeur, gourou, catalyseur, arbitre, animateur, détective, chef d’orchestre, confident, entremetteur et malheureusement souvent bouc émissaire.
Cette liste n'est bien sûr pas exhaustive. On peut trouver sans doute d'autres rôles à y ajouter. Cette liste est une simple description des rôles les plus courants joués par les conseils. Suivant la mission, le conseil joue tous ces rôles à la fois ou seulement quelques-uns d'entre eux. En améliorant sa connaissance de son métier, le conseil peut se rendre compte qu'il devient plus facile d'évaluer les situations et de passer d'un rôle à l'autre. De plus, il est appelé à jouer des rôles plus variés au fur et à mesure que ses responsabilités, son expérience et ses rapports avec ses clients augmentent.
Il est important de reconnaître que des contextes différents appellent des traitements différents. L’efficacité du conseil dépend souvent de son habilité à évaluer les situations et à choisir les rôles qui sont les mieux adaptés. Pour évaluer et choisir un conseil, il faut considérer les compétences, les connaissances et surtout les références spécifiques relatives au problème à l'étude. Le plus important est d'engager un conseil qui peut apporter une valeur ajoutée à l'entreprise. Soyons clair, aujourd’hui en France pour le thème du Big Data (Méga Données) les personnes à même de conseiller sont assez rares.
Pour aller plus loin sur ce sujet vous pouvez utilement consulter l’article suivant : « Big Data Competency Center Might Ease Talent Shortage » : cliquez ici
> A LIRE EN CE MOMENT SUR DECIDEO
-
Le nouvel outil Webfleet Transition EV permet l’électrification des flottes par la donnée
-
Alteryx et DataCamp s'allient pour permettre à tous les salariés de se former à l'analyse
-
Quel est le futur des métiers de la data et de l’IA vu par les grands groupes français ?
-
OneStream Software réinvente et renforce le rôle du CFO grâce à sa nouvelle solution Narrative Reporting
-
Empreinte de la Donnée sur le vivant : Le Cercle de la Donnée et l’Agora 41 présentent 5 propositions pour un numérique responsable
-
Les dirigeants adoptent l'IA sous la pression médiatique, mais la préparation organisationnelle reste un défi majeur
-
La NASA s’appuie sur le moteur d’Enterprise Search de Sinequa pour propulser son nouveau moteur Science Discovery Engine
-
IA, simplification et débureaucratisation pour transformer l'État
-
GS1 France aux côtés d’Equadis pour développer la solution « Data Quality Checker » garantissant l’échange de données de qualité sur le marché français
-
XXII lance RETAIL ANALYTICS, une innovation majeure pour le secteur du retail
Profil
Michel Bruley
Liste de liens
Dernières notes
Meilleurs vœux aux parents pour 2024
10/01/2024
RECETTE DE LA DINDE AU WHISKY
27/01/2023
Le 1 to 1 marketing a bientôt trente ans
24/09/2022
Galerie
Archives
Rubriques
Rubriques