De la nécessité de prendre soin de ses données stratégiques


Rédigé par Yves de Montcheuil, Talend le 22 Mai 2013

La majorité des entreprises s’accorde à penser que la bonne qualité de leurs données est source d’efficacité et de performance, et que leur capacité à gérer et à contrôler ces données tout en garantissant leur intégrité est vitale pour leur réussite à long terme.



Yves de Montcheuil, VP Marketing, Talend
Il est ainsi inquiétant de découvrir dans une enquête réalisée par Computing[1], que plus de 40% des décideurs informatiques du Royaume-Uni acceptent pourtant que les données qu’ils exploitent ne soient pas fiables et ne répondent pas à leurs besoins métiers. De plus, malgré ce constat, le même pourcentage admet ne pas avoir pris les mesures nécessaires pour nettoyer et corriger leurs données stratégiques lorsque des erreurs ont été trouvées. Déjà en 2002, The Data Warehouse Institute évaluait à 600 M$ le coût annuel de la non qualité des données[2] et plus récemment en 2011, une enquête a dévoilé que ce coût représentait 26 M€ par an pour le seul secteur de la distribution en Belgique[3].

Bien que ces enquêtes ne couvrent pas directement notre pays, on peut penser que les chiffres Français se situent au même niveau. Dans une étude de 2011 réalisée par le CXP pour DataFlux[4], 13% des entreprises interrogées (principalement des grandes sociétés) admettent ne pas avoir clairement établi et mis en œuvre de stratégie de gouvernance des données. Et 51% des organisations qui n’ont pas développé une telle stratégie ont révélé que leurs données étaient gérées par les utilisateurs finaux, plutôt que par des responsables données ou des data stewards. Au final, « Alors que 90% des répondants reconnaissent que la qualité des données est un élément critique (59%) voire très critique (30%) pour la prise de décision, seulement un tiers des entreprises admet avoir confiance dans leurs données ! »

Une minorité significative des entreprises semble entretenir une certaine suffisance ou tout au moins une réticence à prendre soin des données stratégiques. Selon l’enquête de Computing, 14% des DSI et responsables informatiques du Royaume-Uni déclarent à propos des erreurs trouvées dans les données de référence (« master data ») : « ce n’est pas mon problème », attitude surprenante de la part de professionnels impliqués au quotidien dans la gestion de données. De plus, 7% d’entre eux déclarent « ne pas avoir voulu ouvrir la boite de Pandore » et 5% prétendent qu’ils ne voient pas où est le problème : « c’est juste un enregistrement douteux ». Consolidés, ces chiffres démontrent qu’un quart des DSI ne prennent pas les problématiques de gestion de données au sérieux.

Comme le remarque l’enquête : « … dans certains cas, un enregistrement inexact, incohérent ou non-standard n’aura aucun impact métier ou financier. Mais quelle entreprise peut assumer ce risque ? Quelle entreprise peut se permettre de parier que les erreurs ne concernent que des informations peu importantes ? ».

En vérité, ce qui pourrait apparaître au premier coup d’œil comme une erreur anodine peut potentiellement avoir un impact négatif sur une entreprise à long terme. Par exemple, deux opérateurs d’un centre d’appels saisissent la même adresse, mais l’un des deux commet une erreur (« 25 Avenue du Miane » au lieu de « Avenue du Maine ») ; cette erreur peut avoir des incidences non seulement sur la capacité de l’entreprise à commercialiser efficacement ses produits ou services à ce client, à respecter les réglementations (liste rouge…) et à conserver des enregistrements fiables des transactions du client, mais également sur les coûts de mailing et la satisfaction des clients.

Au final, les problématiques de qualité de données peuvent avoir un impact sur les revenus de l’entreprise. Sans données précises sur ses clients, aucune entreprise n’est en mesure d’atteindre de manière consistante ses objectifs commerciaux. Une faible qualité de données affecte votre capacité à contacter vos clients, à leur proposer des offres de ventes croisées ou additionnelles, et à satisfaire leurs besoins ou désirs. L’efficacité de l’entreprise est également mise à mal : des données peu dignes de confiance débouchent sur un gaspillage certain en termes de temps et de ressources, puisque l’entreprise est forcée de vérifier et revérifier des chiffres et des informations avant de prendre des décisions. La mauvaise qualité des données interdit en outre le partage aisé de ces données avec d’autres collègues de l’entreprise. Et une faible qualité de données empêche enfin l’entreprise de respecter les réglementations industrielles et les lois locales – Sarbanes Oxley, Bâle, Listes rouges et HIPAA. Et cette absence de conformité peut aboutir à des amendes et des taxes inutiles.

En résumé, à l’heure où les données sont devenues le nouveau pétrole[5] (le carburant du développement économique), vecteur d’un avantage concurrentiel certain[6], préserver l’intégrité des données de l’entreprise est devenu critique. Le fait que les entreprises soient de plus en plus proches de leurs clients grâce aux réseaux sociaux, est à double tranchant : cette proximité est à la fois une opportunité et un danger, puisqu’une donnée de mauvaise qualité peut remettre en cause des années de relation client.

L’enquête conclut : « Analysés ensemble, ces arguments suggèrent que les entreprises ne peuvent se permettre de se montrer aussi désabusées en matière de MDM (Master Data Management) qu’elles semblent l’être. Déployer des pratiques et technologies de MDM est essentiel. Une approche agile, à travers laquelle la qualité des données est intégrée aux tactiques de management de données utilisées au quotidien, est aussi importante pour permettre aux équipes de régler une part considérable du problème. Une plate-forme unifiée autorise non seulement la réutilisation à travers les différents silos de données, mais démarre par la définition d’un mode standard de résolution des problèmes, quel que soit l’endroit où sont stockées les données. »

Les systèmes de MDM les plus efficaces garantissent que l’ensemble des informations circulant dans l’entreprise – depuis les données clients jusqu’aux informations produits – puissent être collectées, consolidées, de bonne qualité et distribuées à travers l’ensemble de l’organisation. Le MDM fournit la boite à outils, les règles et les processus nécessaires à la définition et à la gestion de ces données. Et la qualité des données doit être un composant essentiel de ce processus. Des outils très efficaces permettent d’assurer des opérations de profiling de données, de normalisation, de parsing et de matching. Ils permettent aussi de développer des algorithmes aidant à localiser des doublons ou des erreurs. Ensemble, ces outils participent à la prise de conscience des entreprises qui qui doivent désormais assumer la responsabilité de garantir à leurs données une qualité optimale.

[1] http://www.ithound.com/abstract/master-management-control-information-control-9530

[2] http://tdwi.org/research/2002/02/tdwis-data-quality-report.aspx?sc_lang=en

[3] http://www.gs1belu.org/fr/la-mauvaise-qualite-des-donnees-coute-de-26-mio-%E2%82%AC-par-au-retail-belge

[4] http://www.cxp.fr/gespointsed/imgbreves/CP_CXP_DataFlux_survey_090611.pdf

[5] http://www.marketplace.org/topics/tech/data-economys-new-oil

[6] http://sloanreview.mit.edu/article/big-data-analytics-and-the-path-from-insights-to-value/



Dans la même rubrique :