Pour toutes les sociétés, la qualité des données est une question importante. A mesure que de nouveaux domaines thématiques sont ajoutés dans un entrepôt de données, la valeur des informations se multiplie. Malheureusement, l’impact des erreurs se multiplie également. Le but d’une équipe de gestion de la qualité des données, est de développer des règles communes et une terminologie cohérente, qui seront utilisées par les diverses unités de l’entreprise. Un programme de gestion de la qualité des données permet de promouvoir l’instauration d’une information exploitable dans l’ensemble de l’entreprise, afin que celle-ci mette le cap sur la rentabilité.
Selon le Data Warehousing Institute, la médiocre qualité des données coûte chaque année des milliards d’euros aux entreprises. Dans une récente enquête, près de la moitié des personnes interrogées considère que les données de leur organisation sont «pires que ce qu’ils pouvaient imaginer». Dans ces conditions l’amélioration de la qualité des données, même à petite échelle, peut considérablement influencer la prise de décision dans les entreprises, favorisant ainsi une augmentation des bénéfices. Malheureusement, de nombreuses initiatives en matière de qualité des données ne voient jamais le jour, car la tâche est toujours perçue comme difficile. Ainsi la plupart des entreprises se focalisent principalement sur la rentabilisation à court terme de leur système d’information décisionnel, et n’investissent pas dans la qualité des données.
Cependant, une procédure simple consiste à pointer les principaux problèmes de qualité des données, à créer des règles pour isoler, réparer les erreurs et utiliser ensuite un tableau de bord, pour contrôler et évaluer les zones de qualité des données de manière constante. Un tableau de bord de la qualité des données bien conçu, aide les entreprises à mieux comprendre les problèmes de qualité des données, à évaluer les possibilités d'amélioration et à mesurer le progrès au fil du temps. Il est possible d’élaborer un tableau de bord de la qualité des données, et d'autres rapports de gestion des données en seulement trois semaines. Le tableau de bord peut être implémenté à l’aide d’un portail ou à l’aide de l'outil de reporting qu’utilise déjà l’entreprise.
Bien qu'un plan d'action de qualité des données soit impératif pour toutes les entreprises, cette approche est plus facile à mettre en œuvre dans les entreprises qui commencent à mettre en place leur entrepôt de données. En abordant très tôt les problèmes de qualité des données, les actions importantes nécessaires au succès sont plus faciles à organiser que lorsqu’il faut revenir sur des réalisations déjà mises en production. Il convient aussi dans le cadre du système d’information décisionnel, d’industrialiser le processus technique des contrôles et des rejets, et donc de mettre en place un outil générique pour les contrôles et les rapprochements.
Enfin, la qualité des données n’étant pas qu’une problématique technique, et comme elle touche avant tout les utilisateurs métiers de l’entreprise, il faut impérativement responsabiliser les propriétaires des sources et faciliter le processus de validation fonctionnelle des données. Pour cela il convient d’organiser une structure de gouvernance viable, en particulier de définir des gestionnaires de données.
Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :
Cap sur la qualité des données
Maîtriser la qualité des données : une tâche pour Sisyphe ?
Impact de la qualité des données sur les résultats des compagnies d’assurances
Rédigé par Michel Bruley le Samedi 1 Mai 2010 à 08:22
|
Permalien
|
{0}
> A LIRE EN CE MOMENT SUR DECIDEO
-
Les dirigeants adoptent l'IA sous la pression médiatique, mais la préparation organisationnelle reste un défi majeur
-
La NASA s’appuie sur le moteur d’Enterprise Search de Sinequa pour propulser son nouveau moteur Science Discovery Engine
-
IA, simplification et débureaucratisation pour transformer l'État
-
GS1 France aux côtés d’Equadis pour développer la solution « Data Quality Checker » garantissant l’échange de données de qualité sur le marché français
-
XXII lance RETAIL ANALYTICS, une innovation majeure pour le secteur du retail
-
Salesforce dévoile une technologie intégrant l’IA pour extraire et structurer rapidement les données issues de documents et d’images
-
L’administration américaine va nommer ses premiers CAIO (Chief Artificial Intelligence Officer) et former ses comités de gouvernance
-
Podcast : les prompts sont des données, il va falloir les cataloguer
-
Neo4j : La nouvelle norme internationale GQL marque un tournant majeur pour l'industrie des bases de données
-
Gouverner l’intelligence artificielle : un passage obligé afin d’en sécuriser les bénéfices pour l’entreprise (1ère partie)
Profil
Michel Bruley
Liste de liens
Dernières notes
Meilleurs vœux aux parents pour 2024
10/01/2024
RECETTE DE LA DINDE AU WHISKY
27/01/2023
Le 1 to 1 marketing a bientôt trente ans
24/09/2022
Galerie
Archives
Rubriques
Rubriques