Il est essentiel de bien comprendre l’intérêt d’une bonne qualité des données, ses effets en termes de coûts et d’efficacité. La qualité des données est très importante pour les analyses qui visent à éclairer les décisions, pour la gestion des opérations, pour la relation client par exemple, elle participe grandement au succès de l’entreprise. Mais au sein de la plupart des organismes, sous la pression des objectifs de réduction des coûts, la qualité est sous financée, abordée de façon parcellaire, sans vision d’ensemble, ni perspective de long terme.
La gestion de la qualité des données démarre avec la définition des données, elle continue avec la maîtrise des processus de création, de mise à jour et de transformation tout au long du cycle de vie des données. Les erreurs qui affectent les données peuvent être faites à n’importe quel moment de la chaîne d’information, et plus particulièrement lorsque les données sont utilisées dans d’autres processus que celui où elles ont été créées. Le management de la qualité des données est donc complexe, et nécessite de mobiliser de nombreux acteurs de tous les horizons de l’entreprise (informaticiens, utilisateurs métier opérationnels, analystes, etc.)
L’identification des sources de données de mauvaises qualité est une condition nécessaire et un préalable indispensable à toute initiative d’amélioration, mais encore faut-il que les enjeux, les gains espérés, soient suffisamment élevés pour justifier des coûts souvent importants. Cependant les fortes demandes d’accès et d’analyse des données auxquelles les systèmes d’information doivent faire face aujourd’hui, notamment en provenance des directions, créent une exigence très forte quant à la qualité des données délivrées. Ainsi dans de nombreuses entreprises les données sont considérées comme une ressource précieuse, essentielle même, pour des décisions pouvant avoir un impact fort sur la marche des affaires.
Lorsque des études sont faites à l’intérieur des entreprises sur ce thème de la qualité des données, les répondants disent régulièrement qu’ils n’ont pas une vision claire des rôles, des responsabilités, des processus et des coûts. Dans ces conditions, pour répondre aux problèmes de qualité des données et mieux profiter d’une vision d’ensemble des données de l’entreprise, de nombreuses sociétés mettent en place une équipe de gestion de la qualité des données. Cette équipe de gestion a pour objectif de permettre une bonne exploitation des informations-clés d’une société. Multifonctionnelle elle réunit des représentants de chaque ligne d’activités et de chaque fonction de l’entreprise. Ils sont chargés de gérer les données et les informations pour l’ensemble de la société. Des représentants des services informatiques fournissent support et conseils à l’organisation sur de nombreux points, et plus particulièrement ceux liés à l’utilisation des outils d’infrastructure.
Pour aller plus loin sur le sujet vous pouvez utilement consulter mes autres articles sur la qualité des données dans le système d’information décisionnel : cliquez ici
Rédigé par Michel Bruley le Lundi 2 Avril 2012 à 09:42
|
Permalien
|
{0}
> A LIRE EN CE MOMENT SUR DECIDEO
-
Comment les industriels peuvent passer de l’impasse à une approche pilotée par la donnée
-
Agents IA : la main-d’œuvre invisible hors de contrôle
-
MyUnisoft structure l’exploitation de la donnée avec MyU Datalake, son socle dédié au pilotage et à la Business Intelligence
-
Arrow distribuera les solutions d’informations en temps réel de Dataminr dans l’ensemble de la région EMEA
-
Fivetran lance un benchmark sectoriel révélant comment les fournisseurs limitent l’accès aux données pour les charges de travail d’IA
-
L’IA atteint ses limites opérationnelles à mesure que les entreprises accélèrent son déploiement, selon un rapport de Datadog
-
« IA & Data for Industrial Engineering » - Création d’une chaire de recherche entre l’École nationale des ponts et chaussées et Scalian pour accélérer l’innovation en Intelligence artificielle et data au service de l’ingénierie industrielle
-
Fivetran lance un benchmark sectoriel révélant comment les fournisseurs limitent l’accès aux données pour les charges de travail d’IA
-
Étude Denodo : 66 % des organisations jugent les données en temps réel indispensables, mais relèvent des obstacles majeurs
-
Agence Spatiale Européenne : Une exploitation souveraine et autonome des données avec Suadeo
Profil
Michel Bruley
Liste de liens
Dernières notes
Galerie
Archives
Rubriques
Rubriques
Rubriques








