Le zéro défaut en matière de qualité des données : un doux rêve ?
Michel Bruley
Il est essentiel de bien comprendre l’intérêt d’une bonne qualité des données, ses effets en termes de coûts et d’efficacité. La qualité des données est très importante pour les analyses qui visent à éclairer les décisions, pour la gestion des opérations, pour la relation client par exemple, elle participe grandement au succès de l’entreprise. Mais au sein de la plupart des organismes, sous la pression des objectifs de réduction des coûts, la qualité est sous financée, abordée de façon parcellaire, sans vision d’ensemble, ni perspective de long terme.
La gestion de la qualité des données démarre avec la définition des données, elle continue avec la maîtrise des processus de création, de mise à jour et de transformation tout au long du cycle de vie des données. Les erreurs qui affectent les données peuvent être faites à n’importe quel moment de la chaîne d’information, et plus particulièrement lorsque les données sont utilisées dans d’autres processus que celui où elles ont été créées. Le management de la qualité des données est donc complexe, et nécessite de mobiliser de nombreux acteurs de tous les horizons de l’entreprise (informaticiens, utilisateurs métier opérationnels, analystes, etc.)
L’identification des sources de données de mauvaises qualité est une condition nécessaire et un préalable indispensable à toute initiative d’amélioration, mais encore faut-il que les enjeux, les gains espérés, soient suffisamment élevés pour justifier des coûts souvent importants. Cependant les fortes demandes d’accès et d’analyse des données auxquelles les systèmes d’information doivent faire face aujourd’hui, notamment en provenance des directions, créent une exigence très forte quant à la qualité des données délivrées. Ainsi dans de nombreuses entreprises les données sont considérées comme une ressource précieuse, essentielle même, pour des décisions pouvant avoir un impact fort sur la marche des affaires.
Lorsque des études sont faites à l’intérieur des entreprises sur ce thème de la qualité des données, les répondants disent régulièrement qu’ils n’ont pas une vision claire des rôles, des responsabilités, des processus et des coûts. Dans ces conditions, pour répondre aux problèmes de qualité des données et mieux profiter d’une vision d’ensemble des données de l’entreprise, de nombreuses sociétés mettent en place une équipe de gestion de la qualité des données. Cette équipe de gestion a pour objectif de permettre une bonne exploitation des informations-clés d’une société. Multifonctionnelle elle réunit des représentants de chaque ligne d’activités et de chaque fonction de l’entreprise. Ils sont chargés de gérer les données et les informations pour l’ensemble de la société. Des représentants des services informatiques fournissent support et conseils à l’organisation sur de nombreux points, et plus particulièrement ceux liés à l’utilisation des outils d’infrastructure.
Pour aller plus loin sur le sujet vous pouvez utilement consulter mes autres articles sur la qualité des données dans le système d’information décisionnel : cliquez ici
> A LIRE EN CE MOMENT SUR DECIDEO
-
Veilleurs stratégiques : des ingénieurs de l’information au cœur des transformations technologiques
-
Une nouvelle étude révèle que les entreprises françaises sont confrontées à une « taxe de latence » pouvant atteindre 5 % de leur chiffre d'affaires
-
Comment les industriels peuvent passer de l’impasse à une approche pilotée par la donnée
-
Agents IA : la main-d’œuvre invisible hors de contrôle
-
MyUnisoft structure l’exploitation de la donnée avec MyU Datalake, son socle dédié au pilotage et à la Business Intelligence
-
Arrow distribuera les solutions d’informations en temps réel de Dataminr dans l’ensemble de la région EMEA
-
Fivetran lance un benchmark sectoriel révélant comment les fournisseurs limitent l’accès aux données pour les charges de travail d’IA
-
L’IA atteint ses limites opérationnelles à mesure que les entreprises accélèrent son déploiement, selon un rapport de Datadog
-
« IA & Data for Industrial Engineering » - Création d’une chaire de recherche entre l’École nationale des ponts et chaussées et Scalian pour accélérer l’innovation en Intelligence artificielle et data au service de l’ingénierie industrielle
-
Fivetran lance un benchmark sectoriel révélant comment les fournisseurs limitent l’accès aux données pour les charges de travail d’IA