Pour assurer la durabilité de ces entrepôts de données et en faire un atout, il est indispensable de les repenser afin de faciliter le transport des données de leur source jusqu’à leur mise à disposition auprès des utilisateurs métiers.
Automatiser les datawarehouses pour plus d’agilité
Pour redorer le blason du datawarehouse, le meilleur moyen est de tirer parti de ces 40 années d’expérience et d’exploitation. L’enjeu réside désormais dans la capacité à trouver un équilibre entre ce qui fonctionne bien (structure interne en étoile) tout en travaillant à l’amélioration des points problématiques (coût, manque d’agilité, etc.)
Pour ce faire, l’automatisation se distingue comme la solution la plus adaptée. La majorité du code requis sera de fait générée automatiquement et permettra d’éliminer les tâches de développement répétitives et coûteuses sur la totalité du cycle de vie du datawarehouse, du design à la gestion du changement. L’équipe data pourra dès lors se concentrer sur des tâches plus complexes apportant une réelle plus-value aux projets métiers.
Une fois déployée, l’automatisation prouvera rapidement son intérêt : meilleure qualité du code, diminution du risque d’erreur ; développements et modifications plus productifs et rapides, sans oublier une migration vers le cloud grandement facilité. Par conséquent, le retour sur investissement est visible plus rapidement et le datawarehouse, s’il est correctement exploité, devient un investissement rentable.
Néanmoins, il ne suffit pas de générer automatiquement du code pour alléger la charge de développement. Il s’agit en réalité de mettre en œuvre une approche holistique, de manière à implanter de nouvelles méthodes en matière de déplacement des données, notamment grâce à l’approche EL-T, et de modélisation du datawarehouse, désormais réalisée à partir de la structure des données sources. Dans ce contexte, il est aisé d’effectuer un changement de structure ou d’ajouter d’une nouvelle source de données tout en assurant leur propagation sur l’ensemble de la chaîne analytique jusqu’aux utilisateurs métiers.
L’intelligence active passe par la modernisation de la chaîne analytique
Seule, l’automatisation des datawarehouses ne suffit pas à faire de l’analytique une réelle plus-value à l’échelle de l’entreprise. Pour que celles-ci puissent accélérer la création de valeurs à partir de leurs données, la modernisation doit concerner l’ensemble de la plateforme de donnée, réunissant datawarehouses, datalakes et bases de reporting. Grâce à ce nouvel agencement, il est alors possible de stocker les données en une seule fois sur une plateforme centrale à partir de laquelle il sera possible de décupler les usages, profitant ainsi aux métiers et aux projets de Machine Learning. Les entreprises doivent désormais s’appuyer sur une seule source de vérité, pour cela, il est essentiel de ne plus déplacer, dupliquer et manipuler les données.
Une des pistes vers cette modernisation par l’automatisation est d’avoir recours à des outils et des méthodes permettant d’accéder aux données de manière instantanée tout en mettant en place une méthodologie souple et une collaboration accrue avec les utilisateurs métiers dans le but d’acquérir une vision globale des données en entreprise.
Automatisation, temps-réel et collaboration, tels sont les 3 piliers sur lesquels l’intelligence active s’appuie. Ils permettent d’optimiser les différentes étapes de la chaîne analytique pour une meilleure prise de décision et doivent être au cœur de ce grand chantier de modernisation du datawarehouse. L’entreprise aura alors toutes les clés en main pour prendre des décisions plus éclairées, et ce dès les premières étapes.
Automatiser les datawarehouses pour plus d’agilité
Pour redorer le blason du datawarehouse, le meilleur moyen est de tirer parti de ces 40 années d’expérience et d’exploitation. L’enjeu réside désormais dans la capacité à trouver un équilibre entre ce qui fonctionne bien (structure interne en étoile) tout en travaillant à l’amélioration des points problématiques (coût, manque d’agilité, etc.)
Pour ce faire, l’automatisation se distingue comme la solution la plus adaptée. La majorité du code requis sera de fait générée automatiquement et permettra d’éliminer les tâches de développement répétitives et coûteuses sur la totalité du cycle de vie du datawarehouse, du design à la gestion du changement. L’équipe data pourra dès lors se concentrer sur des tâches plus complexes apportant une réelle plus-value aux projets métiers.
Une fois déployée, l’automatisation prouvera rapidement son intérêt : meilleure qualité du code, diminution du risque d’erreur ; développements et modifications plus productifs et rapides, sans oublier une migration vers le cloud grandement facilité. Par conséquent, le retour sur investissement est visible plus rapidement et le datawarehouse, s’il est correctement exploité, devient un investissement rentable.
Néanmoins, il ne suffit pas de générer automatiquement du code pour alléger la charge de développement. Il s’agit en réalité de mettre en œuvre une approche holistique, de manière à implanter de nouvelles méthodes en matière de déplacement des données, notamment grâce à l’approche EL-T, et de modélisation du datawarehouse, désormais réalisée à partir de la structure des données sources. Dans ce contexte, il est aisé d’effectuer un changement de structure ou d’ajouter d’une nouvelle source de données tout en assurant leur propagation sur l’ensemble de la chaîne analytique jusqu’aux utilisateurs métiers.
L’intelligence active passe par la modernisation de la chaîne analytique
Seule, l’automatisation des datawarehouses ne suffit pas à faire de l’analytique une réelle plus-value à l’échelle de l’entreprise. Pour que celles-ci puissent accélérer la création de valeurs à partir de leurs données, la modernisation doit concerner l’ensemble de la plateforme de donnée, réunissant datawarehouses, datalakes et bases de reporting. Grâce à ce nouvel agencement, il est alors possible de stocker les données en une seule fois sur une plateforme centrale à partir de laquelle il sera possible de décupler les usages, profitant ainsi aux métiers et aux projets de Machine Learning. Les entreprises doivent désormais s’appuyer sur une seule source de vérité, pour cela, il est essentiel de ne plus déplacer, dupliquer et manipuler les données.
Une des pistes vers cette modernisation par l’automatisation est d’avoir recours à des outils et des méthodes permettant d’accéder aux données de manière instantanée tout en mettant en place une méthodologie souple et une collaboration accrue avec les utilisateurs métiers dans le but d’acquérir une vision globale des données en entreprise.
Automatisation, temps-réel et collaboration, tels sont les 3 piliers sur lesquels l’intelligence active s’appuie. Ils permettent d’optimiser les différentes étapes de la chaîne analytique pour une meilleure prise de décision et doivent être au cœur de ce grand chantier de modernisation du datawarehouse. L’entreprise aura alors toutes les clés en main pour prendre des décisions plus éclairées, et ce dès les premières étapes.
Autres articles
-
Qlik rejoint le Pacte mondial de l’ONU
-
Renforcer la confiance dans l’IA : les dernières améliorations de Qlik AutoML offrent une explicabilité transparente et de meilleurs résultats
-
Qlik Answers enfin disponible : une IA pour générer des insights entièrement explicables à partir de données métier non structurées
-
Qlik lance Qlik Talend Cloud et fournit aux entreprises un socle fiable pour l’IA
-
La dernière étude de Qlik souligne le besoin urgent d'expertise pour utiliser l’IA générative avec des données non structurées