Une technologie mature
La virtualisation des données est bien plus qu’un simple concept, c’est une véritable technologie qui a atteint un niveau de maturité reconnue par les analystes et que les entreprises innovantes plébiscitent lorsqu’elles l’ont testée.
Les enseignements tirés des données sont plus que jamais au cœur de la capacité d’analyse métier. Cependant, la variété complexe des sources, formats et protocoles de données signifie que les méthodes traditionnelles d'intégration des données ne sont plus adaptées aux besoins de l'entreprise. En réponse, les organisations se tournent vers la virtualisation des données. A tel point que, dans son rapport Market Guide for Data Virtualization, Gartner estime que d’ici à 2022, 60% des organisations mettront en œuvre la virtualisation des données comme l'un des principaux styles de livraison dans leur architecture d'intégration des données.
Le marché innove constamment à la recherche d’une solution miracle. Cependant, la virtualisation des données est bien plus qu’un simple concept. Son niveau de maturité est tel que, dans son rapport Magic Quadrant 2020, Gartner affirme que « le marché des outils d’intégration des données connaît un nouvel élan, suscité par les besoins urgents de gestion des données hybride/multicloud, l’intégration des données augmentées et les conceptions de Data Fabric ». Il est en revanche crucial de ne pas confondre les solutions de fédération de données avec les solutions de nouvelle génération de virtualisation des données.
Distinguer la véritable virtualisation des données
Il y a une différence substantielle entre les solutions semblables à la virtualisation des données et la véritable technologie. Comment faire la distinction ? Que doit être en mesure de réaliser la virtualisation des données ? Voici ses 5 caractéristiques essentielles :
Elle dissocie la logique et la complexité des sources : une solution de virtualisation des données relie plusieurs sources de données, mais toutes ces sources ont leurs complexités. Il est nécessaire d’éliminer ces complexités afin d'éviter tout obstacle à l'accès aux données pour les utilisateurs finaux et éviter qu’ils aient à appliquer eux-mêmes la logique. Il est préférable d'appliquer la logique aux données à un point de la plate-forme de données, tous les utilisateurs pourront ainsi utiliser les données à partir de ce point. En d'autres termes, avec la virtualisation des données, il doit être possible de découpler la source de l'utilisateur final. C'est ainsi que sont isolées la complexité et la logique des données.
Elle fonctionne de manière indépendante de la technologie, s’intégrant à toutes les technologies de stockage de données : une autre exigence importante, bien sûr, est qu'une solution de virtualisation des données doit être capable d'intégrer et de communiquer avec une multitude de technologies. La virtualisation des données doit permettre cela, compte tenu de la complexité qui caractérise le paysage actuel des données. Sources relationnelles, services de données, sources cloud, fichiers plats : il doit être possible de déverrouiller et accéder à toutes les sources de données, quelle que soit la technologie sur laquelle elles sont basées. Il en va de même pour le stockage des données.
Elle fournit une épine dorsale solide pour une architecture de données hybride : l'architecture de données actuelle est souvent de nature quelque peu hybride. Une véritable solution de virtualisation des données intègre diverses bases de données au sein d'une même architecture, qu'elles soient sur site ou dans le cloud. De cette façon, les différentes technologies peuvent se compléter les unes les autres.
Elle prend en charge différentes formes d’utilisation des données : quel est l'intérêt des données si elles ne peuvent pas être utilisées ? Avec la virtualisation des données, les entreprises peuvent toujours se concentrer sur l'objectif de leurs données. L'origine de toute donnée affichée doit toujours être claire. En d'autres termes, la lignée des données doit être claire, de l'origine à la source, y compris toutes les transformations intermédiaires. Qu'en est-il des informations qui sont nécessaires à un moment précis ? Les entreprises peuvent-elles préparer ces données rapidement afin qu'elles soient prêtes à être utilisées ? Ou peut-être les entreprises souhaitent-elles soutenir les data scientists en leur permettant de parcourir toutes sortes de données, afin qu'ils découvrent de nouvelles tendances et tirent de nouvelles conclusions. La virtualisation des données doit prendre en charge toutes ces différentes formes d'utilisation des données.
Elle agit comme un optimiseur efficace et économique : les performances sont de la plus haute importance en matière de virtualisation des données. Mais comment garantir des performances optimales lors de l'exécution d'une requête ? Avec une optimisation basée sur les coûts. Un optimiseur basé sur les coûts analyse et détermine la stratégie de requête la plus efficace, ou plan d'exécution, qui dépend toujours de la manière dont les données sont utilisées. Pour la virtualisation des données, il existe plusieurs chemins pour une sélection rapide et d'excellentes performances : l'optimiseur sélectionne le meilleur chemin vers les données requises, en fonction du cas d'usage.
Avec ces caractéristiques uniques, la virtualisation des données est une approche moderne et idéale de la gestion des données, par rapport aux alternatives. Plusieurs solutions du marché disposent bien entendu d’une ou plusieurs des 5 caractéristiques de la virtualisation des données, chaque solution ayant ses avantages et ses inconvénients. Mais plus une solution possède de caractéristiques évoquées, plus elle peut être considérée comme une véritable solution de virtualisation des données.
La virtualisation des données est bien plus qu’un simple concept, c’est une véritable technologie qui a atteint un niveau de maturité reconnue par les analystes et que les entreprises innovantes plébiscitent lorsqu’elles l’ont testée.
Les enseignements tirés des données sont plus que jamais au cœur de la capacité d’analyse métier. Cependant, la variété complexe des sources, formats et protocoles de données signifie que les méthodes traditionnelles d'intégration des données ne sont plus adaptées aux besoins de l'entreprise. En réponse, les organisations se tournent vers la virtualisation des données. A tel point que, dans son rapport Market Guide for Data Virtualization, Gartner estime que d’ici à 2022, 60% des organisations mettront en œuvre la virtualisation des données comme l'un des principaux styles de livraison dans leur architecture d'intégration des données.
Le marché innove constamment à la recherche d’une solution miracle. Cependant, la virtualisation des données est bien plus qu’un simple concept. Son niveau de maturité est tel que, dans son rapport Magic Quadrant 2020, Gartner affirme que « le marché des outils d’intégration des données connaît un nouvel élan, suscité par les besoins urgents de gestion des données hybride/multicloud, l’intégration des données augmentées et les conceptions de Data Fabric ». Il est en revanche crucial de ne pas confondre les solutions de fédération de données avec les solutions de nouvelle génération de virtualisation des données.
Distinguer la véritable virtualisation des données
Il y a une différence substantielle entre les solutions semblables à la virtualisation des données et la véritable technologie. Comment faire la distinction ? Que doit être en mesure de réaliser la virtualisation des données ? Voici ses 5 caractéristiques essentielles :
Elle dissocie la logique et la complexité des sources : une solution de virtualisation des données relie plusieurs sources de données, mais toutes ces sources ont leurs complexités. Il est nécessaire d’éliminer ces complexités afin d'éviter tout obstacle à l'accès aux données pour les utilisateurs finaux et éviter qu’ils aient à appliquer eux-mêmes la logique. Il est préférable d'appliquer la logique aux données à un point de la plate-forme de données, tous les utilisateurs pourront ainsi utiliser les données à partir de ce point. En d'autres termes, avec la virtualisation des données, il doit être possible de découpler la source de l'utilisateur final. C'est ainsi que sont isolées la complexité et la logique des données.
Elle fonctionne de manière indépendante de la technologie, s’intégrant à toutes les technologies de stockage de données : une autre exigence importante, bien sûr, est qu'une solution de virtualisation des données doit être capable d'intégrer et de communiquer avec une multitude de technologies. La virtualisation des données doit permettre cela, compte tenu de la complexité qui caractérise le paysage actuel des données. Sources relationnelles, services de données, sources cloud, fichiers plats : il doit être possible de déverrouiller et accéder à toutes les sources de données, quelle que soit la technologie sur laquelle elles sont basées. Il en va de même pour le stockage des données.
Elle fournit une épine dorsale solide pour une architecture de données hybride : l'architecture de données actuelle est souvent de nature quelque peu hybride. Une véritable solution de virtualisation des données intègre diverses bases de données au sein d'une même architecture, qu'elles soient sur site ou dans le cloud. De cette façon, les différentes technologies peuvent se compléter les unes les autres.
Elle prend en charge différentes formes d’utilisation des données : quel est l'intérêt des données si elles ne peuvent pas être utilisées ? Avec la virtualisation des données, les entreprises peuvent toujours se concentrer sur l'objectif de leurs données. L'origine de toute donnée affichée doit toujours être claire. En d'autres termes, la lignée des données doit être claire, de l'origine à la source, y compris toutes les transformations intermédiaires. Qu'en est-il des informations qui sont nécessaires à un moment précis ? Les entreprises peuvent-elles préparer ces données rapidement afin qu'elles soient prêtes à être utilisées ? Ou peut-être les entreprises souhaitent-elles soutenir les data scientists en leur permettant de parcourir toutes sortes de données, afin qu'ils découvrent de nouvelles tendances et tirent de nouvelles conclusions. La virtualisation des données doit prendre en charge toutes ces différentes formes d'utilisation des données.
Elle agit comme un optimiseur efficace et économique : les performances sont de la plus haute importance en matière de virtualisation des données. Mais comment garantir des performances optimales lors de l'exécution d'une requête ? Avec une optimisation basée sur les coûts. Un optimiseur basé sur les coûts analyse et détermine la stratégie de requête la plus efficace, ou plan d'exécution, qui dépend toujours de la manière dont les données sont utilisées. Pour la virtualisation des données, il existe plusieurs chemins pour une sélection rapide et d'excellentes performances : l'optimiseur sélectionne le meilleur chemin vers les données requises, en fonction du cas d'usage.
Avec ces caractéristiques uniques, la virtualisation des données est une approche moderne et idéale de la gestion des données, par rapport aux alternatives. Plusieurs solutions du marché disposent bien entendu d’une ou plusieurs des 5 caractéristiques de la virtualisation des données, chaque solution ayant ses avantages et ses inconvénients. Mais plus une solution possède de caractéristiques évoquées, plus elle peut être considérée comme une véritable solution de virtualisation des données.
Autres articles
-
Denodo lance Agora, son service Cloud, qui réinvente la gestion des données pour les entreprises du monde entier
-
Pour une meilleure compréhension des enjeux de l'IA générative et de la démocratisation des données
-
La nouvelle version de Denodo Platform 9.0 facilite une livraison intelligente des données avec des requêtes en langage naturel grâce à l’IA, des fonctionnalités de données prêtes pour l'IA et des fonctionnalités de préparation des données rationalis
-
Les entreprises qui maîtrisent les normes ESG sont celles qui savent gérer leurs données
-
Denodo s'associe à Google Cloud pour stimuler l'innovation d'entreprise grâce à la virtualisation des données et l'intégration de l'IA générative