Joanna Schloss
Tout d’abord, il faut se rendre à l’évidence que les centaines de fournisseurs Hadoop qui saturent le marché ne vont pas pouvoir perdurer. Le marché commence d’ailleurs à se contracter sous l’effet de son formidable succès et d’une course à l’innovation prolifique.
Par ailleurs, il faut prendre en compte l’effet pernicieux de l’effervescence de l’innovation au sein de l’écosystème Hadoop : les entreprises se sont jetées sur chaque nouveauté Hadoop sans même réfléchir aux moyens de départager les fonctionnalités qu’elles auront testées. La consolidation des plateformes Hadoop entraînera inévitablement un niveau de complexité accru des données au sein des entreprises, derrière le pare-feu. Cette complexité aura un fort impact dans les entreprises quand celles-ci s’interrogeront sur quelles données stocker, traquer, intégrer, utiliser ou simplement abandonner. Ce que la direction financière attendra de sa solution sur site (on-premises), par exemple, sera très différent des attentes du département marketing vis-à-vis de son environnement cloud de partage de données.
A mesure que l’effort de consolidation des organisations aboutit à un moins grand nombre de plateformes et donc à une vue combinée de toutes leurs données, quelqu’un doit se charger d’opérer le rapprochement physique de toutes les différentes sources. La confrontation entre le Yin de Hadoop et le Yang de la complexité des données provoquera l’abandon des données des multiples « projets scientifiques Big Data ou Hadoop » car nul ne saura que faire de ces contenus protéiformes.
L’intégration de toutes ces sources de données pour pouvoir les consulter posera problème quand des parties du marché vont se contracter. Les sociétés qui n’auront qu’une poignée d’implémentations Hadoop vivront mieux le cycle Yang de la complexité des données car elles auront moins de sources à rapprocher. Mais il n’est pas rare que des centaines de projets centrés sur les données coexistent, résultats des efforts déployés par les équipes de développeurs, qui passent des années à expérimenter et explorer des pistes originales et inventives pour trouver des réponses aux questions de business. Ces sociétés-là auront alors besoin d’aide.
En cette année du Yin et du Yang, j’ai bon espoir que l’on trouve la voie de l’harmonie pour deux camps jusque-là opposés : le shadow IT et l’IT traditionnelle. Depuis des années, les pratiques de shadow IT sont nées de la nécessité pour les utilisateurs et les métiers d’innover en dehors du strict périmètre du département IT. Il est urgent que ces départements trouvent un accord maintenant que la complexité croissante des données requiert davantage d’outils IT traditionnels et de compétences, y compris de gestion des bases de données, de modélisation et d’analyse.
Sous réserve qu’elle en ait les moyens, l’informatique traditionnelle peut faciliter la modélisation de données orientée business, pratique oubliée pendant la période glorieuse de Hadoop. La plupart des développeurs n’avaient alors aucune raison de faire autre chose que de la modélisation à tâtons puisqu’ils pouvaient rapidement faire rechercher une nouvelle variable par un autre cluster. Si ça ne fonctionnait pas, ils mettaient fin à l’expérience et faisaient d’autres tentatives.
Je fais le pari que cette approche ne survivra pas à la consolidation des plateformes. La renaissance de l’art de la modélisation avec son éventail maîtrisé de meilleures pratiques permet aux entreprises de comprendre, suivre et donner accès aux meilleures sources de données et informations aux fins décisionnelles et analytiques.
De plus, les entreprises seront forcées de tenir leurs engagements de gestion des bases de données sous peine de créer des îlots de sources de données disparates et disjointes. Les développeurs devront créer des modèles et ils auront sûrement besoin d’aide de la part de leurs homologues de l’IT traditionnelle. De même, le camp du shadow IT pourra s’inspirer des meilleures pratiques et des solutions d’administration des données de la boîte à outils du département IT.
Pour que cette année de flux et reflux soit une réussite, il faudra que les acteurs de la technologie et ceux du business trouvent un juste équilibre.
Pour y parvenir, il faudra, selon moi commencer par adopter les bonnes pratiques suivantes :
1) Identifiez les scénarios d’utilisation business qui bénéficient le plus de la gestion des données puis évaluez le ROI et estimez de façon réaliste ce que votre culture d’entreprise peut absorber.
2) Investissez dans des efforts analytiques pertinents et mettez autant d’informations exploitables entre les mains des utilisateurs qui sauront ce qu’il faut en faire sur la base de ce qu’ils souhaitent concrètement comprendre ou réaliser.
3) Alignez le mieux possible vos environnements sur site et hébergés dans le cloud pour optimiser les résultats.
Tel est l’objectif de cette année du Yin et du Yang. Suivez les fluctuations du marché, puis cherchez systématiquement les moyens d’harmoniser et de mettre à égalité les individus, les processus et les technologies. Ce faisant, vous redécouvrirez s’il en était besoin que le tout est supérieur à la somme de ses parties.
Par ailleurs, il faut prendre en compte l’effet pernicieux de l’effervescence de l’innovation au sein de l’écosystème Hadoop : les entreprises se sont jetées sur chaque nouveauté Hadoop sans même réfléchir aux moyens de départager les fonctionnalités qu’elles auront testées. La consolidation des plateformes Hadoop entraînera inévitablement un niveau de complexité accru des données au sein des entreprises, derrière le pare-feu. Cette complexité aura un fort impact dans les entreprises quand celles-ci s’interrogeront sur quelles données stocker, traquer, intégrer, utiliser ou simplement abandonner. Ce que la direction financière attendra de sa solution sur site (on-premises), par exemple, sera très différent des attentes du département marketing vis-à-vis de son environnement cloud de partage de données.
A mesure que l’effort de consolidation des organisations aboutit à un moins grand nombre de plateformes et donc à une vue combinée de toutes leurs données, quelqu’un doit se charger d’opérer le rapprochement physique de toutes les différentes sources. La confrontation entre le Yin de Hadoop et le Yang de la complexité des données provoquera l’abandon des données des multiples « projets scientifiques Big Data ou Hadoop » car nul ne saura que faire de ces contenus protéiformes.
L’intégration de toutes ces sources de données pour pouvoir les consulter posera problème quand des parties du marché vont se contracter. Les sociétés qui n’auront qu’une poignée d’implémentations Hadoop vivront mieux le cycle Yang de la complexité des données car elles auront moins de sources à rapprocher. Mais il n’est pas rare que des centaines de projets centrés sur les données coexistent, résultats des efforts déployés par les équipes de développeurs, qui passent des années à expérimenter et explorer des pistes originales et inventives pour trouver des réponses aux questions de business. Ces sociétés-là auront alors besoin d’aide.
En cette année du Yin et du Yang, j’ai bon espoir que l’on trouve la voie de l’harmonie pour deux camps jusque-là opposés : le shadow IT et l’IT traditionnelle. Depuis des années, les pratiques de shadow IT sont nées de la nécessité pour les utilisateurs et les métiers d’innover en dehors du strict périmètre du département IT. Il est urgent que ces départements trouvent un accord maintenant que la complexité croissante des données requiert davantage d’outils IT traditionnels et de compétences, y compris de gestion des bases de données, de modélisation et d’analyse.
Sous réserve qu’elle en ait les moyens, l’informatique traditionnelle peut faciliter la modélisation de données orientée business, pratique oubliée pendant la période glorieuse de Hadoop. La plupart des développeurs n’avaient alors aucune raison de faire autre chose que de la modélisation à tâtons puisqu’ils pouvaient rapidement faire rechercher une nouvelle variable par un autre cluster. Si ça ne fonctionnait pas, ils mettaient fin à l’expérience et faisaient d’autres tentatives.
Je fais le pari que cette approche ne survivra pas à la consolidation des plateformes. La renaissance de l’art de la modélisation avec son éventail maîtrisé de meilleures pratiques permet aux entreprises de comprendre, suivre et donner accès aux meilleures sources de données et informations aux fins décisionnelles et analytiques.
De plus, les entreprises seront forcées de tenir leurs engagements de gestion des bases de données sous peine de créer des îlots de sources de données disparates et disjointes. Les développeurs devront créer des modèles et ils auront sûrement besoin d’aide de la part de leurs homologues de l’IT traditionnelle. De même, le camp du shadow IT pourra s’inspirer des meilleures pratiques et des solutions d’administration des données de la boîte à outils du département IT.
Pour que cette année de flux et reflux soit une réussite, il faudra que les acteurs de la technologie et ceux du business trouvent un juste équilibre.
Pour y parvenir, il faudra, selon moi commencer par adopter les bonnes pratiques suivantes :
1) Identifiez les scénarios d’utilisation business qui bénéficient le plus de la gestion des données puis évaluez le ROI et estimez de façon réaliste ce que votre culture d’entreprise peut absorber.
2) Investissez dans des efforts analytiques pertinents et mettez autant d’informations exploitables entre les mains des utilisateurs qui sauront ce qu’il faut en faire sur la base de ce qu’ils souhaitent concrètement comprendre ou réaliser.
3) Alignez le mieux possible vos environnements sur site et hébergés dans le cloud pour optimiser les résultats.
Tel est l’objectif de cette année du Yin et du Yang. Suivez les fluctuations du marché, puis cherchez systématiquement les moyens d’harmoniser et de mettre à égalité les individus, les processus et les technologies. Ce faisant, vous redécouvrirez s’il en était besoin que le tout est supérieur à la somme de ses parties.
Joanna Schloss – Directrice Produits Décisionnels & Big Data, DELL Software
Membre du centre d'excellence Dell, Joanna Schloss est une experte spécialisée dans les problématiques de gestion de données et d'information. Ses domaines d'expertise incluent l’analyse Big Data, le décisionnel, l’analyse business et le data warehousing. Son expertise couvre tout autant les start-ups que les grands comptes internationaux. Joanna a coordonné avec succès la mise sur le marché de nombreux produits depuis des applications analytiques jusqu’aux outils de data warehousing tels que Business Objects Data Services. En tant que membre du Centre d'excellence, elle conseille les clients de Dell pour la gestion de plates-formes de données, les systèmes applicatifs et les environnements analytiques hétérogènes. Joanna a récemment été nommée 5ème femme la plus influente dans les secteurs de la BI et du Big Data par la publication BI Solutions Review Magazine http://solutions-review.com/business-intelligence/9-influential-women-writers-in-data-and-business-intelligence/
Membre du centre d'excellence Dell, Joanna Schloss est une experte spécialisée dans les problématiques de gestion de données et d'information. Ses domaines d'expertise incluent l’analyse Big Data, le décisionnel, l’analyse business et le data warehousing. Son expertise couvre tout autant les start-ups que les grands comptes internationaux. Joanna a coordonné avec succès la mise sur le marché de nombreux produits depuis des applications analytiques jusqu’aux outils de data warehousing tels que Business Objects Data Services. En tant que membre du Centre d'excellence, elle conseille les clients de Dell pour la gestion de plates-formes de données, les systèmes applicatifs et les environnements analytiques hétérogènes. Joanna a récemment été nommée 5ème femme la plus influente dans les secteurs de la BI et du Big Data par la publication BI Solutions Review Magazine http://solutions-review.com/business-intelligence/9-influential-women-writers-in-data-and-business-intelligence/
Autres articles
-
Dell Technologies présente Warp Speed pour accélérer les performances dans le Dell Data Lakehouse
-
Starburst alimente le nouveau Dell Data Lakehouse pour accélérer l’analyse des données sans les déplacer
-
Dell annonce le lancement du Dell Data Lakehouse qui intègre Starburst et permet d’unifier toutes les données pour accélérer les projets analytiques et d’IA
-
Dell Technologies et NVIDIA accélèrent l'adoption de l'IA par les entreprises
-
Dell Technologies propulse les stratégies d'IA grâce à des mises à jour majeures en matière de stockage