Le futur de l’intégration passe par le Cloud et les Big Data


Rédigé par Yves de Montcheuil, Talend le 17 Février 2013

S’il est facile – et sans grand risque – de prévoir que 2013 sera l’année de la démocratisation des Big Data, une autre révolution silencieuse est actuellement en marche : celle du Cloud (et oui !). Ce thème qui faisait la ‘Une’ des prédictions des années passées, a disparu pour une raison simple : il est désormais omniprésent dans l’entreprise. Et cette omniprésence véhicule de nouveaux défis.



Yves de Montcheuil, VP Marketing de Talend
Aujourd’hui, la question n’est plus de savoir si une entreprise doit conserver ses applications « on premises » ou les porter vers le Cloud, mais plutôt quelles applications migrer vers le Cloud et comment gérer un environnement informatique voué à devenir de plus en plus hybride. Au-delà du système d’information dans sa globalité, certaines applications devront être gérées prochainement sur un mode hybride – c’est-à-dire déployées à l‘intérieur du firewall mais sollicitant des ressources élastiques dans le Cloud. D’ailleurs, de nombreuses entreprises ne voient pas de frontières claires entre leurs serveurs virtualisés et une plate-forme de Cloud privé – le Cloud privé étant considéré comme une extension, voire une partie intégrante, de leur infrastructure informatique.

Ce flou s’adapte mal aux problématiques d’intégration. Les solutions traditionnelles requièrent d’importantes ressources en bande passante pour transporter les données et supporter les opérations de transformation. Ceci crée des contraintes importantes sur l’infrastructure globale, génère des coûts considérables et ralentit le processus d’intégration, ce qui au final limite la capacité de l’entreprise à travailler en temps réel.
C’est pourquoi, nous pensons que 2013 marquera l’avènement de plates-formes d’intégration conçues pour supporter et être déployées dans des environnements hybrides. De nouvelles solutions allant dans ce sens ont commencé à émerger. Mais, alors qu’elles peuvent se révéler très efficaces pour charger dans un système de CRM des données issues de réseaux sociaux via un minimum de transformations, elles n’offrent pas encore les fonctionnalités puissantes et variées des plates-formes d’intégration traditionnelles. Avec le temps, ces offres vont mûrir et offriront aux entreprises une connectivité élargie aux systèmes à la fois on premises et Cloud, un éventail complet de fonctionnalités d’intégration et une flexibilité suffisante pour les déployer dans des environnements hybrides et massivement distribués.

Bien sûr, 2013 sera également l’année de la démocratisation des Big Data. 2012 a vu l’émergence d’Hadoop et les premiers déploiements ont prouvé que les promesses véhiculées par cette technologie ne vont pas manquer d’être concrétisées en 2013. A peine cinq ans après la création de ce projet open source, Hadoop a mûri à un rythme rarement égalé dans le passé. Et aujourd’hui, des start-ups solides, telles Hortonworks, Cloudera ou MapR, offrent des distributions Hadoop certifiées, qui non seulement sont fiables, mais surtout répondent aux problématiques d’entreprise. Si les premiers déploiements étaient expérimentaux, ils ont généralement été réalisés en dehors du système d’information de l’entreprise. Mais aujourd’hui, des solutions d’intégration de nouvelle génération permettent à d’autres applications, systèmes et bases de données d’interagir avec Hadoop. Et grâce à cette intégration, Hadoop va devenir cette année un composant clé du système d’information.

Mais pas de déploiement sans retour sur investissement ! Si les Big Data font désormais partie des préoccupations des Directeurs informatiques, les bénéfices obtenus devront être quantifiés précisément. Et à ce sujet, nous considérons que le retour sur investissement des plates-formes de Big Data sera lié à leur capacité à décharger d’autres plates-formes de l’exécution de tâches de « routine ». Par exemple, des opérations de type ETL (Extraction, Transformation, Loading) réalisées dans le moteur Hadoop via une génération de code MapReduce ; ou l’archivage en ligne de volumes massifs de données historiques, nécessitant de rester accessibles et exploitables rapidement.

Enfin, les Big Data vont contribuer à l’évolution des systèmes de qualité de données. L’enjeu est clair : comment adapter nos systèmes de MDM à la soudaine apparition de volumes de données si massifs ? Nous pensons qu’en 2013, les Big Data seront intégrées aux programmes de MDM des entreprises à mesure qu’elles prendront conscience que ce nouveau type de données est en train de s’imposer dans leur système d’information. Mais ces nouvelles données, issues de sources diverses, elles-mêmes nouvelles ou impossibles à exploiter auparavant, sont généralement non-structurées. Intégrer la notion de « Big » au MDM ne signifie pas que le hub de MDM sera stocké dans Hadoop (bien que NoSQL pourrait nous y aider beaucoup plus rapidement qu’on le croit), ni que sa taille va croître exponentiellement en quelques mois. Mais plutôt que les nouveaux types de données seront gérés soit dans le hub de MDM lui-même, soit reliés au hub de MDM via une approche fédérée ou simplement bénéficieront de la cohérence et des services de résolution de conflits qu’apporte le MDM.

On le voit, la réussite des projets de Big Data et de Cloud des entreprises dépend largement des fonctions d’intégration qu’elles mettront en œuvre.



Dans la même rubrique :