Decideo.fr
Twitter
Rss
App Store
Decideo.fr

Communauté francophone des utilisateurs de données : Big Data, Science des données, aide à la décision en entreprise, business intelligence, data warehouse, reporting, OLAP, web analytics, data visualization, data mining...


 
     

Le futur de l’intégration passe par le Cloud et les Big Data


Yves de Montcheuil, Talend
17 Février 2013

S’il est facile – et sans grand risque – de prévoir que 2013 sera l’année de la démocratisation des Big Data, une autre révolution silencieuse est actuellement en marche : celle du Cloud (et oui !). Ce thème qui faisait la ‘Une’ des prédictions des années passées, a disparu pour une raison simple : il est désormais omniprésent dans l’entreprise. Et cette omniprésence véhicule de nouveaux défis.



Yves de Montcheuil, VP Marketing de Talend
Yves de Montcheuil, VP Marketing de Talend
Aujourd’hui, la question n’est plus de savoir si une entreprise doit conserver ses applications « on premises » ou les porter vers le Cloud, mais plutôt quelles applications migrer vers le Cloud et comment gérer un environnement informatique voué à devenir de plus en plus hybride. Au-delà du système d’information dans sa globalité, certaines applications devront être gérées prochainement sur un mode hybride – c’est-à-dire déployées à l‘intérieur du firewall mais sollicitant des ressources élastiques dans le Cloud. D’ailleurs, de nombreuses entreprises ne voient pas de frontières claires entre leurs serveurs virtualisés et une plate-forme de Cloud privé – le Cloud privé étant considéré comme une extension, voire une partie intégrante, de leur infrastructure informatique.

Ce flou s’adapte mal aux problématiques d’intégration. Les solutions traditionnelles requièrent d’importantes ressources en bande passante pour transporter les données et supporter les opérations de transformation. Ceci crée des contraintes importantes sur l’infrastructure globale, génère des coûts considérables et ralentit le processus d’intégration, ce qui au final limite la capacité de l’entreprise à travailler en temps réel.
C’est pourquoi, nous pensons que 2013 marquera l’avènement de plates-formes d’intégration conçues pour supporter et être déployées dans des environnements hybrides. De nouvelles solutions allant dans ce sens ont commencé à émerger. Mais, alors qu’elles peuvent se révéler très efficaces pour charger dans un système de CRM des données issues de réseaux sociaux via un minimum de transformations, elles n’offrent pas encore les fonctionnalités puissantes et variées des plates-formes d’intégration traditionnelles. Avec le temps, ces offres vont mûrir et offriront aux entreprises une connectivité élargie aux systèmes à la fois on premises et Cloud, un éventail complet de fonctionnalités d’intégration et une flexibilité suffisante pour les déployer dans des environnements hybrides et massivement distribués.

Bien sûr, 2013 sera également l’année de la démocratisation des Big Data. 2012 a vu l’émergence d’Hadoop et les premiers déploiements ont prouvé que les promesses véhiculées par cette technologie ne vont pas manquer d’être concrétisées en 2013. A peine cinq ans après la création de ce projet open source, Hadoop a mûri à un rythme rarement égalé dans le passé. Et aujourd’hui, des start-ups solides, telles Hortonworks, Cloudera ou MapR, offrent des distributions Hadoop certifiées, qui non seulement sont fiables, mais surtout répondent aux problématiques d’entreprise. Si les premiers déploiements étaient expérimentaux, ils ont généralement été réalisés en dehors du système d’information de l’entreprise. Mais aujourd’hui, des solutions d’intégration de nouvelle génération permettent à d’autres applications, systèmes et bases de données d’interagir avec Hadoop. Et grâce à cette intégration, Hadoop va devenir cette année un composant clé du système d’information.

Mais pas de déploiement sans retour sur investissement ! Si les Big Data font désormais partie des préoccupations des Directeurs informatiques, les bénéfices obtenus devront être quantifiés précisément. Et à ce sujet, nous considérons que le retour sur investissement des plates-formes de Big Data sera lié à leur capacité à décharger d’autres plates-formes de l’exécution de tâches de « routine ». Par exemple, des opérations de type ETL (Extraction, Transformation, Loading) réalisées dans le moteur Hadoop via une génération de code MapReduce ; ou l’archivage en ligne de volumes massifs de données historiques, nécessitant de rester accessibles et exploitables rapidement.

Enfin, les Big Data vont contribuer à l’évolution des systèmes de qualité de données. L’enjeu est clair : comment adapter nos systèmes de MDM à la soudaine apparition de volumes de données si massifs ? Nous pensons qu’en 2013, les Big Data seront intégrées aux programmes de MDM des entreprises à mesure qu’elles prendront conscience que ce nouveau type de données est en train de s’imposer dans leur système d’information. Mais ces nouvelles données, issues de sources diverses, elles-mêmes nouvelles ou impossibles à exploiter auparavant, sont généralement non-structurées. Intégrer la notion de « Big » au MDM ne signifie pas que le hub de MDM sera stocké dans Hadoop (bien que NoSQL pourrait nous y aider beaucoup plus rapidement qu’on le croit), ni que sa taille va croître exponentiellement en quelques mois. Mais plutôt que les nouveaux types de données seront gérés soit dans le hub de MDM lui-même, soit reliés au hub de MDM via une approche fédérée ou simplement bénéficieront de la cohérence et des services de résolution de conflits qu’apporte le MDM.

On le voit, la réussite des projets de Big Data et de Cloud des entreprises dépend largement des fonctions d’intégration qu’elles mettront en œuvre.

Lu 5996 fois


1.Posté par Dominique Gire le 17/02/2013 21:10
Le problème de la mise en oeuvre du Big Data n'est pas technologique mais plutôt dans la maturité des clients sur ce sujet, en particulier des directions informatiques.

Quand nous avons lancé notre offre SmartBigData en 2012 en utilisant une technologie de traitement massivement parrallèle disponible en service sur un cloud privé en région parisienne, nous avons contacté pas loin de 1500 sociétés pour évangéliser notre offre.

Cette action nous a permis de comprendre que peu de directions informatiques s'étaient vraiment penchées sur le sujet et que beaucoup considèraient que le cloud n'est pas encore une réelle solution même si nous présentions toutes les garanties y compris le haut débit pour transférer les données.

Force est de constater que l'idée que tout gérer chez soi est encore tenace dans la tête des DSI mais nous avons heureusement pu voir que c'est pas toujours le cas du Marketing qui a bien compris l'enjeu et l'avantage concurrentiel de pouvoir exploiter de grandes quantités de données.

Connaissez-vous d'ailleurs beaucoup d'entreprises à part Coca Cola ou Orange qui s'intéressent réellement à ce qui se passe sur les réseaux sociaux quand une partie d'entre elles n'utilisent même pas de CRM ?

Par ailleurs, il faut également noter qu'Hadoop n'est pas LA réponse unique et qu'il existe d'autres technologies telles que les appliances BI (Pure Data for Analytics, PDW, GreenPlum...) pour traiter de très grosses volumétries de données.

2.Posté par Abed Ajraou le 18/02/2013 20:06
Merci Dominique pour ce témoignage qui donne du vécu avec beaucoup d’émotions.
Je suis en phase avec vous, mais je m’étonne encore que des personnes se lancent sur ce marché alors que Gartner avait annoncé, fin 2011, que 3% de croissance sur le Cloud/BI pour 2012.
Pour ma part, je vois de plus en plus d’entreprises exploiter les données web et réseaux sociaux … la data driven attitude est en marche!
Enfin, je suis beaucoup moins en accord avec votre dernier paragraphe. Il est vrai que Hadoop n’est pas la seule solution, mais lorsque l’on a eu le courage ou la chance de le mettre en œuvre et de regarder un peu dans le fond du sujet, on se rend compte qu’il s’agit d’une vraie solution d’avenir et à moindre coût. Aussi, Hadoop est aussi capable de traiter des données non seulement volumineuses, mais aussi des données non structurées, et ceci, avec une vitesse de traitement très appréciable.
Enfin, et là, ce n’est plus moi qui le dis, mais Gartner : 65% des applications analytiques contiendront de l’Hadoop d’ici 2015, voici un article pour plus d'informations:
http://ctovision.com/2013/02/65-of-all-packaged-advanced-analytics-applications-will-have-hadoop-embedded-by-2015/

Nouveau commentaire :
Facebook Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.





















Photos
 






France
Canada Espanol



Google+

Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des pages publiées sur ce site, faite sans l'autorisation de l'éditeur est illicite et constitue une contrefaçon.