Decideo - Actualités sur le Big Data, Business Intelligence, Data Science

Abonnez-vous gratuitement à Decideo !


Decideo

 


Business Intelligence et Data : 6 tendances clés


Rédigé par Yves Cointrelle, Viseo le 8 Mars 2018



Yves Cointrelle, Directeur Stratégie et Développement Business Intelligence et Big Data VISEO
Yves Cointrelle, Directeur Stratégie et Développement Business Intelligence et Big Data VISEO
Data Lake / Datahub

Buzzword ou réalité ? Force est de constater la volonté de nombreuses entreprises de disposer d'un Data Lake. Méthode de stockage visant à décharger les données des applications, des systèmes décisionnels en vue de conservation ou de terrain de jeu pour de la Data Science les motivations sont multiples. Leur souhait primaire correspond souvent à la volonté de préserver et historiser les données de l'entreprise en vue de mener des analyses poussées (exploiter l'or noir des données) sans en avoir forcément préconçu les cas d'usages. Pour les plus matures sur le sujet on distingue deux besoins distincts parfois complémentaires. La baisse des coûts de stockage ou encore la facilité de recourir au Cloud devraient faire germer de nombreux projets sur les 18 mois à venir.
Le Data Hub, quant à lui, consiste à fluidifier les échanges de données dans l'entreprise en les exposant dans un espace commun plutôt que développer des interfaces point à point systématique.

Maintenance prédictive

Prévoir les défaillances avant qu'elles ne surviennent, tel est l'enjeu de la maintenance prédictive. La prolifération de capteurs, d'objets connectés désormais bon marché, les plateformes IoT associées aux moteurs de traitement de données permettent d'appréhender ces sujets complexes avec une efficacité redoutable. Les coûts sont souvent couverts par les gains multiples qu'apportent ces techniques : assurer une durée plus longue de disponibilité de chaines de production, de moyens de transports. Optimiser les consommations énergétiques, apporter plus de sécurité, de qualité, les retours sur investissement sont nombreux et tangibles.

Jumeau digital

Basé sur les données issues de capteurs, le jumeau digital a pour vocation de créer un double virtuel de tout équipement réel. Véritables clones, leurs données permettent soit de rejouer le passé sur une tranche de temps soit d'être utilisées pour simuler des comportements prémédités. Ces procédés sont utilisés pour simuler virtuellement le comportement des véhicules autonomes par les constructeurs automobile ou les producteurs d'énergie qui clones les fonctionnements d'éoliennes. Nous allons progressivement voir ces dispositifs remplir notre quotidien sur de nombreux thèmes notamment l'e-santé ou la domotique.

Universal Semantic Data Layer

Disposer de données nombreuses, partout, accessibles avec de nombreux outils c'est bien. Y accéder simplement, de manière sécurisée avec la certitude de bien manipuler ce que l'on cherchait, moins. Nous avons vu apparaitre les applications de catalogage qui recensent les sources de données sans toutefois apporter de gage de sécurité des données. Place aux solutions sémantiques universelles qui, à l'instar de ce que proposait l'univers de la solution Business Objects permettront d'apporter ce même confort à tout type d'outil sur n'importe quel type de source ou de plateforme.

Real Time 2 Cloud

L'hybridation On Premise / Cloud est déjà une réalité. Toutefois on dispose de peu de recul sur des solutions synchrones permettant de répliquer en temps réel des bases on premise et leurs pendant Cloud. Les scénarios sont pourtant porteurs d'avantages. Reporting "à chaud" sur des bases externes à celles de production, migration applicative ou consolidation de données ou d'applications, archivage à la volée des données dans un DataLake. Un "must have" à consommer sans modération.

Process mining

Utiliser la Data Science dans les process et en particulier dans leur optimisation est une tendance lourde et un réel facteur de compétitivité pour les éditeurs. SAP, en rachetant Kxen il y a quelques années, a su mettre à profit cette expertise pour distiller des modèles au sein des process gérés par son ERP. Salesforce avec Einstein propose au cœur de ses solutions Cloud des algorithmes permettant d'orienter le commercial vers les clients les plus rentables, mettre en évidence ceux qui sont négligés et pourtant à fort potentiel. Moins spectaculaire que les projets big data mais bien plus efficace, pragmatique et rentables pour les entreprises souhaitant mettre des assistants intelligents au cœur de leurs process.




Commentaires

1.Posté par ALDECIS le 14/03/2018 00:51
Donc le temps réel et le Process Mining ? Mais pas ensemble, puisque l'Intelligence Artificielle de Salesforce annonce mettre en moyenne 24 heures pour répondre à une question.
https://youtu.be/wEUSP9AuOAo?t=34m52s

Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store