Big Data : au-delà des incontournables solutions open source, il faut savoir mobiliser les bonnes compétences


Rédigé par le 5 Avril 2016

Depuis le début des années 2000, les ordinateurs sont devenus beaucoup plus puissants et des algorithmes ont été développés qui permettent d’exploiter des ensembles de données pour réaliser des analyses plus larges et plus profondes. Les grandes entreprises ont alors massivement investi dans leurs infrastructures de gestion des données. Aujourd’hui, toutes les fonctions des entreprises font l’objet de collecte, de conservation et de traitement de tout ou partie de leurs données : les ventes, le comportement des clients, la performance des campagnes de marketing, la gestion de la chaîne logistique, la fabrication, etc. Dans le même temps, les données sur des événements extérieurs tels que les tendances du marché, les nouvelles techniques de l'industrie, et les mouvements des concurrents sont maintenant plus largement accessibles.



Michel Bruley
Cette large disponibilité des données a conduit à un intérêt croissant pour les méthodes d'extraction, de représentation synthétique des informations et des connaissances. Au début, les entreprises employaient des équipes de statisticiens et d’analystes pour explorer leurs ensembles de données, mais les volumes et la variété des données dépassaient largement les capacités d'analyse dont une partie du processus restait en partie manuelle. Au mieux, des analyses au champ limité permettaient d’éclairer certains aspects ponctuellement. Mais depuis l’apparition des solutions open source (Hadoop, …) les capacités et coûts ont été drastiquement changés et on peut constater que les entreprises, dans tous les secteurs, cherchent maintenant avec ces nouveaux moyens à exploiter leurs données pour obtenir un avantage concurrentiel.

Par exemple de façon générale, l'exploration de données est utilisée pour comprendre les préférences de la clientèle, pour améliorer la gestion des relations, pour analyser le comportement des clients afin de gérer l'attrition et de maximiser la valeur de la clientèle attendue. Le secteur de la finance utilise l'extraction de données pour la notation de crédit et de négociation, et pour la détection des fraudes ou la gestion des risques. Les principaux distributeurs de Walmart à Amazon appliquent l'extraction de données à travers toute leur entreprise, des achats à la vente en passant par le marketing et la chaîne d'approvisionnement. Au final de nombreuses entreprises se sont différenciées de manière stratégique grâce à la science des données, parfois au point d'évoluer vers des sociétés d'exploration de données.

Par exemple de façon plus détaillée, dans le monde des télécommunications, les opérateurs ont des problèmes avec la fidélisation de leurs clients de téléphonie mobile. On constate habituellement que 20% des utilisateurs de téléphones cellulaires quittent leur opérateur lorsque leurs contrats expirent, alors qu’en parallèle il devient de plus en plus difficile et cher d'acquérir de nouveaux clients, étant donné que le marché du téléphone cellulaire est maintenant saturé. Les entreprises de télécommunications sont donc maintenant engagées dans des batailles sans fin pour attirer les clients des uns des autres, tout en conservant les leurs propres. Ici les vastes ressources de données des opérateurs peuvent permettre de découvrir quels clients devraient avoir une formule spéciale de rétention avant l'expiration de leur contrat. Il s’agit donc après analyse pour un opérateur de choisir un ensemble de clients à qui il proposera une offre adaptée afin de réduire le taux de désabonnement.

Cependant, mettre au point des programmes de fidélisation comme celui évoqué ci-dessus est beaucoup plus compliqué que cela puisse paraître au départ. Certes, les gisements de données peuvent aider, certes les technologies open source rendent cela plus accessible et moins onéreux qu’avec les mainframes décisionnels propriétaires, mais la grande difficulté est dans la mobilisation des compétences adéquates en matière d’informatique, d’analyse de données, de métier (marketing, finance, logistique, production …), de management … De management pour les budgets, de métier pour l’élaboration d’initiative créative, d’analyse pour savoir faire parler les données, et d’informatique pour savoir assurer l’approvisionnement en données de qualité. Or constituer des équipes mixtes de ce type et arriver à les faire travailler ensemble est très difficile dans les entreprises françaises ou l’esprit de chapelle règne toujours.

Le sujet de la constitution d’équipes mixtes n’est pas nouveau, mais avec le big data on rajoute le besoin de nouvelles compétences en matière d’analyse de données, ce qui complique encore la situation, d’autant plus si à tort, on voit le data scientist comme un mouton à cinq pattes autonome, ce qui est le plus sûr moyen d’aller droit dans le mur. En attendant de trouver la bonne gestion de votre équipe, vous pouvez utilement consulter le document suivant intitulé : Premiers pas dans les Big Data http://www.decideo.fr/bruley/docs/Premiers%20Pas%20dans%20les%20Big%20Data.pdf



Dans la même rubrique :