Big Data, Science des données, aide à la décision en entreprise, business intelligence, data warehouse, reporting, OLAP, web analytics, data visualization, data mining, internet des objets, informatique cognitive, intelligence artificielle...

Abonnez-vous gratuitement à Decideo !


Decideo

 


Comment valoriser pleinement ses données ?


Rédigé par John Kreisa, Hortonworks le 22 Juillet 2015

Il y a trente ans, les entreprises collectaient leurs données manuellement et les conservaient dans des classeurs à anneaux. Ce n’est qu’au cours de la dernière décennie qu’elles se sont mises à collecter les données relatives à leurs transactions et à les stocker dans des bases de données. En 2015, les volumes de données ont explosé, provenant de nouvelles sources et dans de nouveaux formats. C’est ce qu’on appelle le Big Data et, selon IDC, le volume de données générées dans le monde en 2020 sera multiplié par 10 par rapport à 2013. Cette explosion de données s’accompagne de pressions techniques et économiques sur les plateformes qu’utilisent aujourd’hui les organisations.



John Kreisa, vice-président en charge du marketing international chez Hortonworks
John Kreisa, vice-président en charge du marketing international chez Hortonworks
Les grandes entreprises reconnaissent l’importance stratégique des données et des traitements analytiques pour gagner en compétitivité, mais seul un petit pourcentage des sommes de données existantes est véritablement analysé. Deloitte, dans une analyse des tendances relatives aux données et à l’analytique en 2015, estime que 2015 représente l’année qui marquera le basculement des entreprises de la phase d’investigation à celle de l’expérimentation et de la mise en œuvre des projets Big Data.
De nouvelles technologies permettent de collecter les données du parcours client à chacune de ses interactions, ce qui éclaire les entreprises sur les pistes d’optimisation de ces interactions. Les analyses des sentiments sont particulièrement utiles : ce sont ces données non structurées sur les opinions, les émotions et les attitudes, contenues dans des sources comme les médias sociaux, les blogs, les critiques de produits en ligne et les interactions avec le service client. Les entreprises peuvent utiliser Apache Hadoop pour analyser ces données de sentiment, comprendre ce que ressent le public et voir comment les opinions évoluent avec le temps.

Par exemple, avec Hadoop, il est possible de mesurer automatiquement la tonalité d'un tweet et d’autant de tweets que l’on veut concernant une marque, un produit, un service ou un concurrent. Pour ce faire, Hadoop analyse tous les mots de chaque tweet afin de leur attribuer une tonalité positive, négative ou neutre. Hadoop l’effectue automatiquement grâce à ses catalogues et ses tables de dictionnaires personnalisables. Le dictionnaire établit une liste de mots et attribue à chacun une polarité, positive ou négative. Hadoop déduit la tonalité de chaque tweet en y comparant le nombre de mots positifs et le nombre de mots négatifs. Ensuite, l’utilisateur peut visualiser les données dans Excel, les analyser et rechercher des tendances, des ruptures, des volumes… qui vont l’aider à prendre les meilleures décisions marketing, guider ses actions ou encore l’encourager à explorer de nouveaux modèles pour son entreprise…

Parce que l’analyse des données aide à mieux connaître le client, à optimiser les processus et à gagner en compétitivité, elle permet de générer une véritable valeur ajoutée et constitue un moteur de croissance pour les organisations.

Au vu des énormes volumes de données, la tâche est colossale dans la pratique. Selon une étude d’Ernst & Young, 17 % seulement des entreprises sont vraiment en capacité d’explorer leurs données client. Les obstacles cités sont la sous-fréquentation des canaux numériques et mobiles ainsi que le manque de compétences d’analyse du Big Data.

Or, si ces données restent dormantes sur un ordinateur ou un serveur, elles ne génèrent aucune valeur et votre entreprise risque bien de se faire distancer par des concurrents qui eux pistent et analysent chaque élément d’information puis modifient leur organisation en conséquence.

Voici 6 recommandations pour aider les entreprises à valoriser au maximum leurs données :

1. A partir de quelle taille d’entreprise les applications Big Data sont-elles rentables ?
L’émergence de nouveaux types de données et l’explosion des volumes font peser d’extraordinaires pressions sur les architectures. Les entreprises peuvent ressentir ces pressions quelle que soit leur taille et de nombreux projets réussis d’analyse du Big Data ont commencé à petite échelle avec un périmètre limité. Il n’est pas nécessaire d’avoir de gros volumes de données pour participer et rencontrer le succès avec Hadoop. Le mieux pour une petite entreprise est d’optimiser son infrastructure IT pour commencer à capturer de nouveaux types de données d’une façon économique. Des processus de transformation simples peuvent rendre les données plus faciles à analyser et à valoriser.

2. Comment savoir si les données collectées sont utiles ?
Hadoop et d’autres technologies Big Data sont particulièrement adaptées à la capture de données de valeur inconnue car elles ne demandent pas d’effort coûteux de préparation des données en amont. Hadoop accepte les données brutes dans leur format natif et fournit les outils qui permettent de les explorer pour en extraire de la valeur. Les détaillants et professionnels des services financiers peuvent, par exemple, capturer de gros volumes de données issues des interactions en ligne à la recherche de tendances révélatrices d’une fraude. Ces techniques valent pour les entreprises de toute taille.

3. Comment les entreprises doivent-elles aborder la question du Big Data : est-ce le constat que des besoins existent qui appelle une solution analytique, ou les solutions analytiques qui identifient les besoins ?
La première étape consiste à collecter et stocker des données, ce que font la plupart des entreprises (surtout celles qui ont un entrepôt de données), puisque sans données, pas d’exploitation possible, donc pas de réelle finalité. Les coûts et les contraintes de préparation des données font que les organisations ne peuvent pas capturer l’ensemble des données qu’elles créent. Mais il arrive que des entreprises aient un besoin en tête et qu’elles n’aient pas les moyens d’extraire des données les informations dont elles ont besoin. Dès qu’elles ont accès aux bons outils, elles peuvent commencer à stocker, analyser et extraire de la valeur de leurs données avec l’aide d’Hadoop.

4. A quelles finalités le Big Data pourrait-il s’appliquer ?
Abstraction faite des besoins bien spécifiques de chaque entreprise, le Big Data pourrait s’appliquer à l’optimisation des processus internes, au marketing stratégique, à l’amélioration des produits et services ou encore à l’identification de nouveaux business models.

Optimisation des processus internes :
Les opérateurs de télécommunications tels que Telefonica pourraient utiliser Hadoop pour optimiser l’analyse des enregistrements d’appels (Call Detail Record, CDR) afin d’améliorer continuellement la qualité des appels, la satisfaction des clients et leur marge bénéficiaire. L’analyse de ces gros volumes de données doit s’effectuer en temps réel, pour répondre rapidement aux demandes des clients. Apache Flume peut charger plusieurs millions de CDR par seconde dans Hadoop, qu’Apache Storm traitera en temps réel pour identifier les anomalies.

Marketing stratégique :
Advertising Technology, spécialiste des logiciels de gestion de campagnes publicitaires sur les réseaux sociaux, recherchait une solution spécifique associant analyse de données et automatisation - par souci d’économie - qui lui conférerait une infrastructure d’analyse et de modélisation prédictive suffisamment robuste et évolutive pour concrétiser ses objectifs stratégiques sur le long cours. En misant sur le Big Data, Advertising Technology a pu identifier de nouvelles sources de revenus et réduire ses coûts d’exploitation de 60 %.

Amélioration des produits et services :
Les étiquettes d’identification par radiofréquence permettent aux fabricants de collecter des données tout au long de la chaîne d’approvisionnement. Les plus en pointe installent des capteurs à des points stratégiques de la chaîne de fabrication pour recueillir des informations et détecter les problèmes en temps réel. Ils peuvent également expertiser les produits défectueux et recouper ces données avec celles récoltées durant leur fabrication.

Identification de nouveaux business models :
La technologie ouvre parfois de nouveaux horizons aux secteurs de l’industrie, qui peuvent alors imaginer de nouveaux business models. Ingenious Qube en est la preuve. La société a radicalement réformé le modèle traditionnel d’assurance automobile en proposant des formules calquées sur le comportement des conducteurs, analysé par des capteurs placés dans les véhicules et reliés à Hadoop. L’assurance au kilomètre (Pay As You Drive, PAYD) et celle en fonction du comportement du conducteur (Pay How You Drive, PHYD) permettent désormais à la compagnie d’assurance de proposer des tarifs adaptés aux habitudes et aux comportements de conduite de ses clients. Les tarifs sont basés sur le niveau de risque associé à chaque conducteur. Ingenious Qube a ainsi réduit le nombre et le montant des demandes d’indemnisation de 17 à 50 %.

5. Comment savoir quand investir dans le Big Data ?
Comparer les coûts aux bénéfices est un bon moyen de savoir si ce modèle est viable ou non. Mieux vaut procéder par étapes. Inutile d’investir dans des équipements spécialisés au départ. Il sera toujours possible de monter en charge ultérieurement, quand la demande le justifiera.

6. Comment bien choisir sa solution Big Data, en particulier quand toutes les pistes d’usage ne sont pas encore connues ?
Hadoop est une solution Open Source. Elle n’implique donc aucun investissement de départ. Il suffit de la télécharger et de l’installer pour l’utiliser. C’est la plateforme toute trouvée pour les entreprises qui n’ont pas encore défini précisément ce qu’elles attendent d’une solution Big Data. Avec des logiciels compatibles, de type Hortonworks, ces organisations obtiendront toutes les informations et les conseils nécessaires pour identifier leurs besoins spécifiques en termes d’administration de données, d’accès, de gouvernance et de sécurité. Pour prendre la mesure de l’étendue et de la variété des options de support offertes par chaque solution Big Data, il est également important de tenir compte du réseau de partenaires entourant l’offre et des relations qui unissent le distributeur et ses principaux fournisseurs.

Le Big Data, avec ses potentiels de création de valeur ajoutée, peut radicalement transformer les entreprises, leur structure, leurs produits, leurs services et même leur business model. Administrer de gros volumes de données peut être fastidieux, à moins de pouvoir compter sur un écosystème tel que celui d’Hadoop, qui compte de nombreux spécialistes du support assurant l’interface entre Hadoop et les clients. C’est le cas de Hortonworks, qui accompagne les utilisateurs d’Hadoop 24h/24 et 7j/7, à chaque étape de leur projet Big Data, y compris de développement et de validation.




Nouveau commentaire :
Facebook Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.