Le thème du Big Data fait le buzz depuis près de deux ans, mais les mises en œuvre concrètes sont encore peu nombreuses, voire rares en France. Il y a par contre de très nombreux POC (proof of concept), mais les informations les concernant sont mitigées, les démonstrations de faisabilité sont faites, mais les perspectives économiques ne sont pas toujours à la hauteur des espérances, et la conduite de ce type de projet se profile comme n’étant pas un long fleuve tranquille. Le Gartner qui a bien exploré le sujet annonce que 2014 sera pour le Big Data une année de correction des illusions et de retour au réalisme.
Dans ce contexte beaucoup de responsable, en particulier ceux qui sont dans de petites entreprises, se demandent s’ils doivent se lancer dans le Big Data aujourd’hui. S’ils consultent des experts, ces derniers leur expliquent que le Big Data peut intéresser toutes sortes d’organisation et de nombreuses fonctions dans les entreprises, que l’on trouve des pionniers du Big Data dans tous les secteurs d’industrie, et qu’il y a des organismes de toutes tailles, les plus petits opérant en mode cloud. Donc, sauf exception, les experts recommandent de regarder très sérieusement ce que le Big Data pourrait concrètement apporter.
Il est vrai que parmi les pionniers du Big Data utilisant des solutions de Teradata, on trouve des entreprises de taille très différentes allant de grands groupes comme Wall-Mart, Wells Fargo, Boeing, Apple, beaucoup de sociétés liées au web comme eBay, Amazon, Overstock, des sociétés plus petites comme LinkedIn (1700 personnes), Mzinga (500), Gilt Groupe (250) et de nombreuses agences de communication qui utilisent des solutions cloud de Teradata (Razorfish, EightfoldLogic, …). Ceci se vérifie aussi en Europe avec des clients comme Otto group ou Full Tilt Poker.
La question est donc par où commencer ? Beaucoup de POC sont gérés par les départements IT et ne visent qu’à explorer les conditions techniques de mise en œuvre de plateformes Big Data, de programmes MapReduce, en particulier avec des solutions Hadoop. Ceci explique les résultats mitigés enregistrés actuellement. Cependant cela n’explique pas tout, la plupart des POC essaient d’utiliser des données Big Data, pour améliorer des modèles existants, et ils y arrivent, ils produisent de meilleurs modèles, mais le plus souvent le gain est marginal, et le ROI additionnel par rapport aux anciens modèles n’est pas si extraordinaire.
S’il est rassurant de s’essayer dans des domaines connus, d’améliorer un scoring existant, les ROI récompensent les démarches « décision/action » innovantes. Il faut investir dans des domaines que l’entreprise n’a pas ou peu explorés, et développer non seulement de nouvelles analyses, mais aussi de nouvelles approches métiers. Pour cela les domaines en pointe concernent le marketing digital, la fraude, la maintenance, la qualité, … Même si tout dépend de ce que fait déjà l’entreprise, de son niveau de développement, il y a pour les équipes innovantes de très nombreuses opportunités.
Pour trouver leur chemin, les entreprises doivent partir de leur modèle d’affaires, de leur stratégie, et identifier les Big Data qui ont un sens, puis les explorer. Il faut pour cela constituer une équipe incluant des représentants de l’informatique, des métiers et au moins un data scientist. L’exploration doit prendre la forme d’un POV (proof of value). Les premiers projets qui seront développés ensuite, le seront en mode agile. Enfin, il est hautement recommandé de se faire assister par des consultants qui ont de l’expérience, et de se référer à des cas réels, par exemple ceux de Teradata Aster via le lien ci-joint : http://www.asterdata.com/customers/index.php
Tags :
Business Intelligence
Business Intelligence Analyse de Données Big Data Business Intelligence CRM Cloud Computing Data Mining Data Warehouse Décisionnel Finance Infocentre Intelligence Economique Marketing Médias Sociaux Relation Client Réseaux Sociaux Big Data
décisionnel entrepôt de données
Intelligence Economique
Relation Client
Rédigé par Michel Bruley le Mardi 12 Novembre 2013 à 10:20
|
Permalien
|
{0}
> A LIRE EN CE MOMENT SUR DECIDEO
-
La donnée comme dernier rempart contre l’accident industriel
-
Le ministère des Armées et des Anciens combattants notifie un accord-cadre à Mistral AI pour renforcer la souveraineté technologique de la défense
-
Mines Paris – PSL annonce la création d’un nouveau centre de recherche pour l’avenir des données spatiales : Le Centre de Statistique et Images (STIM)
-
Snowflake annonce son intention d'acquérir Observe pour accélérer l’observabilité pilotée par l'IA à l'échelle de l'entreprise
-
Snowflake intègre Gemini 3 de Google à Snowflake Cortex AI pour faciliter le déploiement de l’IA en entreprise
-
Cornerstone obtient la certification ISO 42001, norme mondiale pour une IA éthique et responsable
-
Cloud computing : un choix technologique devenu un choix d’avenir
-
Tendances 2026 de Red Hat : Open source et cloud hybride au cœur de la transformation IT française
-
HexaDone acquiert Hyvilo pour créer le leader français de la gestion des données des acteurs territoriaux
-
La compétence en IA la plus importante sur laquelle se concentrer en 2026 : le middle management
Profil
Michel Bruley
Liste de liens
Dernières notes
Galerie
Archives
Rubriques
Rubriques








