Big Data, Science des données, aide à la décision en entreprise, business intelligence, data warehouse, reporting, OLAP, web analytics, data visualization, data mining, internet des objets, informatique cognitive, intelligence artificielle...

Abonnez-vous gratuitement à Decideo !


Decideo

 


Le big data est difficilement soluble dans les organisations traditionnelles


Rédigé par Jérémy HARROCH, Quantmetry le 28 Mars 2014

En augmentation ces derniers mois, les projets big data en France ne sont pas à la hauteur de l’engouement médiatique suscité par cette nouvelle discipline. Un problème de technicité ? De compétence ? De moyen ? Un peu de tout cela, mais avant tout un problème organisationnel.



Jérémy Harroch, PDG de Quantmetry
Jérémy Harroch, PDG de Quantmetry
Le constat est sans appel : ils ont beau avoir augmenté ces derniers mois, les déploiements de projets Big Data en France ne sont pas à la hauteur de l’engouement médiatique suscité par cette nouvelle discipline. Un problème de technicité ? De compétence ? De moyen ? D’initiative ? Un peu de tout cela c’est vrai, mais avant tout un problème organisationnel : le Big Data dans les entreprises est vu tout autant comme une inconnue rentable qu’une matière complexe sur laquelle peu de personnes ont prise. Cette situation est en partie due à la structuration trop rigide des organisations. Explications.

Si les entreprises commencent à être sensibilisées au sujet, elles ne savent ni comment l’entamer, ni qui doit le porter. La direction générale, les directions métiers, la DSI ? Est-il guidé par des cas d’usage, par la disponibilité de nouvelles sources de données, par l’attente d’un retour sur investissement à court terme ? La profusion des angles par lesquels le Big Data peut être attaqué est telle qu’un trop grand nombre d’entreprises n’ose pas se lancer…

Et à ces freins naturels s’ajoutent parfois des enjeux politiques : certains recherchent uniquement dans le Big Data le statut de précurseur. Ils n’ont pourtant ni le sujet, ni la légitimité, ni encore les données pour cela. D’autres au contraire, jouissent de ces trois éléments, mais manquent de budget… Car la logique de rentabilité, surtout en temps de contraction de l’économie, a tendance à n’encourager que les projets au « quick win ».
La simplicité et le pragmatisme doivent guider les projets big data
Trouver la bonne équipe et cadrer correctement les projets, c’est donc là la principale difficulté du Big Data. Du bon sens direz-vous, mais qui ne peut être mis en pratique qu’en chamboulant à minima certaines habitudes managériales et organisationnelles. Celle par exemple de former des équipes projets homogènes, c’est à dire issues d’un même service ou département. La logique du Big Data voudrait à l’inverse que l’on associe des profils en provenance de plusieurs directions, chacun dépositaire de jeux de données qu’il maitrise, et dont l’expertise est indispensable pour l’exploration.

De la même façon, les équipes s’essayant au Big Data risquent gros à ne retenir que des chantiers ambitieux. C’est au contraire la simplicité et le pragmatisme qui doivent les guider. Elles gagnent à reproduire et à s’inspirer des expériences déployées par d’autres services ou d’autres entreprises. Un exemple : l’amélioration de la segmentation d’un CRM avec l’analyse des données de navigation des internautes. Ce mode de croisement est devenu courant. S’il ne nécessite pas de lourds investissements, il découle nécessairement sur des conclusions intéressantes (bien que toutefois limitées). Viendra ensuite le temps des sujets plus originaux, gages d’un véritable avantage compétitif.

Ces premières expériences ont donc le mérite d’identifier d’une part les jeux de données à croiser, d’autre part les axes d’analyse à privilégier. Mais elles sont également précieuses pour attribuer et définir les rôles que chacun jouera dans le projet : déploiement et exploitation des serveurs, qualification et nettoyage des données, développement puis mise en production des algorithmes, etc… Trop souvent, le périmètre de ces fonctions ainsi que les vocabulaires associés (« big data développeur », « datascientist », etc) restent flous, voire confus.

Enfin, les équipes du Big Data doivent impérativement casser avec la conduite traditionnelle de projet. Par essence, on le sait, les investigations menées dans le cadre d’un stockage massif des données sur des clusters Hadoop n’aboutissent pas toujours à des résultats rentables. D’où la nécessité de s’aligner sur les grands principes du lean startup. En particulier sur la culture du test et de l’échec rapide. Objectif : savoir stopper rapidement une piste pourtant séduisante à l’origine. Par exemple, de très bons modèles prédictifs peuvent être construits à partir d’un jeu de données resserré et très riche. Mais appliqués à l’échantillon global, ils ne présentent aucune pertinence et au final, ne sont pas généralisables. Cette souplesse et cette capacité au renoncement doivent imprégner les chantiers Big Data.

Le succès de ces premiers projets reste donc intimement lié à une nouvelle approche organisationnelle. Espérons que les entreprises acceptent de lâcher du lest car cette initiation au Big Data promet de former les cadres amenés à recruter, diriger et orienter les futurs datascientists, tout fraichement diplômés des premiers cursus Big Data. Ces juniors arrivent sur le marché en septembre prochain et renforceront encore la demande, déjà non satisfaite, en profils expérimentés…

Jérémy Harroch, PDG de Quantmetry
Mathématicien et statisticien de formation, issu de la promotion X03 de l’Ecole Polytechnique et diplômé de New York University, Jérémy Harroch a commencé sa carrière dans la finance de marché. Formé dans des fonds de trading tels Lehman Brothers et Knight Capital Group, il s'est notamment spécialisé en arbitrage statistique et en trading algorithmique de très haute fréquence. En 2010, il revient en France pour créer Quantmetry, un cabinet de conseil spécialisé en big data.




Commentaires

1.Posté par Vassilia DUCREY le 07/04/2014 17:44
Quelle surprise de te lire ici.
Très bon papier...
concernant cette partie : "Par exemple, de très bons modèles prédictifs peuvent être construits à partir d’un jeu de données resserré et très riche. Mais appliqués à l’échantillon global, ils ne présentent aucune pertinence et au final, ne sont pas généralisables. Cette souplesse et cette capacité au renoncement doivent imprégner les chantiers Big Data. "
Si je te disais qu'il existe des solutions non prédictives déjà efficientes sur des bases de données relationnelles, exploitables sur du non relationnel.... mais qu'il est difficile de les faire entendre... Tu serais surpris?

Nouveau commentaire :
Facebook Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.