http://www.franceinfo.fr/high-tech/les-nouveaux-mondes-de-l-innovation/le-big-data-une-chance-pour-la-france-1175311-2013-10-13
Merci à Jérôme Colombain de m'avoir permis de partager quelques idées autour de la France et du big data, dans le cadre de son émission "Nouveau Monde". A écouter en podcast.
Après un rapide rappel du fait que le "big" data ce sont d'abord des données, j'insiste sur le fait que ce sont ces données, leurs croisements et leur analyse qui sont créateurs de valeur.
Si les entreprises françaises sont en retard sur le sujet (par rapport aux entreprises américaines mais aussi par rapport à des innovations développées par exemple en Amérique du Sud), c'est en grande partie à cause de notre pensée globalisante qui nous interdit une approche pragmatique, itérative et innovante. Cette pensée globalisante nous conduit à tenter de répondre à toutes les questions avant même de commencer un projet. Or quand on va vers l'inconnu pour découvrir de nouveaux territoires, il faut accepter une part de risques. Tout ne peut pas être planifié. L'agilité, comme le disait Andy Groove, co-fondateur de Intel, est plus efficace que la planification. Nous sommes sans doute excellents dans la réflexion, mais il manque à nos entreprises, et donc à ceux qui les dirigent, le goût de l'inconnu.
Mais les atouts français sont indéniables face à ces opportunités du siècle de la donnée. En particulier la qualité de nos mathématiciens et statisticiens. Ils sont indispensables à tout projet d'analyse de données. Et nous avons en France des mathématiciens parmi les meilleurs au monde.
Et si le Data Scientist tant recherché était la combinaison d'un informaticien indien, d'un mathématicien français et d'un communicant américain ? Il trouverait certainement des projets en Amérique du Sud car les sud-américains sont à la pointe du big data, par exemple dans le domaine des villes intelligentes.
Merci à Jérôme Colombain de m'avoir permis de partager quelques idées autour de la France et du big data, dans le cadre de son émission "Nouveau Monde". A écouter en podcast.
Après un rapide rappel du fait que le "big" data ce sont d'abord des données, j'insiste sur le fait que ce sont ces données, leurs croisements et leur analyse qui sont créateurs de valeur.
Si les entreprises françaises sont en retard sur le sujet (par rapport aux entreprises américaines mais aussi par rapport à des innovations développées par exemple en Amérique du Sud), c'est en grande partie à cause de notre pensée globalisante qui nous interdit une approche pragmatique, itérative et innovante. Cette pensée globalisante nous conduit à tenter de répondre à toutes les questions avant même de commencer un projet. Or quand on va vers l'inconnu pour découvrir de nouveaux territoires, il faut accepter une part de risques. Tout ne peut pas être planifié. L'agilité, comme le disait Andy Groove, co-fondateur de Intel, est plus efficace que la planification. Nous sommes sans doute excellents dans la réflexion, mais il manque à nos entreprises, et donc à ceux qui les dirigent, le goût de l'inconnu.
Mais les atouts français sont indéniables face à ces opportunités du siècle de la donnée. En particulier la qualité de nos mathématiciens et statisticiens. Ils sont indispensables à tout projet d'analyse de données. Et nous avons en France des mathématiciens parmi les meilleurs au monde.
Et si le Data Scientist tant recherché était la combinaison d'un informaticien indien, d'un mathématicien français et d'un communicant américain ? Il trouverait certainement des projets en Amérique du Sud car les sud-américains sont à la pointe du big data, par exemple dans le domaine des villes intelligentes.
Par Philippe Nieuwbourg le Mercredi 16 Octobre 2013
|
0 commentaire
> A LIRE EN CE MOMENT SUR DECIDEO
-
OneStream Software réinvente et renforce le rôle du CFO grâce à sa nouvelle solution Narrative Reporting
-
Empreinte de la Donnée sur le vivant : Le Cercle de la Donnée et l’Agora 41 présentent 5 propositions pour un numérique responsable
-
Les dirigeants adoptent l'IA sous la pression médiatique, mais la préparation organisationnelle reste un défi majeur
-
La NASA s’appuie sur le moteur d’Enterprise Search de Sinequa pour propulser son nouveau moteur Science Discovery Engine
-
IA, simplification et débureaucratisation pour transformer l'État
-
GS1 France aux côtés d’Equadis pour développer la solution « Data Quality Checker » garantissant l’échange de données de qualité sur le marché français
-
XXII lance RETAIL ANALYTICS, une innovation majeure pour le secteur du retail
-
Salesforce dévoile une technologie intégrant l’IA pour extraire et structurer rapidement les données issues de documents et d’images
-
L’administration américaine va nommer ses premiers CAIO (Chief Artificial Intelligence Officer) et former ses comités de gouvernance
-
Podcast : les prompts sont des données, il va falloir les cataloguer
Partager ce site
Tags
Archives
Profil
Je suis journaliste, formateur et auteur, spécialiste de l'informatique décisionnelle. Passionné par l'évolution de ce domaine vers le "Big Data", également appelé "Données Volumineuses", j'ai décidé d'écrire un livre en français sur le sujet, peut-être le premier. Etudes de cas, panorama des outils, vision des experts... et les coulisses de la production du livre, que je vous propose de découvrir au fil de ces billets.
Philippe NIEUWBOURG
Philippe NIEUWBOURG
Dernières notes