Decideo

Big Data, Science des données, aide à la décision en entreprise, business intelligence, data warehouse, reporting, OLAP, web analytics, data visualization, data mining, internet des objets, informatique cognitive, intelligence artificielle...


 
     

Introduction de la 7ème édition de l’Université d’été GS1 : Big Data et GS1


Pierre GEORGET, GS1 France
3 Septembre 2012

Big Data est un sujet avec lequel GS1, l’organisation du code à barres, a quelques familiarités. Le code à barres est un instrument de collecte de données, et dès son apparition dans les années 70, il a suscité des interrogations pour la protection de la vie privée du consommateur. Pour beaucoup ces mots, Big Data sonnent comme Big Brother, et emportent l’imagination dans le monde de la science fiction.



Pierre GEORGET, CEO de GS1 France, le 31 août 2012
Pierre GEORGET, CEO de GS1 France, le 31 août 2012
Philip K Dick avec Minority Report ou Total Recall en a montré la face la plus sombre, Big Data est un instrument d’oppression même s’il échoue en final. Isaac Asimov avec le cycle « fondation » a présenté une approche plus positive. Pour lui Big Data doit sauver la civilisation. Son personnage Hari Seldon, le mathématicien et psycho-historien a décrit les lois gouvernant l’histoire et la société. L’objectif, et c’est toute la trame du cycle « fondation », est de protéger la civilisation contre la barbarie. Pour l’un et l’autre, la fonction de Big Data est la prédiction, qu’elle soit opérationnelle, sociale, politique, peu importe. La prédiction découle de l’analyse de masse de données, de la capacité des algorithmes à en faire une lecture intelligente, et d’en tirer des décisions pour agir ou prévenir. Voilà la logique du Big Data.

Mais ce triptyque a des points de faiblesse, l’exhaustivité et la qualité des données, la pertinence des algorithmes de connaissance, la rapidité et la précision de l’action. GS1 s’intéresse principalement et presque exclusivement au premier défi, qualité et exhaustivité, c’est dans ce domaine que son expérience est la plus grande. Concernant le troisième aspect, celui de l’action, la contribution de GS1 est plus faible. Les technologies d’automatisation de collecte d’information (Code à Barres, RFID, Echange électroniques, …) sont aussi des outils d’automatisation des opérations complexes et répétitives qui constituent le champ principal d’intervention de la robotique de demain.

La collecte de données est la fonction même du code à barres. Dès 1971 quand fournisseurs et distributeurs ont créé le groupe de travail pour développer le code que nous connaissons aujourd’hui, l’objectif était double, accélération et qualité du passage aux caisses et collecte de données de vente pour améliorer la disponibilité des produits et l’efficacité des promotions. Par la suite, le développement des échanges électroniques, des cartes de fidélité, du couponing, de la traçabilité, des catalogues électroniques ont contribué à accroître les possibilités d’accumuler des données sur la vie des produits et le comportement des consommateurs. La RFID, les serveurs d’évènements, le mobile commerce et l’internet des marchandises ouvrent des perspectives plus considérables encore d’accumulation d’information de la fourche à la fourchette, de l’étable à la table. Avec 10 milliards de transactions par jour aux caisses des magasins, la masse de données accumulées est considérable dans les historiques de vente des entreprises de produits de grande consommation.


Introduction de la 7ème édition de l’Université d’été GS1 : Big Data et GS1
A quoi servent toutes ces données amassées. Quatre grands types d’applications font le quotidien des entreprises, la logistique (optimisation des approvisionnements, diminution des ruptures, ..), le merchandising (couponing, organisation des linéaires), le marketing (introduction des nouveaux produits, gestion des promotions, m-commerce) et la sécurité (traçabilité, lutte contre le vol, lutte contre la contrefaçon).
Mais pour que cela marche, il faut que les données soient fiables. C’est le principal écueil rencontré aujourd’hui. Si les données sont une mine d’or, les pépites sont encore constituées à 80% d’impureté selon les deux études les plus complètes menées en Angleterre et en Australie. Et encore ses études portent sur des données commerciales et logistiques simples, code à barres, poids, dimensions, … qu’en sera-t-il avec les images des produits, les données privées consommateurs. La qualité des données est l’enjeu majeur pour l’industrie des PGC à l’horizon 2020, aussi bien pour les magasins physiques que pour les ventes en ligne.

Et la solution peut se résumer en une expression qui résonne un peu comme l’antidote au Big Data, Open Data. L’approche de GS1 est de toujours s’assurer que les informations sont collectées et contrôlées à la source et par l’autorité source. Pour les dire autrement, les données provenant d’un acteur sont collectées par l’acteur et celui-ci y a accès pour les contrôler, et cela est vrai qu’il s’agisse d’une entreprise, d’un consommateur ou d’un citoyen.
L’intelligence est le second défi, mais il semble plus facile à atteindre dans le contexte industriel et logistique en s’appuyant sur l’expérience des gens de métier. L’industrie des PGC ne manque pas d’exemples d’algorithmes de décision utilisant les données de vente croisées avec les profils de consommateur. Mais plus proche encore de GS1, les commandes assistées par ordinateur (CAO) en sont l’illustration la plus simple, mais bien qu’évidente elle encore peu répandue. Il n’est pas certain qu’elle soit utilisée dans la moitié des magasins de France. Plus sophistiquée, les outils de gestion partagée des approvisionnements sont une belle application de l’intelligence tirée du croisement entre flux des marchandises, historiques de ventes, animations des ventes, et données climatiques.

La troisième question, le passage de la prédiction à l’action est celle qui sera porteuse des plus grands bouleversements dans la vie des entreprises à l’horizon 2020. Le Big Data utilise des grandes masses données collectées à partir d’une multitude d’évènements pour décider intelligemment sur des multitudes de flux ou de relations qui sont eux-mêmes des évènements. Pour être fiable et exhaustive la collecte est automatisée (code à barres, RFID, senseurs, transactions e-commerce, …) et les algorithmes prédisent et proposent … Pour être efficace les actions ne peuvent être qu’automatisées aussi. Ce sont des algorithmes qui dialoguent avec des algorithmes, des machines avec des machines. C’est bien ce qui se produit quand Twitter ou Facebook envoient un message du type « on ne vous voit plus sur le réseau » ou bien « X a peu d’amis, aider le ! », de même quand Amazon propose une sélection personnalisée de livres ou de disques.

Dans le monde physique de l’entrepôt, du magasin ou de l’usine, le big data devrait avoir les mêmes effets de « robotisation ». La production de données en provenance des clients, des fournisseurs, des logisticiens, des transporteurs, et des multiples capteurs dont les bâtiments, l’environnement, les machines, les produits seront équipés, sera telle que seuls des logiciels seront capables de prendre les décisions et d’actionner les robots pour réaliser les opérations nécessairement en temps réel.

Et ceci est d’autant plus vrai que la principale limite de la machine Big Data est qu’elle est dans l’environnement qu’elle contrôle et non pas à l’extérieure. Les actions qu’elle déclenche modifient son propre environnement et peuvent la conduire à des emballements comme ceux causés en bourse par les systèmes de trading automatiques. Un homme, encore éveillé dans l’univers, devra intervenir pour déconnecter HAL.

Cette possibilité constante de l’humain d’intervenir sur les données pour y apporter de la qualité, sur les algorithmes pour en contrôler l’intelligence, et sur les machines virtuelles ou physiques pour les piloter, c’est l’Open Data. Aujourd’hui l’intérêt se porte principalement sur les données et leurs collectes, à juste raison puisque sans elles il ne peut y avoir de prédiction juste. Mais le droit aux données reste encore à bâtir. La loi informatique et liberté protège les particuliers avec le droit « d’accès », le droit de « rectification ». De nouveaux concepts apparaissent avec le droit « à l’oubli », ou le droit « au silence des puces ». Les entreprises aussi devront être dotées de ce droit de protéger leurs données. Les premières applications d’information consommateur sur les caractéristiques des produits montrent combien les entreprises sont démunies face à l’usurpation de leurs données.

Big Data ne tiendra ses promesses de prédiction juste pour des décisions justes qu’en association avec l’Open Data à condition que cette ouverture soit offerte à tous les niveaux, la collecte, les algorithmes de prédiction et la conduite de l’action. Cette combinaison de puissance, d’intelligence et de participation reste encore à inventer.

Lu 12425 fois


1.Posté par Clicsteam/M2H le 05/09/2012 21:26
Open debate

Voilà un article visionnaire qui souligne les grands enjeux alors qu'autant en matière d'open data que de big data, on était jusqu'à présent dans l'ère essentiellement "technique" (comment faire...), même si la FING a soulevé des questions plus sociologiques. C'est aussi une nouvelle approche, très informée et issue de l'expérience, pour présenter l'ouverture des données de la part des entreprises, même par rapport à l'étude publié par Blue Nove (de mémoire). Jusqu'à présent aussi, les deux phénomènes de big data et d'open data étaient toujours vus en heureuse symbiose et seulement sous l'angle des opportunités de croissance, et la "robotisation" mal perçue.
Or cet article ouvre une "perspective frictionnelle" entre OpenData et BigData. De plus, il recèle un doute sur le beau rôle d'OpenData:
"La loi informatique et liberté protège les particuliers avec le droit « d’accès », le droit de « rectification ». De nouveaux concepts apparaissent avec le droit « à l’oubli », ou le droit « au silence des puces ». Les entreprises aussi devront être dotées de ce droit de protéger leurs données... ".
Cela ne sonne pas tellement comme de l'open data. De surcroît, en admettant que cette tension entre l'ouverture et la protection puisse être dépassée, OpenData apparaît un peu comme un David pas encore révélé ayant pour mission d'amadouer Goliath. Pop corn demandé d'urgence malgré la crise sur le marché du maïs.

La problématique de la qualité/fiabilité a été souvent évoquée, même avant OpenData et BigData, mais elle risque de devenir un peu désuète dans certains cas où les deux joueront bien de concert. Grosse ouverture de gros flux pourrait donner lieu à de grosses fuites même si on prête par exemple aux générations Y et Z une relative indifférence par rapport aux risques d'exposition de la vie privée. La RFID et d'autres techniques de marquage vont effectivement de plus en plus permettre une observation minutieuse des comportements humains à travers ceux des produits, en plus du traçage des cheminements électroniques. Sera-t-il alors dans l'intérêt des entreprises elles-mêmes et du public de tant révéler ? Et comment les données pourraient-elles être systématiquement contrôlées par les consommateurs/citoyens, en particulier à la source, l'article suggérant d'ailleurs qu'il ne s'agit pas d'un objectif facile à atteindre ?
En ce qui concerne précisément la fiabilité, hormis dans le cadre des accords d'entreprises ("Gestion Partagée des Approvisionnements"...) c'est peut-être le marché qui pourrait devenir le régulateur, au moins partiellement, avec de fortes primes à la qualité, mais en créant des inégalités d'accès.

Peut-être aussi ces évolutions conduiront-elles à franchir une nouvelle étape dans l'interconnexion des entreprises, moins propriétaires de leurs actifs, et aussi dans l'influence des consommateurs.
Les débats sur la régulation d'Internet pourraient aussi être relancés, d'autant que des tensions pourraient aussi surgir entre les "data priests", susceptibles "d’intervenir sur les algorithmes pour en contrôler l’intelligence" et les consommateurs/citoyens, fussent-ils très participatifs. Car la connaissance des algorithmes serait effectivement opportune, par exemple pour éviter des manipulations. L'entreprise devra alors peut-être faire des arbitrages entre l'efficacité et la transparence.

J'ajoute ces liens vers deux autres petits commentaires tout aussi superficiels, en admettant que par rapport aux questions soulevées par cet article, il y a là effectivement de très gros enjeux :
"Big data, gros enjeux", http://lecercle.lesechos.fr/entreprises-marches/high-tech-medias/informatiques/221150780/big-data-gros-enjeux;
"Big data, un nouvel air souffle sur la business intelligence", http://www.decideo.fr/Big-Data-un-nouvel-air-souffle-sur-la-Business-Intelligence_a5377.html

2.Posté par Didier Gaultier le 25/09/2012 11:23
Voici un article intéressant sur le Big Data, qui montre bien que la problématique de collecte doit rester au cœur du projet.

Nouveau commentaire :
Facebook Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.

 





France
Espanol



Google+

Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des pages publiées sur ce site, faite sans l'autorisation de l'éditeur est illicite et constitue une contrefaçon.