Le data mining, la fouille de données ou toutes les approches analytiques de pointe représentent les formes les plus ambitieuses de l’Informatique Décisionnelle. Les techniques sous jacentes sont issues des Statistiques ou de l’Intelligence Artificielle, et certaines comme les Réseaux de Neurones, les Arbres de Décision, les Réseaux Bayésiens ou la Logique Inductive furent développées il y a plusieurs décennies dans des contextes très différents. Attention il ne s’agit pas de techniques informatiques, mais de processus de recherche automatique d’information dans un grand volume de données en mettant en œuvre toute technique appropriée.
Le postulat fondamental de ces approches est que dans toute base de données enregistrant les événements d’un processus économique, les données ne sont pas distribuées au hasard. Bien que ces données soient simplement constatées, le plus souvent collectées à des fins purement opérationnelles, on suppose qu’elles ont été générées par une réalité en grande partie déterministe, mais selon des processus que généralement on ne connaît pas. Les approches analytiques cherchent à mettre en évidence, décrire et permettre de reconstruire les effets de ces processus. Cette action d’identification des effets d’un processus à partir de données se caractérise par la construction d’un modèle, ensemble de règles, d’équations, de formules qui rendent compte de la distribution des données dans la base.
Construire méthodiquement un modèle des données dont on dispose sur un objet de gestion, est un saut important sur le chemin de la connaissance et de la décision. Au lieu de gigaoctets de données brutes, le décideur dispose alors d’une vue interprétable de son sujet d’étude. Mais attention de ne pas se laisser piéger par la métaphore liée à l’expression data mining qui suggère que les données (data) ne seraient qu’un amoncellement de débris, que l’on creuse (mining) à la recherche de la pépite. Elle fait croire que le data mining rejette une grande proportion des données disponibles, pour ne conserver qu’une petite partie particulièrement significative. Or ce n’est pas exactement le cas, dans l’élaboration d’un modèle toutes les données sont prises en compte et traitées sensiblement sur un pied d’égalité. Le modèle est construit en fonction des régularités (patterns) de l’ensemble des données. Le succès de l’analyse se mesure à sa capacité à détecter les régularités fortement significatives.
D’autre part pour certains, toutes ces approches analytiques de pointe, data mining ou fouille de données ne seraient que de nouveaux noms branchés de la vénérable statistique. La réponse est : oui, mais …. Oui, car si vous faisons abstraction des techniques mises en œuvre, l’objectif est le même : élaboration et interprétation de modèles de la réalité construits à partir d’une description partielle de cette réalité par des données. Mais …, car la statistique traditionnelle ne répond pas complètement aux attentes des utilisateurs potentiels. Le progrès le plus attendu des nouvelles approches c’est l’industrialisation des analyses, alors que la statistique reste une activité artisanale, réservée à un petit nombre de spécialistes traitant avec beaucoup de soin un petit volume de données très structurées, et mettant en œuvre un savoir faire peu automatisé. Or l’ambition des nouvelles approches c’est d’amener les biens faits de la statistique à tous les responsables sans qu’ils aient constamment recours à des statisticiens.
Cependant il ne faut pas se cacher, que la réalité est souvent compliqué, voire complexe, et que les approches analytiques peuvent être délicate à mettre en œuvre et leurs résultats parfois ambigus ou incertains, même si de nombreuses entreprises utilisent ces techniques avec beaucoup de succès dans toutes les fonctions de l’entreprise et en particulier dans les domaines de la relation client, de la logistique, de la qualité.
Pour aller plus loin sur ce sujet vous pouvez utilement consulter mes articles ci-dessous :
5 mythes sur le data mining
En analyse de données comme en cuisine, la réussite se joue en grande partie avec les ingrédients
Fouille de données : une démarche en cinq étapes
Fouille de données : les biens faits des approches en laboratoire
Faire son data mining directement dans son entrepôt de données
Fouille de données & PMML : vers une extraction de données plus rapide, plus facile et moins coûteuse
Comment choisir un outil d’exploration de données
Rédigé par Michel Bruley le Lundi 9 Mars 2009 à 09:09
|
Permalien
|
{0}

Nouveau commentaire :
> A LIRE EN CE MOMENT SUR DECIDEO
-
CSRD : objectiver le climat social grâce au Big Data
-
L’USF réagit à l’annonce de la hausse de la maintenance des licences SAP pour 2024
-
Cloudflare aide les entreprises à réduire jusqu'à 96 % l'empreinte carbone de leur infrastructure informatique en migrant vers le cloud
-
IA Générative : Infosys et NVIDIA s’allient pour faire gagner les entreprises en productivité
-
Starburst étend sa plateforme analytique data lake pour prendre en charge toutes les étapes de la migration vers le cloud
-
Le secteur de l’informatique est de plus en plus concerné par l’impact du stockage et de l’utilisation des données sur le climat
-
Domo nommé Leader Global pour les Dresner Advisory Services’ 2023 Industry Excellence Awards (pour la 7ème fois)
-
Elastic annonce AI Assistant for Observability et la disponibilité générale d'Universal Profiling
-
4.71 lève 1,4 million d’euros pour accélérer son développement et lancer la comptabilité carbone en temps réel
-
IBM renforce sa gamme de solutions de développement durable de nouvelles fonctionnalités destinées à aider les entreprises à exploiter de manière précise et efficace les informations relatives aux émissions de gaz à effet de serre du Scope 3
Profil
Michel Bruley

Liste de liens
Dernières notes
RECETTE DE LA DINDE AU WHISKY
27/01/2023
Le 1 to 1 marketing a bientôt trente ans
24/09/2022
À propos de l’intelligence économique
23/07/2022
Comment définir la stratégie ?
23/05/2022
SUN TZU L’ART DE LA GUERRE Résumé
23/03/2022
Galerie
Archives