Big Data, Science des données, aide à la décision en entreprise, business intelligence, data warehouse, reporting, OLAP, web analytics, data visualization, data mining, internet des objets, informatique cognitive, intelligence artificielle...

Abonnez-vous gratuitement à Decideo !


Decideo

 


Note d'analyse | L’analyse prédictive : multiples usages, avec Soft Computing


Rédigé par Propos recueillis par Sylvie Druart le 13 Septembre 2005

L’analyse prédictive ne s’arrête pas au « simple » envoi de courriers marketing ! De multiples utilisations plus ou moins fantaisistes certes, en sont faites tant en optimisation de stocks qu’en prévisions des tiercés ou de places de cinéma ! René Lefebure, Soft Computing, nous en dit plus sur cette technique qui reste encore à exploiter pleinement.



Nieuwbourg Group : Que signifie analyse prédictive ?

Note d'analyse | L’analyse prédictive : multiples usages, avec Soft Computing
René Lefebure : Il s’agit des informations que l’entreprise cumule pour anticiper le futur, à partir du passé. Une double problématique se pose : première chose, les informations sur le passé ont-elles bien été conservées ? Si l’entreprise a tendance à nettoyer les bases de données, enlever, oublier, globalement, il devient difficile de prédire car il ne reste que les données concernant, par exemple, les clients survivants. Les causes de départ ne peuvent donc être expliquées. L’entreprise peut toujours affirmer que le marché progresse mais elle ne possède qu’une partie des données et « oublie » les départs de clients.
Deuxième difficulté, trouver le bon niveau de détail dans l’information. L’analyse prédictive présente l’intérêt qu’au fur et à mesure que le collaborateur travaille sur un sujet, il acquiert des réflexes. Il appréhende ce qui apparaît comme des phénomènes déconnectés et se construit une logique.

NG : Les outils informatiques permettent donc de définir ce qui est pertinent ou non ?

RL : Oui. La technologie ou les outils de data mining font émerger, d’une manière parfois loin d’être évidente, un ensemble de phénomènes mais ne les organisent aucunement dans une structure. Il s’agit ensuite de les ordonner sous forme de modèles. Nous parlons de modèle, non dans le sens des statisticiens, mais dans celui de l’interaction des différents éléments entre eux, afin d’obtenir un ensemble cohérent et logique. Des règles de comportement.

NG : Dans ce cas, le prédictif se présente comme une couche supérieure au data mining ?

RL : Le data mining n’est pas un pré-requis. Il apporte une certaine facilité dans le traitement des données, une certaine industrialisation qui peut également être obtenue avec les technologies statistiques. Le statisticien reste l’utilisateur privilégié de ces outils prédictifs.

NG : Que permettent de faire concrètement ces outils d’analyse prédictive ? La détection de fraudes, la gestion du risque, la gestion des campagnes marketing, la première utilisation ?

RL : Oui, l’entreprise cherche toujours à prévoir qui va acheter ses produits : parmi ses clients, les prospects qui vont devenir clients. Il existe trois manières de vendre :
- « cross sell », l’achat de produits complémentaires. Une banque propose des assurances, par exemple. En btob, les clients achètent une gamme de produits puis une autre.
- « Up sell », destiné à faire changer de gamme. Pour une carte bancaire Visa, les clients peuvent passer en carte première. Il s’agit de produits moyenne gamme sur lesquels les clients acquièrent un produit plus haut de gamme, évidemment un peu plus cher. Les comportements d’achat sont, pour ce faire, étudiés.
- « Ad sell » faire acheter plus : 28 yaourts au lieu de 22. L’entreprise (distributeur) doit mesurer le degré de fidélité au produit et le nombre de visites en magasin.

NG : Unica ou SPSS affirment que leurs outils sont prêts à l’emploi et ne nécessitent très peu de paramétrages ?

RL : Ceci est le discours des éditeurs. Ils confondent souvent la mise à disposition de l’outil sur la machine avec l’utilisation en propre. Par exemple, impossible d’expliquer Excel en deux heures. Il vous faut apprendre à formaliser le problème et comprendre les bases. Il est facile de faire un score mais plus difficile de le mettre en place. L’outil Unica dans la gestion de campagnes peut certes être paramétré rapidement mais avant que les utilisateurs sachent véritablement réaliser une bonne gestion de campagne, plusieurs jours vont s’écouler.

NG : N’y a-t-il pas d’autres applications ? Le cas de Computer Associates avec l’AC Milan ?

RL : Prenons un modèle prédictif, par exemple dédié à détecter les bons joueurs de football. Des jeunes entrent dans des centres de formation, des technologies sont mises en place afin de détecter qui, cinq ans plus tard, devient un Marcel Desailly ou un Didier Deschamps. Ethiquement, il est impossible de gérer l’humain et son comportement de cette manière. Personne n’aurait détecté Maradona car il est petit et grassouillet. Il est facile d’en arriver rapidement à des stéréotypes.

NG : Il existe d’autres cas d’application, par exemple, sur le risque environnemental, toujours avec Computer Associates ?

RL : Il s’agit de la modélisation de risques rares. Nous parlons de techniques un peu différentes. Les évènements rares sont modélisés sur des techniques dites de Monte Carlo qui prend en compte toutes les probabilités qu’une situation apparaisse. Puis, elle simule par un ensemble de probabilités, l’apparition d’un événement rare. Rien n’est prédit mais l’ensemble des possibles est ouvert. Cette technique permet de construire des scénarios.
De son côté, la prédiction attache une probabilité d’apparition d’un événement ou de conversion. Dans le domaine médical, la combinaison des médicaments et des molécules représente un enjeu majeur car la durée de vie des patients est en jeu. La médecine va donc utiliser ce type de technologie pour comprendre comment s’intercombinent les éléments. Elle ne décrit pas seulement l’apparition des différents phénomènes.
Le prédictif est également très utilisé pour calculer le risque d’impayés, de fraude, le risque de churn dans les télécommunications ou la probabilité de départ. Autre illustration, dans le domaine des médias, des techniques mises en œuvre permettent de trouver le meilleur plan média en termes de visibilité. Complex System propose une solution de campagne marketing dans le domaine caritatif.
Il existe également des modèles d’analyse prédictive sur les cours de bourse, sur la manière de jouer au tiercé, etc.

NG : Quid du risque industriel ? Parfois la limite est ténue ?

RL : C’est encore autre chose. Le risque industriel est utilisé au niveau des contrats d’assurance. Pour les usines, le risque de sinistre est calculé et l’assurance qui en découle également. Quant au particulier, un long historique permet aux assureurs de prendre en compte l’âge, la voiture, un ensemble d’éléments pour réaliser des séries statistiques et donner au final une prédiction de risque. En revanche, ces prédictions de risques n’intègrent pas aujourd’hui les évolutions de marché : les femmes aujourd’hui fument plus que les hommes. Si nous nous basons sur le passé, la sinistralité est moindre chez les femmes, ce qui ne sera peut-être plus vrai plus tard. Il faut savoir parfois se détacher du passé et donner plus d’importance à des évènements plus récents.

NG : En France, ce type de démarche ou d’approche est-il répandu ? Quel type de sociétés mène cette réflexion ?

RL : Aujourd’hui, la France n’accuse pas de retard face aux Etats-Unis en ce qui concerne ces technologies. Il existe réellement une culture statistique en France. Ce qui change est la façon dont sont utilisées les techniques de modélisation entre les pays anglo-saxons et les pays latins ou européens. Les pays anglo-saxons se focalisent davantage sur les résultats que sur la méthodologie. Si le produit a fait ses preuves, les consommateurs anglo-saxons achètent. En même temps, les contextes législatifs se montrent souvent plus souples que chez nous, ce qui pourrait laisser croire à notre retard, mais il n’en est rien. Par exemple, un établissement français ne peut se contenter de refuser un crédit, il doit se justifier. Or, certaines technologies ne permettent pas d’obtenir ce niveau de réponse.

NG : Le marché va-t-il décoller ou rester un peu en marge ? Va-t-il trouver d’autres applications ?

RL : L’analyse prédictive ne concerne pas seulement les clients mais également les produits (qualité, benchmark interne), dont l’optimisation des stocks. En GPAO, l’objectif est de ne pas tomber en rupture, ne pas acheter trop tôt, ne pas stocker démesurément, l’entreprise se positionne sans arrêt sur un ajustement minimal. Elle doit donc posséder une très bonne compréhension et visibilité des curseurs d’achat, de paiement, de manière à installer un flux régulier. Dans ce contexte, les modèles de prédiction sont légion.
Autre point émergent, la qualité. Par exemple, la gestion de la qualité dans les pièces se mesure par rapport au taux de défectuosité par des contrôles qualité. Les techniques prédictives permettent de comprendre quels sont les facteurs prédictifs de l’apparition d’un défaut, l’enchaînement qui conduit à une pièce sans défaut ou au contraire défectueuse.

NG : Quels outils permettent de faire cela ? Pas les outils classiques de GPAO ?

RL : Non, effectivement. Des composants dits de data mining en général viennent compléter des outils statistiques afin d’identifier toutes les relations entre les variables. Un système GPAO possède souvent l’ensemble de ces données. Il s’agit ensuite de les traiter. Les acteurs sur ce marché sont SAS, SPSS.

NG : Mais ces acteurs sont très généralistes et pas forcément verticalisés ?

RL : Tous ces éditeurs sont souvent généralistes. Tout naturellement, les boîtes à outils des éditeurs généralistes trouvent leur place dans les grandes sociétés et sont utilisées des utilisateurs possédant un certain niveau d’expertise. Par ailleurs, les coûts des solutions obligent à avoir l’usage, la structure, les personnes et les bases de données pour les faire fonctionner. Ce qui signifie que l’entreprise a l’habitude d’effectuer du traitement de données. Les PME, quant à elles, ne souhaitent pas ou n’ont pas l’opportunité de réaliser un profit de cette nature. Dans ce cas, elles mettent en place des applications « embedded », d’où l’intérêt de KXEN. Ce qui explique également le succès de E-piphany qui a la capacité fonctionnelle de faire du modèle verticalisé.
Pour sa part, Netral s’est verticalisé en gestion de production et réalise du réseau de neurones pour la prédiction industrielle. Bien souvent, les acteurs spécialisés possèdent une solution et défendent une technologie. Dans le domaine de l’analyse prédictive et des réseaux bayésiens, Bayesia Lab travaille sur l’analyse prédictive dans les centres d’appels téléphoniques. Orange travaille avec e-piphany qui effectue de l’analyse prédictive concernant le churn.
Après, il y a tous les partenariats. Business Objects est partenaire de Isoft qui édite un moteur d’analyse de règles, très utilisé en marketing direct.

NG : Ce type de projet ne dépend-t-il pas un peu de la crise économique ? De la santé financière de l’entreprise ?

RL : Effectivement. Il faut prendre en compte la capacité de l’entreprise à mettre en œuvre mais aussi sa réactivité face aux nouvelles technologies. L’analytique est un domaine, quoiqu’on en dise, connaissant des taux de succès important par rapport au reste des projets CRM.

NG : Le prédictif ouvre donc d’autres perspectives que d’envoyer des courriers aux clients ?

RL : Le système connaît cependant une limite. Imaginez que un gain de performance de 15 % sur les envois de mailings et parallèlement, une dépense faramineuse. Mieux vaut donc dans ce cas envoyer un mailing à l’ensemble des clients. Il y a des domaines où les coûts de l’analyse dépassent les gains de performance. L’analytique coûte des frais de recrutement, gestion, outils, installation, équipe, etc. Si elle produit moins qu’elle ne rapporte, elle détruit de la valeur.
Les retours sur investissement de ces solutions ont généralement lieu sur les premiers coups. Après, les problématiques attaquées sont forcément de plus en plus complexes et le delta s’avère de plus en plus faible. A partir du moment où une entreprise aura traité ses 20-80, les 20 % de problèmes qui font 80 % de sa productivité, elle peut à un moment se trouver dans une courbe décroissante. Une crise de maturité.

NG : Les pré-requis ?

RL : Des données de qualité. Aujourd’hui, les utilisateurs se jettent sur les données sans trop les comprendre et les outils ne font pas tout. Il faut garder une connaissance fonctionnelle. Il faut également les données pour pouvoir faire du prédictif et bien analyser les besoins. Cependant, les entreprises demandent de plus en plus un taux minimal d’incertitudes. Il existe une certaine confusion sur ce qu’est la prédiction également : l’entreprise ne gagne pas à tous les coups, il faut savoir répéter un événement pour mieux le comprendre et l’analyser.

NG : Les acteurs du marché ?

RL : Les technologies aujourd’hui sont différentes selon les éditeurs, il existe des modèles plus ou moins changeants :
- à l’origine, les techniques de régression étaient liées au monde de la statistique. Ce monde a évolué un peu avec KXEN qui lui a fait une régression polynomiale, mais est allé dans un niveau de complexité plus élevé. KXEN est un modèle très satisfaisant mais qui éprouve des difficultés à se mettre en œuvre. KXEN multiplie les partenariats mais leur technique n’est pas académique au sens du terme et n’a pas passé l’épreuve du feu théorique.
- Les réseaux de neurones. Computer Associates fournit un moteur basé sur la technologie neugent, qui fait de la prévision de pannes, de la gestion préventive.
- Les réseaux bayésiens comme Bayésia qui travaille sur des notions de probabilités.
- Des entreprises qui travaillent sur des algorithmes génétiques pour combiner des règles.
Chacun suit son modèle pour obtenir un modèle de prévision fiable.

NG : Cela ne peut pas être une combinaison de modèles ?

RL : Plus vous croisez plus vous avez de la peine à mettre en place, sachant que l’intégration du modèle dans le mental des utilisateurs est nettement plus importante. L’utilisateur accepte plus facilement l’information qui va l’aider dans la productivité de son travail. La mise en évidence de moyens doit se faire par rapport à une charge et les ressources disponibles.




Nouveau commentaire :
Facebook Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.