Aujourd’hui dans les entreprises on utilise beaucoup de modèles qui permettent de formaliser une représentation simplifiée de l’environnement et des activités. Ces modèles créent pour les collaborateurs des cadres communs de référence, ils permettent de structurer les raisonnements sur les situations existantes, sur les enjeux (financiers, humains, techniques) et sur les scénarios du futur. In fine tout cela aide à la communication des expériences, des réflexions de tous et crée ainsi une situation favorable à la prise des décisions.
Cependant il ne faut pas confondre solution analytique d’un problème et modèle numérique. La première est fondée sur une fonction mathématique connue qui couvre parfaitement le problème, alors que le modèle numérique est une approximation à l’aide de calcul de la solution réelle dont on n’a pas de description mathématique rigoureuse.
Un modèle est toujours une interprétation de la réalité qui est construite en fonction d’un objectif qui détermine le choix des paramètres et privilégie un point de vue. Un modèle n’est donc jamais totalement représentatif de la réalité. Lorsque l’on veut obtenir une représentation de données historiques, on construit un modèle descriptif qui permet d’intégrer au mieux la masse des informations ... disponibles. Lorsque l’on veut anticiper les événements, estimer des potentiels, on construit un modèle prédictif pour lequel on a sélectionné des variables dites explicatives pour déterminer les variables inconnues recherchées.
Les principales exigences de qualité d’un modèle sont qu’il couvre bien le champ du problème concerné, qu’il permette d’obtenir le résultat recherché et tout cela selon un processus maîtrisé. L’exigence importante complémentaire est la durée de vie d’un modèle. En effet, construire un modèle nécessite généralement un investissement conséquent que l’on cherche à amortir par des usages multiples. Mais la réalité est complexe et évolutive, les modèles ont donc régulièrement besoin d’être actualisés pour palier leur dérive naturelle dans le temps.
Pour aller plus loin, vous pouvez consulter mes articles sur le thème des approches analytiques de pointe, data mining ou fouille de données : cliquez ici
Rédigé par Michel Bruley le Lundi 22 Août 2011 à 08:34
|
Permalien
|
{0}
Nouveau commentaire :
> A LIRE EN CE MOMENT SUR DECIDEO
-
Gouverner l’intelligence artificielle : cartographier les risques (2ème partie)
-
JFrog sécurise le développement d’intelligences artificielles et simplifie de bout en bout la gestion de modèles de machine learning grâce à son intégration avec la plateforme MLflow de DataBricks
-
Le nouvel outil Webfleet Transition EV permet l’électrification des flottes par la donnée
-
Alteryx et DataCamp s'allient pour permettre à tous les salariés de se former à l'analyse
-
Quel est le futur des métiers de la data et de l’IA vu par les grands groupes français ?
-
OneStream Software réinvente et renforce le rôle du CFO grâce à sa nouvelle solution Narrative Reporting
-
Empreinte de la Donnée sur le vivant : Le Cercle de la Donnée et l’Agora 41 présentent 5 propositions pour un numérique responsable
-
Les dirigeants adoptent l'IA sous la pression médiatique, mais la préparation organisationnelle reste un défi majeur
-
La NASA s’appuie sur le moteur d’Enterprise Search de Sinequa pour propulser son nouveau moteur Science Discovery Engine
-
IA, simplification et débureaucratisation pour transformer l'État
Profil
Michel Bruley
Liste de liens
Dernières notes
Meilleurs vœux aux parents pour 2024
10/01/2024
RECETTE DE LA DINDE AU WHISKY
27/01/2023
Le 1 to 1 marketing a bientôt trente ans
24/09/2022
Galerie
Archives
Rubriques
Rubriques