Système d’information décisionnel : apport et limite de la modélisation ?
Michel Bruley
Aujourd’hui dans les entreprises on utilise beaucoup de modèles qui permettent de formaliser une représentation simplifiée de l’environnement et des activités. Ces modèles créent pour les collaborateurs des cadres communs de référence, ils permettent de structurer les raisonnements sur les situations existantes, sur les enjeux (financiers, humains, techniques) et sur les scénarios du futur. In fine tout cela aide à la communication des expériences, des réflexions de tous et crée ainsi une situation favorable à la prise des décisions.
Cependant il ne faut pas confondre solution analytique d’un problème et modèle numérique. La première est fondée sur une fonction mathématique connue qui couvre parfaitement le problème, alors que le modèle numérique est une approximation à l’aide de calcul de la solution réelle dont on n’a pas de description mathématique rigoureuse.
Un modèle est toujours une interprétation de la réalité qui est construite en fonction d’un objectif qui détermine le choix des paramètres et privilégie un point de vue. Un modèle n’est donc jamais totalement représentatif de la réalité. Lorsque l’on veut obtenir une représentation de données historiques, on construit un modèle descriptif qui permet d’intégrer au mieux la masse des informations ... disponibles. Lorsque l’on veut anticiper les événements, estimer des potentiels, on construit un modèle prédictif pour lequel on a sélectionné des variables dites explicatives pour déterminer les variables inconnues recherchées.
Les principales exigences de qualité d’un modèle sont qu’il couvre bien le champ du problème concerné, qu’il permette d’obtenir le résultat recherché et tout cela selon un processus maîtrisé. L’exigence importante complémentaire est la durée de vie d’un modèle. En effet, construire un modèle nécessite généralement un investissement conséquent que l’on cherche à amortir par des usages multiples. Mais la réalité est complexe et évolutive, les modèles ont donc régulièrement besoin d’être actualisés pour palier leur dérive naturelle dans le temps.
Pour aller plus loin, vous pouvez consulter mes articles sur le thème des approches analytiques de pointe, data mining ou fouille de données : cliquez ici
> A LIRE EN CE MOMENT SUR DECIDEO
-
MicroStrategy muscle ses fonctionnalités de GenIA Auto et lance Auto Express pour une évaluation gratuite des avantages uniques de sa plate-forme AI+BI
-
Les entreprises et le grand public n’accordent pas la même confiance à l'IA générative : les entreprises l’adoptent, mais le grand public reste méfiant
-
Huawei dévoile OceanStor A800, une nouvelle solution de stockage adaptée à l’IA
-
Teradata prolonge sa collaboration stratégique avec AWS pour mieux accompagner ses clients dans leur démarche de modernisation du cloud
-
Rivery et Sigma simplifient l’analyse des données pour les utilisateurs non techniques
-
Starburst nomme trois leaders de l’industrie pour accélérer sa croissance
-
Une étude menée par le cabinet ESG pour Qlik révèle de sérieuses lacunes dans l’application de pratiques responsables en matière d’IA dans de nombreux secteurs
-
Oracle Code Assist peut aider les développeurs à créer des applications plus rapidement grâce à l'IA
-
Datascientest et Mines Paris- PSL Executive Education renouvellent leur partenariat pour la formation continue aux métiers de la data
-
Gouverner l’intelligence artificielle : les données, leur qualité, leur conformité (4ème partie)