Dans le domaine marketing afin de mieux comprendre les comportements et les attentes des consommateurs les entreprises réalisent des études de marché, qualitatives ou quantitatives. Les études qualitatives ne cherchent pas à établir une vérité, réalisées à partir d’entretien auprès de petits échantillons de personnes elles permettent de rechercher des idées nouvelles, d’élaborer des hypothèses ou de tester des orientations. Les études quantitatives qui sont quant à elles à la quête d’une vérité scientifique en cherchant à vérifier des hypothèses et mesurer des faits, n’atteignent pas toujours leurs objectifs du fait de la qualité des données disponibles et par-dessus tout du fait que le monde d’aujourd’hui est très complexe et chaotique.
Dans le domaine financier, la théorie voudrait par exemple que les analyses quantitatives permettent aux gestionnaires de gérer scientifiquement leurs investissements et d’ajuster régulièrement leurs actifs de portefeuille en prenant en compte le risque et la rentabilité attendue. Tout cela serait parfait s’il n’y avait pas de facteurs humains, de décisions prisent par des hommes dont les comportements sont sensés être rationnels mais qui ne le sont pas toujours, et qui donc mettent à mal tous les beaux modèles mathématiques.
Les données quantitatives sont des instruments essentiels d’argumentation et de légitimation, elles sont généralement préférées à tous les autres éléments qualitatifs pour étayer les raisonnements. Il existe un véritable mythe du quantitatif qui se résume dans l’idée selon laquelle une analyse quantitative au moyen de modèles mathématiques rend les conclusions qui en sont tirées absolument indiscutables. Tout le monde aujourd’hui réclame donc à la science des vérités, et les responsables veulent des discours faciles à prêcher. Or la réalité n’est pas si simple, par exemple la physique offre de beaux exemples de réussites des mathématiques appliquées, mais aussi de faillites des mathématisations trop simplistes et malheureusement, les vérités scientifiques sont d’autant plus rares que les phénomènes sont complexes.
Pour aller plus loin sur ce sujet vous pouvez consulter mes articles sur la problématique de l’analyse et de ses différentes dimensions (problème, méthode, analyse, données, information, décision, action) : cliquez ici
Rédigé par Michel Bruley le Lundi 25 Juillet 2011 à 13:39
|
Permalien
|
{0}
> A LIRE EN CE MOMENT SUR DECIDEO
-
Gouverner l’intelligence artificielle : un passage obligé afin d’en sécuriser les bénéfices pour l’entreprise (1ère partie)
-
Etude Panasonic : la vision par ordinateur sera le fer de lance de la productivité de l'IA en 2024
-
Étude Salesforce : Le manque de stratégie data entrave l'avancement de l'IA dans le secteur du Retail
-
LF AI & Data Foundation lance Open Platform for Enterprise AI (OPEA) pour une collaboration innovante en matière d'IA d'entreprise
-
SAP Labs France inaugure son premier Centre d’Expérience client dédié à l’IA, à Sophia Antipolis
-
Databricks annonce une croissance annualisée de plus de 70 % dans la région EMEA, alimentée par la demande des entreprises en matière d'IA
-
Selon une étude TEI réalisée par le cabinet Forrester, la solution Qlik Cloud Analytics assure un retour sur investissement de 209 %
-
Big data et sécurité intérieure : l’éditeur français Blueway, toujours au 1er rang pour remplacer l’américain Palantir, auprès de la DGSI
-
Publication du rapport de Stanford University : Artificial Intelligence Index Report 2024
-
Plaidoyer pour une adoption raisonnée de l’IA : en France, seulement 20 % des décideurs privilégient l’esprit critique de leurs employés, malgré un usage massif des outils d’IA
Profil
Michel Bruley
Liste de liens
Dernières notes
Meilleurs vœux aux parents pour 2024
10/01/2024
RECETTE DE LA DINDE AU WHISKY
27/01/2023
Le 1 to 1 marketing a bientôt trente ans
24/09/2022
À propos de l’intelligence économique
23/07/2022
Galerie
Archives
Rubriques
Rubriques