Dans toute discussion, les données quantitatives sont des arguments de poids qui permettent de fixer des états des lieux et de dépasser les appréciations subjectives que tout un chacun a, quel que soit le sujet. Sans vouloir ne faire dépendre les choix politiques que des nombres, des diagrammes et des graphiques, force est de constater l’importance des données quantitatives dans les décisions politiques, à commencer par celles concernant l’opinion des citoyens. De la même façon, les données quantitatives sont le carburant indispensable du contrôle démocratique des politiques par les citoyens. La mise à disposition de données dans le cadre de l’open data va dans ce sens. Pour aller plus en détail sur ces sujets, vous pouvez utilement lire mes articles ci-dessous :
Les données quantitatives sont des arguments de poids
De l’analyse de données aux choix politiques
Les données sont le carburant indispensable de la dynamique démocratique
L’open data au service des citoyens pour contrôler les politiques et l’administration
Cependant l’usage des données quantitatives n’est pas exempt de difficultés techniques, de mauvaises pratiques ou de manipulations. Dans notre société médiatisée en temps réel, personne ne peut prendre du temps pour traiter les sujets complexes qui doivent comme tous les autres être couverts en quelques secondes d’antenne ou quelques lignes. Dans ce contexte, les données quantitatives sont privilégiées pour les évaluations. Peu importe le peu de pertinence de l’utilisation de moyennes pour apprécier la réalité de la vie quotidienne de dizaines de millions de personnes, peu importe que le périmètre des statistiques utilisées soit mouvant, accumulant les ruptures de séries, les changements de méthode et de concept (définitions différentes des chômeurs ANPE et des chômeurs BIT), les chiffres sont là pour appuyer les discours et justifier les choix.
Seule la volonté de manipuler justifie souvent cette appétence pour les données quantitatives qui expliqueraient et remplaceraient tout. En outre les techniques de manipulation des données sont nombreuses et bien maîtriser par les spécialistes de la communication, il s’agit par exemple de ne retenir que ce qui arrange, d’utiliser un indicateur-écran, exemple l’indicateur des prix qui est une moyenne et n’est l’indicateur de personne, de changer la façon de compter en gardant apparemment le même indicateur, et d’en général faire dire à un chiffre ce qu’il ne dit pas. Le sommet est atteint avec les comparaisons internationales fondées sur des données des comptabilités nationales largement hétérogènes. Une place à part est à faire cependant pour les enquêtes internationales du type PISA.
Les journalistes sont au cœur de ce sujet étant les premiers à produire, diffuser des données fausses, mais aussi à dénoncer celles des politiques, de l'administration, des entreprises ou des associations. Dans ce contexte, de nombreuses initiatives ont vu le jour pour faire la traque aux données fausses, aux fausses nouvelles, aux manipulations, mais les traqueurs ne sont pas toujours sans arrière-pensée ni orientation politique marquée. Il convient donc de toujours rester en alerte tant la désinformation est généralisée. Ci-dessous de façon non exhaustive quelques outils :
Un petit guide pour repérer les fake news
Le site d’Hoaxbuster qui traque les canulars sur le web
Le Décodex du journal Le Monde qui est orienté à gauche
Rédigé par Michel Bruley le Dimanche 21 Janvier 2018 à 12:18
|
Permalien
|
{0}
> A LIRE EN CE MOMENT SUR DECIDEO
-
Une étude Riverbed révèle que les entreprises du secteur industriel ont doublé leurs investissements dans l'IA, mais que seulement 37 % d'entre elles sont pleinement préparées sa mise en œuvre
-
L’écart d’exécution de l’IA : pourquoi la majorité des entreprises peinent encore à produire des résultats
-
Compliance : Altares lance la première IA dédiée au traitement des faux positifs
-
Impossible de stopper le shadow AI : voici comment en faire une force
-
Seules 7 % des entreprises considèrent que leurs données sont entièrement prêtes pour l’IA, selon une nouvelle enquête menée par Cloudera et Harvard Business Review Analytic Services
-
Denodo Platform 9.4 accélère la transition vers une IA agentique opérationnelle et performante
-
Sauvegarder, c’est gouverner : la donnée au cœur de la résilience numérique
-
La moitié des entreprises françaises s’efforcent de développer des capacités IA agentiques fiables, mais le talent, le coût et la réglementation/l’éthique restent des obstacles
-
Pourquoi ne devrait-on plus avoir peur de l’optimisation mathématique ?
-
Des silos de données à la clarté décisionnelle : Workiva réinvente la GRC avec une plateforme dopée à l'IA pour l'audit, le risque et le contrôle
Profil
Michel Bruley
Liste de liens
Dernières notes
Galerie
Archives
Rubriques
Rubriques








