Dans le contexte mondial de la globalisation, États et Entreprises font face à une situation de perte de contrôle et de compétitivité. Par exemple les notions de propriété intellectuelle se perdent face à d’autres cultures, d’autres visions et la construction en Chine d’une usine s’accompagne souvent d’une seconde usine identique, en concurrence directe sur les mêmes produits avec des prix cassés.
L’expérience montre une transformation drastique du rôle des États que leur nouveau statut rend malhabiles pour affronter la notion de concurrence alors même que leurs frontières ont quasiment disparues. Ainsi la France depuis vingt ans voit voler en éclats quinze siècles de souveraineté, rendant toute transformation difficile et encore plus tout diagnostic partagé. Comment trouver une vision commune dans une situation inédite si complexe. Le premier État à avoir été confronté à cette situation est Singapour il y a déjà 40 ans. Parce ce qu’il se trouvait de fait face à une concurrence énorme, il a su réagir et la situation actuelle est pour lui plus facile que celle d’États souverains, riches de nombreux siècles d’Histoire, comme la France.
Il s’agit pour un état de définir une stratégie macro-fiscale efficace dans un contexte d’hyper-compétitivité.
Il y a une concurrence féroce des fiscalités intraeuropéennes, la France a du mal à s’y adapter. Il faut complètement changer de perspective et adopter une nouvelle vision de la Nation, sortir d’un Ancien Régime, s’adapter. Le problème majeur n’est pas la Chine et les délocalisations lointaines, mais bien à l’intérieur même de l’Union Européenne, dans quinze des vingt-sept pays qui maintenant la constituent. Les nouveaux pays provoquent une mutation profonde non envisagée dans les conséquences de l’élargissement.
Les douze nouveaux pays semblent ne rien peser d’autre que leurs douze voix et pourtant la France et l’Allemagne auraient dû exiger une harmonisation fiscale préalable. Il faut évoluer en fonction de cette nouvelle donne fiscale et ce sera difficile pour la France. Ainsi, alors que l’ISF, l’impôt sur la fortune, est supprimé dans les autres pays, en France il est en partie maintenu avec l’IFI. Le vrai problème est bien cette compétition fiscale, il faudrait agir tout de suite et ne pas attendre.
Mais en France, 10% des ménages paient 70 % de l’impôt sur le revenu, et peu d’entreprises paient des impôts. Dans ce contexte, il faudrait réhabiliter la TVA que tous paient et la CSG comme impôt de base dans le système, avec un taux intrinsèque de 13%. Ce même niveau de prélèvements obligatoires permettrait de reconstruire le système fiscal, une CSG à 13% sur tous les revenus, avec un abattement de 2 000 euros. Ce serait un bouleversement total pour l’ensemble de la population, et il faudrait une contrainte efficace pour la mettre en œuvre si on veut éviter les bouleversements.
Dans ce modèle, il faudrait aboutir à deux taux, trois tranches, et peut-être passer par un système intermédiaire de cinq tranches. En plus, il faudrait supprimer l’IFI et établir à la place un impôt sur le revenu de la fortune. Quant à l’impôt sur les sociétés, en France, en Allemagne et en Italie un taux fixé à 18 % permettrait de garder les entreprises dans ces pays. En effet préalablement à la délocalisation, des simulations de calculs de coûts de revient de ces opérations sont réalisées et les États peuvent ainsi définir les écarts maximums pour que les gens ne partent pas et restent en France, en Allemagne ou en Italie, par exemple.
Il faudrait aussi mentionner la fiscalité de l’épargne, de 12% à 13% au-delà de 2 ans et de 18% pour moins de 2 ans. Il s’agit là de stratégies macro-fiscales qui illustrent l’ampleur des transformations à mettre en œuvre. Car s’il est important d’évaluer ce que font les autres, il faut surtout définir ce que l’on veut soi-même. Face à une baisse de la fiscalité, il convient d’évaluer, d’être clair sur l’environnement, la volonté propre des acteurs et les moyens à se donner pour réussir. Enfin, face à la globalisation, les États doivent changer et adopter une démarche stratégique.
Rédigé par Michel Bruley le Lundi 22 Juillet 2019 à 15:09
|
Permalien
|
{0}

Si le monde change, les problèmes structurels généralement demeurent. Il faut donc se poser les bonnes questions et se méfier des idées reçues. Le virage technologique n’a de sens que s’il est accompagné d’un virage social et structurel. Enfin, il faut bien avoir en tête que pour assurer le développement des pays et des entreprises, il est toujours préférable de leur apprendre à pêcher plutôt que de leur fournir le poisson.
Le sentiment d’accélération du changement témoigne d’une illusion récurrente de notre société. En réalité, chaque génération soulève les mêmes interrogations. De nombreux gains de productivité ont été réalisés au détriment des clients et des salariés, mais il ne faut pas surestimer l’importance du progrès technique et seuls les chiffres corroborent la réalité. Au regard du contexte actuel, la solitude constituera le grand marché du futur. Il ne faut pas se tromper sur les métiers de demain, ils concerneront surtout l’assistance aux personnes âgées, la conduite d’engins, le secteur du bâtiment et la vente. L’avantage c’est qu’ils permettront notamment de réhabiliter le lien social et la convivialité.
Le progrès technique ne représente que 20% de l’innovation et peu de chercheurs se lancent dans la création. À l’inverse, deux tiers des créateurs d’entreprise proviennent des PME. Cependant, il est toujours indispensable d’évaluer si le progrès technique correspond à un véritable besoin.
Si la technique peut concourir au développement, elle ne pourra jamais se substituer à l’action humaine. La réussite dépend avant tout de l’efficacité du management. Par ailleurs, de nombreuses firmes possèdent encore une vision trop luxueuse de la technologie. Or, seule la capacité à intégrer le progrès technique dans la stratégie de l’entreprise se révèle capitale.
Les questions d’identité et de mode opératoire sont généralement négligées. Or, la connaissance de soi permet de déterminer ses avantages et ses déficiences. De plus, le discours prévaut souvent sur l’action. L’intelligence économique n’est pas une fin en soi. L'avenir résulte du hasard et de la volonté et il ne faut donc pas prétendre que tout est écrit d’avance.
Dans les années 1990, la croissance américaine dépassait de 1,5 point celle de l’Europe. Les investissements technologiques américains étaient également doublement supérieurs à ceux opérés sur notre continent. Les pays européens en ont donc déduit qu’ils avaient raté la révolution technique. Or, le PIB total dépend du PIB par tête. Entre 1970 et 1990, les États-Unis ont augmenté leur population de 28%. Les croissances économique et démographique étaient étroitement liées.
La croissance et la productivité américaine étaient plus élevées dans les années 1970 que dans les années 1990. Actuellement, la productivité américaine est supérieure à la productivité française. Or, les Américains travaillent chaque année 30 jours de plus que les Français. Pour les économistes, la productivité est généralement le « résidu » non expliqué de la croissance. En outre, de nombreux hommes politiques refusent de se poser les vraies questions et si les technologies de l’information se révèlent substantielles, elles n’en deviennent pas pour autant essentielles.
Selon une étude américaine, le lien entre la productivité et les investissements massifs dans les technologies de l’information et de la communication n’est pas démontré. Les nouvelles technologies doivent surtout impliquer une évolution des attitudes managériales. En effet, l’Homme doit toujours faire face à de nouveaux défis.
Les innovations se répandent par vagues successives. Celles-ci commencent toujours par des évolutions scientifiques et sont dans un premier temps très centrées sur la technique. Puis, les possibilités des évolutions technologiques devenant plus lisibles, les entreprises les intègrent dans de nouvelles offres créatives : elles se reconfigurent en intégrant dans leurs produits, services et processus la nouveauté technologique. Ainsi, la phase technologique est relayée par une phase de « synthèse créative » qui renouvelle les offres et impacte les consommateurs.
Pour les utilisateurs, l’apparition des nouvelles technologies de l’information s’est traduite dans un premier temps, par une réduction des coûts et une amélioration de l’efficacité des processus, en particulier de la chaîne d’approvisionnement. Dans un deuxième temps, il y a eu un basculement et une reprise d’initiative par les utilisateurs qui perçoivent mieux l’impact et les potentialités induites par ces nouvelles technologies. En effet, ces nouvelles technologiques remettant en cause le métier des entreprises dans leurs fondamentaux (réduction considérable des délais et des coûts), ces entreprises sont amenées à s’interroger sur le cœur de leur métier, sur leur projet, sur leur évolution possible et tout ceci les conduit à rechercher de nouvelles offres à très haute valeur ajoutée.
Ainsi, la possibilité de stocker des dizaines de milliers de chansons change radicalement la relation des individus à la musique.
Dans un autre domaine, celui de la mode, l’on pourrait citer le cas d’entreprises qui utilisent les actuelles technologies de l’information de manière optimale pour réaliser en une même semaine toutes les étapes de la conception, de la fabrication de vêtements et de leur distribution partout dans le monde. Cela correspond à ce que l’on appelle dans l’industrie au « 0 délai ». Cette réduction des délais est transformée en « service au client final».
Cependant si les compagnies de taxis ou UBER utilisent le GPS pour localiser l’appel et envoyer la voiture la plus proche de l’adresse, cela a certes entraîné des réductions de coûts très notables, mais les évolutions de la fonction « transport » en elle-même ne sont pas révolutionnaires.
Une grande partie de la valeur est créée par le client lui-même. Un produit ou un service n’est jamais que l’idée que l’on s’en fait. Les produits cultes sont ceux qui laissent une forte marge d’interprétation au client, qui va bâtir sa propre valeur sur le produit. Les produits innovants sont ceux qui vont plus loin dans la satisfaction de l’individu. En période technologique, beaucoup de produits sont des succès technologiques, mais des échecs commerciaux, parce qu’ils n’intègrent pas suffisamment les rêves et les attentes des utilisateurs. Ainsi, la téléphonie mobile répond au rêve universel de pouvoir contacter et d’être relié à ses proches à tout moment.
Il faut être conscient que l’entreprise est un des rares corps sociaux dont l’existence ne peut durer qu’en dynamique. Si l’entreprise arrête d’innover, elle perd de sa valeur et se condamne. Le rôle de l’entreprise est de gérer le processus d’innovation. Tout produit commence à être obsolète dès le moment où il est diffusé sur le marché et les entreprises doivent toujours avoir de nouveaux produits dans les tuyaux.
Ces exemples montrent que nous sommes bel et bien rentrés dans une phase de synthèse créative. Les grandes entreprises se sentent désormais plus à l’aise avec les nouvelles technologies de l’information et parviennent à dépasser la simple amélioration des processus et faire une synthèse qui débouche sur de nouvelles offres de produits qu’ils peuvent proposer à leurs clients. Ces entreprises intègrent dans leurs produits toutes les innovations technologiques disponibles qui permettent d’améliorer les processus de toute la chaîne de production et de répondre à toutes les attentes des clients en termes de personnalisation, de rapidité de mise à disposition, etc. Il est intéressant d’observer que ces produits cherchent toujours à répondre aux désirs et aux rêves les plus profonds des utilisateurs finaux.
Pour aller plus loin : Système décisionnel comment concilier industrialisation et capacité d'innovation
Pour répondre aux mutations socio-économiques, il convient d'intégrer trois points essentiels dans le management :
1° - Considérer les dépenses dans les systèmes d'information comme un investissement et non comme un coût.
Un exemple illustre ce principe : l’analyse par métiers au sein des entreprises, montrant les dépenses en information et communication rapportées au chiffre d’affaires et à la croissance, a mis en évidence que des dépenses plus importantes dans les systèmes d’information engendraient la croissance du volume d'activité et une plus forte rentabilité.
Ce constat est corroboré par une autre observation : plus les dépenses en information et communication d'un pays sont élevées, plus son P.I.B. est important.
Récemment, 9 entrepreneurs sur 10 n’étaient pas en mesure d’évaluer les dépenses globales en information et communication de leur entreprise et surtout ils n’étaient pas capables de se comparer. Or, il est capital de se mesurer à la concurrence pour gagner en compétitivité.
2° - Passer du management au leadership.
Il est indispensable de sortir des organisations pyramidales. Le système reste très mécanique et rationnel. Les outils de management font plus appel à l’intelligence qu’à la confiance et ne sont pas adaptés à la société actuelle. Il paraît important de partager les informations et de travailler dans la transparence.
Un des objectifs des systèmes d’information et de communication est de connecter entre eux des individus qui possèdent un savoir, en vue d’une mutualisation.
Le bon leader se montre à la fois visionnaire et gestionnaire. Il doit être capable d’aller plus vite que le concurrent. Il doit oser faire confiance a priori et contrôler a posteriori ses équipes. Le gagnant est celui qui gère mieux et ose créer rapidement et autrement avec une méthodologie alliant le choix des clients suivant le métier exercé, l’analyse marketing, la progression et l’innovation, la perception des besoins, le benchmarking, sans oublier la place de l’humain et de l’équipe, essentielle pour mener à bien cette mission.
3° - Répondre à trois carences majeures.
La dimension clientèle est trop souvent ignorée des conseils d’administration et des comités exécutifs. Le client doit figurer au cœur de l'entreprise, ses priorités soigneusement recueillies, analysées et intégrées dans la stratégie ce qui n'est que rarement le cas.
La dimension humaine est généralement négligée dans la conception des systèmes de l’information, car ces derniers sont trop souvent construits suivant une logique économique et financière. Il est pourtant manifeste que le progrès humain engendre le progrès économique. Le résultat devient visible en deux ou trois ans.
L'usage de la planification ne présentait pas un grand intérêt, hormis l'analyse de la concurrence. Son abandon signifie que l'entreprise ne dispose plus des éléments indispensables pour une comparaison avec les principaux concurrents. En conséquence, les pratiques de benchmarking ont tendance à diminuer.
Conclusion
Le DSI d’aujourd’hui est appelé à intégrer ces trois constats majeurs. Il doit être omniprésent, reconnu dans ses fonctions et participer à part entière aux prises de décisions de l’entreprise. Il doit s'imposer comme un des hommes clés de l’équipe de direction. Dans cette perspective, il doit combiner l’économique et l’humain et conjuguer court et long termes.
L'intérêt de l'e-CRM est de recueillir le maximum de données sur les internautes et surtout de pouvoir les interpréter rapidement. Quels sont les enjeux de cette interprétation de données ? Quels profits peut-on tirer de cette exploitation ? Exemples concrets en France si possible, Europe, Etats-Unis ?
Les enjeux sont de pouvoir mieux gérer :
• les sites (performance du site, publicité, promotion, présentation, produit) par une approche classique d’analyse de leur activité,
• les clients (connaissance des clients, personnalisation des relations, fidélisation, optimisation de la valeur) par une approche individualisée de leur activité.
Les bénéfices à attendre de ces dispositifs concernent :
• d’une façon générale le chiffre d’affaires et la rentabilité des opérations, d’une façon plus spécifique le taux de conversion (visiteur/acheteur), comme par exemple pour Travelocity qui a atteint en 2000 un taux de 8,1%,
• les actions qui peuvent être optimisée sont par exemple : l’affichage des bannières, la sélection des offres à faire (avec ou sans tarification dynamique), les communications on line (demandes d’informations personnalisées, accès à un téléopérateur), les communications off line (e-mail, fax, publipostage, télémarketing).
Les problèmes les plus fréquemment rencontrés sont liés à l’incapacité à mesurer l’efficacité des bannières, d’analyser les interactions avec les visiteurs, les navigations, de corréler les ventes (on line, off line) avec l’activité du site, de déterminer des tendances d’évolution, … etc. ; en un mot de répondre aux questions (parfois complexes) que se posent les responsables Marketing pour qui le web n’est qu’un canal de vente :
• segmenter les visiteurs, tracer l’origine des internautes,
• segmenter les clients, analyser les paniers,
• calculer des scores de fidélité, des métriques de valeur,
• mesurer l’impact des campagnes (campagnes d’e-mails, ….etc.),
• chiffrer les coûts d’acquisition, de fidélisation,
• etc. …
Comment organiser la collecte des données sur les internautes pour permettre des traitements efficaces ? Quelles sont les structures de bases de données appropriées ?
Collecte de données :
• Capturer des données relatives à l’activité web : journaux (log), cookies, publicité (bannières),
• Relier ces données à un individu et à ses données personnelles : caractéristiques de la personne, achats antérieurs, relations historiques avec l’entreprise, historique des campagnes marketing, historique des navigations, etc….
• Analyser toutes les données personnelles en les rapprochant des données d’activité (commandes, facturation, retours, stocks, réclamations, etc…) et de navigation pour mieux comprendre et mieux agir.
• Pour les clicks & mortars ne pas oublier que le web n’est qu’un canal parmi d’autres et qu’il convient de ne pas mettre en place des moyens et des structures parallèles sans les responsables des systèmes d’information de l’entreprise.
Attention cependant aux problèmes liés à la volumétrie (cf. Travelocity) à la complexité de la collecte des données auprès de nombreux serveurs géographiquement distribués (cf. E-Trade).
Modèle de données :
Il faut prévoir un modèle ambitieux (client, produit, panier, web site, session, protection de la vie privée, …) permettant de gérer une information détaillées sur l’activité. Le marché propose des modèles pour différents secteurs qui répondent à ces besoins. Ces modèles sont en 3° FN, ce qui permet une meilleure représentation du métier, une grande flexibilité et une évolutivité optimale : tiers, compte, contacts, transactions, événements, campagne, produit, canal, organisation interne, localisation.
Quelles sont les interfaces à mettre en place depuis le poste de l'internaute jusqu'au stockage dans les bases ?
Des données générées par l’activité de l’internaute à l’information utilisée par le responsable Marketing pour décider et lancer une action par exemple, il peut y avoir un nombre de couches de systèmes assez impressionnant. Dans le domaine du décisionnel classique, certaines architectures empilent ODS, Data Warehouse, Data Mart soit trois niveaux de stockage de données. C’est une mauvaise approche, il convient de limiter le nombre de couches en mettant en œuvre le concept d’Active Warehouse qui tout en limitant le nombre de stocks de données, permet de donner des moyens décisionnels à tous ceux qui en ont besoin dans l’entreprise et pas seulement à des spécialistes de l’analyse de données ou des analystes métier.
Comment interpréter les données pour fournir des informations efficaces au marketing ? Quelles sont les techniques d'exploitation ? Le datamining en particulier est-il à la portée de tous les sites, les petits comme les gros ? Avec quels moyens ?
Globalement les analyses sont classiques tant dans leur objet que par les techniques utilisées : segmentation, affinité produit, vente croisée, taux de réponse, etc. …
Cependant :
• il y a des analyses spécifiques liées à la navigation ou à la possibilité de décortiquer le non achat par exemple,
• il faut comprendre que le canal web est nouveau et que le Marketing correspondant en est à son début.
Définition des outils d’analyse ?
Il existe différents types d’utilisateurs qui emploient différents types d’outils : voir le tableau
A – Techniques de raisonnement
Déduction
passer du général au particulier, ou de la règle aux conséquences,
syllogisme : 2 prémisses, 1 conclusion,
énoncé de la norme, énoncé du cas, conclusion.
Raisonnement causal
établir des liens de cause à effet entre différents éléments, phénomènes, actes, situations,
argumentation pragmatique : méthode des avantages et des inconvénients,
arbre des causes, arbre des conséquences.
Analogie et métaphore
faire appel aux images, raconter des histoires pour transmettre des idées. Avoir recours au symbolique,
analogie : établirt une relation de similitude entre des éléments (ou des structures) appartenant à différents univers,
métaphore : une analogie condensée,
allégorie, parabole, fable.
Dialectique
intégrer dans le raisonnement la contradiction et le changement en sortant des modes de pensée ou de la logique traditionnels,
principes : de changement, de contradiction, d'action réciproque, du tiers inclus,
synthèse, dialectique en deux temps, yin et yang.
Alternative et dilemme
provoquer le choix d'une option parmi deux options proposées,
alternative : une situation dans laquelle on n'a le choix qu'entre deux partis à prendre,
dilemme : un raisonnement qui propose deux options contraires ou contradictoires entre lesquelles on a le choix mais qui aboutissent, l'une et l'autre, à la même conclusion.
Paradoxe
énoncer une opinion qui va à l'encontre des vérités ou normes couramment admises ou qui paraît défier la logique parce qu'elle porte en elle-même des aspects contradictoires,
recadrage.
Hypothèse
faire des suppositions, raisonner sur l'éventualité, le probable et les conséquences possibles,
arbre de décision : point de décision, action, événements, conséquences,
méthode des scénarios, question de confiance, argument a contrario.
Induction
passer du particulier au général, ou du fait à la loi (ou la règle),
exemple, précédent, illustration, modèle,
témoignages, conclusions tirées de données statistiques, recours à l'histoire ou aux événements passés, méthode des cas.
Explication
justifier une thèse en donnant de l'information, en cherchant à la faire comprendre,
énumérer, décrire, classer, définir, comparer, distinguer.
B – Techniques de persuasion
Synchronisation ou l'effet miroir
provoquer l'accord ou l'entente en reflétant, par ses propres comportements, ceux de son interlocuteur,
refléter le comportement de son interlocuteur : sur le plan corporel, sur le plan du langage,
reformulation "rogérienne", mimétisme, appropriation du vocabulaire, ...
Accumulation des oui et des accords partiels
multiplier les occasions d'acquiescement et d'accord dans un dialogue,
oui répétés, réponses aux objections selon la technique du oui mais, valorisation des accords, ...
Vente d'avantages
présenter à l'autre les avantages qui s'ensuivraient pour lui s'il adhérait à la solution, à la décision, à l'opinion que l'argumentation développe,
réponses aux besoins, faire ressortir les bénéfices, utiliser les caractéristiques (les caractéristiques sont le langage-produit, les avantages sont le langage-client.
Références et argument d'autorité
conforter une affirmation par la référence à une autorité,
parole d'honneur, infaillibilité pontificale, citations ou témoignages d'experts, jugement des professionnels, appel aux exigences de la science, ...
Appel aux émotions
essayer de convaincre son auditoire en le touchant émotionnellement,
image valorisante, orgueil, ambition, peur, mauvaise conscience, besoin de sécurité, désir d'évasion, humour, ...
l[]l
Qu’est-ce que l’open data ?
L'open data ou donnée ouverte est une donnée numérique dont l'accès et l'usage sont laissés libres aux usagers. Le droit d’accès à l’information publique serait apparu au XVIIIe siècle en Suède. Aujourd’hui il est préconisé dans l’esprit de rendre des comptes, d’information et de participation des parties prenantes à la vie publique, de transparence, de bonne gouvernance, de rendre le débat public plus pertinent. Il y a aussi des enjeux économiques ou sociétaux, comme améliorer la compétitivité, développer l’économie numérique, contribuer à la création de la société du savoir, mettre à la disposition de la société des données pouvant contribuer à l’amélioration des connaissances, faciliter les travaux de recherche.
Pour cela il est prôné de libéraliser l’accès aux données et de promouvoir leur utilisation auprès de différents publics : experts, chercheurs, universitaires, étudiants, grandes et petites entreprises, sans oublier le grand public. Mais aujourd’hui qui sait utiliser des bases de données open ? Les différents publics censés être consommateur d’open data, la plupart du temps savent au mieux, se débrouiller avec des tableurs ou de petites bases gérant peu de données. Il en résulte que la majorité des chercheurs et des journalistes ne sont pas à l’aise aujourd’hui avec l’open data.
Où en est-on en matière d’open data ?
Il faut noter que la libéralisation des données publiques en est encore à ses balbutiements. Près de 12 ans après l’impulsion donnée par la commission européenne, sur la réutilisation des données publiques, il y a incontestablement des résultats. Cependant les pays les plus en pointe en sont à investir dans la création de structures pour libéraliser les données et voient des associations se créer qui relayent leurs efforts. La France est dans le peloton de tête. Le moins que l’on puisse dire, c’est qu’il y a encore un long chemin à faire
Quelles données sont éligibles à l’open data ?
L’Open Data ne concerne pas que les données publiques, mais aussi les données privées. Il s’agit de créer un écosystème à partir de données ouvertes : l’entreprise décide d’ouvrir certaines de ses données à des partenaires qui se chargeront de développer de nouveaux usages à partir des données de l’entreprise, d’autres données et de leur savoir-faire. Il y a quelques initiatives, comme le groupement français www.datac.fr qui compte une quarantaine d’entreprises (grands groupes privés & PME) et acteurs publics pour au-delà de la simple ouverture des données, concevoir et mettre en place de nouveaux services urbains. Il y a des secteurs traditionnels en pointe comme le Transport ou le Tourisme, ou des entreprises Sncf, La Poste … Il y a aussi des offres de conseils & de services pour aider les entreprises à avancer dans ce domaine, notamment pour dégager des opportunités et mettre en œuvre des portails, des socles de type « Open Data ».
Quel avenir pour l’open data ?
Force est donc de constater que la culture des données n’est pas encore bien développée aujourd’hui et que pour l’Open Data, la route est encore longue. Mais attention, si les données peuvent être un carburant pour l’innovation, pour la démocratie, elles ne vont pas changer le monde. C’est les gens qui le peuvent. Les données sont porteuses d’une part de vérité, mais pour être utiles, elles doivent être travaillées, elles doivent être contextualisées par exemple. C’est le fameux cycle, données, information, connaissance, et cela ne suffit pas, car au-delà de la connaissance, seule l’action est porteuse de valeur.
Quelques exemples de sites d’open data :
• le Site open data de Versailles Grand Parc
• le Site open data des Hauts-de-Seine
• le Site open data de la SNCF
• la Plateforme ouverte des données publiques françaises
***
Définition : Dans le cadre de la théorie des jeux, il s’agit d’une stratégie où un joueur commence par coopérer puis répète systématiquement ce qu’a fait l’autre joueur au coup précédent (coopération s’il y a eu coopération, défection, s’il y a eu défection).
Dans le cas ou le jeu consiste en une série (itération séquentielle) de dilemmes du prisonnier, chaque participant a intérêt à pratiquer une stratégie de donnant / donnant (Tit for Tat en Anglais), c'est-à-dire à une réciprocité conditionnelle. Pour qu’une stratégie de donnant / donnant ait un sens, il faut que le dilemme se représente à nouveau dans le futur et que le nombre discret de partie soit inconnu des participants ou indéterminé. Sinon la solution classique du dilemme peut être préférée à un moment donné.
Cette stratégie se révèle la plus efficace dans les simulations mais attention dans la vie de tous les jours, rares sont les fois où nous percevons parfaitement ce que l’autre fait ou dit et où ce que nous faisons reflète ce que nous voulons faire.
Comment être efficace au dilemme du prisonnier ?
Suggestions pour s’en sortir honorablement :
• Ne pas être trop envieux : ne pas réfléchir en termes de jeu à sommes nulle, la maximisation de ses gains passe invariablement par celle des gains des autres.
• Ne pas être le premier à faire cavalier seul : il est payant de coopérer tant que l’autre joueur en fait autant. (attention à bien être dans un jeu suffisamment répétitif). La malveillance peut être profitable au début mais elle finit par détruire l’environnement qui lui permettait de survivre.
• Pratiquer la réciprocité dans la coopération comme dans la défection : le jeu stricte est le plus performant, le tit for two tats’ est moins performant. Etre indulgent (revenir tout de suite à la collaboration si elle est offerte) mais attention le niveau d’indulgence dépend de l’environnement (il faut en tenir compte dans certaines circonstances).
• Ne pas être trop malin : les stratégies compliquées ne marchent pas mieux, il est préférable d’avoir un comportement clair et donc prévisible (à court terme on peut être roulé mais à long terme on l’emporte).
Comment promouvoir la coopération ?
Il s’agit de transformer le contexte, le système afin de favoriser l’émergence de coopération (partenariat) :
• Augmenter l’importance de l’avenir par rapport au présent : augmenter la perspective de long terme, la durabilité de certaines interactions (traités), la fréquence des relations.
• Modifier les gains : arme majeur des gouvernants,
• Enseigner aux gens à se soucier les uns des autres : compte tenu de l’organisation sociale, le bien être personnel passe par celui des autres (interactions sociales fréquentes, …) mais attention l’altruisme correspond à une coopération inconditionnelle qui n’est pas une stratégie efficace.
• Enseigner la réciprocité : l’aspect désagréable du donnant / donnant réside dans son insistance à appliquer durement la loi du Talion. C’est une justice très dure mais la question est de savoir s’il existe une meilleure alternative.
• Améliorer les capacités de reconnaissance des joueurs.
La structure sociale de la coopération.
• Quatre facteurs parmi d’autres peuvent engendrer des conséquences particulières sur l’évolution de la coopération :
• Etiquettes, stéréotypes, hiérarchie,
• Réputation, dissuasion,
• Territorialité : au niveau culturel les individus partagent des valeurs particulières du fait de leur proximité territoriale, le territoire facilite la propagation des stratégies performantes (évolution, colonisation, imitation),
• Gouvernement et règlements explicites.
Dans le cas ou le jeu consiste en une série (itération séquentielle) de dilemmes du prisonnier, chaque participant a intérêt à pratiquer une stratégie de donnant / donnant (Tit for Tat en Anglais), c'est-à-dire à une réciprocité conditionnelle. Pour qu’une stratégie de donnant / donnant ait un sens, il faut que le dilemme se représente à nouveau dans le futur et que le nombre discret de partie soit inconnu des participants ou indéterminé. Sinon la solution classique du dilemme peut être préférée à un moment donné.
Cette stratégie se révèle la plus efficace dans les simulations mais attention dans la vie de tous les jours, rares sont les fois où nous percevons parfaitement ce que l’autre fait ou dit et où ce que nous faisons reflète ce que nous voulons faire.
Comment être efficace au dilemme du prisonnier ?
Suggestions pour s’en sortir honorablement :
• Ne pas être trop envieux : ne pas réfléchir en termes de jeu à sommes nulle, la maximisation de ses gains passe invariablement par celle des gains des autres.
• Ne pas être le premier à faire cavalier seul : il est payant de coopérer tant que l’autre joueur en fait autant. (attention à bien être dans un jeu suffisamment répétitif). La malveillance peut être profitable au début mais elle finit par détruire l’environnement qui lui permettait de survivre.
• Pratiquer la réciprocité dans la coopération comme dans la défection : le jeu stricte est le plus performant, le tit for two tats’ est moins performant. Etre indulgent (revenir tout de suite à la collaboration si elle est offerte) mais attention le niveau d’indulgence dépend de l’environnement (il faut en tenir compte dans certaines circonstances).
• Ne pas être trop malin : les stratégies compliquées ne marchent pas mieux, il est préférable d’avoir un comportement clair et donc prévisible (à court terme on peut être roulé mais à long terme on l’emporte).
Comment promouvoir la coopération ?
Il s’agit de transformer le contexte, le système afin de favoriser l’émergence de coopération (partenariat) :
• Augmenter l’importance de l’avenir par rapport au présent : augmenter la perspective de long terme, la durabilité de certaines interactions (traités), la fréquence des relations.
• Modifier les gains : arme majeur des gouvernants,
• Enseigner aux gens à se soucier les uns des autres : compte tenu de l’organisation sociale, le bien être personnel passe par celui des autres (interactions sociales fréquentes, …) mais attention l’altruisme correspond à une coopération inconditionnelle qui n’est pas une stratégie efficace.
• Enseigner la réciprocité : l’aspect désagréable du donnant / donnant réside dans son insistance à appliquer durement la loi du Talion. C’est une justice très dure mais la question est de savoir s’il existe une meilleure alternative.
• Améliorer les capacités de reconnaissance des joueurs.
La structure sociale de la coopération.
• Quatre facteurs parmi d’autres peuvent engendrer des conséquences particulières sur l’évolution de la coopération :
• Etiquettes, stéréotypes, hiérarchie,
• Réputation, dissuasion,
• Territorialité : au niveau culturel les individus partagent des valeurs particulières du fait de leur proximité territoriale, le territoire facilite la propagation des stratégies performantes (évolution, colonisation, imitation),
• Gouvernement et règlements explicites.
La théorie des jeux modélise le comportement d’un agent face à des situations de choix, elle se propose d’étudier toute situation dans laquelle des agents rationnels interagissent. On pourrait aussi l’appeler théorie de la décision interactive, il s’agit de modéliser des situations dans lesquelles plusieurs agents font des choix, ceux des uns affectant les gains des autres.
La théorie des jeux s’intéresse aux comportements des individus. La rationalité de base de la théorie des jeux est une règle de maximisation du profit individuel.
La théorie des jeux permet d’expliquer des processus de vote, de pouvoir, de diplomatie, de marchandage, de négociation, de formation et de coalition.
Un jeu se caractérise par des règles du jeu qui définissent le nombre et le rôle des acteurs ainsi que les variables qu’un joueur peut contrôler, par exemple les possibilités de choix, l’information et la communication entre joueurs : joueurs (au moins deux), actions, stratégies possibles des joueurs et informations disponibles pour choisir, déroulements et étapes du jeu, rétributions (gains, pertes) et résultats.
On distingue différents types de jeux coopératifs / non coopératifs (gâteau au chocolat) – compétitifs / non compétitifs – répétitifs / non répétitifs (jeux évolutionnistes) : Jeux à intérêt commun (le rendez-vous à New York), Jeux à somme nulle où les intérêts y sont parfaitement antagonistes, Jeu type bataille des sexes qui fait intervenir une part de collaboration et de conflit, Jeu type fureur de vivre (avec faucon et colombe), Jeu type dilemme du prisonnier qui fait ressortir une tension entre intérêt individuel et collectif (achat par internet, course aux armements, collusion & commission européenne). Voir sur internet le détail de chacun de ces jeux.
Avec quelques principes simples ont peu définir des archétypes de joueurs : l’agressif qui attaque systématiquement, le rusé qui se rend imprévisible, le machiavélique qui prévoit les attentes des autres et les manipule, le chaotique tellement imprévisible qu’il ne sait pas lui-même ce qu’il va faire le coup d’après, l’esclave qui cherche à perdre au profit d’un plus fort que lui, le coopérant (donnant donnant ou gagnant gagnant) qui gagne quand il y a de bonnes conditions pour une coopération (jeu long terme, bonne communication, réciprocité des gains).
Cependant, il est difficile de considérer la théorie des jeux comme une science positive fournissant des prédictions précises. Plus une situation de jeu devient complexe moins les enseignements de la théorie des jeux mathématiques deviennent instrumentaux pour expliquer ou conseiller un choix. Dans certains cas de modélisation peuvent apparaître des solutions d’équilibres multiples sans que l’on puisse choisir entre ceux-ci. L’analyse de l’interaction des comportements rationnels individuels devient rapidement inextricable dès que l’on sort du cadre ultra simplifié des présentations habituelles en théorie des jeux.
« Modélisation mathématique du comportement de décideurs rationnels dans une situation d’interaction ». Cette définition de la Théorie des Jeux ne donne pas toute la mesure de cette discipline, dont les champs d’application sont très variés. Défense : modélisation de la dissuasion nucléaire. Sociologie et génétique : des chercheurs ont utilisé la stratégie des jeux pour mieux comprendre l’évolution du comportement des espèces face à la modification de leur environnement. Organisation : développement de système multiagents. Marketing et stratégie d’entreprise : La Théorie des Jeux a précisément obtenu le prix Nobel d’Économie pour sa contribution à la stratégie d’entreprise. Etc.
Bien entendu, l’existence de ces différents champs d’application ne fait pas de la Théorie des Jeux une panacée universelle, susceptible de répondre à toutes les situations. La Théorie des Jeux ne mérite toutefois pas les critiques qu’on lui assène volontiers au motif que l’homme ne serait pas rationnel. Car la notion de rationalité ne se juge pas en regard de l’objectif visé – qui peut être extravagant – mais en fonction du comportement adopté pour atteindre cet objectif. Un exemple permet de mieux comprendre la nuance : deux fous s’invectivent dans la cour de leur asile. L’un est déguisé en bonne sœur, l’autre en Napoléon. « Je suis Napoléon ! », assure l’un. « Non, c’est moi », répond l’autre. Ils sont, certes, tous les deux fous. Mais l’un, au moins, peut être considéré comme rationnel par rapport à l’objectif fixé : celui qui s’habille effectivement comme Napoléon, et non pas en bonne sœur…
La rationalité de base de la théorie des jeux est une règle de maximisation de la satisfaction individuelle. Quel que soit le nombre de joueurs en présence, il est possible d’expliquer leurs décisions, leurs choix, les enjeux d’une négociation ou d’un marchandage, etc. Il n’est pas nécessaire de connaître avec précision les conséquences de chaque décision. Il suffit de savoir ordonner les différentes combinaisons de décisions possibles. Il faut, pour cela, déterminer :
qui sont les joueurs, quels sont leurs moyens d’action (ce qu’on appelle, dans le jargon de la théorie des jeux, leur stratégie), quelles sont les conséquences de leurs actions, quelles sont les informations dont ils disposent, quels sont les types de relation qu’ils ont avec les autres joueurs.
Si deux joueurs se font face, et qu’ils ont chacun une possibilité de décision binaire (oui ou non ? Go ou no go ?), il existe quatre scénarios possibles. Prenons le fameux exemple du Dilemme du Prisonnier, un grand « classique » de la Théorie des Jeux. Deux prisonniers complices sont interrogés séparément. Chacun peut trahir son partenaire (T) ou rester silencieux (S). Si les deux trahissent, ils vont en prison pour trois ans. Si l’un trahit et l’autre pas, le traître est libre et sa victime va en prison pour cinq ans. Si personne ne trahit, ils vont tous les deux en prison pour un an. Il est important de garder en tête que ces deux prisonniers – bien que complices – ne se connaissent pas et sont interrogés séparément : ils n’ont donc aucune idée de l’attitude de leur complice (va-t-il coopérer ou privilégier son intérêt personnel ?)
Une matrice permet de faire apparaître les différents scénarios :
S T
S 1 , 1 5 , 0
T 0 , 5 3 , 3
t = tentation de la trahison = 0 année de prison
r = récompense de la coopération entre prévenus = 1 année de prison
p = punition de l’égoïsme = 3 années de prison
s = salaire de la dupe = 5 années de prison
L’analyse de la matrice permet de voir aisément que, quel que soit le choix de l’autre, un joueur a toujours intérêt à avouer. Pourtant, si les deux prisonniers n’avaient pas avoué, ils écoperaient chacun d’une seule année de prison au lieu de trois. C’est là le paradoxe qui a rendu célèbre le Dilemme du Prisonnier
Ce dilemme fait apparaître la contradiction – extrêmement répandue – entre intérêt individuel et intérêt collectif. Pour sortir de cette impasse, on peut considérer que dans de nombreux cas cette confrontation n’est pas un « one shot », mais est appelée à se renouveler régulièrement. Chaque joueur peut ainsi acquérir, au fil du temps, des informations sur le comportement de l’autre joueur. Le théoricien américain Robert Axelrod est arrivé, après expérimentation, à la conclusion que la stratégie du donnant-donnant, pour laquelle le joueur commence par adopter une attitude coopérative, puis joue ce qu’a joué l’autre joueur à la partie précédente, est la plus payante à long terme.
Considérons, par exemple le problème du partage de l’information dans l’entreprise. Au Japon, les cadres ne sont pas seulement évalués en fonction de leur activité quotidienne, mais sur la façon dont ils gèrent et dont ils diffusent l’information. Une culture bien différente de celle des cadres français, qui partagent peu l’information tant ils considèrent qu’elle représente le pouvoir… Si l’on se réfère au Dilemme du Prisonnier, la rétention d’information n’est une stratégie payante que sur le court terme (le « one shot »). A plus long terme, en revanche, le partage d’information est toujours payant pour l’organisation, mais aussi pour le cadre, à condition, toutefois, que le bénéfice qu’il en retire soit suffisant. Autrement dit, le partage de l’information peut être encouragé par la mise en place d’un système d’incitations, ou par un abaissement des coûts de l’accès à l’information.
Comme cela a été dit plus haut, la Théorie des Jeux permet également de mieux comprendre l’évolution des comportements au sein d’une population. À l’instar des généticiens, arrivés à la conclusion que les espèces ne se reproduisent que si elles ont un comportement adapté à leur environnement, les théoriciens de l’organisation considèrent qu’un mécanisme similaire – néo-darwinien, en somme ! – se met en place dans les organisations. Dans une entreprise, les comportements et les stratégies dominants deviennent si prégnants qu’ils éliminent tous les autres comportements et finissent par forger une véritable culture.
Des décideurs commencent à faire appel à des spécialistes de la théorie des jeux pour les aider à prendre des décisions. C’est logique, puisque cette discipline met un cadre d’analyse rigoureux et précis face aux situations floues et complexes qui caractérisent le monde d’aujourd’hui. Mais il ne s’agit que d’un cadre d’analyse : les décideurs restent maîtres de leurs choix et de leurs décisions.
> A LIRE EN CE MOMENT SUR DECIDEO
-
CSRD : objectiver le climat social grâce au Big Data
-
L’USF réagit à l’annonce de la hausse de la maintenance des licences SAP pour 2024
-
Cloudflare aide les entreprises à réduire jusqu'à 96 % l'empreinte carbone de leur infrastructure informatique en migrant vers le cloud
-
IA Générative : Infosys et NVIDIA s’allient pour faire gagner les entreprises en productivité
-
Starburst étend sa plateforme analytique data lake pour prendre en charge toutes les étapes de la migration vers le cloud
-
Le secteur de l’informatique est de plus en plus concerné par l’impact du stockage et de l’utilisation des données sur le climat
-
Domo nommé Leader Global pour les Dresner Advisory Services’ 2023 Industry Excellence Awards (pour la 7ème fois)
-
Elastic annonce AI Assistant for Observability et la disponibilité générale d'Universal Profiling
-
4.71 lève 1,4 million d’euros pour accélérer son développement et lancer la comptabilité carbone en temps réel
-
IBM renforce sa gamme de solutions de développement durable de nouvelles fonctionnalités destinées à aider les entreprises à exploiter de manière précise et efficace les informations relatives aux émissions de gaz à effet de serre du Scope 3
Profil
Michel Bruley

Liste de liens
Dernières notes
RECETTE DE LA DINDE AU WHISKY
27/01/2023
Le 1 to 1 marketing a bientôt trente ans
24/09/2022
À propos de l’intelligence économique
23/07/2022
Comment définir la stratégie ?
23/05/2022
SUN TZU L’ART DE LA GUERRE Résumé
23/03/2022
Galerie
Archives