Créer son blog Recommander ce blog Avertir le modérateur

Le domaine de la confidentialité de l'information concerne les processus de collecte et de diffusion de données, il présente de nombreuses dimensions : attentes du public en matière de protection de la vie privée, aspects juridiques, politiques et technologiques. La préoccupation de la confidentialité voit le jour dès que des informations nominatives sont collectées et stockées sous quelque forme que ce soit, numérique ou autre. La divulgation inappropriée d’informations nominatives peut engendrer des atteintes graves à la vie privée.

Des manquements à la confidentialité peuvent être initiés à partir de nombreuses sources, telles que : les dossiers médicaux, les enquêtes et les procédures de la justice pénale, les transactions avec les institutions financières, et tous les dossiers contenant des données clés (notamment géographiques, biologiques, etc.). Le défi de la confidentialité des données est d’arriver à gérer et à partager des données tout en protégeant les informations nominatives.

Sur internet les personnes peuvent être amenées à stocker, afficher, partager elles-mêmes des données qui relèvent de la sphère privée et à plus ou moins bien maîtriser la diffusion de ces informations. C’est en particulier le cas sur les réseaux sociaux où sont généralement fournis tous les éléments permettant une identification très précise d’une personne physique. Un certain nombre d'experts dans le domaine de la sécurité internet disent d’ailleurs que la vie privée n'existe pas sur internet.

Les entreprises commerciales exploitent particulièrement à partir d’internet de nombreuses informations sur les produits ou services qui intéressent les personnes, sur les sites visités, les paniers abandonnés, les transactions effectuées, les commentaires laissés, les tweets diffusés, etc. Tous ces éléments révèlent beaucoup de choses sur les personnes, et les entreprises peuvent utiliser ces informations pour cibler les individus et personnaliser leur approche marketing en intégrant les préférences personnelles. Dans une vision bisousnours de la société, toutes ces pratiques sont innocentes.

Un grand domaine de soucis en matière de confidentialité est celui des données financières. Les informations sur les transactions financières d'une personne, le montant des actifs, le détail des actions ou des fonds détenus, les emprunts, ..., sont autant d’informations sensibles qu’il convient de très bien protéger. Au-delà des traditionnelles extorsions fondées sur l’exploitation des numéros de compte ou des numéros de cartes de crédit, des criminels qui arrivent à appréhender suffisamment d’informations sur une victime, peuvent monter des fraudes de grande envergure, en commençant par exemple par usurper l’identité de quelqu’un grâce à tous les détails que la victime a elle-même fournis, en particulier sur les réseaux sociaux.

Pour aller plus loin sur le sujet vous pouvez utilement lire mes autres propos sur la protection de la vie privée, sur la façon de gérer les données nominatives, sur comment concilier marketing personnalisé et protection de la vie privée pour que l’entreprise ne soit pas perçue comme faisant partie des big brothers : cliquez ici


Il est essentiel de bien comprendre l’intérêt d’une bonne qualité des données, ses effets en termes de coûts et d’efficacité. La qualité des données est très importante pour les analyses qui visent à éclairer les décisions, pour la gestion des opérations, pour la relation client par exemple, elle participe grandement au succès de l’entreprise. Mais au sein de la plupart des organismes, sous la pression des objectifs de réduction des coûts, la qualité est sous financée, abordée de façon parcellaire, sans vision d’ensemble, ni perspective de long terme.

La gestion de la qualité des données démarre avec la définition des données, elle continue avec la maîtrise des processus de création, de mise à jour et de transformation tout au long du cycle de vie des données. Les erreurs qui affectent les données peuvent être faites à n’importe quel moment de la chaîne d’information, et plus particulièrement lorsque les données sont utilisées dans d’autres processus que celui où elles ont été créées. Le management de la qualité des données est donc complexe, et nécessite de mobiliser de nombreux acteurs de tous les horizons de l’entreprise (informaticiens, utilisateurs métier opérationnels, analystes, etc.)

L’identification des sources de données de mauvaises qualité est une condition nécessaire et un préalable indispensable à toute initiative d’amélioration, mais encore faut-il que les enjeux, les gains espérés, soient suffisamment élevés pour justifier des coûts souvent importants. Cependant les fortes demandes d’accès et d’analyse des données auxquelles les systèmes d’information doivent faire face aujourd’hui, notamment en provenance des directions, créent une exigence très forte quant à la qualité des données délivrées. Ainsi dans de nombreuses entreprises les données sont considérées comme une ressource précieuse, essentielle même, pour des décisions pouvant avoir un impact fort sur la marche des affaires.

Lorsque des études sont faites à l’intérieur des entreprises sur ce thème de la qualité des données, les répondants disent régulièrement qu’ils n’ont pas une vision claire des rôles, des responsabilités, des processus et des coûts. Dans ces conditions, pour répondre aux problèmes de qualité des données et mieux profiter d’une vision d’ensemble des données de l’entreprise, de nombreuses sociétés mettent en place une équipe de gestion de la qualité des données. Cette équipe de gestion a pour objectif de permettre une bonne exploitation des informations-clés d’une société. Multifonctionnelle elle réunit des représentants de chaque ligne d’activités et de chaque fonction de l’entreprise. Ils sont chargés de gérer les données et les informations pour l’ensemble de la société. Des représentants des services informatiques fournissent support et conseils à l’organisation sur de nombreux points, et plus particulièrement ceux liés à l’utilisation des outils d’infrastructure.

Pour aller plus loin sur le sujet vous pouvez utilement consulter mes autres articles sur la qualité des données dans le système d’information décisionnel : cliquez ici


Les données de référence sont fondamentales pour les systèmes d’information des entreprises, elles doivent être uniformisées et partagées par toutes les applications et tous les acteurs. Mais force est de constater que la plupart du temps les données sont hétérogènes, dispersées dans les applications et que les différents acteurs privilégient leurs façons d’appeler les données au détriment d’un langage commun.

Une bonne gestion des données de référence est intéressante pour les différentes fonctions de l’entreprise, pour gérer de façon homogène les clients à travers tous les canaux d’interaction, pour gérer les produits tout au long de leur cycle vie de leur production jusqu’à leur destruction en passant par leur maintenance, pour gérer les données financières notamment lors des opérations d’acquisition ou de réorganisation, pour gérer la chaîne d’approvisionnement, pour toutes les activités d’analyse de données, de reporting, de tableaux de bord, etc.

La première chose à faire pour mettre en place un système de gestion des données de référence, est de définir une gouvernance des données, concrètement il s’agit d’identifier les propriétaires des objets et de définir les règles liées à l’ajout, la modification ou encore la mise à disposition des données de référence au sein de l’entreprise. De façon plus précise il s’agit d’identifier par domaine de gestion les données de références à gérer, de prendre en compte tous les systèmes sources, de collecter ces données, de définir les formats du langage commun, ainsi que des règles de transformation, d’administration et de distribution des données de référence.

La synchronisation des données de référence peut s’effectuer de plusieurs manières différentes. Par exemple la synchronisation de chaque système est assurée via des scripts ou des saisies manuelles, certains systèmes peuvent être définis comme maître pour certaines données, ou les données maîtresses sont gérées dans un entrepôt de données, ou on utilise une application spécifique dédiée, qui gère à la fois les données maîtresses et la synchronisation. C’est cette dernière solution qui tend à se développer de plus en plus, car elle offre une grande souplesse. Sauf exception il convient certainement de bannir les solutions partielles ne gérant que les données client ou les données produit.

La gestion des données de référence a donc pour intérêt d’améliorer la qualité de l’information, elle doit concerner tous les systèmes de l’entreprise, que ce soient les applications transactionnelles ou les applications décisionnelles. Il est certain qu’une mauvaise gestion de ces données peut coûter très cher. Il est donc absolument indispensable de sensibiliser les métiers aux enjeux, de voir avec eux tous les avantages d’une bonne gestion, et de définir la bonne gouvernance nécessaire pour créer, collecter, nettoyer, maintenir, publier et auditer les données de références.

Pour aller plus loin, vous pouvez utilement consulter mes autres propos sur ce sujet clé de la gestion des données de référence (données de référence, gérer l’ADN du système décisionnel, gérer le référentiel métier dans l’entrepôt de données, MDM où en sommes-nous ?) : cliquez ici.

Dans le cadre d’un système d’information, les modèles ont pour objectif de structurer les informations et activités d'une organisation : données, traitements, et flux d'informations entre entités. De façon plus précise un modèle de données, est une représentation de la définition des différentes données (attributs) dans une organisation et comment ces attributs se rapportent les uns aux autres. Un système de base de données a de multiples modèles de données : physiques, logiques et sémantiques.

Les modèles logiques de données de Teradata par industrie servent à répondre aux questions des métiers comme les modèles des applications opérationnelles servent à supporter les processus couverts. Tout comme les plans d’un immeuble décrivent l’agencement détaillés des étages, le MLD décrit les dépendances ou relations entre les différentes données du système d'information (par exemple : le client, la commande, la ligne de commande, etc.), ainsi que la volumétrie, la structure et l'organisation des données telles qu'elles pourront être implémentées. Lorsque le MLD est défini, il est possible de connaître la liste exhaustive des tables qu’il faut créer dans une base de données relationnelle.

De façon plus détaillée, le modèle logique de données permet donc de saisir avec exactitude les besoins d'information, les règles et politiques qui régissent l'entreprise. Il est utilisé pour créer le modèle physique, est indépendant de la plate-forme sur laquelle il va être implémenté, ne change que lorsque le métier change, se doit d’être compris par les utilisateurs métier et enfin permet au système d’information d’être stable, fiable, accessible et pérenne.

Un MLD présente de nombreux avantages comme le fait qu’il reflète les opérations et les règles de l’entreprise (la vérité). Etant construit en fonction des besoins des utilisateurs métier et non en fonction de considérations purement techniques, il permet de centrer les analyses sur ce qui est important pour l'entreprise, d’appréhender des données individuellement ou en relation avec les autres. De par sa construction il élimine les redondances et donc de multiples versions de la vérité. Il crée une base stable pour la croissance future, il facilite la compréhension commune des enjeux des affaires et des priorités, il conduit au développement d’un langage commun, il améliore les communications, les échanges d'information entre les métiers et l’informatique et au final il favorise le travail d’équipe et le consensus.

La mise ne œuvre d’un modèle métier comme ceux de Teradata est rapide, généralement c’est l’affaire de quelques semaines. Ces modèles permettent d’accélérer les projets, en facilitant l’identification, la compréhension, la modélisation des données à récupérer, tout en réduisant considérablement les risques. Pour aller plus loin vous pouvez utilement lire mes autres articles au sujet de la modélisation des entrepôts de données : cliquez ici
La plupart des entreprises visent un gain de performance global grâce à l’alignement des ressources humaines avec les objectifs stratégiques. Dans cet esprit, un bon système d’information décisionnel des ressources humaines doit permettre de fonder la démarche stratégique des RH, en aidant les responsables à anticiper et préparer l’entreprise aux évolutions de son environnement, notamment en répondant aux évolutions prévisibles et nécessaires. Il doit en outre aider les responsables à s’assurer que les ressources sont obtenues et utilisées avec efficience et efficacité pour réaliser les objectifs de l’entreprise.

Ainsi il est certain que pour bien piloter la gestion et le management des RH, il est indispensable que les décisions puissent être préparées et fondées sur des faits, or les systèmes d’information RH sont encore majoritairement très hétéroclites, peu intégrés, centrés sur la réalisation de la paye et de la gestion des temps. Même si le décisionnel RH est ancien et que depuis très longtemps les fournisseurs de progiciels et les prestataires de services proposent des solutions, souvent seuls les effectifs et la masse salariale font l’objet d’analyses régulières.

Il est donc très rare de trouver des entreprises qui ont un système d’information décisionnel RH développé abordant les différents domaines des RH. Les principaux champs d’analyse d’un SDRH devraient être : la gestion des temps et de l’absentéisme, la gestion des effectifs et des affectations, la gestion de la productivité, la gestion de la masse salariale et des rémunérations, la gestion de la formation, la gestion des compétences, la gestion des recrutements. Pour les grandes entreprises il peut être particulièrement intéressant de développer des analyses (rétrospectives, prévisions, simulations) de leur problématique RH en fonction des localisations, des métiers, des fonctions, des rythmes de travail, des coefficients hiérarchiques, etc.

De nombreuses solutions décisionnelles sont proposées, voir ci-dessous une revue effectuée par le Journal du Net, mais si la qualité des applications est importante, la qualité des données est primordiale. C’est pourquoi il convient d’aborder son décisionnel RH par la réalisation d’un entrepôt de données qui a pour vocation d’intégrer toutes les données RH, d’en garantir la qualité et l’accessibilité. Ici le mieux est d’ajouter un domaine RH à votre entrepôt de données d’entreprise, de façon à mutualiser les moyens et ouvrir des possibilités de croisement de données avec les autres domaines : finance, production, etc...

Pour aller plus loin sur ce sujet vous pouvez utilement lire les articles ci-dessous :

Autre article sur le décisionnel RH : cliquez ici

Entrepôt de données d’entreprise : cliquez ici

Applications décisionnelles RH : cliquez ici



Dans le contexte de globalisation d’aujourd’hui, les exigences en matière d’approvisionnement des grandes entreprises sont extrêmement élevées, au point que des sociétés spécialisées voient le jour comme Vector SCM, qui gère 12 000 sources d’approvisionnement, 1200 transporteurs, charge 8 millions de véhicules par an, dessert 12 500 points de livraison et permet à de nombreuses entreprises de remplir les exigences logistiques de leurs grands donneurs d’ordres.

L’optimisation des chaînes d’approvisionnement est un enjeu dans la recherche d’avantages concurrentiels. Par exemple dans le secteur de la distribution une entreprise comme Wal-Mart a en partie construit son succès sur la création d’une chaîne d’approvisionnement particulièrement remarquable, qui entre autre a su remplacer des stocks par de l’information : plus vite les magasins envoient des informations sur ce que les clients achètent, plus vite l’information peut être transmise aux fabricants et aux concepteurs (cf. Zara), plus vite la chaîne d’approvisionnement peut réagir.

Cependant la plupart du temps dans les entreprises, la chaîne d’approvisionnement souffre de cloisonnements, car l’intégration et la synchronisation des flux physiques, des flux d’informations et des flux financiers n’est pas optimale. Or la réduction des stocks et l’optimisation de la chaîne d’approvisionnement ne peuvent se concevoir sans une bonne gestion de l’information. Au-delà des traditionnels systèmes opérationnels qui permettent d’automatiser les processus, il convient sans aucun doute de s’appuyer sur un système décisionnel adapté. Ce dernier doit être fondé sur un entrepôt de données qui a pour vocation d’intégrer toutes les données logistiques internes ou externes, et offrir à toutes les parties prenantes les visions historiques, opérationnelles, prévisionnelles ou de simulation dont elles ont besoin.

Le système décisionnel doit intégrer des données de toutes les applications opérationnelles concernées, à savoir de façon non limitative, des données de : CRM – Customer Relation Management, DP&F – Demand Planning and Forecasting, SRM – Supplier Relation Management, APS – Advanced Planning & Scheduling, ERP – Enterprise Resources Planning, TMS – Transportation Management System, WMS – Warehouse Management System, DCS – Distributed Controlled System, MES – Manufacturing Execution System, etc.

Pour aller plus loin, vous pouvez utilement lire mon livre blanc sur la chaîne d’approvisionnement. Cliquez ici

Les constructeurs automobiles font face aujourd'hui à un marché mondial hyper concurrentiel, à des coûts de développement de plus en plus élevés, à une demande des clients qui change rapidement, et à des réglementations toujours plus strictes. En conséquence, pour mieux gérer le cycle de vie des automobiles, les constructeurs ont besoin d’intégrer de plus en plus de données sur les véhicules de leur conception à leur destruction, et de plus en plus en particulier des données produites par les véhicules sur la route.

Pour tirer parti de toutes les données concernant les véhicules, et en particulier celles produites sur le terrain, les entreprises doivent être capable d'agréger, d'intégrer et d'analyser des volumes de données très volumineux provenant de nombreuses sources disparates, puis de réagir quelques fois prestement en fonction des résultats. C'est un formidable défi, et tous les constructeurs en sont encore au stade de l’apprentissage, et à la recherche de pistes pour exploiter ce vaste ensemble de données qui nécessite la combinaison d’une infrastructure informatique spécifiquement adaptée et des analystes métiers particulièrement compétents.

La plupart des constructeurs automobiles consolident depuis très longtemps les données relatives aux configurations des véhicules et aux garanties, pour alimenter les réflexions d'ingénierie. Depuis environ dix ans ils ont aussi commencé à recueillir en parallèle les données générées par les capteurs de leurs véhicules, car elles fournissent une vue des performances et des défaillances dans les conditions réelles sur le terrain. C’est dans ce contexte que certains constructeurs ont commencé à développer leur entrepôt d’entreprise afin d’intégrer toutes leurs informations.

La mise en place de ces entrepôts de données d’entreprise commence toujours par une phase de consolidation des systèmes décisionnels préexistants. Cependant n’importe quelle plate-forme ne peut pas fournir les performances requises pour assumer les analyses sur les volumes de données en question. C’est pourquoi Teradata a été sollicité par de nombreux constructeurs comme Daimler, Ford, Tata, ou Volvo pour n’en citer que quelques-uns. Outre la mise à disposition de nouvelles données et l’amélioration des performances de réponse aux multiples requêtes, il s’agit aussi de donner un accès à des centaines de nouveaux utilisateurs dans la conception des produits, la fabrication, l’assurance qualité, et l'administration de la garantie. De tout cela il résulte une grande variété d'améliorations impactant de nombreux processus, comme par exemple l’accélération des réponses aux problèmes des véhicules, l’amélioration de la qualité et de certaines fonctionnalités à travers une meilleure gestion du cycle de vie des produits, la réduction des coûts, une meilleur gestion des remboursements de garantie, et par-dessus tous la création de nouveaux produits innovants.

Dans ces entreprises dotées d’un entrepôt de données d’entreprise, la réponse à toute nouvelle question commence maintenant toujours par une exploration profitable des données pertinentes, et chaque hypothèse peut être testée par rapport aux données avant toute décision. Dans tout processus de réponse à une problématique, les données sont utilisées pour déterminer les enjeux, pour hiérarchiser les questions et définir le niveau des réponses. Au final cela aide tout le monde à rester focalisé sur le déploiement efficace des choix stratégiques, comme par exemple de porter une attention maximum à tout ce qui touche le plus directement l'expérience client.

Pour aller plus loin vous pouvez utilement lire mes autres articles consacrés aux fonctions achat, qualité, garantie, maintenance et MRO : cliquez ici



A défaut de prévoir ou d’être à même d’anticiper le futur même immédiat, je vous souhaite une bonne année 2012.

Cela dit, il ne faut pas confondre prévision et prospective. Les différences portent notamment sur l’horizon temporel (court vs long), la démarche (extrapolation du présent vs imagination), l’attitude à l’égard du futur (passive/réactive vs proactive/créative), les variables (primauté du quantifiable vs qualitatives/quantifiables ou non) et les méthodes (modèles déterministes vs construction de scénarios). Prévoir, c’est donc chiffrer par avance ce qui doit arriver avec un niveau d’incertitude faible.

Les prévisions sont importantes pour toutes les fonctions de l’entreprise. La Finance utilise les prévisions pour estimer les besoins futurs en capital, les Ressources humaines évaluent les besoins de main-d’œuvre, la fonction Marketing/Ventes développe des prévisions de ventes utilisées pour la planification, et la direction des Opérations développent et utilisent des prévisions pour établir les horaires de la main-d’œuvre, déterminer les besoins en stocks et planifier les besoins en capacité.

Dans la période économique actuelle, être à même de faire de bonnes prévisions est crucial. Il est donc important de bien comprendre le processus de prévision statistique, de connaître les grands principes des modèles utilisés afin de mieux contrôler les étapes de l’élaboration des prévisions. Si toutes les fonctions de l’entreprise font des prévisions, la prévision la plus importante de toutes est celle de la demande qui permet : d’établir quelle capacité de production est requise afin d’ajuster l’offre à la demande, de choisir les technologies appropriées au niveau de demande, d’orienter la politique et les stratégies de gestion des stocks, de déterminer les meilleures stratégies de production, de planifier l’utilisation des équipements, les besoins en équipements et de planifier la main-d’œuvre requise.

Concrètement pour prévoir la demande, il s’agit de prendre en compte la tendance (variation significative de la demande en fonction du temps), la saisonnalité (évolution régulière qui se répète périodiquement), les cycles (évolution qui s'étale sur plusieurs années et qui peut être attribuée à des cycles de vie des produits ou à des conditions économiques, politiques, etc.), les irrégularités (variations provoquées par des circonstances inhabituelles), et enfin les aléas possibles (variations qui ne peuvent être expliquées).

Dans tous les cas seule une bonne gestion des données historiques nécessaires peut assurer une production de prévisions de la demande de qualité. Pour aller plus loin sur ce thème des prévisions vous pouvez utilement consulter mes autres articles sur ce sujet : cliquez ici

Il est clair que les entreprises reconnaissent qu’il est vital de disposer d’une bonne gestion des risques, cela se constate facilement en regardant le niveau des ressources qu’elles y consacrent. La gestion des risques qu’il convient de disposer doit en particulier intégrer les idées et pratiques du contrôle interne, des nouvelles directives comptables et de la planification stratégique. En identifiant de façon proactive les risques et les opportunités, les entreprises protègent et créent de la valeur pour les partenaires de leur écosystème (actionnaires, clients, employés, régulateurs, la société en général).

La gestion des risques est en constante évolution pour répondre aux besoins des divers intervenants, qui veulent comprendre le large éventail de risques auquel font face les entreprises dans l’environnement économique complexe d’aujourd’hui. Concrètement il s’agit d’identifier, d’analyser et de définir une « réponse » aux risques et aux opportunités. Par exemple en matière de risques, le management doit choisir une stratégie qui peut amener l’entreprise à quitter les activités donnant lieu à des risques, à prendre des mesures pour réduire la probabilité ou l'impact lié aux risques, à transférer ou partager une partie des risques, à le financer, ou aussi à accepter le risque, aucune action n'étant prise, suite à une évaluation coût / bénéfice.

Les entreprises gèrent habituellement leurs risques via un grand nombre de départements différents qui se focalisent chacun sur les risques particuliers qui les concernent. Un objectif primordial et un vrai défi en matière de gestion des risques est d’organiser la coordination de tous les analystes, de façon à être capable collectivement de fournir une image unifiée des risque pour les dirigeants et de permettre à l'organisation de gérer les risques efficacement. Le plus souvent cette coordination est assurée par le directeur financier (il existe parfois un directeur des risques). Mais tout se joue sur la capacité à regarder à travers toute l'organisation et à développer une perspective sur le profil des risques de l'entreprise et à évaluer si ce profil correspond ou non à la propension au risque de l’entreprise.

Le directeur financier doit être proactif pour constamment améliorer et intégrer les outils de gestion des risques, en particulier les bases de données historiques. La plupart des entreprises déclarent ne pas avoir les bons outils pour surveiller et gérer les risques globalement à l’échelle de l'entreprise, les outils utilisés au niveau des départements étant disparates et n’offrant que des vues parcellaires limitées dans le temps.

Pour aller plus loin à propos des entrepôts de données et la gestion des risques, vous pouvez utilement consulter mes articles sur ce sujet : cliquez ici


Les entreprises multinationales sont confrontées à des exigences de transparence de plus en plus contraignantes. Elles doivent assurer cette transparence pour répondre aux demandes des marchés financiers mais aussi à celles des pays où elles mènent leurs activités, avec la nécessité d’assurer leur responsabilité dans trois dimensions : sociale, environnementale et fiscale. Cependant les normes comptables internationales actuelles n’imposent pas aux multinationales de communiquer sur leurs activités dans chaque pays où elles opèrent : ces dernières se contentent donc souvent de « bilans consolidés » au niveau régional.

L’opacité qui entoure les activités des multinationales pourrait être considérablement réduite, si les entreprises multinationales communiquaient dans leur bilan annuel des informations clés sur leurs activités dans chacun des pays d’implantation (nom des filiales, effectifs salariés, chiffres d’affaire, bénéfices et paiements des impôts aux gouvernements). L’accès à de telles informations rendrait les multinationales plus redevables vis-à-vis de leurs propres actionnaires et salariés, mais aussi auprès des Etats dans lesquels elles sont implantées, ainsi qu’auprès de leurs clients et des sociétés civiles. La mise en place de ce niveau de transparence, défendue par de nombreuses organisations de la société civile, préviendrait également en partie les stratégies abusives d’optimisation fiscale, que peuvent mettre en place des maisons mère pour réduire leur charge fiscale en transférant les bénéfices dans des territoires moins fiscalisés.

Au premier rang de ces acteurs impactés par l’opacité des multinationales, les pays du Sud qui chaque année, voient 600 à 800 milliards d’euros s’échapper de leurs économies vers les paradis fiscaux. Cette transparence comptable des entreprises importe également aux investisseurs, qui pour des raisons d’éthique ou pour assurer la stabilité de leur portefeuille, veulent connaitre la situation réelle des entreprises dans lesquelles ils s’engagent. Le monde politique enfin s’intéresse de plus en plus près à la question des normes comptables des multinationales et au principe du reporting pays par pays, puisque la stabilité économique globale ainsi que les équilibres budgétaires des Etats à travers le respect de l’impôt en dépendent. L’enjeu est en fait de pouvoir mettre un terme à la déconnexion de la cartographie comptable, parfois fictive, des entreprises et de la cartographie de leurs activités réelles sur les lieux de création de richesses.

Les entrepôts de données des multinationales gèrent déjà toutes les données nécessaires à cette transparence, car bien entendu les entreprises ont besoin d’analyser leurs activités dans les moindres détails pour pouvoir les optimiser. Pour aller plus loin sur l’apport d’un système d’information décisionnel à la fonction financière des entreprises, vous pouvez utilement lire mes autres articles sur ce sujet : cliquez ici
Rédigé par Michel Bruley le Jeudi 1 Décembre 2011 à 09:36 | Permalien | Commentaires {0}
1 ... « 13 14 15 16 17 18 19 » ... 21


> A LIRE EN CE MOMENT SUR DECIDEO
Profil
Michel Bruley
Michel Bruley



Galerie
scan0578.jpg
B6.JPG
B1.JPG
A.JPG
B4.jpg
B8.jpg

RSS ATOM RSS comment PODCAST Mobile


Rubriques

Rubriques