Créer son blog Recommander ce blog Avertir le modérateur


La complexité et le rythme des affaires dans le monde d’aujourd’hui exigent que nous ayons un accès simple, rapide et profond à notre capital informationnel. Régulièrement, nous devons faire face à des questions inattendues et les réponses ne peuvent être construites qu’en combinant des données en provenance de plusieurs sources internes ou externes à l’entreprise pour comprendre la situation et déclencher des actions appropriées. Face à l’avenir, nous pouvons adopter plusieurs attitudes : être passif, réactif, préactif (se préparer aux changements attendus) ou proactif (provoquer les changements souhaités).

Dans ce contexte, l’augmentation de l’efficacité ne viendra pas de systèmes décisionnels plus rapides, la technologie est nécessaire, mais pas suffisante. Le vrai saut dans l’efficacité ne peut venir que de cerveaux plus créatifs exploitant au mieux un capital informationnel consistant. La technologie n’est pas la principale source d’innovation, c’est seulement la plus connue, c’est surtout un fabuleux moyen de rationaliser les activités. Pour assurer un développement durable du chiffre d’affaires et de la productivité, il faut permettre aux collaborateurs des entreprises et en premier lieu à leurs analystes et stratèges, d’utiliser au mieux leur savoir en donnant de bonnes données à travailler à leurs neurones.

C’est par une bonne maîtrise de l’information qu’une entreprise peut être plus près de ses clients, fournisseurs, partenaires, collaborateurs et actionnaires. La clé de l’excellence n’existe pas, elle doit être remodelée en permanence au gré de l’évolution de l’environnement. Dans ce jeu les systèmes décisionnels sont essentiels pour éclairer le passé, le présent, pour simuler le futur et le piège est de se trouver face à des zones d’ombre. De nombreuses entreprises ont des systèmes hyper performants pour explorer à la vitesse de l’éclair un petit jeu de données agrégées et sont atteintes d’Alzeihmer dès qu’elles veulent retrouver certains détails. Le hasard ne favorise que les esprits bien préparés et le marché récompense l’agilité, alors les meilleures entreprises ont compris qu’il faut qu’elles gèrent leur passé et leur futur, car à la lumière du passé le présent s’éclaire et tout le monde sait que l’avenir vient de loin.

Pour parfaitement exploiter ses informations, une entreprise doit d’abord commencer par bien les entreposer de façon à correctement les capitaliser, pour que les différents utilisateurs puissent en tirer toute la valeur. Outre le fait que les utilisateurs doivent être compétents, d’un point vue métier et analyse de données, il convient qu’ils puissent orienter leur travail grâce à une claire vision de la stratégie de leur entreprise, avec le soutien de leur direction respective et en bénéficiant d’une culture d’entreprise ouverte aux approches factuelles et créatives. Il ne faut pas s’illusionner pour la plupart des entreprises il y a un long chemin à parcourir avant qu’elles puissent tirer de réels avantages de leur capital informationnel.

Continuellement générer les mêmes rapports ne permettra jamais de faire des analyses génératrices d’innovations. Il faut développer des approches, des réflexions nouvelles pour sortir des cadres convenus et se donner des chances de trouver des alternatives créatives. Il convient de poser des questions nouvelles, inusuelles, pénétrantes dont les réponses ne sont pas connues d’avance et peuvent être inattendues. Dans cette optique peu importe que les utilisateurs soient particulièrement pertinents s’ils butent sur des données inadéquates, c'est-à-dire fragmentées, dispersées ou agrégées avec de grandes difficultés, voire l’impossibilité de se constituer une base d’analyse valable. L’expérience montre que 80 pour cent du retour sur investissement des projets d’entrepôt de données provient de requêtes qui portent sur des données détaillées, dans une approche itérative où de questions en réponses qui suggèrent de nouvelles questions des opportunités sont mises à jour.

Les entreprises leaders obtiennent leur position sur le marché parce qu’elles se sont construites autour de systèmes d’informations opérationnels et décisionnels plus que solides qui leur facilitent l’élaboration de leur stratégie, une vision claire de leurs activités et qui permet à leurs collaborateurs formés et motivés d’aller au bout de leurs réflexions.

Rédigé par Michel Bruley le Vendredi 14 Août 2015 à 10:35 | Permalien | Commentaires {0}

Le Data Mining est une puissante technique d'analyse qui par exemple permet à des responsables d'entreprises d’aller plus loin que la simple description des comportements passés d'une clientèle et de prédire l'avenir. Il permet de déceler dans les comportements « mystérieux » des clients des règles qui les sous-tendent. Grâce à ces découvertes, il est possible d'augmenter les revenus, de réduire les dépenses, d'identifier des opportunités commerciales et donc de bénéficier d'avantages concurrentiels certains.

Mais à en croire certains fournisseurs de solutions et de prestations de data mining, il serait indispensable de disposer d'outils dédiés (base de données, data mart ou serveur analytique) pour faire du data mining. Ils invoquent pour cela la nécessité d'extraire les données sous un format propriétaire pour réaliser des traitements efficaces. Or, non seulement ces moyens spécialisés sont onéreux à mettre en place et à maintenir, mais ils exigent que les données soient extraites pour chaque projet distinct de data mining, ce qui représente une procédure coûteuse et fortement consommatrice de temps. Heureusement, les progrès réalisés dans le domaine des bases de données n'exigent plus d'effectuer le data mining dans des data marts distincts. En réalité, pour une opération de data mining efficace, il suffit de s’appuyer sur son entrepôt de données, ce qui, au regard du coût d'investissement total, se révèle considérablement moins cher que d'utiliser des moyens spécifiques.

Au fur et à mesure que les sociétés mettent en place des EDW (Enterprise Data Warehouse, entrepôt de données d'entreprise) et couvrent l'ensemble des besoins décisionnels des différentes divisions et fonctions de l’entreprise, le nombre d'utilisateurs exploitant des modèles de data mining ne cesse de croître. En effet un EDW bien architecturé ne se contente pas de stocker efficacement l'ensemble des données historiques, il rend inutiles d'autres data marts ou d'autres moyens spécialisés de stockage. Un EDW constitue la fondation idéale pour des projets de data mining, en fournissant un répertoire de données unique à l'échelle de l'entreprise, capable d'offrir une vision cohérente et actualisée des activités. En outre, l'intégration de fonctionnalités de data mining au sein de l’EDW permet à l'entreprise de réaliser deux types d'économies supplémentaires. Tout d'abord, il n'est plus nécessaire d'acheter et d'assurer la maintenance de matériel complémentaire uniquement dédié au data mining ; ensuite les entreprises ne sont plus obligées d’effectuer un va-et-vient de données depuis et vers l'entrepôt pour réaliser les projets de data mining, ce qui, nous l'avons vu plus haut, est une opération gourmande en temps et en ressources.

À titre d’exemple, l'un des plus grands opérateurs de téléphonie mobile aux USA utilise aujourd’hui un EDW pour fournir des informations à une large gamme d'applications commerciales et marketing. Cet opérateur, desservant de nombreux marchés régionaux, avait été conduit à établir différents data marts régionaux, et obtenir une vue d’ensemble des informations à l'échelle de l'entreprise était devenu particulièrement difficile. Les prises de décision souffraient de l’absence de données ou d’informations cohérentes, ce qui affectait les performances et le moral des équipes qui ne pouvaient pas anticiper et mesurer le fruit de leur travail. En transférant toutes ses données vers un EDW, cet opérateur a pu constater des résultats immédiats. Les données étaient mises en cohérence, les décisions pouvaient être prises en toute sécurité, avec l'assurance que les données reposaient sur des fondations saines. En termes d’efficacité, le nouvel EDW délivre des informations d’une meilleure qualité 90% plus vite qu'avec l'ancienne approche par data marts. Lorsqu’il est nécessaire d’analyser de grandes quantités de données, de tels gains permettent de faire la différence sur le marché.
Rédigé par Michel Bruley le Samedi 1 Août 2015 à 10:22 | Permalien | Commentaires {0}

Sans entrer dans la problématique du choix des fournisseurs, les lignes ci-dessous recensent sous forme de recommandations, les principales idées qui sont largement répandues et qu’il ne faut surtout pas suivre.

Pour réaliser votre entrepôt de données, ne consultez aucune personne extérieure à votre organisme. Votre cas est unique et seules des personnes de chez vous peuvent trouver la solution qui convient. Ne cherchez pas à savoir ce que font vos concurrents, ne regardez pas les références de fournisseurs de solutions décisionnelles.

Fixez-vous comme premier objectif de spécifier de façon exhaustive tous les besoins décisionnels de votre organisme, en particulier soignez particulièrement bien la définition détaillée des restitutions attendues.

Cherchez à satisfaire les utilisateurs en leur réalisant des systèmes personnels sur mesure. Concrètement il s’agit de multiplier les data marts dans une logique de construire pour chaque division, département voire service, des moyens totalement adaptés au périmètre de leur problématique, en particulier à leur vocabulaire, à leur façon de voir les données sans se soucier d’autre chose que de leur vision spécifique des affaires. À chacun sa vérité.

Planifiez de multiples projets décisionnels en parallèle, sans vous soucier de fixer des priorités ni de produire rapidement des résultats.

Évitez le plus possible de stocker des données détaillées et fondez les systèmes sur des données agrégées, des compteurs du type RFM, et faites une large place aux données d’enquêtes, d’études ponctuelles et d’informations qualitatives que les utilisateurs maîtrisent bien, voire produisent eux-mêmes.

Au niveau de la modélisation, bannissez la 3ème forme normale, fondez le plus possible les datamarts sur des modèles en étoile ou en flocon, de façon à optimiser au maximum les performances des requêtes qui sont envisagées au moment de la conception du système.

Pour les restitutions, simplifiez le plus possible la vie des utilisateurs en fournissant des résultats facilement compréhensibles comme des moyennes, des médianes ou des métriques synthétiques, qui permettent de suivre simplement des sujets complexes.

Pour faciliter l’appréciation des performances fondez exclusivement les suivis sur des comparaisons entre données de prévision et de réalisation, en veillant à ne pas trop multiplier les chiffres et à rester très synthétique, en particulier il convient de limiter la profondeur de l’historique des données.

Au niveau des moyens technologiques, privilégiez des solutions prêtes à l’emploi spécifiques, quitte à multiplier les fournisseurs et les moyens.

Défendez bec et ongles l’idée que la vérité est dans les statistiques.

Investissez un minimum dans votre entrepôt de données, gardez le plus possible votre argent au fond d’un coffre, il y sera en sécurité.

Rédigé par Michel Bruley le Jeudi 9 Juillet 2015 à 16:14 | Permalien | Commentaires {0}

Si les données ont du sens, elles deviennent des informations. Si ces informations sont réutilisables, elles deviennent des connaissances. Quand ces connaissances sont réutilisables dans un but donné, elles deviennent des compétences.

Différentes étapes :
• La production de connaissance : analyse, formalisation, capitalisation,
• La diffusion : consultation, recherche (annuaire des savoirs, cartographie des compétences …),
• L’utilisation : échanges, formation, mise en œuvre.

Impacts sur les affaires :
• Toutes les activités de l’entreprise sont concernées en termes de productivité, de vitesse, de qualité : les relations clients, partenaires, collaborateurs et la gestion (veille, innovation, stratégie, procédures opérationnelles),
• Dans les secteurs très concurrentiels, le critère vitesse est très important,
• 65% des entreprises avouent avoir des difficultés à mesurer et valoriser les gains de rentabilité générés par la gestion des connaissances

Impacts humains :
• Au vu dans certains secteurs, du turn-over ou des vagues de départ en retraite, la gestion des connaissances devient une problématique,
• Autrefois diffuseurs d’informations, les managers se muent en animateurs de réseaux de connaissances,
• Carrières d’experts : le titre d’expert n’a pas encore la reconnaissance sociale souhaitable,
• Comment distinguer le patrimoine de l’entreprise du capital intellectuel de chaque individu.

Impacts procédures :
• Passer de l’intelligence individuelle à l’intelligence collective,
• Intégrer de manière dynamique les connaissances dans l’activité,
• La gestion des connaissances est bien passée dans l’industrie alors que les sociétés de services commencent tout juste à se l’approprier.

Économie de la connaissance :
• L’économie de la connaissance repose en particulier sur les liens entre la recherche, l’enseignement supérieur et les entreprises industrielles ou commerciales,
• Les Etats Unis dépensent 190 milliards de dollars pour la recherche publique ou privée contre 130 pour l’ensemble de l’Europe.


Rédigé par Michel Bruley le Mercredi 1 Avril 2015 à 09:15 | Permalien | Commentaires {0}

Premiers pas dans le Big Data

Ci-dessous un livre blanc à télécharger qui est constitué d’une compilation de mes articles qui permettent d’explorer certains aspects des évolutions que les Big Data engendrent, en matière d’avantages concurrentiels, au niveau du marketing en particulier, pour ce qui concerne les infrastructures et les équipes informatiques, sans oublier les professionnels des différentes fonctions : Cliquez ici

Big Data & Open source : une convergence inévitable ?

L’enjeu majeur du Big Data n’est pas dans la collecte et le stockage, mais dans la valorisation de ces données. L’Open source peut-il répondre à cet enjeu ? – cliquez ici

Big Data technologies

Big Data is on everyone's lips, but what are the available technical solutions to deal with it? We give a brief overview of several solutions: distributed filesystems, NoSQL databases, and end-to-end solutions that take into account computations - cliquez ici

Big Data appliances

L’apport des Big Data vu par une société de conseil en SI – cliquez ici

Don’t be hadooped when looking for big data

Extracting value from Big Data is not easy. The field of technologies and vendors is fragmented and rapidly evolving. End-to-end, general purpose solutions that work out of the box don’t exist yet, and Hadoop is no exception. And most companies lack Big Data specialists. The key to unlocking real value /// extracting the gold nuggets at the end of the rainbow (???) /// lies with mapping the business requirements smartly against the emerging and imperfect ecosystem of technology and vendor choices.
cliquez ici

Various presentations on Big Data

14 presentations on Big Data (Machine learning, Text mining, Sentiment analysis, Web log & Clickstream, Marketing attribution, Product affinity, Next best offer, Pricing …). – cliquez ici

Big data, les entreprises françaises toujours à la traine ?

Le big data entre dans une nouvelle phase, celle de l'industrialisation, surtout dans certains secteurs comme le retail, les telcos ou encore la banque/assurance. – Cliquez ici

Open Data : fiche synthétique

La réutilisation des informations publiques, souvent nommée par commodité open data, est devenue une des thématiques très porteuses dans le secteur public et dans le secteur privé où les initiatives se multiplient pour imaginer des produits et services innovants développés à partir de la réutilisation desdites informations publiques. – cliquez ici

Rédigé par Michel Bruley le Dimanche 1 Mars 2015 à 11:18 | Permalien | Commentaires {0}

Il est aujourd’hui possible de réaliser son système d’information décisionnel uniquement avec des solutions open source. Ci-dessous par catégorie une sélection de solutions réputées.

ETL pour Extract-Transform-Load.

Pentaho Data Integration : la solution permet de préparer et croiser des données afin de créer une vision complète de l’entreprise. La plate-forme complète d'intégration des données fournit aux utilisateurs finaux des données précises «prête pour l'analytique » à partir de n'importe quelle source. Grâce aux outils visuels qui éliminent la programmation et la complexité, Pentaho met les Big Data et toutes les sources de données à la portée aussi bien des utilisateurs métier que de l’informatique. Cliquez ici

Talend Open Studio : propose la seule plateforme unifiée simplifiant la gestion de données et l’intégration d’applications en fournissant un environnement unifié pour gérer le cycle de vie complet à travers les frontières de l’entreprise. La productivité des développeurs est considérablement améliorée grâce à un environnement graphique simple à utiliser, basé Eclipse, combinant l’intégration de données, la qualité de données, le MDM, l’intégration d’applications et le Big Data. Cliquez ici

Base de données SQL

PostgreSQL est le SGBDR open source le plus complet aujourd’hui. PostgreSQL est issue de Ingres. Le projet a été lancé en 1985, la première version bâtie sur l'architecture actuelle est sortie en 1995.

MySQL est un SGBDR rapide et robuste, particulièrement déployé dans les environnements Internet. MySQL a été créé en 1995.

Pour aller plus loin : cliquez ici


Base de données No SQL

Cassandra est une autre base de données de la mouvance NoSQL. Initialement développée par Facebook en 2008, elle a été par la suite libérée et son développement est aujourd'hui assuré par la fondation Apache.

MongoDB est une base de données orientée documents de la mouvance NoSQL permettant le stockage de documents au format BSON (une forme binaire de JSON).

Pour aller plus loin : cliquez ici

Designer de rapport

BIRT (The Business Intelligence and Reporting Tool) est un projet de la communauté Eclipse comprenant un générateur de graphiques, un générateur de rapports et un environnement de conception. Le projet a été initié en 2005. Cliquez ici

JasperReport (iReport) iReport est l'outil le plus populaire auprès des concepteurs de visuel. Il prend en charge tous les formats de sortie les plus importants et importe quelle source de données. Cliquez ici

Pentaho Report Designer est un outil simple à manipuler, bien intégré à la suite décisionnelle Pentaho pour la gestion des paramètres ou la publication sur la plateforme web. Il permet la génération de rapports aux formats PDF, HTML, XML, CSV, RTF, XLS et supporte les sources de données multiples. Cliquez ici

Analyse

Mondrian est un outil OLAP (traitement analytique en ligne) avec un moteur écrit en Java. Il lit à partir de sources de données JDBC, agrège les données dans une mémoire cache, et met en œuvre le langage MDX et l'olap4j et XML / A API. Cliquez ici

La suite Palo BI, totalement Open Source, donne un rôle central aux experts métiers voués à utiliser l'outil en leur proposant des outils simples, faciles à prendre en main, à gérer et à utiliser, elle plait aux utilisateurs avancés de tableurs en leur offrant la possibilité de gérer l'application depuis Excel (suite Microsoft Office) ou depuis Calc (suite Open Office). Cliquez ici


Saiku propose différents outils pour créer et analyser des modèles de données à partir d’un navigateur ; poser toutes les questions sur les données, déverrouiller les données dans les applications ou sites web. Cliquez ici

Data mining

Weka (Waikato Environment for Knowledge Analysis, en français : « Environnement Waikato pour l'analyse de connaissances ») est une suite populaire de logiciels d'apprentissage automatique. Écrite en Java, développée à l'université de Waikato, Nouvelle-Zélande. En 2006, Pentaho acquiert une licence exclusive pour utiliser Weka. Il forme le composant d'exploration de données analytique et prédictif de la suite de logiciels décisionnels Pentaho. Cliquez ici

MDM

Talend MDM : les solutions de MDM de Talend permettent aux données disparates, incohérentes des entreprises, telles que les données de produits et de clients, d’être vues sous une seule "version de la vérité", et accroissent ainsi la confiance dans les décisions. Cliquez ici

Quelques remarques, avant de se lancer - Cliquez ici

Rédigé par Michel Bruley le Dimanche 1 Février 2015 à 12:40 | Permalien | Commentaires {0}

Le domaine des solutions Big Data est en très grand développement, de nombreuses solutions ont vu ou sont en train de voir le jour. Malheureusement beaucoup restent confidentielles. Sans avoir l’ambition de faire le tour, vous trouverez ci-dessous plusieurs solutions spécifiques à une fonction ou une industrie.

Marketing BtoB
Pour les équipes marketing, CRM, et commerciales, Datapublica propose un outil de marketing B2B offrant des fonctionnalités de : ventes prédictives (trouver les entreprises similaires à ses clients et identifier des leads rapidement) ; moteur de recherche entreprise (accéder à des fiches entreprises détaillées et à jour) ; segmentation en temps réel (explorer les caractéristiques de son écosystème – clients, fournisseurs, …) ; veille (suivre les offres d’emploi, levées de fond ou événements des entreprises mises sous contrôle). Cliquez ici

Transport aérien
Safety Line propose des solutions (logicielles et analyse statistique) pour la gestion des risques dans le domaine du transport aérien : gestion des risques opérationnels et techniques ; optimisation de la consommation et réduction des émissions de CO2 liées au transport aérien. Cliquez ici

Hôtellerie
Pricematch propose aux hôteliers une solution en mode cloud qui grâce à des algorithmes utilisant le Machine Learning (ou "apprentissage automatique") et conçus avec des experts du monde hôtelier, prennent en compte l’historique de réservation, les prix des concurrents, la saisonnalité, l’e-réputation de l’hôtel, les événements locaux, les prévisions météo, et bien plus encore... pour calculer une tarification optimale des chambres pour les mois à venir. En moyenne, les utilisateurs de cette solution ont mesuré une augmentation de 7% de leur RevPAR (revenue per available room). Cliquez ici

Pétrole & Gaz
Idmog propose une solution de gestion de données et des applications pour l’exploitation de champs de pétrole et de gaz, particulièrement robustes, délivrant de hautes performances avec une fiabilité inégalée, une grande simplicité et flexibilité, et d’autres avantages comme : une traçabilité des données, une disponibilité maximale du champ au bureau, une réduction du temps non productif des ingénieurs, … cliquez ici

Marché boursier
Kensho est un pionnier des systèmes informatiques statistiques en temps réel et des analyses évolutives. kensho réalise des calculs statistique massivement parallèle de données non structurées pour les professionnels de l'investissement de Wall Street par exemple. kensho est capable de répondre à des questions financières complexes posés dans un anglais simple et en temps réel. Cliquez ici

Assurance
Le Big Data ouvre de ¬nouveaux horizons pour lutter contre la fraude. Shift Technol propose une solution qui permet d’aller bien au-delà de la simple analyse de corrélations statistiques et est capable de détecter les vrais comportements frauduleux sous-jacents, en particulier les mécanismes de fraude en bande organisée.  Par exemple Shift Technology estime pouvoir, sur un portefeuille de 300.000 sinistres automobiles par an, faire économiser aux assureurs au moins 9 euros par sinistre de plus que ce qu’ils détectent aujourd’hui. Cliquez ici


Cas d’entreprise : transport
Chronopost veut optimiser ses coûts de livraison grâce au Big Data. cliquez ici

Cas d’entreprise : banque
La Société Générale mobilise le Big Data pour la personnalisation et le time-to-market. cliquez ici


Rédigé par Michel Bruley le Jeudi 1 Janvier 2015 à 11:20 | Permalien | Commentaires {0}
Le domaine des solutions Big Data est en très grand développement, de nombreuses solutions ont vu ou sont en train de voir le jour. Malheureusement beaucoup restent confidentielles. Sans avoir l’ambition de faire le tour, vous trouverez ci-dessous plusieurs solutions génériques qui peuvent intéresser la plupart des entreprises se lançant ou envisageant un projet Big Data.

Plateforme Big Data
Dataiku Science Data Studio (DSS) est une plate-forme logicielle qui permet de couvrir toutes les étapes nécessaires pour aller des données brutes à des applications prête de production. Il permet de raccourcit les cycles de déploiement. Grâce à son espace de travail visuel et interactif, elle est accessible à la fois aux scientifiques des données et aux analystes métiers. cliquez ici

Moteur d’analyse de données au format JSON
Les API et les applications modernes ne se présentent pas toujours sous forme de données tabulaires, mais le plus souvent sous forme de données au format JSON. Precog est un moteur d'analyse qui gère nativement JSON. Il est facile pour les développeurs à intégrer et est livré avec un outil de haut niveau appelé Labcoat qui permet aux scientifiques et analystes de données d’analyser en profondeur leurs données. cliquez ici

Analyse de logs
Sumo Logic propose une solution cloud pour gérer les logs. Elle permet de collecter, centraliser, rechercher et résoudre des problèmes, alerter et informer, visualiser et surveiller, analyser avec l’outil breveté LogReduce, faire des prévisions incluant la détection des anomalies et délivrer des analyses intégrant des éléments de contexte. cliquez ici

Reconnaissance faciale
Smart Me Up propose une solution d’analyse de visage en temps réel, fondée sur du machine learning et de l’intelligence artificielle. Cette solution de reconnaissance faciale permet de « taguer » automatiquement des individus figurant sur une vidéo, ce qui peut avoir de nombreuses applications, notamment en matière de sécurité. cliquez ici

Apprentissage automatique
PredicSis propose une plate-forme d'apprentissage automatique pour permettre à ses clients et leurs développeurs de mener facilement des analyses prédictives automatiques de qualité supérieure sur des gisements Big Data et des flux Fast Data. Il propose en outre trois applications pour mieux prédire les comportements des clients et adapter les stratégies commerciales : gestion de la clientèle, prévision d’abandon, gestion de la fraude. cliquez ici

Moteur de Recommandation
Search’XPR a développé une technologie qui s’intègre directement dans les systèmes de recommandation existants et qui a des retombées déterminantes pour les Applications de Search, les Réseaux Sociaux, les Sites de Rencontre, les Sites E-commerce et M-commerce ainsi que les sites de presse et de contenus en ligne. Elle permet de découvrir de manière inattendue et heureuse une information, un contenu, un produit/service, une personne ou une organisation. cliquez ici

Sécurité
Le stockage de données a évolué du niveau local vers le cloud avec des disques durs ou des serveurs externalisés. De plus, les données sont désormais partagées avec les fournisseurs, les régulateurs et parfois les appareils personnels des employés. Tout cela crée de la vulnérabilité pour les données sensibles. La politique de sécurité informatique doit s'adapter pour être en mesure de faire face. Cela implique non seulement la construction de clôtures autour des actifs afin de les protéger, mais un suivi plus important des menaces extérieures. CybelAngel offre une solution fiable. Plutôt que de défendre un périmètre qui n’existe plus avec le Big Data, vous avez besoin d'intercepter les données échangées ou recueillies par les attaquants. cliquez ici

Rédigé par Michel Bruley le Lundi 1 Décembre 2014 à 09:02 | Permalien | Commentaires {0}
1 2 3 4 5 » ... 11


> A LIRE EN CE MOMENT SUR DECIDEO
Profil
Michel Bruley
Michel Bruley



Galerie
scan0578.jpg
B6.JPG
B1.JPG
A.JPG
B4.jpg
B8.jpg

RSS ATOM RSS comment PODCAST Mobile