Decideo - Actualités sur le Big Data, Business Intelligence, Data Science, Data Mining

Abonnez-vous gratuitement à Decideo !


Decideo

 


Performance de l’entreprise : l’optimisation du temps d’analyse des données est capitale !


Rédigé par Daniel Crowe, Netscout Systems le 17 Juin 2018

La performance est le leitmotiv de toutes les entreprises. Dans le contexte de transformation digitale actuelle, assurer un développement rapide des activités s’affiche comme l’objectif principal de l’année pour les responsables informatique, suivi par l’amélioration de l’efficacité opérationnelle .



Daniel Crowe, Directeur Régional France et Europe du Sud chez NETSCOUT Systems
Daniel Crowe, Directeur Régional France et Europe du Sud chez NETSCOUT Systems
Ainsi, le « Time To Insight », ou TTI, qui se réfère à la mesure du temps nécessaire à la collecte, l’organisation et à l’analyse de la quantité d'informations requises pour générer l'intelligence dont une organisation a besoin, est devenue intrinsèque à la réussite des entreprises. Dans le contexte concurrentiel actuel, où la notion de temps réel est capitale, il devient essentiel de pouvoir analyser le volume et la diversité des données, ainsi que de les transformer en informations pertinentes, en seulement quelques minutes.
En outre, les temps d'arrêt de service peuvent impacter sévèrement les entreprises. Une grande majorité d’entre elles (81 %) affirment qu'une heure d'arrêt leur coûte plus de 300 000 $. Par conséquent, plus le TTI d'une entreprise est court, plus cette dernière sera rapide, réactive, efficace et rentable.

Cependant, pour que les entreprises soient en mesure de résoudre très rapidement les problèmes ou restreindre les risques pouvant impacter leur activité, elles doivent adapter leur approche aux données.

Une visibilité significative et exploitable en temps réel

L’ère du Big Data est bien réelle, 90 % des données mondiales auraient été créées au cours des deux dernières années. Avec une telle croissance et l'évolution des techniques avancées d'analyse pouvant convertir cette information en intelligence exploitable, la data vaut désormais de l’or, autant que le pétrole. En conséquence, les entreprises collectent et stockent des volumes d'informations de plus en plus importants provenant d'une myriade d'appareils, de systèmes et d'applications, afin de les convertir en valeur ajoutée.

Toutefois, avec le volume de données croissant, les entreprises doivent en réévaluer le traitement et envisager une approche plus ‘smart’ (intelligente). Cela implique de recueillir toutes les informations importantes de l’infrastructure de l’entreprise, à travers son trafic réseau, puis de les compresser en métadonnées à la source même.

L’approche ‘smart data’ est la plus efficace qu’il soit. Une fois collectées, ces données sont normalisées, organisées, structurées de manière contextuelle et mises à disposition en temps réel, ce qui augmente considérablement l'efficacité de l'analyse, améliore la qualité de l'intelligence et réduit l'ITT de l'entreprise.

En outre, les données intelligentes offrent un haut niveau de véracité. La surveillance constante des données filaires de l'infrastructure permet de récupérer tous les indicateurs clés de service assurance et de risques. Les entreprises peuvent ainsi accéder à des données contextualisées, fournissant une visibilité continue, exploitable et en temps réel sur l'ensemble de leur infrastructure informatique.

Une réduction des coûts

L'approche traditionnelle du service assurance et de l'analyse de la gestion des menaces, consiste à collecter des quantités importantes de données provenant de multiples systèmes, applications et composants d'infrastructure, et à les stocker à un emplacement central pour traitement. Ce processus augmente les capacités et coûts de stockage, de traitement et de mise en réseau requis ; et a de forts impacts environnementaux, si l'on considère que les fermes de serveurs et réseaux représentent 50 % de la consommation électrique dans ce monde connecté. Avec une approche de ‘smart data’, le volume des données collectées est considérablement compressé, car les flux de trafic bruts sont traités à la source même où les métadonnées sont créées. Il est donc possible de conserver uniquement les données utiles pour la tâche en cours et de supprimer les autres, réduisant à la fois les coûts et la consommation d'énergie.

De plus, en plein process de transformation numérique pour parfaire la rapidité et l'agilité des opérations, la ‘smart data’ permet d'améliorer considérablement le ‘Time To Insight’ de l’entreprise dans des domaines stratégiques de service assurance et de gestion des risques. Grâce à cette approche, l’entreprise gagne un avantage supplémentaire sur un marché de plus en plus concurrentiel, tant au niveau du service assurance, de la gestion des risques, de la gestion des opérations et de l'analyse des activités.




Nouveau commentaire :
Facebook Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.