Abonnez-vous gratuitement à Decideo !


Decideo

 


L’hyperstorage : La haute disponibilité à moindre coût grâce au machine learning


Rédigé par Francois Morel, Infinidat le 16 Décembre 2017

La technologie de l’hyperstorage a été développée pour faire tomber les mythes du monde du stockage. Les compromis sur le coût, la capacité, les fonctionnalités et la performance, auparavant inévitables, ne sont désormais plus un problème. Les capacités dont les entreprises ne pouvaient auparavant qu'espérer et rêver, sont maintenant devenues réalité, créant ainsi de nouvelles opportunités. L'analyse des données et le machine learning vont profondément changer le monde ; il est temps que le monde du stockage le reconnaisse et les adopte également.



Francois Morel, Country Manager France d’Infinidat
Francois Morel, Country Manager France d’Infinidat
L’hyperstorage est une solution unifiée, composée de plusieurs milliers de téraoctets, ultraperformante, offrant un débit et un niveau d’IOPS très élevé, ainsi que des temps de réponse très courts. En automatisant et en tirant des enseignements croisés entre les différents systèmes de stockage, les entreprises pourront améliorer considérablement le service par les algorithmes du machine learning. L’hyperstorage permet ainsi aux entreprises d'atteindre une plus grande disponibilité des données avec des coûts réduits, des performances incomparables, une évolutivité infinie ainsi qu’une facilité d'utilisation sans faille. Les entreprises n'ont alors plus besoin de faire de compromis lorsqu'elles prennent des décisions concernant leurs architectures de stockage.

L’hyperstorage : innover pour simplifier
Quand des milliards de données sont gérées dans un espace de stockage, l’hyperstorage va de manière fluide et transparente corriger les risques de corruption et offrir un meilleur service de stockage. Avec les solutions de stockage traditionnel, chaque panne de disque dur déclenche de longs processus de reconstruction, ce qui entraine un impact considérable sur les performances, en termes de résilience. La centralisation simple et efficace de l’hyperstorage permet de gérer les ressources agrégées de plusieurs nœuds sous la forme d’un système fédéré unique, tout en ayant une sauvegarde parallèle et simultanée. De sorte qu’en cas de panne d'un ou plusieurs disques, un processus de reprise d’activité est lancé automatiquement en utilisant tous les disques actifs. Après plusieurs minutes, les données sont entièrement reconstruites et équilibrées, conservant ainsi une performance sans faille.

Une évolution grâce au machine learning
Analyser toutes sortes de modèles d'IO et les améliorer au fil du temps est la base du machine learning. Le premier niveau de cette technologie consiste à intégrer ce mécanisme automatisé dans chaque système de façon autonome, à apprendre les modèles de charge de travail qui y sont associés et à améliorer considérablement le service au fil du temps. Le deuxième niveau, et le plus intéressant, est de prendre les modèles de tous les systèmes du monde, de les fusionner en un seul endroit, d'en tirer des enseignements croisés pour améliorer et optimiser constamment les algorithmes de machine learning.
Le mécanisme avancé de l’hyperstorage est basé sur la création d'une quantité massive de groupes de protection logique au niveau bloc, complètement découplés du matériel Il fournit des processus extrêmement performants, en parallélisant massivement sur tous les composants simultanément et de manière parfaitement équilibrée. De plus, il permet de reconstruire des processus sans impact sur les performances de production, en accélérant considérablement la prise en compte des données. La durée des temps de reconstruction a changé, passant de quelques heures et quelques jours, à quelques secondes et minutes. Il est important de comprendre que la gestion de ces couches de virtualisation à partir de DRAM permet des opérations ayant une latence en microsecondes qui n'affectent pas les temps de réponse des IO desservies par le système. Ces fonctionnalités, ainsi que de nombreux autres processus d'automatisation conçus pour rendre chaque opération de gestion aussi simple qu'elle puisse l'être, créent une incroyable facilité d'utilisation lors de la gestion des TB, PB et même EB de données à l'aide d'architectures d’hyperstorage.

Un matériel de pointe sans grever le budget
Maintenant, parlons d’un point important pour tout client : le budget. L'architecture d’hyper-stockage est conçue pour des capacités de performance exceptionnelle alors qu'elle peut fonctionner sur un matériel à faible coût. Pour des raisons de qualité, chaque pièce du matériel est soumise à des processus de validation, de qualification et d'intégration selon les meilleurs standards de l'industrie. Mais la possibilité d'utiliser ce matériel sur un support qui n'est pas considéré comme le plus rapide mais dont le prix est beaucoup plus agressif, rend la solution très attrayante même par rapport aux prix moyens du marché. Il faut garder à l'esprit qu’il s’agit d'une solution très haut de gamme. Aussi bizarre que cela puisse paraître, ce serait comme acheter une Ferrari pour le prix d'une Fiat.
Grace à son matériel à bas prix hautement qualifié, associé à une architecture intelligente qui prend en charge n'importe quelle taille de disque sans pénalité sur les temps de reconstruction, l’hyperstorage a la faculté de délivrer un système haut de gamme très dense qui a la capacité d'évoluer à l'infini. La gestion intelligente de la copie de données, les snapshots, la réplication innovante, la protection CRC, le cryptage, la compression, l'équilibrage automatique, le parallélisme de masse, le machine learning sont autant de fonctionnalités et de capacités intégrées lors de la conception. L’hyperstorage est ainsi la seule architecture de stockage disponible et conçue pour répondre aux besoins technologiques et commerciaux des entreprises en pleine croissance.

Il serait temps que les entreprises aient conscience que l’hyperstorage leur permet de faire face à deux défis majeurs : la dispersion des données (où sont-elles stockées ?) et leur volume (combien de données sont collectées et partagées ?). Les entreprises qui ne prendront pas en considération de tels défis risquent l’obsolescence. Et ceux qui feront du Big Data et de l'analyse des données leurs priorités auront un coup d’avance sur le marché.




Nouveau commentaire :
Facebook Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Google+
Facebook
Pinterest