Gartner souligne l’importance grandissante de l’informatique de pointe au sein de l’écosystème, estimant que 75% des données seront générées et traitées en dehors des Datacenters ou du Cloud d’ici 2025, contre seulement 10% aujourd’hui. Par le biais de l’IoT, de nombreux systèmes exécutent une grande variété de tâches au travers desquelles ils collectent et calculent des données. Cette technologie est présente partout : qu’ils s’agissent de capteurs de température dans une usine ou un détecteur de présence dans une maison intelligente.
Les analystes considèrent que les dispositifs IoT utiliseront principalement l'infrastructure 5G, couplée à d'autres technologies réseau, pour pouvoir transmettre leurs données à une instance centrale basée en périphérie. Les entreprises ne stockeront ainsi aucune donnée elles-mêmes, ce qui leur évitera de devoir ajouter des capacités de mémoire à leurs appareils et de les rendre plus énergivores. Ainsi, le système central périphérique collectera les données issues des dispositifs, les transformera en données pertinentes, contextuelles et intelligentes et les stockera en toute sécurité sur des serveurs. Il existe différentes manières d’assurer leur fiabilité comme par exemple en configurant des sites périphériques secondaires, des clusters locaux ou en sauvegardant les systèmes de données dans l'infrastructure principale ou dans le cloud.
De nouvelles bases d’évaluation
Comment concevoir un concept IoT économiquement viable ? Dans un premier temps, les erreurs généralement commises dans le cadre d’une infrastructure IT classique sont à éviter. Par exemple, la sauvegarde de données inutiles – dont personne ne sera amené à faire usage - est une des erreurs courantes. Pour éviter cet écueil, comprendre en détail les données et leur valeur dans ce nouvel écosystème sera décisif pour la bonne conception du système IoT.
Des critères spécifiques s'appliquent aux données générées en périphérie. Après leur utilisation, celles-ci sont stockées temporairement pour éviter l’occupation inutile des systèmes de stockage et sont ensuite supprimées, même après avoir été transmises avec succès. Le stockage de formats bruts gourmands en mémoire n'est nécessaire que dans certains cas pour des raisons de conformité - par exemple pour les images de caméras de surveillance ou les badges utilisés dans les systèmes d’accès intelligents. Même avec un jumeau numérique, le stockage des valeurs générées par les appareils IoT n'est pas important, car seul les résultats de leur traitement intelligent compte.
Même si chaque application présente ses propres particularités, quatre règles de base aident lors de l'évaluation des données de périphérie :
- Assurer la visibilité sur les données : le mapping et la découverte de données montrent comment les volumes de données évoluent et sont utilisés dans l'entreprise, qui y a accès et combien de temps ils sont conservés. Sur la base de ces informations, les entreprises peuvent alors évaluer les risques et décider des données n’étant plus utiles et pouvant sans problème être supprimées.
- Automatiser les analyses : Permettant d’évaluer l’utilisation et les risques liés aux données, seuls une analyse et un suivi automatisés offrent une base fiable pour la prise de décision. Lorsque l’on gère des milliards de fichiers ou encore plusieurs pétaoctets de données, les solutions de suivi, d'archivage et de sauvegarde ne peuvent être gérées qu’automatiquement.
- Minimiser les stockages inutiles de données et définir les usages :
Ces principes contribuent à réduire la quantité de données à stocker et à garantir que celles-ci sont utilisées à des fins spécifiques. Les systèmes de classification, de sauvegarde flexible, et de gestion de la conformité aident à supprimer les éléments inutiles.
- Assurer la conformité : non seulement la RGPD stipule que les informations personnelles divulguées doivent être signalées aux autorités de contrôle ou aux personnes concernées, mais les entreprises doivent également être en mesure de déceler et de documenter les incidents de sécurité grâce à l'utilisation de solutions de surveillance.
Les entreprises capables d’apporter une réponse positive à ces quatre règles seront à même de mieux appréhender le potentiel des données en provenance de l’IoT, mais aussi les risques et dommages qui peuvent en découler notamment en cas de perte. Sur cette base, les investissements nécessaires afin d’assurer la sauvegarde et la disponibilité des données peuvent être justifiés et un modèle économiquement viable peut être développé. Dans ce contexte, il sera crucial de comprendre en détail les données et leur valeur dans ce nouvel écosystème.
Les analystes considèrent que les dispositifs IoT utiliseront principalement l'infrastructure 5G, couplée à d'autres technologies réseau, pour pouvoir transmettre leurs données à une instance centrale basée en périphérie. Les entreprises ne stockeront ainsi aucune donnée elles-mêmes, ce qui leur évitera de devoir ajouter des capacités de mémoire à leurs appareils et de les rendre plus énergivores. Ainsi, le système central périphérique collectera les données issues des dispositifs, les transformera en données pertinentes, contextuelles et intelligentes et les stockera en toute sécurité sur des serveurs. Il existe différentes manières d’assurer leur fiabilité comme par exemple en configurant des sites périphériques secondaires, des clusters locaux ou en sauvegardant les systèmes de données dans l'infrastructure principale ou dans le cloud.
De nouvelles bases d’évaluation
Comment concevoir un concept IoT économiquement viable ? Dans un premier temps, les erreurs généralement commises dans le cadre d’une infrastructure IT classique sont à éviter. Par exemple, la sauvegarde de données inutiles – dont personne ne sera amené à faire usage - est une des erreurs courantes. Pour éviter cet écueil, comprendre en détail les données et leur valeur dans ce nouvel écosystème sera décisif pour la bonne conception du système IoT.
Des critères spécifiques s'appliquent aux données générées en périphérie. Après leur utilisation, celles-ci sont stockées temporairement pour éviter l’occupation inutile des systèmes de stockage et sont ensuite supprimées, même après avoir été transmises avec succès. Le stockage de formats bruts gourmands en mémoire n'est nécessaire que dans certains cas pour des raisons de conformité - par exemple pour les images de caméras de surveillance ou les badges utilisés dans les systèmes d’accès intelligents. Même avec un jumeau numérique, le stockage des valeurs générées par les appareils IoT n'est pas important, car seul les résultats de leur traitement intelligent compte.
Même si chaque application présente ses propres particularités, quatre règles de base aident lors de l'évaluation des données de périphérie :
- Assurer la visibilité sur les données : le mapping et la découverte de données montrent comment les volumes de données évoluent et sont utilisés dans l'entreprise, qui y a accès et combien de temps ils sont conservés. Sur la base de ces informations, les entreprises peuvent alors évaluer les risques et décider des données n’étant plus utiles et pouvant sans problème être supprimées.
- Automatiser les analyses : Permettant d’évaluer l’utilisation et les risques liés aux données, seuls une analyse et un suivi automatisés offrent une base fiable pour la prise de décision. Lorsque l’on gère des milliards de fichiers ou encore plusieurs pétaoctets de données, les solutions de suivi, d'archivage et de sauvegarde ne peuvent être gérées qu’automatiquement.
- Minimiser les stockages inutiles de données et définir les usages :
Ces principes contribuent à réduire la quantité de données à stocker et à garantir que celles-ci sont utilisées à des fins spécifiques. Les systèmes de classification, de sauvegarde flexible, et de gestion de la conformité aident à supprimer les éléments inutiles.
- Assurer la conformité : non seulement la RGPD stipule que les informations personnelles divulguées doivent être signalées aux autorités de contrôle ou aux personnes concernées, mais les entreprises doivent également être en mesure de déceler et de documenter les incidents de sécurité grâce à l'utilisation de solutions de surveillance.
Les entreprises capables d’apporter une réponse positive à ces quatre règles seront à même de mieux appréhender le potentiel des données en provenance de l’IoT, mais aussi les risques et dommages qui peuvent en découler notamment en cas de perte. Sur cette base, les investissements nécessaires afin d’assurer la sauvegarde et la disponibilité des données peuvent être justifiés et un modèle économiquement viable peut être développé. Dans ce contexte, il sera crucial de comprendre en détail les données et leur valeur dans ce nouvel écosystème.
Autres articles
-
Analytique et IA générative : la confiance et la gouvernance en première ligne
-
La souveraineté des données est loin d’être une chimère
-
Veritas améliore la maîtrise et la gestion des données non structurées et sensibles avec Veritas Data Insight SaaS
-
77 % des Français pensent que l’utilisation de l’IA au bureau devrait être mieux encadrée
-
Données dans le cloud : Quels sont les défis actuels à surmonter ?