Decideo - Actualités sur le Big Data, Business Intelligence, Data Science

Abonnez-vous gratuitement à Decideo !


Decideo

 


De l'IoT (Internet des Objets) à l'AoT (Analytics des Objets)


Rédigé par Marie-Luce Picard, Think Big le 16 Mars 2017

La déferlante « internet des objets » (ou IoT) bat son plein. Gartner prédit qu'en 2017 plus de 6 milliards d'objets seront connectés, et que l'on atteindra les 20 à 25 milliards en 2020. Parmi ces objets, on retrouvera des objets personnels grand publics (comme les montres, ou les trackers d'activités), des accessoires électroménagers, et bien sûr de très nombreux capteurs sur des produits manufacturés (automobiles, trains, bateaux, ...) ou dans des installations industrielles (réseaux, usines, centrales de production,...).



Marie-Luce Picard, Principal Manager, Delivery Lead, Think Big, a Teradata Company
Marie-Luce Picard, Principal Manager, Delivery Lead, Think Big, a Teradata Company
Tous les métiers sont ou seront impactés, selon les 3 grands domaines d'applications suivants : le 'quantified self', la smart home, et l'internet des objets industriels.

L'idée de connecter le monde physique à Internet n'est pas nouvelle, mais elle a récemment pris un essor considérable, en particulier du fait :
-de la disponibilité à bas coûts et de la diffusion en masse de capteurs dont les capacités de stockage et de calcul sont en croissance,
-de la disponibilité de capacités de mobilité à coûts minimes,
-mais aussi du développement de capacités de stockage et de traitement de données en masse (big data, data analytics).

Car c'est bien l'analyse faite des données issues des objets connectés qui permettra d'en extraire toute la valeur et notamment de développer une connaissance plus fine des usages.

Les milliards d'objets connectés générant des péta-octets de données, les applications qui souhaitent exploiter ce gisement d'informations ont besoin de solides infrastructures pour se faire.
Pour Gartner, une plateforme IoT est « une suite logicielle (SaaS, Software As A Service) ou un service cloud (PaaS, Platform As A Service) qui facilite les opérations impliquant des acteurs IoT (capteurs, appareils, réseaux), le cloud et les ressources de l'entreprise ». La plateforme recueille les flux d'évènements, permet de faire des analyses spécialisées et de développer des applications, et implique des systèmes IT en back-end. La plateforme IoT peut être développée sur l'infrastructure existante (On Premise) ou dans un cloud public ou privé.
Pour IoT Analytics , une telle plateforme offre à minimum des services d'acquisition de données, de télécommunications, d'analyse et décision (machine learning, data science, visualisation ...), de réactivité temporelle (analyse de flux) et de transmission d'actions.

Finalement la plate-forme IoT est un facilitateur, un moyen de collecter, rassembler et mettre à disposition de la donnée : la vraie valeur sera celle issue des analyses et services mis en place à partir de ces données. C'est ce que l'on peut appeler le 'AoT' : Analytics of Things.

Mais quels sont les challenges spécifiques liés à la gestion et à l'analyse des données issues des objets connectés ?

Quelles sont les spécificités des projets d'AoT comparés à des projets de Data Analytics classiques ?
Du point de vue 'Data', il est important de mettre en avant les caractéristiques suivantes qu'il conviendra de garder en tête, voire de maîtriser pour réussir ses projets AoT :

(1) De la nécessité d'adopter des approches Big Data pour la collecte, le stockage et l'analyse des données, pour répondre aux défis des 3Vs posés par les applications exploitant des données d'objets connectés.

Le Volume ... des milliards d'objets connectés ... des péta-octets de données ...
La Variété ... Certes, les données issues des capteurs seront majoritairement des séries temporelles, mais on devra également prendre en compte des évènements, et considérer ces données en regard d'autres données (tabulaires, graphes, non structurées) sur les clients, les installations

La Vélocité ... ou faible latence : les objets connectés collectent et émettent des informations en flux quasi continu, et leur prise en compte rapide voire en temps réel peut être nécessaire.
La mise en place d'un Data Lake sera centrale dans la réussite de projets AoT. La combinaison de ces données avec d'autres sources de données internes ou externes à l'entreprise permettra la découverte de nouveaux axes d'analyses métier pour une meilleure connaissance et amélioration des usages.
Des frameworks d'industrialisation de Data lake comme Kylo permettent à la fois d'accélérer les délais de mise en œuvre de ce type de plateforme mais aussi d'adresser les dimensions de gouvernance des données et de sécurité des accès qui sont clef pour garantir pérennité et évolution dans le temps.

(2) Dans les trois grands domaines d'application identifiés, la dimension temps réel des analyses à mettre en œuvre est présente voire essentielle : alarmes diverses, push d'informations au bon endroit au bon moment, prise en compte de nouvelles données d'usage rapidement dans diverses analyses.
Les systèmes IoT font donc la part belle aux approches de traitement et d'analyse temps réel dont les outils CEP, Complex Event Processing qui permettent de traiter les données en flux, de les exploiter à travers la mise en œuvre de modèles en ligne, éventuellement adaptés au cours du temps.

(3) Des séries, des séries, des séries, .... Même si les données à analyser et à prendre en compte sont issues de sources diverses et de natures variées, la plus grande majorité d'entre elles seront des séries temporelles qui nécessitent des approches spécifiques tant pour leur stockage que pour leurs analyses.
Dans l'écosystème Big Data, HBase, Apache Cassandra ou encore OpenTSDB sont souvent utilisés pour stocker, voire manipuler des séries temporelles. La mise en place d'analytiques sur ces données passe par la maîtrise de méthodes particulières, tant pour leur représentation, leur transformation (Fourier, Ondelettes, SAX) leur modélisation, ou encore la prévision de séries temporelles, qu'il faudra savoir implémenter et mettre en œuvre dans des environnements Big Data.

(4) De fait, les applications IoT impliquent une distribution géographique des données. La question de la localisation des traitements est posée, depuis une intelligence fonctionnelle uniquement concentrée dans le système central, jusqu'à la proposition d'architectures où les objets sont complètement autonomes et communiquent et collaborent entre eux, l'optimum étant probablement sur des architectures mixtes.
Une réflexion devra donc être menée sur l'aspect local ou centralisé de tout ou partie du stockage et des analyses, avec des trade off à considérer sur les capacités et coûts des capteurs, l'efficacité des traitements, et les besoins de tout ou partie des données. Les systèmes pair à pair peuvent également amener des réponses à certains types de besoin.

Montres et bracelets connectés pour un suivi des activités physiques, des constantes ou pour mettre en place diverses alarmes liées à la santé.
Objets connectés dans la maison, pour maîtriser sa consommation énergétique, piloter ses appareils, ou assurer la sécurité.

Voitures connectées, permettant une analyse des modes de conduite pour mieux connaître l'expérience utilisateur et donc mieux adresser les besoins et usages du conducteur.
Capteurs dans les systèmes industriels, ouvrant la voie à une approche prédictive des opérations de maintenance et par conséquent une gestion plus optimale des temps d'immobilisation des assets et des processus de distribution et de production des pièces détachées,

La mise en place d'analyses avancées sur les données des objets connectés va entraîner une véritable rupture dans notre vie quotidienne comme dans beaucoup de domaines d'activité, car ils amènent une connaissance fine des usages.

Pour arriver à relever ce challenge, les acteurs de cette transformation devront non seulement adapter leur système d'information en matière de collecte, de traitement et d'analyse de la donnée, mais également repenser leur organisation et leur processus, voire leur business model face à l'arrivée de nouveaux acteurs de la nouvelle économie.

En prenant pour référentiel de leur chaîne de décision cette connaissance plus fine du réel, l'entreprise peut alors s'ouvrir sur de nouvelles opportunités en
matière de développement de nouveaux services et produits ou d'optimisation opérationnelle et de réduction de coûts.

Pour appréhender au mieux ces enjeux autour de l'Analytics of Things, les équipes Think Big se tiennent à votre disposition pour vous apporter toute leur expertise et leur savoir faire en stratégie de développement Big Data, réalisation de Data Lake ou encore de développement de nouvelles solutions analytiques basées sur les dernières avancées en matière de Data Science.




Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store