IBM invente le stream computing


Rédigé par par Philippe Nieuwbourg le 18 Mai 2009



La nouvelle quadrature du cercle telle qu'elle se présente aux directions informatiques pour les années 2010-2015 est la conjugaison de l'accroissement massif du volume de données générées par l'entreprise, et la migration progressive de la génération de données très structurées vers celle de données non structurées. Tout cela dans un environnement où la prise de décision devient à la fois de plus en plus complexe, de plus en plus rapide, et de moins en moins confiée à l'appréciation du décideur. Le volume attendu de données numériques en 2010, est estimé à 988 exaoctets.
Face à ces défis, IBM invente un nouveau terme, et développe produits et services autour de cette idée : le stream computing. Derrière ce concept, la prise en compte de trois évolutions majeures : des sources de données de plus en plus hétérogènes, des flux de données de moins en moins structurées, et des volumes de données tellement importants qu'ils doivent être traités au fil de l'eau en temps réel.

Pour répondre à ces demandes, qui sont encore du domaine du futur dans la majorité des entreprises, IBM propose une offre baptisée System S. Basé à Dublin en Irlande, le nouveau centre d'expertise IBM dédié au Streaming Computing, proposera du conseil, de l'accompagnement et la démonstration des technologies commercialisées par IBM.
Derrière le streaming computing se cache la notion d'analyse perpétuelle. On transforme le processus classique (alimentation, stockage, analyse) par un flux permanent, où les données sont analysées en provenance de plusieurs sources, en temps réel, comparées aux modèles mathématiques définis au préalable... et à la fin du processus, des indicateurs de décision nécessaires sont proposées au décideur qui pourra alors prendre les mesures adaptées. Bien entendu, cela ne s'applique pas à l'ensemble des secteurs d'activité, et IBM cible plus particulièrement la distribution, le transport, la santé, les banques et les assurances, tous ces secteurs gros consommateurs de données et d'entrepôts décisionnels. Derrière cette plate-forme se retrouvent à la fois des outils IBM, des outils rachetés et des développements nouveaux. IBM revendique plus de cent brevets pour la mise en oeuvre du stream computing.

IBM annonce avoir déjà mis en place cette nouvelle technologie chez certains clients comme une université scientifique suédoise, qui utilise des données provenant de l'espace pour anticiper l'impact du climat sur la transmission des ondes électriques, satellites, radio, TV... d'ici l'année prochaine, le projet devrait manipuler 6 Gigaoctets de données par seconde, soit 21 600 Gigaoctets par jour (l'équivalent de l'intégralité du Web).
Autre exemple impressionnant, la mise en place par TD Securities d'une plate-forme capable de lire 5 millions de bits par microseconde de transactions financières, soit l'équivalent de dix fois la totalité de l'oeuvre de Sakespeare en une seconde...
A l'institut de technologie de l'Ontario au Canada, des flux de données en provenance des bébés prématurés sont analysés en temps réel. Détecter certains changements physiologiques, permettrait d'anticiper de 24 heures l'apparition des premiers symptomes de certaines affections, aidant ainsi les médecins à anticiper le traitement et à mieux guérir les bébés concernés.



Dans la même rubrique :