AWS annonce le lancement d'AWS Data Pipeline lors d'AWS re: Invent 2012 à Las Vegas


Rédigé par Communiqué de Amazon le 30 Novembre 2012



AWS annonce le lancement d’AWS Data Pipeline dans le cadre de la seconde journée du premier événement mondial AWS re: Invent 2012 à Las Vegas d’Amazon Web Services (AWS) à destination des utilisateurs. Ce nouveau service a été conçu pour aider ses clients à gérer simplement des données réglables. Avec AWS Data Pipeline, les clients peuvent désormais automatiser la procédure et le traitement de n’importe quelle volume de données utilisant le flux de données et le contrôle des informations relatives.

Veuillez trouver plus amples informations à propos d’AWS Data Pipeline en cliquant sur le lien ci-dessous:
http://aws.typepad.com/aws/2012/11/the-new-amazon-data-pipeline.html

Vous pouvez également visionner une présentation et une démonstration d’AWS Data Pipeline en cliquant sur le lien suivant : http://www.youtube.com/watch?v=PW1lhU8n5So (la présentation de Werner Vogel sur AWS Data Pipeline débute à 1.25.13 de la vidéo et la démonstration de Matt Wood sur AWS Data Pipeline démarre à 1.27.30).

De plus, lors de cette deuxième journée, Amazon Web Services a également dévoilé de nouveaux types d’instances Amazon EC2 : un type d’instance Cluster Mémoire Haute et un type d’instance de stockage élevé.

Le premier type d’instance est le type d’instance Cluster Mémoire Haute (cr1.8xlarge) qui possède 240 GB de RAM et 2x120 GB SSD de mémoire. Le type d’instance Cluster mémoire haute est conçu pour les clients exécutant des applications nécessitant un grand volume de traitement de données, le traitement en mémoire tels que des bases de données en mémoire ou des outils analytiques en mémoire.
Le second type d’instance est le type d’instance de stockage élevé (hs1.8xlarge) possédant 117 GB de RAM et 48 TB de mémoire (configuré comme 24x2TB de disques durs). Le type d’instance de stockage élevé a été développé pour les clients exécutant des analyses à très grande échelle et de grandes tâches Hadoop avec Amazon Elastic MapReduce.



Dans la même rubrique :