Decideo - Actualités sur le Big Data, Business Intelligence, Data Science

Abonnez-vous gratuitement à Decideo !


Decideo

 


Big Data : des soucis de performance avec vos applications Apache Hadoop ?


Rédigé par Communiqué de Compuware le 7 Décembre 2012

Pour vous, Compuware APM® garantit désormais la visibilité 24 h/24 et 7 j/7 sur les Jobs et une analyse automatique de type Hotspot à partir de 1 000€ par machine virtuelle Java Hadoop



Compuware Corporation (Nasdaq : CPWR), leader de la performance IT, annonce ce jour la disponibilité de la première solution de gestion approfondie des transactions, destinée à optimiser les performances des applications Apache Hadoop.
dynaTrace Enterprise for Hadoop de Compuware APM sera proposé à partir de 1 000€ par machine virtuelle Java Hadoop.

Les applications qui utilisent Hadoop MapReduce pâtissent de nombreux problèmes de performance et de goulets d'étranglement, véritable fléau pour les applications distribuées. Afin d'améliorer les calculs et la distribution des données entre les nœuds, de garantir l'exécution efficace des Jobs, d'identifier les goulets d'étranglement en entrée/sortie et d'optimiser l'utilisation de la mémoire et des ressources processeur parmi des milliers de nœuds, une connaissance approfondie de l'environnement Hadoop est nécessaire.

Grâce à sa technologie brevetée PurePath Technology®, Compuware dynaTrace Enterprise offre une visibilité sans précédent sur les applications Hadoop et prend en charge ces environnements souples et modulables de diverses manières :

· Instrumentation zéro configuration : tableaux de bord prêts à l'emploi, visibilité complète sur les performances Hadoop MapReduce, aucune modification du code et grande simplicité de déploiement et de gestion.

· Analyse d'un simple clic : réduction du MTTR (délai moyen de résolution) grâce à une analyse en un clic de type Hotspot, des Jobs MapReduce, y compris des Jobs longs et hautement distribués. La cause des problèmes est identifiée en quelques minutes seulement, contre plusieurs heures ou jours auparavant.

· Analyse automatique des performances : optimisation des environnements Hadoop et réduction des coûts grâce à une connaissance approfondie de l'utilisation des ressources par les Jobs. MapReduce, déploiement sur l'ensemble du cluster et analyse automatique de la performance au niveau de la "Tâche" jusqu'au délai d'exécution des différentes méthodes.

· Surveillance de l'état de santé du cluster corrélé : surveillance du cluster Hadoop dans son ensemble et jusqu'aux ordinateurs, ainsi que du processeur, de la mémoire, du disque, des entrées/sorties et du « garbage collector » afin de mettre en corrélation l'intégrité du système et la performance des Jobs. Correction des problèmes avant qu'ils n'aient de répercussion sur les contrats de niveau de service (SLA).

· Mise en corrélation automatique des erreurs MapReduce avec le détail du Job, de la tâche et de la méthode : délai moyen de résolution plus court qu'avec toute autre solution du marché.




Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store