Big Data, Science des données, aide à la décision en entreprise, business intelligence, data warehouse, reporting, OLAP, web analytics, data visualization, data mining, internet des objets, informatique cognitive, intelligence artificielle...

Abonnez-vous gratuitement à Decideo !


Decideo

 


En lançant sa 'Machine', Oracle attaque Teradata, Netezza et tout le marché des 'appliances'


Rédigé par par Philippe Nieuwbourg le 26 Septembre 2008



HP Oracle Database Machine
HP Oracle Database Machine
En matière d'annonces technologiques comme de politique, il faut étudier le protocole. Signe de l'importance de l'annonce de HP Oracle Database Machine, c'est Larry Ellison, fondateur et CEO de Oracle qui s'en est réservé la primeur devant les 40 000 participants à la conférence annuelle de l'éditeur à San Francisco, OpenWorld.
C'est la première fois que Oracle remet un doigt dans la commercialisation de matériel, après la tentative ratée du Network Computer à la fin des années 90. Et Oracle a choisi HP pour construire et maintenir cette offre. Une alliance logique, mais qui décevra Pillar Data Systems, société spécialisée dans le stockage dans laquelle Larry Ellison a investi à titre personnel.

De quoi s'agit-il ?
Oracle propose sous sa propre marque, en alliance avec HP, un serveur dédié aux applications décisionnelles. Basé sur une architecture massivement parallèle, il est composé de serveurs dédiés à la base de données et de serveurs dédiés aux stockage, regroupés dans une même armoire.
La configuration annoncée comprend huit serveurs dédiés à la base de données, équipés de 64 coeurs Intel, tournant sous Oracle Enterprise Linux 5.1. Il s'agit de serveurs Proliant DL360 G5 équipés de Processeurs Intel Xeon à huit coeurs tournant à 2,66 Ghz. Chaque serveur est doté de 32 Go de mémoire vive.
La partie stockage est composée de quatorze serveurs Oracle Exadata Storage qui permettent de stocker 168 To de données et communiquent à 14 Gb/seconde avec les serveurs de base de données. Ces serveurs sont des HP Proliant DL180 G5 équipés des mêmes processeurs et de 8 Go de mémoire vive chacun.
Ces nouveaux serveurs Exadata peuvent également être acquis séparément par les entreprises qui souhaitent les intégrer dans leur infrastructure, chaque serveur stocke 12 To de données.
Du point de vue logiciel, Oracle insiste sur la transparence de la machine qui pourrait s'adapter à tous les environnements décisionnels sans modification. Mais bien entendu les solutions Oracle sont recommandées et la machine est "certifiée" pour Oracle Business Intelligence Enterprise Edition.

Qui vend quoi ?
Oracle commercialise cette nouvelle solution et assure le support du logiciel. HP assure la logistique et la livraison des machines et assure la maintenance du matériel. Ces offres seraient dès maintenant disponibles, en tous cas aux Etats-Unis. Des premiers clients ont accepté de témoigner de leur usage de ces nouvelles machines : LGR Telecommunications, le Chicago Mercantile Exchange et M-Tel. Difficile de connaître le prix de la machine, mais certaines indiscrétions semblent le positionner à 4000 dollars par Teraoctet, ce qui ferait grimper la configuration complète à 672 000 dollars.




Commentaires
Du plus récent au plus ancien | Du plus ancien au plus récent

34.Posté par Philippe Nieuwbourg le 21/10/2008 17:51

Pour que les lecteurs de ce fil de discussion soient informés correctement et permettre à chacun de se faire une opinion en toute connaissance de cause, il me semble utile de porter à la connaissance de tous que derrière le pseudo de 'Mario' se cache Jamal ELFAIZ, EMEA BI & DW Director chez ... Oracle !
Et qui plus est, un ancien de Teradata qu'il aurait quitté fin 2006... peut-être en mauvais termes...
On comprendra mieux l'énergie dépensée à critiquer Teradata et d'autres sur d'autres articles. Et le lecteur relativisera largement les critiques de 'Mario' vis à vis de l'objectivité de mon article, en mesurant la propre 'objectivité' de 'Mario'.

33.Posté par Mario le 08/10/2008 16:45
Voilà une bonne réaction non partisane de Mr Sallou! ;-)
Ne tirer pas sur Oracle car ils ont une offre avec IBM qui s'appelle Optimized Warehouse Initiative qui complète l'offre Oracle-appliance(une offre bien entendu avec d'autres comme Dell/EMC, HP).
le prix n'est pas toujours un critère de choix decisif sinon Teradata ne sera jamais là...et puis depuis quand IBM fait des machines, sw et maintenance pas cher????

32.Posté par Eric Sallou le 08/10/2008 09:16
Nous constatons aussi chez IBM une demande croissante de nos clients pour des solutions décisionnelles performantes, simples et économiques. C’est pour cette raison que nous avons lancé la nouvelle Appliance « InfoSphere Balanced Warehouse » intégrant la base de donnée DB2 DWE V9.5, version parallélisée, sur un cluster MPP xSeries ou pSeries sous Linux, Windows ou Unix.

L’originalité de notre offre, contrairement à cette d’Oracle est de proposer plusieurs version de cette Appliance, avec un point d’entrée très bas (inférieur à 50K€) !
- C-Class de 50 GB à 700G B, sous Linux ou Windows, destinée principalement au PME,
- D-Class de 1 à 3 TB sous Linux, destiné au grandes entreprises,
- E-Class sous AIX pour les DWH haute performance de plus de 3 TB.

InfoSphere embarque aussi, en option, l’ETL Datastage PX (parallélisé) et la suite Cognos BI V8.

Point important, afin se faciliter la maintenance HW et SW IBM fournit un point de support unique pour l’ensemble de la solution. On peut d’ailleurs se demander qui, d’Oracle ou de HP, assurera le support efficace de l’offre Oracle ?

Nous sommes aussi dubitatif sur le coût total de la solution Oracle, car si l’on fait le calcul du coût des licences Oracle pour la configuration proposée et du HW, il y a de quoi se faire peur (environ 5 millions d’euro) ! La complexité bien connue d’administration de RAC restera aussi l’écueil majeur à la généralisation de l’offre d’Oracle.

Eric Sallou
IBM InfoSphere Balanced Warehouse Specialist
eric.sallou@fr.ibm.com

31.Posté par Mario le 06/10/2008 21:56
les hommes et les femmes toujours les hommes et les femmes qui feront marcher le monde... même les choses les plus complexes...la technologie n'est qu'un élément de la chaine, je suis d'accord...
quand au FTS la problématique reste entière: la lecture de plusieurs utilisateurs en FTS sur le même disque fait que l'optimisation du déplacement de la tête de lecture reste insoluble!!!
le tout en mémoire est le future du décisionnel..;sans la nommer cette fois-ci, et éviter de me cataloguer comme partisant, j'ai vu une solution qui peut mettre 150G en mémoire et même plus...et là les uilisateurs concurent ne posent plus pb...



30.Posté par Stefan le 06/10/2008 11:17
Oracle démocratique? D'après leur discours récents ils ressemblent de plus en plus à Microsoft. ( on sait tout faire, avec les meilleurs perfs du monde et au meilleur prix pour tous les domaines fonctionnels ). Ils ont certains des produits qui tiennent la route soit, mais j'aime pas ce genre de "propagande" alors que leurs solutions sont loin d'être si parfaites sur nombre de domaines.

Je vais rajouter une "anecdote" bien réelle sur le choix d'une solution BI.

Le responsable X de la société Y du CAC40 s'en va après Z années de loyaux services. Le nouveau responsable T souhaite à tout prix se remarquer et décide de tout changer. Il s'heurte de la politique de Y qui a des standards. Mais arrive néanmoins à changer la base et l'ETL.

Les travaux démarrent en vitesse afin de mettre en place cette merveilleuse solution. Tout se passe bien, le nouveau DW se met en place, mais l'imprévu arrive quand le standard impose la solution de reporting. Projet titanesque de migration de ce projet vers le nouveau DW, abandonné en cours de route pour tout refaire ( plus simple et moins long avec cette solution de reporting ).

Un jour, un responsable financier jette un oeil curieux sur la facture. Alors, faisons le compte...abadon de la base 1 : xxx euro , achat de la base 2 : xxx euro , abandon de l'ETL , travaux d'adaptation etc. Grand total W millions d'euros. Avec en prime des utilisateurs mécontents car données pas à jour et revenus tranquillement à leur Excel favori sur toute la ligne.

Conclusion? Une solution BI peut reposer sur les meilleurs outils du marché, ça risuqe de ne pas fonctionner pas quand même. C'est valable pour nombre de domaines dans l'informatique, mais la BI a cette particularité de dépendre des hommes qui la conçoivent et implémentent plus que d'autres.

Un seul débat technique ne suffit pas, pour ma part j'ai par exemple même vu des outils ad-hoc tordus pour faire du reporting de masse et information delivery. Le comble c'est que ça marchait. ( après nombre d'efforts tout de même ). Je me tais sur la maintenabilité de la solution...

Chaque outil a ses points forts et ses applications, ses clients etc. Il y aura révolution quand on passera à un autre type de BI. Mon avis ce qu'il faut regarder ailleurs que seule la technique, l'infrastructure se copie vite et se fabrique en Chine.

A vos plumes.

29.Posté par Patrick le 03/10/2008 11:43
Mario a écrit : "... et la démocratisation des architecture massivement // a vu le jour avec Exadata."

Uniquement concernant le système de stockage. Et quant à parler de démocratisation...

Compléments d'info intéressants :
- http://www.dbms2.com/2008/09/24/oracle-exadata/
- http://kevinclosson.wordpress.com/2008/09/24/oracle-exadata-storage-server-software-part-i/

Ces articles sont surtout intéressants parce que contrairement aux propos tenus dans ce forum - dont les miens par ailleurs -, ils abordent le débat par le côté purement technique. Exemple : on y explique qu'une architecture de système de stockage optimisée pour le FTS ne fonctionnera parfaitement - comme dans l'annonce marketing - que si il n'y a pas de concurrence avec d'autres types de requêtes. Netezza est, par exemple, très compétitif également sur ce type de requête FTS. Beaucoup de bases décisionnelles en production doivent supporter un nombre important de requêtes FTS, parfois même majoritaires. Mais pas toutes.

28.Posté par Mario le 02/10/2008 13:28
Choisir son DW est moins dangereux que de faire du parapente! le risque serait une mort prefessionnelle de courte durée à la limite ;-)
Bien entendu le DW actif ne peut être reconnu comme tel que si on tiens compte du chargement au fil de l'eau avec des opérations d'insert/update/upsert/delete et select en même temps et sur les mêmes tables pour des applications sensibles comme la fraude, gestion de risques, revenue assurance, cotations etc etc ou on a besoin d'une donnée fraiche et up-to-date...je suis désolé mais les appliances ne savent pas allier le temps réel et le DSS et le mixed workload.. j'ai eu mainte fois l'occasion de le vérifier....c'est justement pour cela que je defend oracle qui permet de faire le "tout terrain" aussi bien pour les petits budgets que pour les gros..et la démocratisation des architectures massivement // a vu le jour avec Exadata.

27.Posté par Mario le 02/10/2008 10:38
je ne pense pas avoir dis des contres vérités mais je pense que chacun a CES vérités!
Je ne pense pas non plus que c'est une pbmaitque de monté en charge car RAC pouvait répondre très bien à celà, bcp de clients Oracle manipulent des VLDBs tous les jours...et les grosses bases ne sont pas que Netezza ou Teradata!
dans le decisionnel il y a bcp de FTS(full table scan) et chez les telecoms en particulier..
Oracle etait pénalisé par le fait de tout chargé en mémoire (sans élimination etc )..alors ils ont crée une vraie architecture massivement \\ basé biensur du RAC ,un reseau infinband et un sotockage virtuel (VDISK)doté de processeurs (la révolution) pour mieux optimiser les accès aux données visées, les tris, les aggregats, les jointures etc
il ya donc du shared nothing et du shared all dans sa nouvelle architecture...et c'est bien une architecture massivement \\ d'ou l'importance de l'annonce à concurencer Netezza et Teradata.

26.Posté par Patrick le 02/10/2008 09:55
Philippe, sachez tout d'abord que j'admire votre travail depuis de nombreuses années et surtout, votre probité jamais mise en défaut et votre art consommé de la communication. Je ne voulais donc surtout pas laisser à penser que ma remarque avait quelque objectif prétentieux de vous mettre en porte-à-faux. Si un doute a plané à se sujet, je vous présente moi aussi toutes mes excuses.

Une architecture MPP peut être définie, selon moi, par l'organisation des données du SGBR. Dans une architecture cluster comme RAC, toutes les données de la base sont partagées par toutes les CPU de l'architecture ou autrement dit, chaque CPU (et donc l'applicatif qui l'utilise) peut accéder à toutes les données de la base. Dans une architecture MPP, les données de chaque table de la base sont réparties sur les CPU qui ne voient et ne gèrent que ce sous-ensemble de données. Cette répartition est prise en charge par le SGBDR (ex. via algorithme de hashing). Voilà ce que je souhaitais préciser par ma modeste remarque, sans aucune prétention naturellement. Naturellement, une architecture MPP ne peut pas se limiter à cette définition, mais disons qu'elle peut être vue comme un postulat fondamental.

J'en profite également pour apporter une autre précision. Le dernier message de Mario indiquait que le data warehouse actif induisait des problèmes de locking en écriture concurrente sur le data warehouse. Je suis au regret de vous dire que c'est totalement faux. Que ce soit avec Oracle, DB2, Teradata ou SQL Server. Non pas d'ailleurs pour des raisons techniques comme l'entendait Mario, mais pour des raisons fonctionnelles. En effet, le data warehouse actif se définit par la proposition de services SOA utilisant les données du data warehouse dans les environnements opérationnels, mais ces services sont en mode LECTURE (SQL SELECT et non INSERT/UPDATE/DELETE). La contention en matière de locking peut éventuellement se poser au niveau de l'alimentation du dw actif, qui se fait en temps réel ou quasi réel, mais ce risque est réduit car porte sur un sous-ensemble très réduit de données. J'ai personnellement quelque expérience en matière d'implémentaition et peut témoigner que toutes les bases du marché sont parfaitement équipées techniquement pour faire du dw actif. Tout dépend encore une fois du périmètre du projet car en revanche, toutes ne monteront pas en charge de la même manière inconditionnelle, surtout lorsqu'il faudra s'engager sur la qualité de service des transactions SOA actives. Un exemple ? Garantir un temps de traitement de 100 msec pour les 200 transactions simultanées "actives SELECT" avec en même temps un utilisateur SAS qui lance LA requête de scoring des 4 millions de clients ou un utilisateur BO qui vient de lancer (dans le vide) une requête "oooups" faisant un superbe "full table scan" de la table de faits de 3 milliards de lignes.

Je fais du parapente depuis 20 ans. Je peux aujourd'hui entrer dans une boutique et acheter une voile de compétition. J'ai toutes les chances de me tuer dans les 20 premiers vols. Et pourtant, c'était la voile avec les meilleures performances du moment.

25.Posté par Philippe Nieuwbourg le 02/10/2008 00:00
@ Patrick

Vous devez savoir mieux que moi... voici ce que dit la fiche technique de la machine : "The HP Oracle Database Machine includes 14 Exadata Storage Servers that provide a high-bandwidth, massively parallel storage solution, delivering up to 14 GB per second of raw I/O bandwidth".
Peut-être ai-je fait un raccourci en parlant d'architecture alors que cela ne concernerait que le stockage... si c'est le cas je m'en excuse, et je suis demandeur, ainsi que tous nos lecteurs de vos explications.
Le lien vers la fiche technique est :

1 2 3 4
Nouveau commentaire :
Facebook Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.