Schéma du BI Semantic Model annoncé dans Denali
En marge de la conférence PASS qui s’est tenue il y a deux semaines aux Etats-Unis, un billet posté sur un blog a fait beaucoup de bruit ; celui de Chris Webb que vous pouvez lire en intégralité ici.
PowerPivot est appelé à prendre une position centrale dans la gestion des données décisionnelles. Le nouveau service qui permettra de créer des cubes, en mémoire sur le serveur, s’appellera BISM (BI Semantic Model). Il complètera Analysis Services (et son stockage multidimensionnel) et sera appelé lorsque vous publierez à partir de PowerPivot un cube sur le serveur. La comparaison avec les univers de Business Objects a été faite plusieurs fois. L’idée de Microsoft est de gommer au maximum la complexité de création des modèles et des bases et Analysis Services (UDM) est maintenant considéré par Microsoft comme trop complexe ; ce qui signifie que le marché serait plus vaste si l’outil de création de bases décisionnelles était plus simple.
BISM deviendra donc le standard, et Crescent que nous avons présenté il y a dix jours, ne sera en mesure de se connecter qu’à des sources BISM.
BISM est conçu pour fonctionner en mémoire, il ne devrait pas comporter de fonctions d’agrégation ou d’indexation avancée, mais proposera en revanche une compression forte des données – jusqu’à un facteur de 100. Ce qui permettra d’interroger en quelques secondes une base de 2 milliards de lignes. Même si BISM fonctionnera en mémoire, la pagination disque sera gérée, permettant d’envisager l’accès à de très gros volumes de données. Dans ce cas, les performances seront bien entendu moindres qu’avec une base de données intégralement en mémoire.
BISM pourra fonctionner en mode ROLAP, mais dans un premier temps uniquement avec SQL Server et des requêtes DAX. Dans un second temps, ce mode pourrait être étendu à d’autres bases de données sources et à des requêtes MDX, mais pas dans les premières versions.
BISM devrait supporter des requêtes en MDX, mais avec un certain nombre de limitations. Le langage d’interrogation standard devient DAX. Mais DAX ne possède pas les mêmes capacités multidimensionnelles que le MDX. Il revient donc au poste client de réaliser un certain nombre d’opérations de manipulation des données… ce que fera PowerPivot. Là encore on comprend bien la stratégie de Microsoft qui consiste à place PowerPivot comme l’élément incontournable d’une application décisionnelle.
Même si plusieurs étapes sont annoncées, BISM ne proposera pas dans un premier temps les mêmes capacités de calcul dans le modèle que ne le fait Analysis Services.
Quant à la migration de Microsoft Analysis Services vers BISM, certains outils devraient être proposés pour la faciliter, mais un travail manuel d’adaptation restera nécessaire, ce qui fait grincer des dents chez un certains nombre de partenaires Microsoft qui se demandent comment ils pourront vendre cela à leurs clients.
Même si Analysis Services n’est pas officiellement abandonné, les efforts de Microsoft en développement sont maintenant concentrés sur BISM et PowerPivot. Il ne faudrait donc plus espérer d’évolutions notables de Analysis Services. Microsoft considère la technologie MOLAP comme « mature » sous-entendant qu’elle ne demande plus d’investir autant que précédemment en terme de développement.
Du point de vue stratégique, Microsoft fait ici le choix d’une plus large diffusion, reléguant la complexité du stockage OLAP au profit d’outils plus intuitifs et plus faciles à utiliser. Mais, bonne nouvelle pour les concurrents de Microsoft, les projets d’entreprise trouveront plus difficilement leur place avec BISM, au moins pour ceux qui misent sur du véritable stockage multidimensionnel.
MSAS est un produit qui répond pourtant bien aux besoins de ses utilisateurs. Comme peut le démontrer le retour d’expérience de Yahoo ! à l’occasion de la conférence PASS, qui a détaillé l’utilisation de SSAS pour la gestion d’un cube de 12 To de données (qui charge chaque jour 3,5 milliards de lignes) prévu pour croître jusqu’à 40 To.
Soyons clair, Microsoft n’a bien sur pas officiellement annoncé la fin de MSAS et du MDX. Analysis Services sera présent au cœur de Denali ou il cohabitera avec BISM. Mais c’est ce dernier outil auquel se consacrent les développeurs Microsoft. Une manière élégante de délaisser peu à peu Analysis Services sans forcer bien entendu les clients à migrer. Microsoft précise d’ailleurs que les applications Analysis Services seront maintenues pendant plusieurs années.
En conclusion, même si la nouvelle approche technologique autour de BISM trouvera certainement son marché – en partie grâce à la puissance marketing de Microsoft – les utilisateurs hésiteront à poursuivre leurs développements sur SSAS, qui prendra rapidement l’étiquette d’un produit en fin de vie. Et BISM ne devrait pas dans ses premières versions permettre les mêmes développements que SSAS. Cela risque d’être gênant pour certaines applications d’entreprise. Et pour bon nombre de développeurs et sociétés de services partenaires de Microsoft, dont les investissements humains autour de SSAS et MDX vont être réduits à peau de chagrin. Ils vont devoir se former à un nouvel environnement et ce dès les prochains mois. Mais en choisissant de se dédier à l’écosystème Microsoft, ils en ont accepté l’apport d’affaires et également les contraintes.
Une situation que certains comparent à celle de Oracle il y a quelques années vis à vis de Express Server. Oracle qui deviendrait si les plans de Microsoft se confirment le principal soutien du langage MDX !
A lire également pour comprendre les détails du plan de développement de SQL Server « Denali » le billet de T.K. Anand, Principal Group Program Manager SQL Server Analysis Services : http://blogs.technet.com/b/dataplatforminsider/archive/2010/11/12/analysis-services-roadmap-for-sql-server-denali-and-beyond.aspx
PowerPivot est appelé à prendre une position centrale dans la gestion des données décisionnelles. Le nouveau service qui permettra de créer des cubes, en mémoire sur le serveur, s’appellera BISM (BI Semantic Model). Il complètera Analysis Services (et son stockage multidimensionnel) et sera appelé lorsque vous publierez à partir de PowerPivot un cube sur le serveur. La comparaison avec les univers de Business Objects a été faite plusieurs fois. L’idée de Microsoft est de gommer au maximum la complexité de création des modèles et des bases et Analysis Services (UDM) est maintenant considéré par Microsoft comme trop complexe ; ce qui signifie que le marché serait plus vaste si l’outil de création de bases décisionnelles était plus simple.
BISM deviendra donc le standard, et Crescent que nous avons présenté il y a dix jours, ne sera en mesure de se connecter qu’à des sources BISM.
BISM est conçu pour fonctionner en mémoire, il ne devrait pas comporter de fonctions d’agrégation ou d’indexation avancée, mais proposera en revanche une compression forte des données – jusqu’à un facteur de 100. Ce qui permettra d’interroger en quelques secondes une base de 2 milliards de lignes. Même si BISM fonctionnera en mémoire, la pagination disque sera gérée, permettant d’envisager l’accès à de très gros volumes de données. Dans ce cas, les performances seront bien entendu moindres qu’avec une base de données intégralement en mémoire.
BISM pourra fonctionner en mode ROLAP, mais dans un premier temps uniquement avec SQL Server et des requêtes DAX. Dans un second temps, ce mode pourrait être étendu à d’autres bases de données sources et à des requêtes MDX, mais pas dans les premières versions.
BISM devrait supporter des requêtes en MDX, mais avec un certain nombre de limitations. Le langage d’interrogation standard devient DAX. Mais DAX ne possède pas les mêmes capacités multidimensionnelles que le MDX. Il revient donc au poste client de réaliser un certain nombre d’opérations de manipulation des données… ce que fera PowerPivot. Là encore on comprend bien la stratégie de Microsoft qui consiste à place PowerPivot comme l’élément incontournable d’une application décisionnelle.
Même si plusieurs étapes sont annoncées, BISM ne proposera pas dans un premier temps les mêmes capacités de calcul dans le modèle que ne le fait Analysis Services.
Quant à la migration de Microsoft Analysis Services vers BISM, certains outils devraient être proposés pour la faciliter, mais un travail manuel d’adaptation restera nécessaire, ce qui fait grincer des dents chez un certains nombre de partenaires Microsoft qui se demandent comment ils pourront vendre cela à leurs clients.
Même si Analysis Services n’est pas officiellement abandonné, les efforts de Microsoft en développement sont maintenant concentrés sur BISM et PowerPivot. Il ne faudrait donc plus espérer d’évolutions notables de Analysis Services. Microsoft considère la technologie MOLAP comme « mature » sous-entendant qu’elle ne demande plus d’investir autant que précédemment en terme de développement.
Du point de vue stratégique, Microsoft fait ici le choix d’une plus large diffusion, reléguant la complexité du stockage OLAP au profit d’outils plus intuitifs et plus faciles à utiliser. Mais, bonne nouvelle pour les concurrents de Microsoft, les projets d’entreprise trouveront plus difficilement leur place avec BISM, au moins pour ceux qui misent sur du véritable stockage multidimensionnel.
MSAS est un produit qui répond pourtant bien aux besoins de ses utilisateurs. Comme peut le démontrer le retour d’expérience de Yahoo ! à l’occasion de la conférence PASS, qui a détaillé l’utilisation de SSAS pour la gestion d’un cube de 12 To de données (qui charge chaque jour 3,5 milliards de lignes) prévu pour croître jusqu’à 40 To.
Soyons clair, Microsoft n’a bien sur pas officiellement annoncé la fin de MSAS et du MDX. Analysis Services sera présent au cœur de Denali ou il cohabitera avec BISM. Mais c’est ce dernier outil auquel se consacrent les développeurs Microsoft. Une manière élégante de délaisser peu à peu Analysis Services sans forcer bien entendu les clients à migrer. Microsoft précise d’ailleurs que les applications Analysis Services seront maintenues pendant plusieurs années.
En conclusion, même si la nouvelle approche technologique autour de BISM trouvera certainement son marché – en partie grâce à la puissance marketing de Microsoft – les utilisateurs hésiteront à poursuivre leurs développements sur SSAS, qui prendra rapidement l’étiquette d’un produit en fin de vie. Et BISM ne devrait pas dans ses premières versions permettre les mêmes développements que SSAS. Cela risque d’être gênant pour certaines applications d’entreprise. Et pour bon nombre de développeurs et sociétés de services partenaires de Microsoft, dont les investissements humains autour de SSAS et MDX vont être réduits à peau de chagrin. Ils vont devoir se former à un nouvel environnement et ce dès les prochains mois. Mais en choisissant de se dédier à l’écosystème Microsoft, ils en ont accepté l’apport d’affaires et également les contraintes.
Une situation que certains comparent à celle de Oracle il y a quelques années vis à vis de Express Server. Oracle qui deviendrait si les plans de Microsoft se confirment le principal soutien du langage MDX !
A lire également pour comprendre les détails du plan de développement de SQL Server « Denali » le billet de T.K. Anand, Principal Group Program Manager SQL Server Analysis Services : http://blogs.technet.com/b/dataplatforminsider/archive/2010/11/12/analysis-services-roadmap-for-sql-server-denali-and-beyond.aspx
Autres articles
-
Oracle Database@Azure disponible dans de nouvelles régions et avec de nouveaux services pour répondre à la demande mondiale
-
Teradata AI Unlimited pour Microsoft Fabric est désormais disponible en avant-première via Microsoft Fabric Workload Hub
-
Semarchy devient partenaire Microsoft Purview pour l’intégration du Master Data Management
-
Le workload Teradata AI Unlimited sur Microsoft Fabric est désormais disponible en avant-première privée
-
Dremio Cloud, solution de Data Lakehouse permettant d’accéder et de diffuser les données en self-service, est désormais disponible sur Microsoft Azure