Decideo - Actualités sur le Big Data, Business Intelligence, Data Science

Abonnez-vous gratuitement à Decideo !


Decideo

 


Elastic lance Search AI Lake, son architecture cloud-native optimisée pour les applications en temps réel et à faible latence


Rédigé par Communiqué de Elastic le 25 Mai 2024

L'architecture novatrice s'appuie sur la nouvelle offre Elastic Cloud Serverless pour accélérer les charges de travail en matière de recherche, d'observabilité et de sécurité.



Elastic (NYSE : ESTC), la Search AI Company, annonce le lancement de Search AI Lake, son architecture cloud-native unique en son genre et optimisée pour les applications en temps réel et à faible latence, telles que la recherche, le RAG (Retrieval Augmented Generation), l'observabilité et la cybersécurité. Search AI Lake s'appuie sur la nouvelle offre Elastic Cloud Serverless qui supprime l'ensemble des surcoûts opérationnels pour scaler et gérer automatiquement les charges de travail.

Combinant la capacité de stockage étendue d'un datalake aux fonctionnalités puissantes de recherche et de pertinence adossée à l'IA d'Elasticsearch, Search AI Lake offre des performances de requête à faible latence, sans sacrifier la scalabilité, la pertinence, ni le rapport qualité/prix.

Voici les avantages liés à l’utilisation de Search AI Lake :

Une scalabilité sans limites, avec une séparation du calcul et du stockage : la séparation totale du calcul et du stockage offre de nombreux avantages, parmi lesquels une scalabilité sans effort et une fiabilité avérée à l'aide d'un stockage d'objets, une mise en cache dynamique qui permet un débit élevé, des mises à jour fréquentes, et la possibilité d'interroger de grands volumes de données de manière interactive. Par conséquent, il n’est pas nécessaire de répliquer les opérations d'indexation sur plusieurs serveurs, ce qui permet de réduire les coûts d'indexation, ainsi que d’éviter la duplication des données.

Une exécution en temps réel et à faible latence : de nombreuses améliorations contribuent à maintenir d'excellentes performances de requête, même lorsque les données sont conservées en toute sécurité dans un stockage objets. Parmi ces améliorations, on note l'introduction d'une mise en cache intelligente et d'une parallélisation des requêtes au niveau des segments pour réduire la latence, tout en accélérant la récupération des données et en permettant le traitement rapide d'un plus grand nombre de requêtes.

Un scaling indépendant de l'indexation et des requêtes : en séparant l'indexation et la recherche dès le départ, la plateforme peut s’adapter de manière indépendante et automatique pour répondre aux besoins d'un vaste panel de charges de travail.

La recherche vectorielle et l'inférence native optimisée pour l’IA générative : les utilisateurs peuvent s'appuyer sur une suite native de fonctionnalités puissantes de pertinence, de récupération et de reclassement (reranking) s’appuyant sur l’IA, avec notamment une base de données vectorielle native totalement intégrée à Lucene, des API d'inférence ouvertes, la recherche sémantique, ainsi que des modèles transformer internes et tiers. Toutes ces fonctionnalités s'exécutent de manière fluide aux côtés des fonctionnalités de recherche.

Des requêtes et une analytique puissantes : le langage de requête puissant d'Elasticsearch, ES|QL, est intégré pour transformer, enrichir et simplifier les analyses grâce à un traitement simultané rapide, quelles que soient la source de données et la structure. Sont également incluses un support intégral pour une recherche full-text précise et efficace, ainsi qu'une analytique temporelle pour identifier des schémas dans les analyses géospatiales.

Un Machine Learning natif : les utilisateurs peuvent créer, déployer et optimiser le Machine Learning directement sur toutes les données pour formuler des prédictions de qualité. Pour les analystes en sécurité, les règles prédéfinies de détection des menaces peuvent s'exécuter facilement sur les informations historiques, même sur celles qui remontent à plusieurs années. De la même façon, les modèles non supervisés réalisent des détections des anomalies en temps quasi-réel de manière rétrospective sur des données englobant des périodes bien plus longues que celles d'autres plateformes SIEM.

Une véritable distribution – inter-régions, cloud ou hybride : cela permet d’interroger les données dans la région ou le data center dans lequel elles ont été générées à partir d'une seule et même interface. La recherche inter-clusters dispense d'avoir à centraliser ou synchroniser les données. Plus concrètement, dans les secondes qui suivent l'ingestion des données, le format des données est normalisé, indexé et optimisé pour permettre une requêtage et une analyse extrêmement rapides, qui plus est, en réduisant les coûts de transfert et de stockage des données.
Search AI Lake s'appuie sur la nouvelle offre Elastic Cloud Serverless, qui tire parti de la vitesse et de la capacité de scaling de cette architecture novatrice pour supprimer les surcoûts opérationnels afin que les utilisateurs puissent lancer rapidement des charges de travail et les scaler sans accroc. Toutes les opérations, depuis le monitoring et la sauvegarde jusqu'à la configuration et au dimensionnement, sont gérées par Elastic. Les utilisateurs ont juste à fournir leurs données et choisir la solution qu'ils préfèrent : Elasticsearch, Elastic Observability ou Elastic Security sur Serverless.

"Pour répondre aux exigences d'un plus grand nombre de charges de travail qui sont adossées à l'IA et qui fonctionnent en temps réel, il est évident qu'il faut une nouvelle architecture. Celle-ci doit être capable de gérer à la fois le calcul et le stockage, le tout rapidement et à grande échelle. Pas seulement l'un ou l'autre.", a déclaré Ken Exner, Chief Product Officer chez Elastic. "Search AI Lake surpasse les datalakes traditionnels qui ont essayé de répondre à cette attente, mais qui sont tout simplement incapables de gérer des applications en temps réel. Cette nouvelle architecture et les projets serverless qu'elle sous-tend répondent précisément aux besoins des charges de travail de demain en matière de recherche, d'observabilité et de sécurité."

Search AI Lake et Elastic Cloud Serverless sont actuellement disponibles en préversion technique.




Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store