Le Data cloud Snowflake (NYSE : SNOW) annonce le lancement de Snowflake Cortex, le nouveau service entièrement géré de Snowflake qui permet aux organisations de découvrir, d'analyser et de créer plus facilement des applications d'IA dans le Data Cloud.
Snowflake Cortex, actuellement disponible en private preview, donne aux utilisateurs un accès instantané à un ensemble croissant de fonctionnalités sans serveur qui comprennent des LLM de pointe, tels que le modèle Llama 2 de Meta AI, des modèles spécifiques à une tâche et une fonctionnalité de recherche vectorielle avancée. Ces fonctionnalités permettent d’accélérer les analyses et de créer rapidement en quelques minutes des applications contextualisées alimentées par des LLM. En s’appuyant sur Cortex, Snowflake a également mis au point trois expériences alimentées par des LLM pour améliorer la productivité des utilisateurs, notamment Document AI, Snowflake Copilot et Universal Search (toutes trois disponibles en private preview).
"Avec le lancement de Snowflake Cortex, Snowflake contribue à la prochaine vague d'innovation en matière d'IA en fournissant aux entreprises la base de données et les modules d'IA de pointe dont elles ont besoin pour créer de puissantes applications d'IA et de Machine Learning tout en assurant la sécurité et la gouvernance de leurs données ", déclare Sridhar Ramaswamy, SVP of AI chez Snowflake. "Avec Snowflake Cortex, les entreprises peuvent désormais exploiter la puissance des grands modèles de langage en quelques secondes, créer des applications personnalisées alimentées par des LLM en quelques minutes, et conserver la flexibilité et le contrôle de leurs données, tout en réinventant la façon dont tous les utilisateurs exploitent l'IA générative pour générer de la valeur commerciale."
En tant que service entièrement géré, Snowflake Cortex donne à ses utilisateurs les éléments de base nécessaires pour exploiter facilement les LLM et l'IA, sans avoir besoin d'une expertise particulière ou d'une gestion complexe de l'infrastructure basée sur le GPU. Cela inclut un ensemble croissant de fonctionnalités disponibles sans serveur avec un appel de fonctionnalités dans le code SQL ou Python. Les utilisateurs de tous les niveaux de compétences peuvent accéder à ces fonctionnalités pour analyser rapidement les données ou créer des applications d'IA, le tout s'exécutant dans l'infrastructure à coût optimisé de Snowflake Cortex.
Snowflake dévoile également de nouvelles expériences alimentées par des LLM et construites sur Snowflake Cortex en tant que service sous-jacent. Ces expériences complètes comprennent des interfaces utilisateur et des LLM de haute performance entièrement hébergés et gérés par Snowflake Cortex, ce qui les rend idéales pour les équipes commerciales et les analystes au sein des organisations. Pour améliorer encore la productivité dans le Data Cloud, les nouvelles expériences LLM de Snowflake, disponibles actuellement en private preview, incluent :
Snowflake Copilot : Snowflake Copilot, le nouvel assistant de Snowflake alimenté par du LLM, apporte l'IA générative aux tâches quotidiennes de codage de Snowflake en langage naturel. Les utilisateurs peuvent désormais poser des questions sur leurs données en texte clair, écrire des requêtes SQL sur des datasets pertinents, affiner les requêtes et filtrer les informations, etc.
Universal Search : Cette nouvelle fonctionnalité de recherche alimentée par LLM permet aux utilisateurs de trouver et de tirer profit des données et des applications les plus pertinentes pour leurs cas d'utilisation, plus rapidement. Cela inclut la recherche à travers le compte Snowflake d'un client, y compris les bases de données, les vues et les tables Iceberg (bientôt en public preview), ainsi que la recherche à travers les données et Snowflake Native Apps disponibles sur Snowflake Marketplace.
Document AI : Première expérience LLM de Snowflake (en private preview), Document AI aide les entreprises à utiliser les LLM pour extraire facilement des documents des contenus tels que les montants des factures ou les termes des contrats, et à affiner les résultats à l'aide d'une interface visuelle et du langage naturel. Les clients utilisent Document AI pour aider leurs équipes à être plus intelligentes dans leurs activités et à accroître leur efficacité de manière sécurisée et évolutive.
Pour les utilisateurs plus avancés qui souhaitent personnaliser entièrement leurs applications LLM, Snowflake leur donne les moyens d'utiliser Snowpark Container Services (bientôt en Public Preview dans certaines régions AWS), qui simplifie le déploiement et la gestion des charges de travail conteneurisées en toute sécurité dans Snowflake. Grâce à Snowpark Container Services, les développeurs ont la possibilité d'exécuter des applications tierces sophistiquées, y compris celles des LLM commerciaux et des bases de données vectorielles, entièrement dans leur compte Snowflake. Les organisations peuvent également déployer, ajuster et gérer facilement n'importe quel LLM open source au sein de Data Cloud.
Snowflake Cortex, actuellement disponible en private preview, donne aux utilisateurs un accès instantané à un ensemble croissant de fonctionnalités sans serveur qui comprennent des LLM de pointe, tels que le modèle Llama 2 de Meta AI, des modèles spécifiques à une tâche et une fonctionnalité de recherche vectorielle avancée. Ces fonctionnalités permettent d’accélérer les analyses et de créer rapidement en quelques minutes des applications contextualisées alimentées par des LLM. En s’appuyant sur Cortex, Snowflake a également mis au point trois expériences alimentées par des LLM pour améliorer la productivité des utilisateurs, notamment Document AI, Snowflake Copilot et Universal Search (toutes trois disponibles en private preview).
"Avec le lancement de Snowflake Cortex, Snowflake contribue à la prochaine vague d'innovation en matière d'IA en fournissant aux entreprises la base de données et les modules d'IA de pointe dont elles ont besoin pour créer de puissantes applications d'IA et de Machine Learning tout en assurant la sécurité et la gouvernance de leurs données ", déclare Sridhar Ramaswamy, SVP of AI chez Snowflake. "Avec Snowflake Cortex, les entreprises peuvent désormais exploiter la puissance des grands modèles de langage en quelques secondes, créer des applications personnalisées alimentées par des LLM en quelques minutes, et conserver la flexibilité et le contrôle de leurs données, tout en réinventant la façon dont tous les utilisateurs exploitent l'IA générative pour générer de la valeur commerciale."
En tant que service entièrement géré, Snowflake Cortex donne à ses utilisateurs les éléments de base nécessaires pour exploiter facilement les LLM et l'IA, sans avoir besoin d'une expertise particulière ou d'une gestion complexe de l'infrastructure basée sur le GPU. Cela inclut un ensemble croissant de fonctionnalités disponibles sans serveur avec un appel de fonctionnalités dans le code SQL ou Python. Les utilisateurs de tous les niveaux de compétences peuvent accéder à ces fonctionnalités pour analyser rapidement les données ou créer des applications d'IA, le tout s'exécutant dans l'infrastructure à coût optimisé de Snowflake Cortex.
Snowflake dévoile également de nouvelles expériences alimentées par des LLM et construites sur Snowflake Cortex en tant que service sous-jacent. Ces expériences complètes comprennent des interfaces utilisateur et des LLM de haute performance entièrement hébergés et gérés par Snowflake Cortex, ce qui les rend idéales pour les équipes commerciales et les analystes au sein des organisations. Pour améliorer encore la productivité dans le Data Cloud, les nouvelles expériences LLM de Snowflake, disponibles actuellement en private preview, incluent :
Snowflake Copilot : Snowflake Copilot, le nouvel assistant de Snowflake alimenté par du LLM, apporte l'IA générative aux tâches quotidiennes de codage de Snowflake en langage naturel. Les utilisateurs peuvent désormais poser des questions sur leurs données en texte clair, écrire des requêtes SQL sur des datasets pertinents, affiner les requêtes et filtrer les informations, etc.
Universal Search : Cette nouvelle fonctionnalité de recherche alimentée par LLM permet aux utilisateurs de trouver et de tirer profit des données et des applications les plus pertinentes pour leurs cas d'utilisation, plus rapidement. Cela inclut la recherche à travers le compte Snowflake d'un client, y compris les bases de données, les vues et les tables Iceberg (bientôt en public preview), ainsi que la recherche à travers les données et Snowflake Native Apps disponibles sur Snowflake Marketplace.
Document AI : Première expérience LLM de Snowflake (en private preview), Document AI aide les entreprises à utiliser les LLM pour extraire facilement des documents des contenus tels que les montants des factures ou les termes des contrats, et à affiner les résultats à l'aide d'une interface visuelle et du langage naturel. Les clients utilisent Document AI pour aider leurs équipes à être plus intelligentes dans leurs activités et à accroître leur efficacité de manière sécurisée et évolutive.
Pour les utilisateurs plus avancés qui souhaitent personnaliser entièrement leurs applications LLM, Snowflake leur donne les moyens d'utiliser Snowpark Container Services (bientôt en Public Preview dans certaines régions AWS), qui simplifie le déploiement et la gestion des charges de travail conteneurisées en toute sécurité dans Snowflake. Grâce à Snowpark Container Services, les développeurs ont la possibilité d'exécuter des applications tierces sophistiquées, y compris celles des LLM commerciaux et des bases de données vectorielles, entièrement dans leur compte Snowflake. Les organisations peuvent également déployer, ajuster et gérer facilement n'importe quel LLM open source au sein de Data Cloud.
Autres articles
-
L'IA Data Cloud de Snowflake pour le secteur du tourisme et de l'hôtellerie stimule l'innovation en matière d'IA, améliore la collaboration et transforme l'expérience des clients
-
Snowflake investit dans Contextual AI pour simplifier le déploiement des applications RAG dans son Data Cloud
-
Snowflake annonce de nouvelles améliorations pour des requêtes plus rapides et plus efficaces à moindre coût
-
Rivery et Snowflake Cortex améliorent le support client
-
Snowflake nomme Thomas Gourand au poste de Directeur Général France