Aujourd'hui, lors de l'événement annuel TechXchange d'IBM (NYSE: IBM), la compagnie a annoncé la sortie de sa famille de modèles d'IA la plus avancée à ce jour, Granite 3.0. Les modèles de langage phares Granite de troisième génération d'IBM peuvent surpasser ou égaler des modèles de taille similaire des principaux fournisseurs de modèles selon de nombreux benchmarks académiques et d'entreprise, démontrant une performance, une transparence et une sécurité élevées.
Conformément à l'engagement de la compagnie en faveur de l'IA open-source, les modèles Granite sont publiés sous la licence Apache 2.0 permissive, ce qui les rend uniques en termes d’association des performances, de la flexibilité et de l’autonomie qu'ils offrent aux entreprises clientes et à la communauté dans son ensemble.
La famille Granite 3.0 d'IBM comprend :
Des modèles à usage général & de langage : Granite 3.0 8B-Instruct, Granite 3.0 2B-Instruct, Granite 3.0 8B Base, Granite 3.0 2B Base
Des modèles garde-fous orientés sécurité : Granite Guardian 3.0 8B, Granite Guardian 3.0 2B
Des modèles « Mixture-of-Experts » : Granite 3.0 3B-A800M Instruct, Granite 3.0 1B-A400M Instruct, Granite 3.0 3B-A800M Base, Granite 3.0 1B-A400M Base
Les nouveaux modèles de langage Granite 3.0 8B et 2B sont conçus comme les principaux modèles pour l'IA d'entreprise, offrant de solides performances pour des tâches telles que le Retrieval Augmented Geneneration (RAG), la classification, la synthèse, l'extraction d'entités et l'utilisation d'outils. Ces modèles compacts et polyvalents sont conçus pour être affinés avec les données de l'entreprise et intégrés de manière transparente dans divers environnements ou processus.
Alors que de nombreux modèles de langage de grande taille (LLM) sont formés sur des données accessibles au public, une grande majorité des données d'entreprise reste inexploitée. En combinant un petit modèle Granite avec des données d'entrepris et en utilisant notamment la technique d'alignement révolutionnaire InstructLab - introduite par IBM et RedHat en mai - IBM pense que les entreprises peuvent obtenir des performances spécifiques à des tâches qui rivalisent avec des modèles plus grands pour une fraction du coût (sur la base observée de 3x à 23x moins de coûts que les grands modèles d'avant-garde/Frontier Models dans plusieurs POCs préliminaires[1]).
La version 3.0 de Granite réaffirme l'engagement d'IBM à renforcer la transparence, la sécurité et la confiance dans les produits d’IA. Le rapport technique et le guide d'utilisation responsable de Granite 3.0 fournissent une description des ensembles de données utilisés pour entraîner ces modèles, des détails sur les étapes de filtrage, de nettoyage et de curation appliquées, ainsi que des résultats complets sur les performances des modèles selon les principaux benchmarks académiques et d'entreprise.
Surtout, IBM fournit une indemnisation en ce qui concerne la propriété intellectuelle pour tous les modèles Granite sur watsonx.ai, ce qui permet aux entreprises clientes d'être plus confiantes lorsqu'elles associent leurs données avec les modèles.
Elever le niveau : Benchmarks des modèles Granite 3.0
Les modèles de langage Granite 3.0 démontrent également des résultats prometteurs en termes de performances brutes.
Selon les benchmarks académiques standard définis par le classement OpenLLM de Hugging Face, la performance globale du modèle Granite 3.0 8B Instruct est en moyenne supérieure à la performance de pointe des modèles open source de taille similaire de Meta et Mistral. Dans le benchmark de sécurité de pointe AttaQ, le modèle Granite 3.0 8B Instruct est en tête pour toutes les dimensions de sécurité mesurées par rapport aux modèles de Meta et de Mistral[2].
En ce qui concerne les tâches d'entreprise essentielles du RAG, l'utilisation d'outils et les tâches dans le domaine de la cybersécurité, le modèle Granite 3.0 8B Instruct affiche en moyenne des performances supérieures à celles des modèles open source de taille similaire de Mistral et Meta[3].
Les modèles Granite 3.0 ont été entraînés sur plus de 12 000 milliards de tokens sur des données provenant de 12 langages différents et de 116 langages de programmation différents, en utilisant une nouvelle méthode d'entraînement en deux étapes, tirant parti des résultats de plusieurs milliers d'expériences conçues pour optimiser la qualité et la sélection des données, ainsi que les paramètres d'entraînement. D'ici la fin de l'année, les modèles de langage 3.0 8B et 2B devraient inclure la prise en charge d’une fenêtre de contexte étendue à 128K et les capacités de compréhension de documents multimodaux.
Démontrant un excellent équilibre entre performance et coût d'inférence, IBM propose ses modèles Granite sur une architecture « Mixture of Experts (MoE) », Granite 3.0 1B-A400M et Granite 3.0 3B-A800M comme modèles plus petits et légers qui pourraient être déployés pour des applications à faible latence ainsi que pour des déploiements basés sur l'unité centrale (CPU).
IBM annonce également une mise à jour de ses modèles Granite Time Series pré-entraînés, dont les premières versions ont été publiées au début de l'année. Ces nouveaux modèles sont entraînés sur 3 fois plus de données et offrent de solides performances selon les 3 principaux benchmarks de type série temporelle (Time Series), surpassant des modèles 10 fois plus grands de Google, Alibaba et d’autres. Ces modèles mis à jour offrent également une plus grande flexibilité de modélisation grâce à la prise en charge de variables externes et de prévisions glissantes (Rolling Forecast[4]).
Présentation de Granite Guardian 3.0 : la nouvelle ère de l'IA responsable
Dans le cadre de cette mise à jour, IBM lance également une nouvelle famille de modèles Granite Guardian qui permettent aux développeurs d'applications de mettre en place des garde-fous de sécurité en vérifiant les requêtes (prompts) utilisateur et les réponses des LLM pour une variété de risques. Les modèles Granite Guardian 3.0 8B et 2B offrent l'ensemble le plus complet de capacités de détection des risques et des préjudices disponibles sur le marché aujourd'hui.
Outre les dimensions de préjudice telles que les biais sociaux, la haine, la toxicité, le blasphème, la violence, le « jailbreaking » et bien d'autres encore, ces modèles fournissent également une gamme de contrôles uniques spécifiques au RAG, tels que l'ancrage, la pertinence du contexte et la pertinence de la réponse. Dans le cadre de tests approfondis portant sur 19 benchmarks de sécurité et de RAG, le modèle Granite Guardian 3.0 8B présente en moyenne une précision globale plus élevée en matière de détection des préjudices que les trois générations de modèles Llama Guard de Meta. Il a également obtenu des performances globales équivalentes à celles des modèles spécialisés WeCheck et MiniCheck[5] pour la détection des hallucinations.
Bien que les modèles Granite Guardian soient dérivés des modèles de langage Granite correspondants, ils peuvent être utilisés pour mettre en œuvre des garde-fous avec n'importe quel modèle d'IA ouvert ou propriétaire.
Disponibilité des modèles Granite 3.0
L'ensemble des modèles Granite 3.0 et les modèles Time Series mis à jour peuvent être téléchargés sur HuggingFace sous la licence Apache 2.0 permissive. Les variantes d'instruction des nouveaux modèles de langage Granite 3.0 8B et 2B et les modèles Granite Guardian 3.0 8B et 2B sont disponibles dès aujourd'hui pour une utilisation commerciale sur la plateforme watsonx d'IBM. Une sélection des modèles Granite 3.0 sera également disponible en tant que microservices NVIDIA NIM et via les intégrations Vertex AI Model Garden de Google Cloud avec HuggingFace.
Pour faciliter le choix et l'utilisation des développeurs et soutenir les déploiements locaux et à la périphérie (edge), un ensemble organisé de modèles Granite 3.0 est également disponible sur Ollama et Replicate.
La dernière génération de modèles Granite élargit le solide catalogue open-source d'IBM de puissants LLM. IBM a collaboré avec des partenaires de l'écosystème tels qu’AWS, Docker, Domo, Qualcomm Technologies, Inc., via son Qualcomm® AI Hub®, Salesforce, SAP et d'autres pour intégrer une variété de modèles Granite dans les offres de ces partenaires ou rendre les modèles Granite disponibles sur leurs plateformes, offrant ainsi un plus grand choix aux entreprises du monde entier.
Des assistants aux agents : l'avenir de l'IA d'entreprise se dessine
IBM fait progresser l'IA d'entreprise grâce à un éventail de technologies - des modèles et assistants aux outils nécessaires pour personnaliser et déployer l'IA en fonction des données et des cas d'usage propres à chaque entreprise. IBM ouvre également la voie à de futurs agents d'IA capables de s'autogérer, de réfléchir et d'effectuer des tâches complexes dans des environnements professionnels dynamiques.
IBM continue de faire évoluer son portefeuille de technologies d'assistants d'IA - de watsonx Orchestrate pour aider les entreprises à créer leurs propres assistants via des outils low-code et l'automatisation - à un large ensemble d'assistants préconçus pour des tâches et des domaines spécifiques tels que le service à la clientèle, les ressources humaines, les ventes et le marketing. Des organisations du monde entier ont utilisé watsonx Assistant pour les aider à concevoir des assistants d’IA pour des tâches telles que répondre aux questions courantes des clients ou des employés, moderniser leurs mainframes et leurs applications informatiques existantes, aider les étudiants à explorer des parcours professionnels potentiels ou encore fournir une assistance numérique en matière de prêt immobilier aux acheteurs de maisons.
IBM a également dévoilé aujourd'hui la prochaine version de la nouvelle génération de watsonx Code Assistant, qui s'appuie sur les modèles de code Granite, pour offrir une assistance au développement multi-langage dans des langages tels que C, C++, Go, Java et Python, avec des capacités avancées de modernisation des applications pour les applications Java d'entreprise[6]. Les fonctionnalités de code de Granite sont également accessibles désormais par le biais d'une extension de Visual Studio Code, IBM Granite.Code.
IBM prévoit également de mettre à disposition de nouveaux outils pour aider les développeurs à concevoir, personnaliser et déployer l'IA plus efficacement via watsonx.ai - y compris des architectures agentiques, des intégrations avec des environnements existants et des automatisations low-code pour des cas d'usage courants tels que le RAG et les agents[7].
IBM se concentre sur le développement de technologies d'agents d'IA capables d'une plus grande autonomie, d'un raisonnement sophistiqué ainsi que d'une résolution de problèmes en plusieurs étapes. La version initiale du modèle Granite 3.0 8B prend en charge des capacités orientées agentiques clés, telles que le raisonnement avancé et un modèle de conversation hautement structuré, ainsi qu'un style de requête (prompting) pour la mise en œuvre de processus. IBM prévoit également d’introduire une nouvelle fonction de chat avec un agent d’IA dans IBM watsonx Orchestrate, qui utilise des capacités agentiques pour orchestrer des assistants d’IA, des compétences et des automatisations qui aident les utilisateurs à accroître la productivité au sein de leurs équipes[8]. IBM prévoit de continuer à développer des capacités d'agent dans l'ensemble de son portefeuille en 2025, notamment des agents préconçus pour des domaines et des cas d'usage spécifiques.
Une plateforme de services étendue pilotée par l'IA pour décupler l’expertise des consultants d'IBM avec l'IA
IBM annonce également une évolution majeure de sa plateforme de services pilotée par l'IA, IBM Consulting Advantage. La plateforme multi-modèle contient des agents, des applications et des méthodes d'IA tels que des cadres reproductibles qui peuvent permettre aux 160 000 consultants d'IBM d'apporter une valeur ajoutée plus importante et plus rapide à leurs clients, et ce à moindre coût.
Dans le cadre de cette évolution, les modèles de langage Granite 3.0 deviendront le modèle par défaut de Consulting Advantage. En s'appuyant sur les performances et l’efficacité de Granite, IBM Consulting sera en mesure d’aider à maximiser le retour sur investissement des projets d’IA générative des clients d’IBM.
Un autre élément clé de cette évolution est l'introduction d'IBM Consulting Advantage for Cloud Transformation and Management et d'IBM Consulting Advantage for Business Operations. Chacun comprend des agents, des applications et des méthodes d'IA spécifiques à un domaine, enrichis avec les meilleures pratiques d'IBM, afin que les consultants d’IBM puissent aider à accélérer les transformations Cloud et IA des clients dans des tâches telles que la modernisation du code et l’amélioration de la qualité du code ou à transformer et exécuter des opérations dans des domaines tels que la finance, les ressources humaines et les achats.
Pour en savoir plus sur Granite et la stratégie d’IA pour les entreprises d'IBM : https://www.ibm.com/granite.
[1] Cost calculations are based on API cost per million tokens pricing of IBM watsonx for open models and openAI for GPT4 models (assuming blend of 80% inout, 20% output) for customer proofs-of-concept.
[2] IBM Research technical paper: Granite 3.0 Language Models
[3] IBM Research technical paper: Granite 3.0 Language Models
[4] The Tiny Time Mixer: Fast Pre-Trained Models for Enhanced Zero/Few Shot Forecasting on Multivariate Time Series
[5] Evaluation results published in Granite Guardian GitHub Repo
[6] Planned availability for Q4 2024
[7] Planned availability for Q4 2024
[8] Planned availability for Q1 2025
Conformément à l'engagement de la compagnie en faveur de l'IA open-source, les modèles Granite sont publiés sous la licence Apache 2.0 permissive, ce qui les rend uniques en termes d’association des performances, de la flexibilité et de l’autonomie qu'ils offrent aux entreprises clientes et à la communauté dans son ensemble.
La famille Granite 3.0 d'IBM comprend :
Des modèles à usage général & de langage : Granite 3.0 8B-Instruct, Granite 3.0 2B-Instruct, Granite 3.0 8B Base, Granite 3.0 2B Base
Des modèles garde-fous orientés sécurité : Granite Guardian 3.0 8B, Granite Guardian 3.0 2B
Des modèles « Mixture-of-Experts » : Granite 3.0 3B-A800M Instruct, Granite 3.0 1B-A400M Instruct, Granite 3.0 3B-A800M Base, Granite 3.0 1B-A400M Base
Les nouveaux modèles de langage Granite 3.0 8B et 2B sont conçus comme les principaux modèles pour l'IA d'entreprise, offrant de solides performances pour des tâches telles que le Retrieval Augmented Geneneration (RAG), la classification, la synthèse, l'extraction d'entités et l'utilisation d'outils. Ces modèles compacts et polyvalents sont conçus pour être affinés avec les données de l'entreprise et intégrés de manière transparente dans divers environnements ou processus.
Alors que de nombreux modèles de langage de grande taille (LLM) sont formés sur des données accessibles au public, une grande majorité des données d'entreprise reste inexploitée. En combinant un petit modèle Granite avec des données d'entrepris et en utilisant notamment la technique d'alignement révolutionnaire InstructLab - introduite par IBM et RedHat en mai - IBM pense que les entreprises peuvent obtenir des performances spécifiques à des tâches qui rivalisent avec des modèles plus grands pour une fraction du coût (sur la base observée de 3x à 23x moins de coûts que les grands modèles d'avant-garde/Frontier Models dans plusieurs POCs préliminaires[1]).
La version 3.0 de Granite réaffirme l'engagement d'IBM à renforcer la transparence, la sécurité et la confiance dans les produits d’IA. Le rapport technique et le guide d'utilisation responsable de Granite 3.0 fournissent une description des ensembles de données utilisés pour entraîner ces modèles, des détails sur les étapes de filtrage, de nettoyage et de curation appliquées, ainsi que des résultats complets sur les performances des modèles selon les principaux benchmarks académiques et d'entreprise.
Surtout, IBM fournit une indemnisation en ce qui concerne la propriété intellectuelle pour tous les modèles Granite sur watsonx.ai, ce qui permet aux entreprises clientes d'être plus confiantes lorsqu'elles associent leurs données avec les modèles.
Elever le niveau : Benchmarks des modèles Granite 3.0
Les modèles de langage Granite 3.0 démontrent également des résultats prometteurs en termes de performances brutes.
Selon les benchmarks académiques standard définis par le classement OpenLLM de Hugging Face, la performance globale du modèle Granite 3.0 8B Instruct est en moyenne supérieure à la performance de pointe des modèles open source de taille similaire de Meta et Mistral. Dans le benchmark de sécurité de pointe AttaQ, le modèle Granite 3.0 8B Instruct est en tête pour toutes les dimensions de sécurité mesurées par rapport aux modèles de Meta et de Mistral[2].
En ce qui concerne les tâches d'entreprise essentielles du RAG, l'utilisation d'outils et les tâches dans le domaine de la cybersécurité, le modèle Granite 3.0 8B Instruct affiche en moyenne des performances supérieures à celles des modèles open source de taille similaire de Mistral et Meta[3].
Les modèles Granite 3.0 ont été entraînés sur plus de 12 000 milliards de tokens sur des données provenant de 12 langages différents et de 116 langages de programmation différents, en utilisant une nouvelle méthode d'entraînement en deux étapes, tirant parti des résultats de plusieurs milliers d'expériences conçues pour optimiser la qualité et la sélection des données, ainsi que les paramètres d'entraînement. D'ici la fin de l'année, les modèles de langage 3.0 8B et 2B devraient inclure la prise en charge d’une fenêtre de contexte étendue à 128K et les capacités de compréhension de documents multimodaux.
Démontrant un excellent équilibre entre performance et coût d'inférence, IBM propose ses modèles Granite sur une architecture « Mixture of Experts (MoE) », Granite 3.0 1B-A400M et Granite 3.0 3B-A800M comme modèles plus petits et légers qui pourraient être déployés pour des applications à faible latence ainsi que pour des déploiements basés sur l'unité centrale (CPU).
IBM annonce également une mise à jour de ses modèles Granite Time Series pré-entraînés, dont les premières versions ont été publiées au début de l'année. Ces nouveaux modèles sont entraînés sur 3 fois plus de données et offrent de solides performances selon les 3 principaux benchmarks de type série temporelle (Time Series), surpassant des modèles 10 fois plus grands de Google, Alibaba et d’autres. Ces modèles mis à jour offrent également une plus grande flexibilité de modélisation grâce à la prise en charge de variables externes et de prévisions glissantes (Rolling Forecast[4]).
Présentation de Granite Guardian 3.0 : la nouvelle ère de l'IA responsable
Dans le cadre de cette mise à jour, IBM lance également une nouvelle famille de modèles Granite Guardian qui permettent aux développeurs d'applications de mettre en place des garde-fous de sécurité en vérifiant les requêtes (prompts) utilisateur et les réponses des LLM pour une variété de risques. Les modèles Granite Guardian 3.0 8B et 2B offrent l'ensemble le plus complet de capacités de détection des risques et des préjudices disponibles sur le marché aujourd'hui.
Outre les dimensions de préjudice telles que les biais sociaux, la haine, la toxicité, le blasphème, la violence, le « jailbreaking » et bien d'autres encore, ces modèles fournissent également une gamme de contrôles uniques spécifiques au RAG, tels que l'ancrage, la pertinence du contexte et la pertinence de la réponse. Dans le cadre de tests approfondis portant sur 19 benchmarks de sécurité et de RAG, le modèle Granite Guardian 3.0 8B présente en moyenne une précision globale plus élevée en matière de détection des préjudices que les trois générations de modèles Llama Guard de Meta. Il a également obtenu des performances globales équivalentes à celles des modèles spécialisés WeCheck et MiniCheck[5] pour la détection des hallucinations.
Bien que les modèles Granite Guardian soient dérivés des modèles de langage Granite correspondants, ils peuvent être utilisés pour mettre en œuvre des garde-fous avec n'importe quel modèle d'IA ouvert ou propriétaire.
Disponibilité des modèles Granite 3.0
L'ensemble des modèles Granite 3.0 et les modèles Time Series mis à jour peuvent être téléchargés sur HuggingFace sous la licence Apache 2.0 permissive. Les variantes d'instruction des nouveaux modèles de langage Granite 3.0 8B et 2B et les modèles Granite Guardian 3.0 8B et 2B sont disponibles dès aujourd'hui pour une utilisation commerciale sur la plateforme watsonx d'IBM. Une sélection des modèles Granite 3.0 sera également disponible en tant que microservices NVIDIA NIM et via les intégrations Vertex AI Model Garden de Google Cloud avec HuggingFace.
Pour faciliter le choix et l'utilisation des développeurs et soutenir les déploiements locaux et à la périphérie (edge), un ensemble organisé de modèles Granite 3.0 est également disponible sur Ollama et Replicate.
La dernière génération de modèles Granite élargit le solide catalogue open-source d'IBM de puissants LLM. IBM a collaboré avec des partenaires de l'écosystème tels qu’AWS, Docker, Domo, Qualcomm Technologies, Inc., via son Qualcomm® AI Hub®, Salesforce, SAP et d'autres pour intégrer une variété de modèles Granite dans les offres de ces partenaires ou rendre les modèles Granite disponibles sur leurs plateformes, offrant ainsi un plus grand choix aux entreprises du monde entier.
Des assistants aux agents : l'avenir de l'IA d'entreprise se dessine
IBM fait progresser l'IA d'entreprise grâce à un éventail de technologies - des modèles et assistants aux outils nécessaires pour personnaliser et déployer l'IA en fonction des données et des cas d'usage propres à chaque entreprise. IBM ouvre également la voie à de futurs agents d'IA capables de s'autogérer, de réfléchir et d'effectuer des tâches complexes dans des environnements professionnels dynamiques.
IBM continue de faire évoluer son portefeuille de technologies d'assistants d'IA - de watsonx Orchestrate pour aider les entreprises à créer leurs propres assistants via des outils low-code et l'automatisation - à un large ensemble d'assistants préconçus pour des tâches et des domaines spécifiques tels que le service à la clientèle, les ressources humaines, les ventes et le marketing. Des organisations du monde entier ont utilisé watsonx Assistant pour les aider à concevoir des assistants d’IA pour des tâches telles que répondre aux questions courantes des clients ou des employés, moderniser leurs mainframes et leurs applications informatiques existantes, aider les étudiants à explorer des parcours professionnels potentiels ou encore fournir une assistance numérique en matière de prêt immobilier aux acheteurs de maisons.
IBM a également dévoilé aujourd'hui la prochaine version de la nouvelle génération de watsonx Code Assistant, qui s'appuie sur les modèles de code Granite, pour offrir une assistance au développement multi-langage dans des langages tels que C, C++, Go, Java et Python, avec des capacités avancées de modernisation des applications pour les applications Java d'entreprise[6]. Les fonctionnalités de code de Granite sont également accessibles désormais par le biais d'une extension de Visual Studio Code, IBM Granite.Code.
IBM prévoit également de mettre à disposition de nouveaux outils pour aider les développeurs à concevoir, personnaliser et déployer l'IA plus efficacement via watsonx.ai - y compris des architectures agentiques, des intégrations avec des environnements existants et des automatisations low-code pour des cas d'usage courants tels que le RAG et les agents[7].
IBM se concentre sur le développement de technologies d'agents d'IA capables d'une plus grande autonomie, d'un raisonnement sophistiqué ainsi que d'une résolution de problèmes en plusieurs étapes. La version initiale du modèle Granite 3.0 8B prend en charge des capacités orientées agentiques clés, telles que le raisonnement avancé et un modèle de conversation hautement structuré, ainsi qu'un style de requête (prompting) pour la mise en œuvre de processus. IBM prévoit également d’introduire une nouvelle fonction de chat avec un agent d’IA dans IBM watsonx Orchestrate, qui utilise des capacités agentiques pour orchestrer des assistants d’IA, des compétences et des automatisations qui aident les utilisateurs à accroître la productivité au sein de leurs équipes[8]. IBM prévoit de continuer à développer des capacités d'agent dans l'ensemble de son portefeuille en 2025, notamment des agents préconçus pour des domaines et des cas d'usage spécifiques.
Une plateforme de services étendue pilotée par l'IA pour décupler l’expertise des consultants d'IBM avec l'IA
IBM annonce également une évolution majeure de sa plateforme de services pilotée par l'IA, IBM Consulting Advantage. La plateforme multi-modèle contient des agents, des applications et des méthodes d'IA tels que des cadres reproductibles qui peuvent permettre aux 160 000 consultants d'IBM d'apporter une valeur ajoutée plus importante et plus rapide à leurs clients, et ce à moindre coût.
Dans le cadre de cette évolution, les modèles de langage Granite 3.0 deviendront le modèle par défaut de Consulting Advantage. En s'appuyant sur les performances et l’efficacité de Granite, IBM Consulting sera en mesure d’aider à maximiser le retour sur investissement des projets d’IA générative des clients d’IBM.
Un autre élément clé de cette évolution est l'introduction d'IBM Consulting Advantage for Cloud Transformation and Management et d'IBM Consulting Advantage for Business Operations. Chacun comprend des agents, des applications et des méthodes d'IA spécifiques à un domaine, enrichis avec les meilleures pratiques d'IBM, afin que les consultants d’IBM puissent aider à accélérer les transformations Cloud et IA des clients dans des tâches telles que la modernisation du code et l’amélioration de la qualité du code ou à transformer et exécuter des opérations dans des domaines tels que la finance, les ressources humaines et les achats.
Pour en savoir plus sur Granite et la stratégie d’IA pour les entreprises d'IBM : https://www.ibm.com/granite.
[1] Cost calculations are based on API cost per million tokens pricing of IBM watsonx for open models and openAI for GPT4 models (assuming blend of 80% inout, 20% output) for customer proofs-of-concept.
[2] IBM Research technical paper: Granite 3.0 Language Models
[3] IBM Research technical paper: Granite 3.0 Language Models
[4] The Tiny Time Mixer: Fast Pre-Trained Models for Enhanced Zero/Few Shot Forecasting on Multivariate Time Series
[5] Evaluation results published in Granite Guardian GitHub Repo
[6] Planned availability for Q4 2024
[7] Planned availability for Q4 2024
[8] Planned availability for Q1 2025
Autres articles
-
L’alliance entre l'innovation d'une start-up et l’industrialisation d’une grande entreprise : IBM met le modèle « Large » de Mistral à disposition sur watsonx
-
Étude IBM : Alors que les dirigeants se précipitent vers l'adoption de l'IA générative des questions relatives aux ressources et à la gouvernance persistent
-
Podcast : IBM se lance à son tour dans le data mesh et les data products
-
IBM dévoile le prochain chapitre de watsonx avec des innovations en matière d'open source, de produits et d'écosystème pour favoriser l'IA d'entreprise à grande échelle
-
IBM et le gouvernement espagnol collaborent pour faire progresser la stratégie nationale en matière d'IA et créer les meilleurs modèles d'IA au monde en langue espagnole