Alors que l’adoption de l’IA s’accélère, la complexité opérationnelle — et non l’intelligence des modèles — devient le principal obstacle à une IA fiable à grande échelle, selon de nouvelles données de Datadog, Inc. (NASDAQ : DDOG), fournisseur de la plateforme d’observabilité et de sécurité leader, pilotée par l’IA.
Le rapport State of AI Engineering 2026 de Datadog, fondé sur des données réelles issues de milliers d’organisations exploitant l’IA en production, met en évidence une complexité croissante à mesure que les systèmes passent à l’échelle.
Près de 7 entreprises sur 10 (69 %) utilisent désormais trois modèles ou plus, associés pour alimenter des workflows d’agents de plus en plus complexes. Environ 5 % des requêtes vers les modèles d’IA échouent en production, dont près de 60 % à cause de limites de capacité, ce qui entraîne ralentissements, erreurs et expériences dégradées dans les applications basées sur l’IA.
Autres résultats clés :
L'approche multimodèle est désormais la norme : OpenAI reste le fournisseur le plus utilisé avec une part de marché de 63 %, tandis que Google Gemini et Anthropic connaissent une adoption croissante, avec une progression respective de 18 et 19 points de pourcentage.
L’adoption des frameworks d’agents a doublé sur un an, accélérant le développement mais introduisant aussi davantage d’éléments mobiles dans les systèmes en production.
Le volume de données envoyé aux modèles d’IA par requête est également en hausse : le nombre moyen de tokens a plus que doublé pour les équipes à usage médian (50e percentile du volume d’utilisation) et quadruplé pour les utilisateurs intensifs (90e percentile).
« L’IA commence à ressembler aux débuts du cloud », déclare Yanbing Li, Chief Product Officer chez Datadog. « Le cloud a rendu les systèmes programmables, mais beaucoup plus complexes à gérer. L’IA est en train de faire la même chose au niveau de la couche applicative. Les entreprises qui réussiront ne seront pas seulement celles qui construiront de meilleurs modèles, mais celles qui mettront en place un contrôle opérationnel autour de ceux-ci. Dans cette nouvelle ère, l’observabilité de l’IA devient aussi essentielle que l’était celle du cloud il y a dix ans. »
La vitesse exige du contrôle
La pression concurrentielle accélère le déploiement de l’IA, aussi bien dans les startups que dans les grandes entreprises. Mais à mesure que les systèmes passent à l’échelle, la vitesse sans contrôle devient source de risques. Les défaillances sont de plus en plus liées à la conception même des systèmes : workflows fragmentés, tentatives de relance excessives et routage inefficace.
« La prochaine vague d’échecs des agents ne viendra pas de ce qu’ils sont incapables de faire, mais de ce que les équipes ne parviennent pas à observer », déclare Guillermo Rauch, PDG de Vercel, l’entreprise à l’origine de Next.js, une plateforme de référence pour la création d’applications web alimentées par l’IA. « Nous avons construit une infrastructure agentique chez Vercel parce que les agents ont besoin des mêmes boucles de rétroaction en production que les bons logiciels. Contrairement aux logiciels traditionnels, leur flux de contrôle est piloté par le LLM lui-même, ce qui rend l’observabilité non seulement utile, mais essentielle. »
« L’innovation seule ne suffit pas », ajoute Yanbing Li. « Pour déployer l’IA à grande échelle en toute confiance, les organisations ont besoin d’une visibilité en temps réel sur l’ensemble de la stack — de l’utilisation des GPU au comportement des modèles, jusqu’aux workflows des agents. La visibilité et le contrôle opérationnel sont ce qui permet d’accélérer sans compromettre la fiabilité ni la gouvernance. À grande échelle, la manière dont on opère l’IA peut compter davantage que les modèles eux-mêmes. »
Méthodologie du rapport
Datadog a analysé des données d’utilisation anonymisées provenant de milliers de clients utilisant des LLM en environnement de production, avec une couverture mondiale couvrant différents secteurs et zones géographiques.
Le rapport State of AI Engineering 2026 de Datadog, fondé sur des données réelles issues de milliers d’organisations exploitant l’IA en production, met en évidence une complexité croissante à mesure que les systèmes passent à l’échelle.
Près de 7 entreprises sur 10 (69 %) utilisent désormais trois modèles ou plus, associés pour alimenter des workflows d’agents de plus en plus complexes. Environ 5 % des requêtes vers les modèles d’IA échouent en production, dont près de 60 % à cause de limites de capacité, ce qui entraîne ralentissements, erreurs et expériences dégradées dans les applications basées sur l’IA.
Autres résultats clés :
L'approche multimodèle est désormais la norme : OpenAI reste le fournisseur le plus utilisé avec une part de marché de 63 %, tandis que Google Gemini et Anthropic connaissent une adoption croissante, avec une progression respective de 18 et 19 points de pourcentage.
L’adoption des frameworks d’agents a doublé sur un an, accélérant le développement mais introduisant aussi davantage d’éléments mobiles dans les systèmes en production.
Le volume de données envoyé aux modèles d’IA par requête est également en hausse : le nombre moyen de tokens a plus que doublé pour les équipes à usage médian (50e percentile du volume d’utilisation) et quadruplé pour les utilisateurs intensifs (90e percentile).
« L’IA commence à ressembler aux débuts du cloud », déclare Yanbing Li, Chief Product Officer chez Datadog. « Le cloud a rendu les systèmes programmables, mais beaucoup plus complexes à gérer. L’IA est en train de faire la même chose au niveau de la couche applicative. Les entreprises qui réussiront ne seront pas seulement celles qui construiront de meilleurs modèles, mais celles qui mettront en place un contrôle opérationnel autour de ceux-ci. Dans cette nouvelle ère, l’observabilité de l’IA devient aussi essentielle que l’était celle du cloud il y a dix ans. »
La vitesse exige du contrôle
La pression concurrentielle accélère le déploiement de l’IA, aussi bien dans les startups que dans les grandes entreprises. Mais à mesure que les systèmes passent à l’échelle, la vitesse sans contrôle devient source de risques. Les défaillances sont de plus en plus liées à la conception même des systèmes : workflows fragmentés, tentatives de relance excessives et routage inefficace.
« La prochaine vague d’échecs des agents ne viendra pas de ce qu’ils sont incapables de faire, mais de ce que les équipes ne parviennent pas à observer », déclare Guillermo Rauch, PDG de Vercel, l’entreprise à l’origine de Next.js, une plateforme de référence pour la création d’applications web alimentées par l’IA. « Nous avons construit une infrastructure agentique chez Vercel parce que les agents ont besoin des mêmes boucles de rétroaction en production que les bons logiciels. Contrairement aux logiciels traditionnels, leur flux de contrôle est piloté par le LLM lui-même, ce qui rend l’observabilité non seulement utile, mais essentielle. »
« L’innovation seule ne suffit pas », ajoute Yanbing Li. « Pour déployer l’IA à grande échelle en toute confiance, les organisations ont besoin d’une visibilité en temps réel sur l’ensemble de la stack — de l’utilisation des GPU au comportement des modèles, jusqu’aux workflows des agents. La visibilité et le contrôle opérationnel sont ce qui permet d’accélérer sans compromettre la fiabilité ni la gouvernance. À grande échelle, la manière dont on opère l’IA peut compter davantage que les modèles eux-mêmes. »
Méthodologie du rapport
Datadog a analysé des données d’utilisation anonymisées provenant de milliers de clients utilisant des LLM en environnement de production, avec une couverture mondiale couvrant différents secteurs et zones géographiques.





