Près de 97 % des décideurs en matière de données et de technologies interrogés indiquent que les défaillances des pipelines ont ralenti leurs programmes d’analytique ou d’IA, soulignant que la fiabilité devient un obstacle de plus en plus important au succès de l'IA en entreprise.
L’étude mondiale a été menée auprès de 500 décideurs en matière de données et de technologies dans des entreprises de plus de 5 000 salariés.
Les résultats suggèrent que le principal défi des entreprises ne réside pas dans un sous-investissement dans les données, mais dans l’architecture qui les soutient. Les entreprises consacrent désormais en moyenne 29,3 millions de dollars par an à leurs programmes data. La donnée figure ainsi parmi les principaux postes de dépense des budgets technologiques.
Malgré ces investissements, des problèmes de fiabilité persistent. Ils continuent de réduire la valeur créée pour l’entreprise.
Les entreprises consacrent environ 14 % de leurs budgets data à l’intégration, soit une dépense annuelle moyenne d’environ 4,2 millions de dollars. Beaucoup d’organisations fonctionnent encore avec un ensemble fragmenté de pipelines développés en interne, auquel s’ajoutent des systèmes ETL hérités et des outils partiellement automatisés. Cet empilement devient de plus en plus difficile à gérer et à maintenir à mesure que les volumes de données et le nombre de pipelines augmentent.
L’étude montre que les interruptions de pipelines et les perturbations opérationnelles représentent en moyenne une perte mensuelle d’environ 3 millions de dollars. Cela met en évidence un écart croissant entre les investissements dans la donnée et les retours mesurables.
« Les entreprises investissent des millions dans l’intégration des données. Pourtant, une part importante de ces dépenses sert encore à maintenir des pipelines fragiles, conçus pour une époque antérieure à l’IA », déclare George Fraser, CEO de Fivetran. « À mesure que les enjeux de fiabilité augmentent, l’architecture des données devient un facteur déterminant dans la capacité des organisations à déployer l’IA à grande échelle. Les entreprises qui prennent de l’avance commencent à repenser leurs fondations. Elles s’orientent vers des infrastructures de données plus ouvertes, conçues pour la rapidité, la résilience et la flexibilité à long terme. »
Les risques liés à la fiabilité des pipelines s’accentuent à mesure que les environnements data gagnent en échelle :
97 % des responsables data seniors déclarent que les défaillances des pipelines ont ralenti des initiatives d’analytique ou d’IA.
Les interruptions et les perturbations opérationnelles représentent en moyenne une exposition de 3 millions de dollars par mois pour l’entreprise.
Les grandes entreprises enregistrent en moyenne 4,7 défaillances de pipelines par mois, chaque incident nécessitant près de 13 heures pour être résolu.
Plus de 60 heures d’indisponibilité par mois retardent la mise à disposition des analyses et ralentissent les calendriers de déploiement de l’IA.
Plus de 300 pipelines sont désormais gérés en moyenne dans les environnements d’entreprise, ce qui accroît la complexité opérationnelle.
Dans les écosystèmes de grande ampleur, une seule défaillance de pipeline peut entraîner jusqu’à 1,4 million de dollars d’impact par incident.
53 % de la capacité d’ingénierie est consacrée à la maintenance et au dépannage des pipelines, ce qui limite les ressources disponibles pour l’innovation et les initiatives d’IA.
Les entreprises qui exploitent des plateformes d’intégration automatisées ont près de deux fois plus de chances de dépasser leurs objectifs de ROI sur leurs investissements data.
Ces résultats suggèrent qu’à mesure que l’adoption de l’IA s’accélère, les entreprises vont de plus en plus s’orienter vers des architectures d’infrastructure data ouvertes, fondées sur l’automatisation des flux de données, l’interopérabilité entre plateformes et une plus grande résilience opérationnelle à grande échelle. Ces approches s’imposent comme un socle critique pour les organisations qui cherchent à réduire la charge pesant sur les équipes d’ingénierie tout en prenant en charge des usages analytiques et des charges de travail d’IA toujours plus complexes.
Méthodologie
Le 2026 Enterprise Data Infrastructure Benchmark Report repose sur une enquête mondiale menée au quatrième trimestre 2025 auprès de 500 décideurs en matière de données et de technologies au sein d’entreprises de plus de 5 000 salariés. Les répondants proviennent des États-Unis, du Royaume-Uni, de la zone EMEA et de l’APAC, dans les secteurs des services financiers, de l’industrie manufacturière, de la technologie, du retail et de la santé.
L’étude mondiale a été menée auprès de 500 décideurs en matière de données et de technologies dans des entreprises de plus de 5 000 salariés.
Les résultats suggèrent que le principal défi des entreprises ne réside pas dans un sous-investissement dans les données, mais dans l’architecture qui les soutient. Les entreprises consacrent désormais en moyenne 29,3 millions de dollars par an à leurs programmes data. La donnée figure ainsi parmi les principaux postes de dépense des budgets technologiques.
Malgré ces investissements, des problèmes de fiabilité persistent. Ils continuent de réduire la valeur créée pour l’entreprise.
Les entreprises consacrent environ 14 % de leurs budgets data à l’intégration, soit une dépense annuelle moyenne d’environ 4,2 millions de dollars. Beaucoup d’organisations fonctionnent encore avec un ensemble fragmenté de pipelines développés en interne, auquel s’ajoutent des systèmes ETL hérités et des outils partiellement automatisés. Cet empilement devient de plus en plus difficile à gérer et à maintenir à mesure que les volumes de données et le nombre de pipelines augmentent.
L’étude montre que les interruptions de pipelines et les perturbations opérationnelles représentent en moyenne une perte mensuelle d’environ 3 millions de dollars. Cela met en évidence un écart croissant entre les investissements dans la donnée et les retours mesurables.
« Les entreprises investissent des millions dans l’intégration des données. Pourtant, une part importante de ces dépenses sert encore à maintenir des pipelines fragiles, conçus pour une époque antérieure à l’IA », déclare George Fraser, CEO de Fivetran. « À mesure que les enjeux de fiabilité augmentent, l’architecture des données devient un facteur déterminant dans la capacité des organisations à déployer l’IA à grande échelle. Les entreprises qui prennent de l’avance commencent à repenser leurs fondations. Elles s’orientent vers des infrastructures de données plus ouvertes, conçues pour la rapidité, la résilience et la flexibilité à long terme. »
Les risques liés à la fiabilité des pipelines s’accentuent à mesure que les environnements data gagnent en échelle :
97 % des responsables data seniors déclarent que les défaillances des pipelines ont ralenti des initiatives d’analytique ou d’IA.
Les interruptions et les perturbations opérationnelles représentent en moyenne une exposition de 3 millions de dollars par mois pour l’entreprise.
Les grandes entreprises enregistrent en moyenne 4,7 défaillances de pipelines par mois, chaque incident nécessitant près de 13 heures pour être résolu.
Plus de 60 heures d’indisponibilité par mois retardent la mise à disposition des analyses et ralentissent les calendriers de déploiement de l’IA.
Plus de 300 pipelines sont désormais gérés en moyenne dans les environnements d’entreprise, ce qui accroît la complexité opérationnelle.
Dans les écosystèmes de grande ampleur, une seule défaillance de pipeline peut entraîner jusqu’à 1,4 million de dollars d’impact par incident.
53 % de la capacité d’ingénierie est consacrée à la maintenance et au dépannage des pipelines, ce qui limite les ressources disponibles pour l’innovation et les initiatives d’IA.
Les entreprises qui exploitent des plateformes d’intégration automatisées ont près de deux fois plus de chances de dépasser leurs objectifs de ROI sur leurs investissements data.
Ces résultats suggèrent qu’à mesure que l’adoption de l’IA s’accélère, les entreprises vont de plus en plus s’orienter vers des architectures d’infrastructure data ouvertes, fondées sur l’automatisation des flux de données, l’interopérabilité entre plateformes et une plus grande résilience opérationnelle à grande échelle. Ces approches s’imposent comme un socle critique pour les organisations qui cherchent à réduire la charge pesant sur les équipes d’ingénierie tout en prenant en charge des usages analytiques et des charges de travail d’IA toujours plus complexes.
Méthodologie
Le 2026 Enterprise Data Infrastructure Benchmark Report repose sur une enquête mondiale menée au quatrième trimestre 2025 auprès de 500 décideurs en matière de données et de technologies au sein d’entreprises de plus de 5 000 salariés. Les répondants proviennent des États-Unis, du Royaume-Uni, de la zone EMEA et de l’APAC, dans les secteurs des services financiers, de l’industrie manufacturière, de la technologie, du retail et de la santé.
Autres articles
-
Fivetran structure l’alimentation data temps réel de Saint-Maclou
-
Fivetran et dbt Labs s’unissent pour établir la référence en matière d’infrastructure de données ouverte
-
Fivetran a été choisi par Steve Madden pour unifier ses données marketing et analytiques multicanal
-
Fivetran acquiert Tobiko Data et ouvre la voie à une nouvelle génération de transformation de données avancée, conçue pour l’IA
-
Fivetran officialise son partenariat avec S3NS





