La plateforme de Confluent permettant de mettre les données en mouvement annonce le lancement de la version Q1’22 de sa plateforme. Cette nouvelle version comprend l’ajout de connecteurs de streaming de données mais aussi de nouveaux contrôles pour la mise à l’échelle rentable des clusters Apache Kafka à débit massif, et une nouvelle fonctionnalité pour aider à maintenir la qualité fiable dans les environnements internationaux.
«La consommation des données a beaucoup évolué. Les entreprises et les clients ont par conséquent des attentes croissantes en matière d'expériences et de communications immédiates et pertinentes », a déclaré Amy Machado, directrice de recherche, Streaming Data Pipeline, chez IDC. « Les flux de données et le traitement en temps réel vont devenir la norme, et non l'exception. »
«La consommation des données a beaucoup évolué. Les entreprises et les clients ont par conséquent des attentes croissantes en matière d'expériences et de communications immédiates et pertinentes », a déclaré Amy Machado, directrice de recherche, Streaming Data Pipeline, chez IDC. « Les flux de données et le traitement en temps réel vont devenir la norme, et non l'exception. »
Autres articles
-
Data et IA : la résilience n’est plus un bonus, c’est une exigence
-
En 2026, la vitesse de la donnée primera sur l’IA
-
La donnée comme dernier rempart contre l’accident industriel
-
Apache Kafka : 15 ans pour réconcilier la technique et le métier
-
Confluent dévoile Confluent Intelligence, la clé d’une IA plus contextuelle et plus fiable





