La numérisation de la société provoque de grands chambardements (penser à la numérisation de la photo, numérisation des textes, des livres, de la presse, de la musique, du cinéma, des télécommunications, des mesures ; penser à la multiplication des capteurs, à l’impact sur les entreprises, les clients mieux informés, les citoyens, les gouvernements … ), la numérisation génère donc beaucoup de données que l’on peut analyser (big data) et en outre partager facilement (open data)
Le big data pénètre désormais de nombreux secteurs d'activité. Des données bien exploitées dotent les entreprises d’un avantage concurrentiel difficile à battre. Le temps des affaires menées à l’instinct est révolu, l’ère de la décision par les données a sonné. La plupart des décideurs dans le monde ont adopté les outils analytiques pour les aider à prendre des décisions. À noter que pour les pionniers le big data ne booste pas l’avantage concurrentiel, il est au cœur même de leur modèle d'affaires.
Les moyens matériels ou logiciels nécessaires ont vu le jour et continuent à être développés pour lancer, accompagner cette vague qui ne fait que commencer. Tout va bien, mais un domaine mérite cependant beaucoup d’attention, c’est celui de la mobilisation des compétences indispensables pour profiter des opportunités offertes par le big data. Ci-dessous j’ai regroupé mes différents articles sur ce sujet :
Propos sur les conseils en big data
Mégadonnées : la construction d'algorithme nécessite toujours du jus de cervelle
L'analyste de mégadonnées ou big data doit se méfier de son enthousiasme
Big data : au-delà des incontournables solutions open source, il faut savoir mobiliser les bonnes compétences
Big data : Il faut un bon équipage pour ne pas se noyer dans le data lake
L’avenir est radieux pour les spécialistes de l’analyse des données
Rédigé par Michel Bruley le Samedi 12 Novembre 2016 à 12:06
|
Permalien
|
{0}
> A LIRE EN CE MOMENT SUR DECIDEO
-
Fivetran lance un benchmark sectoriel révélant comment les fournisseurs limitent l’accès aux données pour les charges de travail d’IA
-
L’IA atteint ses limites opérationnelles à mesure que les entreprises accélèrent son déploiement, selon un rapport de Datadog
-
« IA & Data for Industrial Engineering » - Création d’une chaire de recherche entre l’École nationale des ponts et chaussées et Scalian pour accélérer l’innovation en Intelligence artificielle et data au service de l’ingénierie industrielle
-
Fivetran lance un benchmark sectoriel révélant comment les fournisseurs limitent l’accès aux données pour les charges de travail d’IA
-
Étude Denodo : 66 % des organisations jugent les données en temps réel indispensables, mais relèvent des obstacles majeurs
-
Agence Spatiale Européenne : Une exploitation souveraine et autonome des données avec Suadeo
-
La Plateforme des données de santé engage sa migration vers un cloud souverain avec Scaleway
-
Avec Stargate, Starburst fait du multicloud une réponse à la conformité
-
Snowflake renforce Snowflake Intelligence et Cortex Code pour devenir le plan de contrôle de l’entreprise agentique
-
Podcast : Découvrons le context engineering avec Dataloma
Profil
Michel Bruley
Liste de liens
Dernières notes
Galerie
Archives
Rubriques
Rubriques
Rubriques








