Trois tendances à surveiller en matière de machine learning et d'intelligence artificielle


Rédigé par Hugh Owen, MicroStrategy le 19 Juillet 2019

La datascience évolue rapidement, avec un nombre incalculable de nouvelles applications chaque année. Les récents exemples illustrent la rationalisation du processus de la science des données en éliminant les obstacles qui ralentissent l'élaboration des modèles, tels que les données incomplètes ou obsolètes.



Hugh Owen, SVP Product Marketing, MicroStrategy Incorporated
Voici trois tendances du machine learning (ML) :

Améliorer la qualité des données grâce à la détection des valeurs aberrantes

Des innovations comme l'Internet des objets (IoT) et les données non structurées produisent de façon exponentielle plus de données, ce qui permet aux organisations de découvrir des perspectives inattendues à partir de sources nouvelles et de manière plus encore plus fine. Toutefois, ces sources de données croissantes présentent un risque accru de produire des modèles qui utilisent des données incorrectes et produisent donc des prévisions inexactes. Les risques liés à de mauvaises données vont au-delà de mauvaises prévisions. En fait, IBM estime que de mauvaises données coûtent à l'économie américaine environ 3,1 milliards de dollars chaque année.

Heureusement, le machine learning est là pour faciliter la détection des valeurs aberrantes, en utilisant un algorithme pour identifier les observations qui sont extrêmement différentes du reste des données, permettant aux scientifiques de déterminer si ces observations extrêmes sont des valeurs réelles ou ont été incluses de façon erronée. La mise en œuvre de la détection des valeurs aberrantes sur un ensemble de données avant de faire des prédictions peut permettre d'économiser du temps et de l'argent et de s'assurer que les données du modèle sont exemptes de données incorrectes. Au fur et à mesure que de plus en plus d'objets deviennent "intelligents" et que les sources de données continuent de s'étendre, il faut s'attendre à une détection plus fréquente des valeurs aberrantes.

Croissance continue du traitement du langage naturel

Le traitement du langage naturel, un sous-domaine de l'intelligence artificielle qui permet aux ordinateurs de traiter et d'agir sur le langage humain et les requêtes en langage humain, a connu une croissance explosive au cours de la dernière année, principalement grâce aux chatbots et aux assistants vocaux comme Alexa ou Google Home. Mais le langage naturel apparaît dans des endroits nouveaux et inattendus. Par exemple, Google interprète maintenant les recherches plutôt que de simplement rechercher les mots eux-mêmes, et les constructeurs automobiles installent des assistants d'IA dans leurs véhicules pour la reconnaissance faciale et même des recommandations musicales. Ces fonctions permettent aux utilisateurs d'obtenir rapidement plus d'informations et de contrôler leur environnement avec des commandes simples et avec moins de clics.

Apprentissage automatisé avec l'intelligence artificielle

Les datascientists et leurs compétences sont rares, et la création de modèles est un processus fastidieux qui implique un processus de nettoyage des données, de sélection des modèles et de nombreuses séries de formation et de tests, ce qui ralentit le rythme auquel les modèles ML peuvent être appliqués. Pour lutter contre ce problème, l'intelligence artificielle est utilisée à la fois pour créer et régler les modèles, ce qui accélère considérablement la construction des modèles et permet aux analystes qui manquent de compétences en codage de construire leurs propres modèles.

En 2017, Google a publié Cloud Auto ML, une suite de produits machine learning basée sur le Cloud qui automatise la construction de modèles ML, avec des modules supplémentaires pour le traitement du langage naturel et la détection des images.

C'est une période prometteuse pour les entreprises qui tirent parti du machine learning et de l'intelligence artificielle et de ses capacités d'innovation et d'expansion.



Dans la même rubrique :