Decideo - Actualités sur le Big Data, Business Intelligence, Data Science

Abonnez-vous gratuitement à Decideo !


Decideo

 


Gouverner l’intelligence artificielle : un passage obligé afin d’en sécuriser les bénéfices pour l’entreprise (1ère partie)


Rédigé par le 18 Avril 2024

Cet article est le premier d'une série complète consacrée à la gouvernance de l'intelligence artificielle.
Si vous souhaitez aborder le sujet de manière plus détaillée au travers d'un atelier-formation, vous pouvez vous inscrire à la première édition, proposée par Serda Formation, les 20 et 21 juin prochains. Tous les détails sont sur la page Gouvernance de l'IA : formation



Sommaire de la série d’articles sur la gouvernance de l'intelligence artificielle :

1ère partie : les enjeux de la gouvernance de l’intelligence artificielle
2ème partie : [cartographier les risques]urlblnk:https://www.decideo.fr/Gouverner-l-intelligence-artificielle-cartographier-les-risques-2eme-partie_a13688.html
3ème partie : cadres réglementaires et normatifs, réflexion éthique (à paraitre)
4ème partie : la feuille de route, qui, quoi, comment et quand (à paraitre)
5ème partie : les données (à paraitre)
6ème partie : les modèles (à paraitre)
7ème partie : audit et responsabilisation (à paraitre)

Soyons réalistes, le sujet est moins amusant que de poser des questions ridicules à ChatGPT pour tenter de le voir se tromper en temps réel. Mais ô combien plus important ! Si vous envisagez ou pire, si vous utilisez déjà l’intelligence artificielle dans votre entreprise, il serait temps de vous préoccuper de son cadre d’utilisation.

Comme vous le constaterez dans les chapitres suivants, les risques ne sont pas absents ; le plus important est d’en avoir conscience et de les anticiper. Encadrer l’usage de l’intelligence artificielle dans l’entreprise, va devenir au moins aussi important en 2024 et 2025, que d’en tester tous les nouveaux modèles au fur et à mesure de leur sortie. Qu’il s’agisse d’apprentissage machine, de LLM, de RAG ou de toutes les formes d’IA à venir, la compréhension de leurs limites, et la définition d’un cadre d’usage dans l’entreprise, sont un point de passage obligé : dans le cadre d’une approche de maitrise des risques, tout comme dans celui d’une amélioration de la productivité.

Alors, oui, continuons à nous amuser en triturant les outils dès leur sortie, mais pour ce qui est de leur usage professionnel, ayez des réflexes industriels. Testez, évaluez, puis éventuellement déployez. Toute cette démarche doit être encadrée, c’est ce que l’on va appeler la gouvernance de l’intelligence artificielle.

Bienvenue dans un monde où l’on va essayer de penser avant d’agir, de mettre les bœufs avant la charrue, et de se préoccuper des conséquences avant de déployer les causes !

Panorama des enjeux liés à la gouvernance de l’intelligence artificielle

Image créée par Dall-E : Le cuisinier sans gouvernance
Image créée par Dall-E : Le cuisinier sans gouvernance
Imaginez-vous travailler dans la chimie et embaucher un Professeur Nimbus afin de découvrir de nouvelles molécules. Mais vous le laissez faire, sans contrôle, expérimenter toutes les combinaisons possibles et tester auprès de vos clients toutes ses inventions, en espérant simplement qu’il ne fera pas exploser votre laboratoire. Ou alors, vous travaillez dans l’agroalimentaire et vous embauchez un nouveau cuisinier, afin d’imaginer de nouveaux plats préparés, en le laissant combiner sans contrôles et sans objectifs, tous les aliments possibles. On verra bien ! Espérons que vos clients ne tombent pas malades ! Et si demain matin, vous montez dans un avion, dont le fabricant vous explique qu’il est piloté de manière expérimentale par un logiciel qui a été chercher ses données sur Internet, sans savoir véritablement où, et qu’il n’a pas encore pu être testé dans des conditions réelles… tendez-vous votre carte d’embarquement à l’hôtesse virtuelle, ou sauterez-vous au plus vite de la passerelle ?

Tous ces exemples, et ceux que vous pourrez déduire afin de les appliquer à votre propre organisation vous semblent impossibles. Vous vous dites : « Ça ne peut pas se produire chez moi ! ». Et bien si, dans le domaine de l’intelligence artificielle, tout est possible. Le meilleur comme le pire.

En mars 2024, a été annoncé le nouveau modèle développé par OpenAI, afin de créer intégralement des vidéos réalistes, Sora. Interrogée par le Wall Street Journal, Mira Murati, Chief Technology Officer chez OpenAI — rien que cela — a publiquement reconnu qu’elle n’avait aucune idée des données qui avaient pu être utilisées pour l’entrainement du modèle de Sora (1) !

OpenAI a certainement utilisé la même méthode que pour l’entrainement de ChatGPT, aspirer tout ce qui est disponible sur Internet, sans se préoccuper de sa qualité, de ses biais, et d’un éventuel copyright. Des millions de vidéos de petits chats sur YouTube, des films entiers protégés par le droit d’auteur, mais accessibles, des conférences mises en ligne sans que les intervenants soient au courant, tout cela et bien d’autres choses ont sans doute permis à OpenAI d’entrainer son modèle.

La méthode est contestable, mais ce n’est pas le plus grave. Le fait que la Chief Technology Officer de OpenAI ne sache pas quelles données sont utilisées, quels contrôles sont réalisés, ou pas, et dans quel cadre de gouvernance sont entrainés les modèles ; c’est cela qui est grave ! Imaginez une machine qui fabrique des plats cuisinés, et le PDG de l’entreprise, qui explique à un journaliste qu’il n’a aucune idée des ingrédients que la machine sélectionne et de comment elle les prépare…

Cette interview, dont personne ne semble s’inquiéter réellement, est la démonstration que nous n’avons rien compris, et que nous ne sommes pas capables d’apprendre des erreurs du passé… contrairement d’ailleurs à l’intelligence artificielle. Deepfakes, violations de copyright, biais cognitifs, hallucinations… la seule manière de les éviter n’est pas d’interdire le développement et l’usage de l’IA, mais d’encadrer les processus, afin de comprendre et de documenter la manière dont les données alimentent les modèles. C’est ce que l’on appelle la gouvernance. Elle se décline aujourd’hui en gouvernance de l’intelligence artificielle. C’est ce que nous allons détailler et expliquer ici.

J’ai, depuis six ans, formé des centaines de personnes à la gouvernance des données orientée métier. Même si certains commencent tout juste à s’y mettre, les processus, les méthodes et les outils sont maintenant rodés. L’évolution récente de nombreuses entreprises vers le data mesh, souligne l’importance d’une gouvernance des données fédéralisée. Les référents données (data owners) sont dans les métiers, et ils sont les producteurs des jeux de données (data products). Les catalogues se construisent, les formats d’échange se standardisent, bref, ça avance ! Et il faut maintenir le cap.

Mais en parallèle, l’intelligence artificielle s’est développée, ou plutôt popularisée. Je ne compte plus le nombre de communiqués de presse reçus chaque jour, mentionnant que untel ou untel a intégré de l’IA dans son offre. Ça me rappelle d’ailleurs la flambée du big data… Le 21 mars 2012, j’avais été invité à participer à une table ronde, lors de la première édition du Salon du Big Data, à la Cité Universitaire. Je m’étais permis un trait d’humour en m’attendant à recevoir un communiqué de presse d’une marque d’imprimantes se disant « compatible big data », car capable d’imprimer beaucoup de pages… On en était là en 2012. Dix ans après, le même phénomène se reproduit avec l’IA. Le moindre logiciel intègre évidemment des fonctions d’intelligence artificielle, même si cela fait la même chose que dans la version précédente.

Il a fallu plusieurs années de développement des applications dites « data », avant que l’on ne prenne conscience de leur impérieux besoin d’encadrement. Heureusement, ou pas, l’IA nous amène à faire le même constat beaucoup plus rapidement. Pourquoi ? Parce que nous en comprenons bien mieux les impacts sur nos vies, nos emplois, la société. Le big data restait un concept un peu fumeux pour le grand public. L’intelligence artificielle, cela nous parle.

Et donc les philosophes, les romanciers, les essayistes, les politiques, les éthiciens, se sont rapidement saisis du drapeau rouge, afin d’agiter les risques que représente un développement incontrôlé de ces technologies dites intelligentes. Encore une fois, il ne s’agit pas d’interdire, mais d’encadrer.

(1) Source : Wall Street Journal





Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store