L’IA peut-elle devenir consciente ? Ou comment limiter les préjugés inconscients dans les prises de décisions


Rédigé par Jean-Pierre Boushira, Veritas Technologies le 4 Décembre 2019

Si l’intelligence artificielle prend de plus en plus d’importance dans nos processus décisionnels, un monde totalement dirigé par cette technologie n’est pas près de voir le jour. En effet, il faut avant tout garder à l’esprit que même si nous développons une intelligence artificielle standardisée avec les mêmes capacités créatives et intellectuelles que le cerveau humain, les décisions les plus importantes (comme la gouvernance des États par exemple) resteront prises par les hommes.



Jean-Pierre Boushira, Vice-Président Europe du Sud et Benelux chez Veritas Technologies
L'Intelligence Artificielle progresse rapidement, à tel point qu'elle n'est plus seulement un outil mais à la fois un juge et un gardien : ses algorithmes diagnostiquent les patients, décident qui est admissible ou non à la sécurité sociale, sélectionnent des candidats à des entretiens d'embauche... Comme l'IA prend de plus en plus de place dans notre processus décisionnel, nous devrions connaître une plus grande rapidité et efficacité dans le traitement de l’information qui pourrait libérer 30% du temps des effectifs du gouvernement au cours des prochaines années. Toutefois, pour obtenir les meilleurs résultats possibles, nous devons nous efforcer de développer une IA qui partage équitablement ces avantages.

Nous influençons les nouvelles technologies autant qu'elles nous influencent. Malheureusement, cela signifie qu'il y a un risque que l'IA adopte certains de nos pires défauts. Et si nous ne prenons pas les mesures nécessaires dès maintenant, les préjugés dits « inconscients » pourraient être perpétués ou même s’ancrer plus profondément dans notre société.

Les données en disent long sur une personne, mais elles ne vous diront pas tout. La dernière chose que nous voulons, c'est un monde où vous serez jugé non pas en fonction de vos capacités ou de votre potentiel, mais en fonction des données que vous laissez. Il est clair que pour que l'intelligence artificielle soit utilisée de manière bénéfique, elle doit être optimisée en termes d'équité.

Les préjugés inconscients sont un problème pour la donnée

L'expression « si les entrées d’un système sont mauvaises, les sorties le sont forcément aussi » (Garbage in, Garbage out – GIGO - en anglais) est devenue célèbre dans le développement logiciel, et ce pour de bonnes raisons. Aussi complexe et puissante qu'elle soit devenue, l'intelligence artificielle se résume à une série d'algorithmes conçus pour exécuter une tâche spécifique. L'IA dépend entièrement des données qui lui sont fournies pour son développement. Elle ne peut donc qu'analyser les données dont elle dispose et tenter d'en tirer le meilleur parti. Ce qui nous semble être un mauvais choix est en réalité la décision optimale prise à partir d'un mauvais ensemble de données. Et cela n'enlève rien à la gravité et la problématique de la situation.

Des cas notables comme celui du chatbot Tay de Microsoft ou l'assistant virtuel Alice de Yandex sont de bonnes démonstrations de ce qui peut arriver quand des solutions d'auto-apprentissage sont alimentées avec de mauvaises données. Dans les deux cas, on s'attendait à ce que l'interaction humaine l’aide à développer une personnalité humaine convaincante. Malheureusement, le contact avec une série d’interactions agressives a créé des systèmes qui avaient appris à l’être eux-mêmes.

Cependant, lorsque les décisions prises par l'IA commencent à avoir un impact sur les moyens de subsistance des personnes, les conséquences peuvent être beaucoup plus graves. Dans un avenir où les décisions seront fondées sur les données, nous devons veiller à ce que les minorités de l'ensemble des données ne soient pas privées de leurs droits.

Prenons l'exemple d'un algorithme de reconnaissance faciale qui avait été formé uniquement avec des images de modèles à la peau claire. Lorsque l'algorithme d'IA rencontre un utilisateur à la peau noire, il peut mal l'identifier ou même ne pas le reconnaitre du tout. Imaginez alors quel serait l'impact si cette technologie de reconnaissance faciale de l'IA devenait le fondement des systèmes d'embauche ou de rémunération ? De cette façon, certains groupes peuvent être désavantagés, subir une mauvaise expérience utilisateur ou même se voir refuser l'accès à un service. La discrimination n'est peut-être pas délibérée, mais l'impact est, lui, tout aussi dommageable.

Les préjugés inconscients de l'IA sont fondamentalement liés à un problème de données. Sans une vaste base de données diversifiées et complètes, il existe un risque réel que l'IA de de demain crée automatiquement les gagnants et les perdants de la société sans prendre en compte le contexte dans son ensemble. Il est donc crucial que les entreprises et les organisations se procurent les bases de données les plus grandes et diversifiées possibles.

Bien entendu, elles devront également s'assurer que leurs solutions d'IA peuvent utiliser toutes ces données efficacement. Cela signifie des outils et des politiques de gestion des données solides, garantissant que les données sont classées, consolidées et simplifiées pour l'utilisation de l'intelligence artificielle.

La diversité des données

Collecter un maximum de données n’est pas la solution la plus simple. Ce n'est pas parce que vous disposez de plus de données qu’une entreprise moyenne, que l'ensemble des données est de meilleure qualité ou produira des résultats plus justes. Les services des Ressources Humaines du secteur de l'ingénierie par exemple, peuvent disposer d'une grande quantité de données historiques sur lesquelles s'appuyer. Mais si le secteur a toujours été dominé par les hommes, les femmes peuvent avoir plus de difficulté à apparaître comme des candidates idéales à un algorithme d'IA.

La meilleure chose à faire pour lutter contre les préjugés inconscients de l'IA est d'en être conscient. Trop d'entreprises traitent l'IA comme une boîte noire d'entrées et de sorties, mais pour garantir la justesse algorithmique, il faut bien comprendre comment la solution fonctionne et comment elle interagit avec les données. Pendant la phase de conception, ayez une idée claire des résultats que vous voulez éviter et de ceux que vous voulez atteindre. Appliquez ensuite cette justification à l'ensemble de données à partir desquelles l'IA s'entraînera, en assurant une représentation équitable pour tous les groupes sociaux, raciaux et de genre.

La façon dont une entreprise décide de ce qui est " juste " est un sujet beaucoup plus vaste et nuancé que la question des préjugés de l'IA. L'éthique variera d'une entreprise à l'autre, c'est donc aux dirigeants et à leurs employés d'élaborer un cadre éthique sur lequel ils pourront s'entendre et qui influencera ensuite leurs solutions. Cependant, la transparence est essentielle : aucune entreprise ne devrait avoir peur d'expliquer au public ou à ses employés comment ces décisions sont prises ou comment elles sont mises en œuvre.

Une approche verticale est rarement la meilleure approche. Ce qui peut sembler juste à une personne est probablement discutable ou erroné pour une autre. Une bonne façon de créer un consensus est d'établir un comité sur la diversité, composé d'intervenants de l'ensemble de votre entreprise. Les décisions de ce comité peuvent ensuite être traduites dans la solution d'IA.

Tous trop humain

Toutefois, pour utiliser l'IA de façon éthique à l'avenir, il faudra plus qu'une simple prise de conscience. Dans une certaine mesure, les entreprises des secteurs privés et publics devront changer leurs perspectives. De nombreuses entreprises sont attachées à un mélange de culture et de politique pour mener à bien une tâche spécifique, que ce soit pour créer des profits ou pour atteindre des quotas. Souvent, toutes les autres considérations deviennent secondaires ou sont complètement oubliées.

De telles organisations peuvent réussir, mais leurs solutions d'IA ont peu de chances de prendre les meilleures décisions en ce qui concerne la société dans son ensemble. Avec le temps, cette orientation restrictive pourrait creuser un fossé entre l'entreprise et ses clients. Au fur et à mesure que les abus sont commis par des solutions d'IA, ils seront révélés, et l’entreprise pourrait rapidement devenir une cible pour le législateur.

Décider de ce que vous voulez réellement réaliser avec une solution d'IA est probablement le facteur le plus important pour déterminer si ses résultats seront éthiques. Si votre objectif est uniquement de faire des profits ou d'atteindre un quota, les décisions de votre IA auront moins de chances d'être éthiques. Une entreprise qui peut utiliser l'IA atteindra probablement son objectif, mais ce dernier est-il louable ?

Une compagnie financière peut explorer comment elle peut tirer un meilleur rendement de ses prêts, de sorte qu'elle conçoive une solution d'IA qui identifie ceux qui ont le plus de chances de payer. Pourtant, si cette solution prend la décision en fonction des caractéristiques des demandeurs, elle pourrait facilement être discriminatoire envers certains groupes et leur refuser des prêts, quelle que soit leur capacité à payer.

En fin de compte, pour créer une intelligence artificielle qui prenne des décisions plus « humaines » et compatissantes, les particuliers devront commencer à se comporter moins comme des machines. Les chefs d'entreprise ne doivent pas aborder l'IA avec un seul objectif à atteindre, mais être conscients des nombreux impacts que l’IA peut avoir sur les personnes et leurs clients. La compréhension des nuances et du contexte est l'un des principaux avantages humains par rapport aux machines, il est donc important que nous l'exercions. Les données confèrent un grand pouvoir et avec ce dernier, il doit y avoir une responsabilité et un but plus large que le profit.

Bien qu'il soit difficile à admettre, les préjugés inconscients font parties de nous. Certains préjugés sont aussi bien liés à notre pensée que le code est programmé dans un logiciel. La seule façon de le vaincre c’est de reconnaître son existence et d'élaborer des stratégies qui limitent son impact sur nos décisions. Mais cela ne se fera pas du jour au lendemain : il faut le former de la même manière que nous formons l'IA pour obtenir les résultats que nous voulons.



Dans la même rubrique :