Decideo - Actualités sur le Big Data, Business Intelligence, Data Science

Abonnez-vous gratuitement à Decideo !


Decideo

 


Les organisations doivent faire preuve d'initiative en matière d'éthique de l'intelligence artificielle pour fidéliser et gagner la confiance du consommateur


Rédigé par Communiqué de Capgemini le 5 Juillet 2019

Consommateurs, employés et citoyens privilégieront les organisations qui démontrent de façon proactive que leurs systèmes IA sont éthiques, équitables et transparents.



Selon une nouvelle étude du Capgemini Research Institute, une charte éthique encadrant l’utilisation de l’IA est devenue indispensable pour gagner la confiance du consommateur. Alors que les organisations se tournent de plus en plus vers l’IA pour en exploiter le potentiel, clients, employés et citoyens les observent de près, résolus à récompenser ou sanctionner leurs comportements. Les personnes interrogées ont affirmé qu’elles seraient davantage disposées à acheter les produits et faire la promotion des organisations dont l’utilisation de l’IA est jugée éthique.
L’étude « Why addressing ethical questions in AI will benefit organizations » a été menée auprès de 1 580 dirigeants de grandes entreprises dans dix pays et auprès de plus de 4 400 consommateurs dans six pays. En voici les principales conclusions :
Les entreprises qui utilisent l’IA de façon éthique seront récompensées : Parmi les consommateurs interrogés, 62% feraient davantage confiance à une entreprise dont l’utilisation de l’IA est considérée éthique, 61% parleraient de leurs expériences positives à leurs proches, 59% seraient plus fidèles à l’égard de l’entreprise et 55% achèteraient plus de produits, attribueraient de meilleures notes et publieraient des commentaires positifs sur les réseaux sociaux. En revanche, lorsque l’utilisation de l’IA dans les interactions avec les consommateurs entraînent des problèmes d’ordre éthique, la réputation de l’entreprise ainsi que son chiffre d’affaires sont menacés. Dans le cas où une interaction avec l’IA engendrerait des problèmes éthiques, 41% des personnes interrogées se plaindraient auprès de l’entreprise, 36% lui demanderaient de se justifier et 34% cesseraient d’interagir avec elle.
Des problèmes éthiques engendrés par des systèmes IA ont été constatés : Parmi les organisations interrogées, 9 dirigeants sur 10 estiment que des problèmes d’ordre éthique ont résulté de l’utilisation de l’IA au cours des 2 ou 3 dernières années. Pour illustration : dans le domaine médical, la collecte de données personnelles de patients sans leur accord, ou, dans les secteurs de la banque et de l’assurance, un recours trop systématique aux décisions proposées par une machine et sans arbitrage préalable. Pour expliquer ces problèmes, les dirigeants citent notamment la pression pour déployer en urgence l’IA, la prise en compte insuffisante de l’aspect éthique lors de l’élaboration des systèmes IA et un manque de ressources dédiées aux questions éthiques lors de la mise en place des systèmes IA.
Consommateurs, employés et citoyens se disent inquiets vis-à-vis des questions éthiques liées à l’IA et demandent une certaine forme de réglementation : Près de la moitié des personnes interrogées (47%) estiment qu’elles ont vécu au moins deux cas d’utilisation de l’IA ayant entraîné des problèmes d’ordre éthique au cours des 2 ou 3 dernières années. La plupart d’entre elles (75%) déclarent qu’elles souhaitent plus de transparence lorsqu’un service est géré par l’IA, et qu’elles veulent savoir si l’IA les traite de façon équitable (73%). Plus des trois quarts des consommateurs (76%) pensent que la réglementation devrait être renforcée pour encadrer la façon dont les entreprises utilisent l’IA.
Les organisations commencent à prendre conscience de l'importance d’une IA éthique : 51 % des dirigeants considèrent qu'il est important de veiller à ce que les systèmes d'IA soient éthiques et transparents. Les organisations prennent également des mesures concrètes lorsque des questions d'éthique sont soulevées. L’étude révèle que 41 % des dirigeants interrogés déclarent avoir complètement arrêté un système d'IA lorsque celui-ci soulevait une question d'éthique.
« De nombreuses organisations sont arrivées à la croisée des chemins en termes d’utilisation de l’IA. Consommateurs, employés et citoyens sont de plus en plus disposés à interagir avec la technologie, mais ils sont conscients des problèmes éthiques potentiels. Cette étude montre qu’il est nécessaire de créer un cadre et des pratiques éthiques pour l’utilisation de l’IA afin de gagner la confiance du public. Ce n’est pas qu’une question de conformité : cela peut devenir un véritable avantage en termes de fidélité et d’adhésion », explique Anne-Laure Thieullent, responsable de l’offre AI and Analytics du groupe Capgemini. « Pour y parvenir, les organisations doivent se concentrer sur la mise en place des bonnes structures de gouvernance ; elles doivent non seulement établir un code de conduite basé sur leurs valeurs mais aussi adopter une approche « ethics-by-design » et surtout, se concentrer sur l’information et la responsabilisation de chacun dans la manière d’interagir avec les solutions IA ».
Les organisations doivent privilégier une stratégie IA éthique : Afin de répondre aux préoccupations des consommateurs et accroître leur confiance vis-à-vis de l’utilisation éthique de l’IA, les organisations doivent adopter une approche ciblée pour adapter les systèmes. Capgemini recommande une approche en trois volets qui englobe toutes les parties prenantes.
1) Pour les dirigeants, chefs d'entreprise et tous ceux qui ont un devoir de confiance et d'éthique : Établir une base solide avec une stratégie et un code de conduite pour une IA éthique ; élaborer des politiques qui définissent les pratiques acceptables pour les employés et les applications d'IA ; créer des structures de gouvernance de l'éthique et assurer la responsabilité des systèmes d'IA ; et constituer des équipes diversifiées pour assurer la sensibilité à l'ensemble des questions éthiques.
2) Pour les équipes en contact avec les clients et les employés, telles les RH, le marketing, la communication et le service client : Assurer l'utilisation éthique des applications IA ; éduquer et informer les utilisateurs afin qu'ils aient confiance dans les systèmes IA ; donner aux utilisateurs plus de contrôle et la possibilité d'exercer des recours ; et communiquer de façon proactive sur les questions d'IA en interne et à l'externe afin de renforcer la confiance.
3) Pour les responsables de l'intelligence artificielle, des données et de l'informatique et leurs équipes : Chercher à rendre les systèmes IA aussi transparents et compréhensibles que possible pour gagner la confiance des utilisateurs ; pratiquer une bonne gestion des données et atténuer les mauvaises interprétations potentielles des données ; surveillance continue pour garantir la précision et l'exactitude ; et utiliser les outils technologiques qui permettent d’intégrer l’éthique dans les systèmes IA.
Luciano Floridi, directeur du Digital Ethics Labs de l’Oxford Internet Institute, ajoute : « La méthode classique pour gagner la confiance, avec des interactions IA en particulier, peut se résumer en trois mots : transparence, responsabilité et responsabilisation. La transparence consiste à permettre aux gens de voir ce que vous faites, la responsabilité signifie que vous êtes responsable de ce que vous faites, et la responsabilisation correspond au devoir que les autres ont de vous alerter si vous avez agi de façon inappropriée ou incorrecte. »

Méthodologie
L’étude a été réalisée auprès de plus de 1 580 dirigeants de grandes entreprises (dont le chiffre d’affaires annuel est supérieur à 1 milliard de dollars) dans 10 pays (Chine, France, Allemagne, Inde, Italie, Pays-Bas, Espagne, Suède, Royaume-Uni et Etats-Unis) et occupant trois types de fonctions: direction générale/stratégie/communication d’entreprise, informatique/data science/analytique et RH/marketing. En parallèle, une enquête a été réalisée auprès de 4 400 consommateurs de six pays (Etats-Unis, Chine, Royaume-Uni, France, Allemagne, Pays-Bas) ayant tous eu une interaction avec l’IA par le passé et donc une première approche des questions d’éthique, de confiance et de transparence liées à l’IA. Le Capgemini Research Institute a également organisé des entretiens approfondis avec plus de 20 universitaires, experts et entrepreneurs du secteur.




Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store