Decideo - Actualités sur le Big Data, Business Intelligence, Data Science

Abonnez-vous gratuitement à Decideo !


Decideo

 


Salesforce dévoile ses 5 principes pour le développement responsable de l’intelligence artificielle et de l’IA générative


Rédigé par Communiqué de Salesforce le 1 Août 2023

Favorable à une régulation de l’intelligence artificielle, Salesforce souhaite réaffirmer son engagement pour développer une IA éthique, responsable et basée sur la confiance et l’innovation.



A l’heure où l’adoption de l’intelligence artificielle générative constitue un défi technologique majeur pour les entreprises, Salesforce, le leader mondial des solutions de gestion de la relation client (CRM), publie ses cinq principes pour le développement responsable de cette nouvelle technologie.

A mesure que les entreprises accélèrent leur développement et gagnent en productivité grâce à l’intelligence artificielle, elles doivent placer la notion de confiance au coeur de leurs priorités. A ce titre, Salesforce publie ses lignes directrices en réponse aux risques posés par l’intelligence artificielle et l’IA générative en particulier, qu’il s’agisse des biais, de la confidentialité, de la sécurité ou encore de l’exactitude du contenu généré.

Salesforce est favorable à une régulation de l’intelligence artificielle adaptée à ses différents usages et proportionnée aux risques potentiels liés à son utilisation. Pour Salesforce, cette régulation doit pouvoir garantir la protection des utilisateurs, favoriser la confiance et encourager l’innovation autour de cette technologie.

Rendre l’IA accessible, éthique et digne de confiance

Salesforce promeut un développement responsable de l’intelligence artificielle pour tous les cas d’usage : du chatbot basé sur l’IA aisément réalisable, à des outils de diagnostics médicaux complexes qui nécessitent une supervision accrue. La priorité consiste donc à réguler la technologie de manière adaptée. Un modèle de régulation unique pourrait en effet freiner l’innovation, créer une concurrence déloyale et retarder le déploiement de nouvelles technologies de pointe.

Salesforce soutient une régulation équilibrée qui puisse aider la société à bien aborder le virage de l’intelligence artificielle. Elle s’appuie sur les concepts suivants :

Une approche fondée sur les risques : cette approche doit prendre en compte le contexte dans lequel ces technologies sont utilisées. Dans certains secteurs comme celui de la santé, elles sont davantage susceptibles de présenter des risques élevés pour les populations et la société dans son ensemble. A ce titre, une régulation de l’IA basée sur les risques devrait avant tout se focaliser sur les cas d’usages à haut risque, en particulier ceux dont les implications juridiques, financières et éthiques pourraient être à l’origine de préjudices importants, ou remettre en question les droits et les libertés des individus.
Des adaptations selon le contexte, le type de contrôle et l’utilisation qui en est faite : les réglementations doivent tenir compte du contexte, du contrôle et des usages des technologies et mettre en place des dispositifs de protection adéquats. Par exemple, les développeurs d’IA génératives doivent être responsables de l’entraînement des modèles et des jeux de données utilisés. De leur côté, les équipes en charge du déploiement de ces technologies décident de la manière dont l’outil sera utilisé, et doivent donc être responsables de la mise en place des règles qui régiront les interactions avec l’IA.
Des lois sur la confidentialité des données : la mise en place de réglementations sur la protection des données protégeant le droit fondamental à la vie privée est la base d’une régulation responsable de l’IA. L’IA s’appuyant sur les données, les nouvelles réglementations spécifiques à l’IA générative doivent donc permettre de régir l’utilisation et la confidentialité des informations destinées à l’entraînement de futurs modèles, par souci de protection des données personnelles.
De la transparence : les systèmes basés sur l’intelligence artificielle peuvent fonctionner comme des boîtes noires, ce qui complique l’analyse de leurs processus de prise de décisions. Les individus doivent pouvoir en être informés, comprendre le raisonnement effectué derrière toute recommandation fournie et savoir s’ils interagissent avec un être humain ou un personnage virtuel.
Un contrôle et une responsabilité des pouvoirs publics : mener des évaluations sur l’impact de l’IA est une manière de promouvoir la responsabilité et la confiance vis-à-vis des systèmes d’IA présentant des risques élevés. Les autorisations ou déclarations d’utilisation peuvent jouer un rôle important en matière de conformité, mais elles doivent être mises en place en fonction du niveau effectif des risques encourus. Elles doivent par ailleurs promouvoir un équilibre entre conformité, accès au marché, concurrence et innovation.
Une harmonisation avec les réglementations existantes : plusieurs lois et politiques mises en oeuvre offrent déjà des garde-fous quant à l’utilisation de l’IA, à l’image des différents règlements mis en place à l’échelle mondiale sur la protection des données personnelles. Les législateurs et autres parties prenantes qui veulent définir de nouvelles normes réglementaires doivent donc évaluer les textes existants pour vérifier s’ils ne répondent pas déjà à certaines de leurs préoccupations.
Des réglementations universelles et durables : compte tenu du développement rapide des technologies d’intelligence artificielle, les différentes réglementations relatives à l’IA doivent être à la fois compatibles à l’échelle mondiale, durables, et évolutives. Elles doivent offrir un cadre éthique pour le développement et le déploiement de systèmes d’intelligence artificielle, et non se focaliser sur une technologie spécifique à un moment donné.
Une coopération indispensable entre les pouvoirs publics, les acteurs économiques, le monde académique et la société civile

Salesforce s’engage de manière proactive à collaborer avec les pouvoirs publics et toutes les autres parties prenantes pour promouvoir des normes responsables, basées sur les risques et applicables à l’échelle mondiale :

Salesforce soutient la collaboration entre acteurs publics et privés, à l’image des travaux du G7 et des activités menées de longue date par l’Organisation de coopération et de développement économiques (OCDE).
Au sein de l’Union européenne, Salesforce reconnaît les progrès réalisés avec l’adoption de l’AI Act par le Parlement Européen en juin dernier et soutient l’adoption d’une approche basée sur les risques dans le texte définitif.
Salesforce s’engage également à bâtir des systèmes d’IA fiables, transparents et responsables, axés sur l’équité, l’exactitude, la confidentialité des données, ainsi que sur leur impact positif pour la société. Enfin, l’entreprise réitère également ses engagements au fur et à mesure que la technologie continuera d’évoluer.




Nouveau commentaire :
Twitter

Vous pouvez commenter ou apporter un complément d’information à tous les articles de ce site. Les commentaires sont libres et ouverts à tous. Néanmoins, nous nous réservons le droit de supprimer, sans explication ni préavis, tout commentaire qui ne serait pas conforme à nos règles internes de fonctionnement, c'est-à-dire tout commentaire diffamatoire ou sans rapport avec le sujet de l’article. Par ailleurs, les commentaires anonymes sont systématiquement supprimés s’ils sont trop négatifs ou trop positifs. Ayez des opinions, partagez les avec les autres, mais assumez les ! Merci d’avance. Merci de noter également que les commentaires ne sont pas automatiquement envoyés aux rédacteurs de chaque article. Si vous souhaitez poser une question au rédacteur d'un article, contactez-le directement, n'utilisez pas les commentaires.


Twitter
Rss
LinkedIn
Facebook
Apple Podcast
App Store
Google Play Store