La "machine morale" développée par le MIT et mise en ligne ici vous permet de prendre un instant la place des développeurs de logiciels pour voitures autonomes.
Une fois qu'elles seront autonomes, les véhicules automobiles devront prendre des décisions à notre place. Lorsque tout se passe bien, et que toutes les fonctions sont sous contrôle, aucun problème... mais un incident imprévu peut survenir, un problème mécanique sur les freins, un piéton imprévu qui ne respecte pas la signalisation, etc.
Comment la voiture doit-elle réagir lorsqu'elle est confrontée à un incident de ce type ? Le logiciel doit prendre des décisions, dont certaines se traduiront par la mort d'une ou plusieurs personnes. Comment le logiciel doit-il alors prendre ces décisions ? Sur quels critères ?
Nous avons chacun nos critères de moralité. Certains chercheront l'égalité parfaite, donnant la même chance de survie à une femme enceinte et à un sans domicile fixe. D'autres introduiront des biais dans leur jugement, l'âge, le sexe, le niveau social, etc.
Le MIT a voulu savoir comment vous, nous, réagissons aujourd'hui face à ces situations critiques.
Allez jouer avec le questionnaire, répondez honnêtement en fonction des situations, et comparez ensuite votre perception morale face à celle de l'ensemble des répondants.
Et n'oubliez pas que, si c'est un jeu aujourd'hui pour vous, c'est un sujet bien réel chez les développeurs de logiciels d'aide à la décision pour voitures autonomes. Et personnellement, je n'aimerais pas être à leur place, et devoir aujourd'hui prendre ce genre de décisions.
Une fois qu'elles seront autonomes, les véhicules automobiles devront prendre des décisions à notre place. Lorsque tout se passe bien, et que toutes les fonctions sont sous contrôle, aucun problème... mais un incident imprévu peut survenir, un problème mécanique sur les freins, un piéton imprévu qui ne respecte pas la signalisation, etc.
Comment la voiture doit-elle réagir lorsqu'elle est confrontée à un incident de ce type ? Le logiciel doit prendre des décisions, dont certaines se traduiront par la mort d'une ou plusieurs personnes. Comment le logiciel doit-il alors prendre ces décisions ? Sur quels critères ?
Nous avons chacun nos critères de moralité. Certains chercheront l'égalité parfaite, donnant la même chance de survie à une femme enceinte et à un sans domicile fixe. D'autres introduiront des biais dans leur jugement, l'âge, le sexe, le niveau social, etc.
Le MIT a voulu savoir comment vous, nous, réagissons aujourd'hui face à ces situations critiques.
Allez jouer avec le questionnaire, répondez honnêtement en fonction des situations, et comparez ensuite votre perception morale face à celle de l'ensemble des répondants.
Et n'oubliez pas que, si c'est un jeu aujourd'hui pour vous, c'est un sujet bien réel chez les développeurs de logiciels d'aide à la décision pour voitures autonomes. Et personnellement, je n'aimerais pas être à leur place, et devoir aujourd'hui prendre ce genre de décisions.
Autres articles
-
AAA DATA complète son offre analytique à destination des entreprises et permet aux marques automobiles de savoir quelles entreprises vont agrandir leur flotte dans les six et douze prochains mois ?
-
Test de conduite : T-Systems dévoile sa solution logicielle pour l’analyse des données
-
EMC et Amiral Technologies boostent la maintenance prédictive dans l’automobile
-
La voiture connectée : un data center à quatre-roues
-
L’intelligence artificielle pourrait permettre aux entreprises d’augmenter significativement leurs effectifs, selon une étude d’Accenture