Effectivement, comme le dit Sphax, ce problème est un problème très théorique. Dans la réalité, les probabilités sont ne seront jamais de 100%, mais on peut avoir des probas du type 98,2% de chances de le piéton meure et 97,9% que le passager meure. Dans ce cas, le problème se pose quand même car la différence n'est pas assez flagrante. Mais même sans cela, ce problème a le mérite de poser des questions sur ce qui fait la valeur d'une vie, est-elle différente selon les personnes ou circonstances, peut-on la quantifier, qui peut prendre une décision dès lors qu'une ou plusieurs vies sont en jeu...
D'ailleurs, cette histoire de probabilité de survie me fait penser au film A.I. où dedans (attention spoiler) il me semble que le héros hait les robots car un robot a choisi de le sauver au lieu de sauver une petite fille, estimant qu'il avait plus de chance de survivre qu'elle. Au final, on n'est pas loin de ce genre de cas...
On peut alors se poser la question des facteurs que la voiture doit prendre en compte pour prendre sa décision : les issues possibles, le nombre de personnes impliquées , la robustesse des individus pris dans l'accident et leur chance de survie, j'aime bien aussi l'idée de Sphax sur les éclats et autres dégâts collatéraux induit par l'accident...
Après je remarque que certains, vous évoquez la culpabilité d'avoir tué quelqu'un si le choix est le second. Or, dans le cas d'une voiture autonome, vous n'êtes responsable de rien. Et c'est bien là l'autre différence majeure avec des problèmes similaires tels que celui de l'homme obèse (
http://fr.wikipedia.org/wiki/Dilemme_du ... ob.C3.A8se)
Dans le cas de l'homme obèse, celui a qui on pose le dilemme doit intervenir pour pousser ou non l'homme. C'est donc lui qui prend la responsabilité d'assassiner cet homme pour en sauver cinq autres. Dans le cas de la voiture autonome, les personnes au cœur du dilemme n'ont pas de responsabilité à prendre : la voiture a été programmée comme cela.
Ça pose donc une autre question éthique qui est celle de la responsabilité, qui n'est légèrement HS par rapport au dilemme du choix, mais qui intervient également à mon avis dans le choix que l'on fait.
Pour répondre à sanders et romu, je pense également que ces voitures seraient un immense gain de liberté pour les personnes qui sont dans l'incapacité de conduire et qu'elles réduiraient le nombre d'accidents. Néanmoins, je suis mitigée quand à la démocratisation de ces véhicules. Tout d'abord cela plongerait l'Homme un peu plus dans un état "végétatif", de type "je me laisse servir par un robot, je ne prends aucune responsabilité"... Mais, comme déjà dit, le taux d'erreur sera (je l'affirme car j'en suis convaincue) bien inférieur à celui d'un humain. Quoi qu'on en dise, si un ordinateur sait faire un tâche, il la fera toujours mieux et plus vite qu'un humain. La plus grosse difficulté étant le "si il sait le faire", et ça c'est loin d'être gagné.
@Dunkleosteus : j'avoue ne pas très bien comprendre ta réponse...
Never tell a young person that anything cannot be done. God may have been waiting centuries for someone ignorant enough of the impossible to do that very thing.
- John Andrew Holmes -