
Il existe un dilemme moral et algorithmique que les constructeurs automobiles devront résoudre.
Aux États-Unis, les voitures sans chauffeurs comme la fameuse Google Car commencent à envahir les rues. De nombreux États (Virginie, Floride, Michigan, Nevada, District de Columbia) ont légalisé la circulation de ces voitures un peu spéciales, leur permettant de prendre progressivement leurs marques dans notre quotidien.
Dès lors, de nombreuses questions se posent. Par exemple, beaucoup craignent que les voitures autonomes ne créent des accidents, mais les statistiques disponibles montrent que les rares accidents les impliquant ne relevaient pas de leur responsabilité. D’ailleurs, c’est tout le but de ces véhicules : pallier les erreurs de conduite de l’homme. En revanche, une autre question risque de faire des remouds : la voiture autonome doit-elle être programmée pour tuer ?
La question peut sembler provocatrice et sa réponse évidente. Mais il y aura forcément des situations, lors d’une balade en ville par exemple, où la voiture autonome devra faire des choix qui pourront impliquer la mort d’un humain. La MIT Technology Review s’est penchée sur ce qu’elle appelle un « dilemme éthique et impossible de moralité algorithmique ». « Comment la voiture devra-t-elle être programmée pour agir en cas d’accident inévitable ? Devra-t-elle minimiser la perte de vie, même si cela signifie sacrifier les occupants, ou devra-t-elle protéger les occupants à tout prix ? Devra-t-elle choisir entre de telles extrémités ? » Voilà des questions qui alimenteront les débats chez le débat public pendant les mois et les années qui viennent. (...)
La réflexion ne fait que commencer autour de cet « algorithme moral » mais, comme l’explique le spécialiste, « étant donné que nous sommes sur le point de nous doter de millions de véhicules autonomes, prendre la moralité algorithmique au sérieux n’a jamais été aussi urgent ».