Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

Un robot peut-il "faire le bien" ?

par jlduret 23 Septembre 2014, 18:37 robot

Un robot peut-il "faire le bien" ?

«Peut-on apprendre à un robot à faire le bien?»

se demande New Scientist.

Alan Winfield, chercheur au laboratoire robotique de Bristol (dans le sud-ouest de l'Angleterre) était persuadé du contraire, jusqu'à ce qu'il tente une expérience.

Il a programmé un robot pour qu'il empêche d'autres robots agissant comme des humains de tomber dans un trou.

Le robot a tout d'abord réussi sa tâche lorsqu'il n'y avait qu'un seul «humain». Lorsqu'un second a été ajouté, le robot n'en a parfois sauvé qu'un, parfois les deux, mais presque la moitié du temps il a été si long à prendre une décision que les deux sont tombés dans le trou.

Comment un robot peut-il être tiraillé par des considérations éthiques?

Ronald Arkin, chercheur en informatique à la Georgia Tech d'Atlanta, a inventé des algorithmes pour aider les robots militaires à prendre des décisions raisonnées sur les champs de bataille.

Selon New Scientist, son programme permettrait notamment à des drones de décider de tirer ou non afin de minimiser les pertes civiles.

«Nous avons établi une proposition sur la façon de créer un robot éthique, explique Alan Winfield, nous ne prétendons pas avoir de réponse finale. Nous avons commencé à partager notre travail avec d'autres chercheurs –mais il ne s'agit que d'une première exploration.»

Pour l'instant, ces robots ne sont pas (encore?) dotés de libre arbitre

Mais si les recherches se poursuivent dans cette voie, leurs champs d'applications sont inépuisables.

Le même type de réflexions se posent pour les voitures autonomes.

Comme nous le rapportions en mai, si la voiture autonome est programmée pour que des accidents de la route causent le moins de morts possible, il est probable que vous soyez victime de votre propre véhicule.

Les algorithmes d'optimisation d'accident (et globalement de prise de décision) posent un problème éthique.

Pour prendre l'exemple des voitures, personne (ou presque) n'aurait tendance à se suicider pour éviter l'accident.

D'ailleurs, rares sont ceux qui ont le temps de réfléchir au lieu ou à la personne qu'ils iront percuter. Encore moins à calculer le nombre de morts qu'il y aura dans l'accident.

Patrick Lin, le directeur du département d’éthique et de sciences émergentes à l’université polytechnique de Californie, s'insurgeait dans Wired contre ce type d'algorithmes.

«L’une des raisons principales à la création des voitures autonomes est qu’elles devaient être capables de prendre des meilleurs décisions que nous.»

Mais, finalement, il se demandait si la meilleure solution n'était une décision aléatoire, imitant davantage la décision humaine.

commentaires

Haut de page