De quelle morale les machines intelligentes ont-elles et ont-elles besoin ?

Parfois, ce sont surtout les questions, et moins les réponses, qui montrent clairement que le monde est en train de changer. C'est le cas par exemple des questions sur les conséquences morales lorsque les machines et les ordinateurs deviennent plus intelligents. Un groupe d'étudiants de l'ETH s'est penché sur cette thématique.

Vue agrandie : Lisa Schurrer et Naveen Shamsudhin s'engagent dans le projet d'étudiants "Robotique et philosophie". (Collage : Florian Meyer, Josef Kuster / ETH Zurich)
Lisa Schurrer et Naveen Shamsudhin s'engagent dans le projet d'étudiants "Robotique et philosophie". (Collage : Florian Meyer, Josef Kuster / ETH Zurich)

En fait, il est clair que les robots sont des machines et non des êtres humains. Ils sont construits entre autres pour décharger l'homme du travail purement mécanique ou répétitif. Leur intelligence n'est pas naturelle, mais commandée par des programmes informatiques.

Suite aux progrès de l'intelligence artificielle, de l'apprentissage automatique et des algorithmes d'auto-apprentissage, les possibilités d'utilisation des machines s'élargissent toutefois. Dans l'industrie ou même dans les laboratoires de recherche de l'ETH Zurich, des robots intelligents sont aujourd'hui développés et utilisés dans les domaines du transport, de la santé et de la production. En outre, des offres de robots de sécurité, de soins ou de service sont déjà disponibles sur le marché (cf. "page externe10vor10" du 21 mars 2017). A cela s'ajoutent des applications moins évidentes de l'intelligence artificielle, comme par exemple celles pour la finance et le commerce, les réseaux sociaux et la publicité numérique.

Différents instituts, laboratoires et spin-offs de l'ETH Zurich participent au développement de robots autonomes et font de Zurich, selon la NZZ, " une ville où il fait bon vivre ".page externeLa capitale des robots".

Quelle est la qualité des décisions prises par une machine ?

Même si, à l'heure actuelle, les machines intelligentes ne peuvent pas surpasser l'homme en termes de pensée et qu'elles se chargent surtout de t?ches routinières, leur apparition suscite des questions. Si les machines artificielles "apprennent" et "décident", que se passe-t-il si leurs actions et leurs décisions ne sont pas "bonnes" selon l'appréciation humaine ? Qui est alors responsable d'elles ? Qui est responsable si elles causent des dommages ?

Ces questions morales et juridiques sont évidentes dans le cas des véhicules autoguidés et des robots de guerre (cf. page externeTages-Anzeiger du 20 mars 2017). Qui décide si un système d'armes intelligent doit tirer ou non ? Un système d'armes fait-il la différence entre une situation de combat et une pause dans le combat, entre des soldats étrangers et des civils ? Comment une voiture autoguidée décide-t-elle si un enfant saute soudainement sur la route, l'évitant mais mettant en danger un groupe de personnes plus important ? Il n'existe pas encore d'armes et de voitures entièrement autonomes, mais d'autres questions se posent : qui est par exemple responsable des erreurs dans les grandes organisations ou dans les réseaux complexes où les hommes et les machines sont à l'?uvre ?

Toujours un humain, disent les uns. Il faut créer un statut juridique supplémentaire pour les "personnes numériques" dans de tels cas, disent les autres. Faut-il d'ailleurs agir sur le plan législatif ou plut?t sur le plan fiscal ? Par exemple, taxer la valeur ajoutée générée par les robots, notamment lorsque des personnes perdent leur emploi à cause d'eux ?

Ce sont des questions qui, jusqu'à récemment, semblaient réservées à la science-fiction. Récemment, cependant, des revues renommées comme "page externeNature", "page externeThe Economist", "page externeFortune" ou "page externeheise en ligne" les questions de savoir à quel point les machines doivent être morales ou quelle éthique est nécessaire pour l'intelligence artificielle sont devenues des sujets de discussion importants. Elles gagnent également en importance sur le plan politique, comme le montrent par exemple des interventions parlementaires en Suisse et en Allemagne. page externeen Europe montrant, l'européenne page externeRésolution comprend à la fois des aspects légaux pour la robotique et un code de conduite éthique pour les ingénieurs en robotique.

La robotique - un sujet d'éthique

L'ETH Zurich conna?t également - par exemple dans la formation - des formats dans lesquels l'activité scientifique est réfléchie : par exemple les "Initiative de "pensée critique et les "Semaine de Cortona" ou encore le master "histoire et philosophie des sciences". C'est dans ce contexte que des étudiants de l'ETH et des doctorants en sciences humaines, en ingénierie et en informatique se sont réunis pour lancer le projet "page externeRobotique et philosophie" a vu le jour. En février, elles ont organisé un atelier consacré à l'impact moral des machines intelligentes et des robots. Des connaisseuses de l'éthique de l'intelligence artificielle étaient invitées, comme la spécialiste des sciences cognitives et "page externeComprendre les robots" Joanna Bryson, le philosophe de la technique Peter Asaro et l'historienne des idées de l'ETH Vanessa Rampton. Lisa Schurrer et Naveen Shamsudhin font partie de ce groupe d'éthique robotique.

Elargir le regard

Naveen Shamsudhin vient de terminer ses études de doctorat au Multi-Scale Robotics Lab. Sa thèse de doctorat porte sur des instruments pilotés par des microrobots, qui permettent d'étudier la mécanique de la croissance des plantes. En 2009, il est venu à l'ETH Zurich en tant que titulaire d'une bourse de la Confédération (ESKAS) et y a effectué un master en micro- et nanosystèmes à l'Automatic Control Laboratory.

" Le développement technologique est un défi et, en tant que développeurs, nous nous identifions très fortement à notre travail ", déclare Shamsudhin, " mais parfois, ou à mon avis de manière inquiétante, on perd facilement une perspective plus globale et on ne réfléchit pas suffisamment au pourquoi et au pour qui la technologie est développée."La diffusion des nouvelles technologies dans la société peut certes résoudre certains de ses problèmes, mais elle peut aussi en provoquer de nouveaux ou conduire à de nouvelles inégalités, dit-il. Il est donc très important de participer à des projets transdisciplinaires afin d'élargir le point de vue professionnel.

Lisa Schurrer, étudiante du master en "histoire et philosophie des sciences", apprécie elle aussi les échanges avec les ingénieurs et les informaticiens. "Pour les philosophes, la discussion avec les ingénieurs est une vérification de la réalité, à savoir dans quelle mesure certaines hypothèses théoriques sont réalistes et ce qui est techniquement réalisable". Elle trouve important que la réflexion éthique n'ait pas lieu à la fin d'un processus de développement, mais dès le début, dans la phase de conception.

La traduction des principes éthiques dans les langages de programmation ne sera pas tout à fait simple : après tout, les personnes en formation ma?trisent surtout les situations de routine. Mais le comportement éthique ne se résume pas au simple respect des règles. Les êtres humains ont également une sorte de sens moral pour savoir ce qu'ils doivent ou ne doivent pas faire dans une situation donnée, éventuellement inhabituelle. La question de savoir si les robots et les ordinateurs développeront un jour un sens moral comparable en fonction de la situation est une question très ouverte et également discutable sur le plan éthique - car même les robots "compatissants" collecteraient des données qui pourraient porter atteinte à la sphère privée.

En regardant la vidéo, vous acceptez la déclaration de confidentialité de YouTube.En savoir plus OK
Peter Asaro parle de "Robot Ethics as a Design Problem". (Vidéo : roboethics.ch)

page externeIci il y a d'autres vidéos de l'atelier sur l'éthique des robots.

"La Suisse va-t-elle se retrouver au ch?mage ?"

Les robots nous prendront-ils bient?t tous nos emplois ou travaillerons-nous de manière plus flexible, plus connectée et peut-être moins longtemps ? C'est ce dont nous discuterons le jeudi 30 mars 2017 à 19h30 lors d'une Table ronde de la série " Treffpunkt Science City " à l'auditorium du b?timent principal de l'ETH :

  • Rolf Sonderegger, CEO du groupe Kistler, leader mondial de la métrologie dynamique
  • Vania Alleva, présidente du plus grand syndicat suisse Unia
  • Detlef Günther, Vice-président pour la recherche et les relations économiques de l'EPFZ
  • Georges T. Roos, futurologue et auteur de nombreuses études.
JavaScript a été désactivé sur votre navigateur.