« Désormais, face aux avancées de l’intelligence artificielle, l’avis des philosophes compte »

0


Martin Gibert, à Montréal, le 19 mai 2020.

Martin Gibert est philosophe et chercheur à l’université de Montréal, affilié au Centre de recherche en éthique et à l’Institut de valorisation des données. En 2015, il appliquait les théories morales classiques au véganisme dans Voir son steak comme un animal mort (Lux Editeur). Il vient de faire de même, sur le terrain plus artificiel des robots, machines et autres algorithmes, dans Faire la morale aux robots (Flammarion, 168 p., 17 €).

Pourquoi un philosophe s’occupe-t-il des dispositifs d’intelligence artificielle (IA) tels que les voitures autonomes, les chatbots ou les systèmes de recommandation en ligne ?

Le moment est vraiment passionnant pour un philosophe car nous pouvons nous poser sur ces dispositifs des questions à la fois inédites et très fondamentales. Et, en plus, c’est très concret, avec des applications immédiates et urgentes. Prenons le cas célèbre du dilemme du tramway, posé par Philippa Foot en 1967 : actionne-t-on un aiguillage pour éviter que le véhicule percute cinq travailleurs si, sur l’autre voie, se trouve une seule personne ?

Jusqu’aux avancées récentes de l’IA, il faut bien dire que les philosophes réfléchissaient aux réponses, mais leurs réponses ne prêtaient pas à conséquence. Désormais, leur avis compte. Nous devons dire quelque chose aux programmeurs dont les algorithmes feront le choix fatal ! L’IA nous oblige à prendre des décisions sur ce qui est bien ou mal, et ce n’est plus une simple expérience de pensée.

C’est ce que vous appelez faire la morale aux algorithmes ?

Pour y voir clair sur ce qu’il s’agit de faire, il faut ordonner un peu différents domaines en éthique appliquée. Par ordre de généralité, on a d’abord l’éthique de la technique, dans laquelle on va mettre aussi bien les tournevis que les centrales nucléaires. A un deuxième niveau, l’éthique de l’IA pose des questions comme l’impact de ces systèmes sur la société ou l’environnement, ou encore sur d’éventuels droits des robots.

L’éthique des algorithmes qui m’intéresse dans le livre se situe à un troisième niveau, plus spécifique. Comment programmer une machine, un algorithme, un agent moral artificiel pour qu’il se comporte « bien » ? Cela oblige à rentrer dans les détails et, bien sûr, cela n’empêche pas de s’interroger sur l’échelon supérieur : collectivement, a-t-on vraiment besoin de tel ou tel robot ?

C’est d’autant plus intéressant et nécessaire que les algorithmes ont des effets sur la vie des gens. Dans le cas d’une voiture autonome confrontée au dilemme du tramway, c’est évident, mais ce seront des décisions très rares à prendre. En revanche, un algorithme de recommandations de YouTube ou Facebook peut avoir des conséquences massives sur la circulation des informations. Plus on développe de nouveaux pouvoirs, plus on a de responsabilité morale. Même derrière un chatbot, il y a des enjeux moraux sérieux.

Il vous reste 70% de cet article à lire. La suite est réservée aux abonnés.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.