Aller au contenu principal
Menu du compte de l'utilisateur
    S’abonner Boutique Newsletters Se connecter
Navigation principale
  • Le fil
  • Archives
  • En kiosque
  • Dossiers
  • Philosophes
  • Lexique
  • Citations
  • EXPRESSO
  • Agenda
  • Masterclass
  • Bac philo
 Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
rechercher
Rechercher

© iStockphoto

Critique

Quelle morale pour les algorithmes ?

Apolline Guillot publié le 13 avril 2021 4 min

Dans Faire la morale aux robots. Une introduction à l’éthique des algorithmes (Flammarion, 2021), le chercheur en éthique de l’intelligence artificielle Martin Gibert propose d’appliquer aux algorithmes une éthique des vertus, qui s’appuie sur des qualités comme l’humilité, le courage ou la magnanimité. Mais peut-on faire que nos robots ressemblent à Jésus ou à Gandhi ? Pas évident.

 

  • L’essai de Martin Gibert commence par délimiter son objet de travail, à savoir : l’éthique des algorithmes appliqués à l’intelligence artificielle. L’éthique des algorithmes, telle que la propose l’auteur, s’intéresse à ce qui fait que les algorithmes – et leurs programmateurs – prennent certaines décisions plutôt que d’autres. En apparence, rien de fondamentalement moral dans un algorithme : après tout, ce n’est qu’une suite d’instructions explicitant la marche à suivre pour réaliser une action. Une recette de cuisine, par exemple, est un type d’algorithme que nous suivons sans nous poser trop de questions éthiques.
  • Les choses se corsent lorsqu’on confie à un algorithme autonome ou semi-autonome une tâche qui a des conséquences sur l’existence d’êtres humains. On parle alors d’agents moraux artificiels. L’algorithme n’a pas en lui-même la liberté d’être moral ou immoral, puisqu’il n’est qu’une succession d’états non ambigus. Mais les personnes qui conçoivent l’algorithme, elles, obéissent, consciemment ou inconsciemment, à un certain nombre de normes morales ! Et là est tout le problème : au quotidien, nous explicitons rarement les normes qui régissent nos comportements.
  • La norme la plus simple à expliciter est la norme conventionnelle : dans certaines situations codifiées, nous respectons des règles que l’on n’a pas inventées, par exemple le jeu d’échecs ou les bonnes manières. Les normes dites « prudentielles » sont plus subjectives, car elles se fondent sur notre intérêt propre – notre conservation, nos préférences, nos aspirations. Il n’y a que le troisième de type de normes, les normes morales, qui ont vocation à s’appliquer à tout le monde : en toutes circonstances, elles visent l’intérêt général. Adopter un point de vue moral sur un problème, c’est donc s’extraire de la situation particulière et de ses intérêts propres, pour embrasser le point de vue de l’universel.
  • Mais si les programmateurs doivent expliciter des normes morales au moment de coder des algorithmes, quelles normes choisir ? En effet, on a beau dire qu’on poursuit l’« intérêt général », personne n’en a la même définition. Pour clarifier les termes du problème, Martin Gibert rappelle le célébrissime « dilemme du tramway » : un tramway sans frein s’élance et s’apprête à tuer cinq personnes qui stationnent sur les rails, mais un aiguillage permettrait de le détourner sur une voie où ne se trouve qu’une seule personne. Spontanément, beaucoup de gens choisissent d’actionner l’aiguillage : tuer cinq personnes serait pire que de n’en tuer qu’une. C’est le point de vue utilitariste, que soutiendrait par exemple Jeremy Bentham. Pour lui, l’intérêt général qui doit dicter nos normes morales est la somme totale du bien-être de chacun.
  • Mais l’utilitariste en nous ne résiste pas à un autre dilemme classique de philosophie éthique – le dilemme de la passerelle. Il s’agit cette fois de sauver les cinq personnes non pas en actionnant un levier, mais en étant bien plus directement actif : en poussant quelqu’un par-dessus une passerelle afin de freiner le tramway. Le résultat est le même (un mort contre cinq), mais l’action semble plus difficile à accomplir. C’est que nous avons tous une fibre déontologique, qui veut respecter strictement l’impératif moral : tu ne tueras point. C’est ce que défendrait Emmanuel Kant : il y a des choses qui ne se font pas, et si tout le monde commençait à pousser des gens du haut des passerelles pour une raison X ou Y, on ne s’en sortirait plus !
  • Là où l’on oppose souvent de manière stérile ces deux éthiques, Martin Gibert en appelle à une troisième voie, qu’il défend ensuite pendant tout le reste de son ouvrage : le « triomphe des robots vertueux », c’est-à-dire des robots qui se comporteraient comme le ferait une personne vertueuse. Il replace ainsi au cœur des questionnements éthiques contemporains la notion aristotélicienne de « phronesis », qu’on traduit souvent par « sagesse pratique » ou « prudence ». Pour l’auteur, « ce qu’il faut, c’est choisir de bons exemples pour faire de bons robots. » Il reprend ici certains concepts de Shannon Vallor, philosophe des techniques contemporaine qui propose de cultiver chez les algorithmes des vertus « techno-morales » telles l’honnêteté, l’humilité, le courage, ou encore la magnanimité.
  • On peut regretter que l’auteur ne mentionne pas plus concrètement des exemples d’objets ou de technologies qui pourraient fonctionner d’après des modèles de vertus. Qui voudrait d’un distributeur de carte bleue ou d’une voiture autonome qui se comporte comme Jésus, Gandhi et Greta Thunberg réunis ? L’auteur a beau titrer son essai Faire la morale aux robots, il y de fortes chances que ce soit son robot rêvé… qui finisse lui-même par nous faire la morale !
Expresso : les parcours interactifs
Comment commenter un texte philosophique ?
Une fois qu’on a compris la thèse d’un texte de philo, il n’y a plus rien à faire ? Faux ! Apprenez comment commenter un texte de philosophie avec une méthode imparable, étape après étape. 
Découvrir Tous les Expresso
Sur le même sujet
Article
3 min
Des garde-fous pour les robots
Cédric Enjalbert 22 février 2017

Le eurodéputés ont adopté le jeudi 16 février 2017 une résolution visant à établir des règles juridiques et éthiques en matière de robotique et d…

Des garde-fous pour les robots

Article
4 min
Daniel Dennett, le philosophe pris pour son double robotique
Octave Larmagnac-Matheron 08 septembre 2022

Un robot de discussion est parvenu à imiter, de manière extrêmement convaincante, le langage et les raisonnements du philosophe américain …

Daniel Dennett, le philosophe pris pour son double robotique

Article
4 min
Laurence Devillers : “Reconnaître une personnalité juridique aux robots serait dangereux et inacceptable”
Octave Larmagnac-Matheron 13 septembre 2021

En Afrique du Sud, une intelligence artificielle vient d’être reconnue comme inventrice d’un récipient alimentaire capable de conserver…

Laurence Devillers : “Reconnaître une personnalité juridique aux robots serait dangereux et inacceptable”

Le fil
1 min
Les machines végétales vont-elles révolutionner la robotique ?
Octave Larmagnac-Matheron 21 juillet 2021

Créer des « robots-plantes » ? C’est le projet déconcertant de chercheurs basés à Singapour. À l’origine de l’idée, une expérience…

Les machines végétales vont-elles révolutionner la robotique ?

Article
4 min
Jean-François Bonnefon : “Une IA peut être un agent moral”
Nicolas Gastineau 27 octobre 2020

À l’heure du développement tous azimuts des intelligences artificielles, l’éthique machinique sort du bois de la science-fiction et…

Jean-François Bonnefon : “Une IA peut être un agent moral”

Article
3 min
[Exclusif] Hannah Arendt : “La cybernétique et la révolution du travail”
Hannah Arendt 05 octobre 2021

À l’occasion de la publication du Cahier de l’Herne consacré à Hannah Arendt et dirigé par Martine Leibovici et Aurore Mréjen, nous publions avec…

[Exclusif] Hannah Arendt : “La cybernétique et la révolution du travail”

Bac philo
2 min
Le devoir
Nicolas Tenaillon 01 août 2012

Que dois-je faire ? Cette question introduit à la morale et au droit. Le devoir désigne l’obligation à l’égard de ce qu’il faut faire ou ne pas faire. Il se réfère au Bien (morale) ou à la Loi (droit), suppose une règle et s’adresse à…


Article
8 min
Thierry Hoquet : “Notre humanité tient à la manière dont nous appréhendons la différence”
Octave Larmagnac-Matheron 12 mai 2021

Des zombies de Walking Dead à l’intelligence artificielle devenue folle de 2001, l’Odyssée de l’espace en passant par les « Hubot » de…

Thierry Hoquet : “Notre humanité tient à la manière dont nous appréhendons la différence”

À Lire aussi
Laurent Alexandre : “Avec une photo, un ordinateur peut dire si vous êtes homosexuel et évaluer votre QI”
Laurent Alexandre : “Avec une photo, un ordinateur peut dire si vous êtes homosexuel et évaluer votre QI”
Par Alexandre Lacroix
octobre 2017
L’intelligence artificielle entre au Collège de France
L’intelligence artificielle entre au Collège de France
Par Cédric Enjalbert
février 2016
L’intelligence artificielle est-elle “communiste” ? La “doctrine Peter Thiel” à la loupe
L’intelligence artificielle est-elle “communiste” ? La “doctrine Peter Thiel” à la loupe
Par Octave Larmagnac-Matheron
décembre 2021
  1. Accueil-Le Fil
  2. Articles
  3. Quelle morale pour les algorithmes ?
Philosophie magazine n°178 - mars 2024
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Avril 2024 Philosophe magazine 178
Lire en ligne
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Réseaux sociaux
  • Facebook
  • Instagram
  • Instagram bac philo
  • Linkedin
  • Twitter
Liens utiles
  • À propos
  • Contact
  • Éditions
  • Publicité
  • L’agenda
  • Crédits
  • CGU/CGV
  • Mentions légales
  • Confidentialité
  • Questions fréquentes, FAQ
À lire
Bernard Friot : “Devoir attendre 60 ans pour être libre, c’est dramatique”
Fonds marins : un monde océanique menacé par les logiques terrestres ?
“L’enfer, c’est les autres” : la citation de Sartre commentée
Magazine
  • Tous les articles
  • Articles du fil
  • Bac philo
  • Entretiens
  • Dialogues
  • Contributeurs
  • Livres
  • 10 livres pour...
  • Journalistes
  • Votre avis nous intéresse