Aller au contenu principal
Menu du compte de l'utilisateur
    S’abonner Boutique Newsletters Se connecter
Navigation principale
  • Le fil
  • Archives
  • En kiosque
  • Dossiers
  • Philosophes
  • Lexique
  • Citations
  • EXPRESSO
  • Agenda
  • Masterclass
  • Bac philo
 Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
rechercher
Rechercher

© Morning Brew/Unsplash

Entretien

Jean-François Bonnefon : “Une IA peut être un agent moral”

Jean-François Bonnefon, propos recueillis par Nicolas Gastineau publié le 27 octobre 2020 4 min

À l’heure du développement tous azimuts des intelligences artificielles, l’éthique machinique sort du bois de la science-fiction et de la littérature d’anticipation pour devenir, plus que jamais, un sujet concret. Des machines peuvent-elles, doivent-elles être capables de jugement ? Auquel cas, deviennent-elles responsables ? Et nous, comment les jugeons-nous, ces machines qui jugent ? Dès lors qu’on laisse morale et responsabilité entre d’autres “mains” que celles du sujet humain, les questions vertigineuses se bousculent… jusqu’à, éventuellement, nous amener à repenser les fondements même de l’éthique. Et d’ailleurs, entre l’homme et la machine, n’aurions-nous pas tendance à appliquer une double morale ? Jean-François Bonnefon, docteur en psychologie cognitive, directeur de recherche et expert en intelligence artificielle, nous aide à y voir un peu plus clair.

 

Juger, c’est reconnaître à la personne jugée une responsabilité. Diriez-vous qu’une IA puisse, en ce sens, être responsable ?

Jean-François Bonnefon : Une machine peut être responsable d’une tâche: par exemple, on peut dire qu’une voiture autonome a la responsabilité de conduire. Mais les choses deviennent plus compliquées pour ce qui est de tenir une machine responsable de ses actes. Cela n’a pas de sens par exemple de récompenser ou de punir une machine : si une IA inventait demain un traitement contre le Covid, on ne lui donnerait pas le prix Nobel de médecine ! Il y a peut-être une façon pour une machine d’être “responsable” de ses échecs, au sens où elle serait responsable de trouver la façon de les éviter à l’avenir. Mais en général, c’est aux humains qu’il revient de trouver une solution.

 

Les machines sont-elles des agents moraux ? 

Il y a deux façons d’être un agent moral. La première, c’est d’être responsable d’une tâche qui a des “implications” morales, sans pour autant avoir à prendre de “décision” morale. Par exemple, si je suis plieur de parachute, je suis un agent moral au sens où une erreur de ma part aura des conséquences graves ; mais je n’ai pas à prendre des décisions morales difficiles. En ce sens, une IA peut être un agent moral, et je ne crois pas que cela soit controversé. Par exemple, une voiture autonome est clairement un agent moral au sens où ses erreurs peuvent coûter la vie à quelqu’un. Mais la deuxième façon d’être un agent moral, celle qui pose plus de problèmes, c’est d’avoir à prendre des décisions qui utilisent des règles morales, et plus spécialement quand ces règles sont en conflit. Pour continuer avec les voitures autonomes, on entre là dans les fameux exemples du type “faut-il mieux sauver deux piétons ou un seul passager ?” On peut penser aussi aux algorithmes qui cherchent à optimiser l’allocation des greffes de rein. Est-ce qu’une machine est un agent moral au sens fort dès lors qu’elle prend ce genre de décision, de façon autonome ? Je n’en sais rien, je laisse ce débat aux philosophes. Notre travail est plutôt de comprendre comment les citoyens veulent que les machines prennent ces décisions-là.

Expresso : les parcours interactifs
Comment apprivoiser un texte philosophique ?
Un texte philosophique ne s’analyse pas comme un document d’histoire-géo ou un texte littéraire. Découvrez une méthode imparable pour éviter le hors-sujet en commentaire ! 
Découvrir Tous les Expresso
Sur le même sujet
Article
4 min
Quelle morale pour les algorithmes ?
Apolline Guillot 13 avril 2021

Dans Faire la morale aux robots. Une introduction à l’éthique des algorithmes (Flammarion, 2021), le chercheur en éthique de l’intelligence…

Quelle morale pour les algorithmes ?

Bac philo
2 min
Le devoir
Nicolas Tenaillon 01 août 2012

Que dois-je faire ? Cette question introduit à la morale et au droit. Le devoir désigne l’obligation à l’égard de ce qu’il faut faire ou ne pas faire. Il se réfère au Bien (morale) ou à la Loi (droit), suppose une règle et s’adresse à…


Article
5 min
Laurence Devillers : “En jouant sur vos émotions, le ‘chatbot’ peut vous inciter à agir dans telle ou telle direction”
Octave Larmagnac-Matheron 01 décembre 2021

Quelles questions éthiques posent les robots de conversations ? Cette interrogation est au cœur du dernier rapport du Comité consultatif…

Laurence Devillers : “En jouant sur vos émotions, le ‘chatbot’ peut vous inciter à agir dans telle ou telle direction”

Article
3 min
Suffit-il à un ordinateur de parler pour penser?
Samuel Webb 03 juillet 2014

Le 7 juin, le test de Turing, étape clé dans les progrès de l’intelligence artificielle, aurait été passé avec succès… par un programme informatique. Reste à comprendre ce qu’on entend ici par intelligence.


Article
3 min
Des garde-fous pour les robots
Cédric Enjalbert 22 février 2017

Le eurodéputés ont adopté le jeudi 16 février 2017 une résolution visant à établir des règles juridiques et éthiques en matière de robotique et d…

Des garde-fous pour les robots

Article
4 min
Daniel Dennett, le philosophe pris pour son double robotique
Octave Larmagnac-Matheron 08 septembre 2022

Un robot de discussion est parvenu à imiter, de manière extrêmement convaincante, le langage et les raisonnements du philosophe américain …

Daniel Dennett, le philosophe pris pour son double robotique

Article
4 min
Laurence Devillers : “Reconnaître une personnalité juridique aux robots serait dangereux et inacceptable”
Octave Larmagnac-Matheron 13 septembre 2021

En Afrique du Sud, une intelligence artificielle vient d’être reconnue comme inventrice d’un récipient alimentaire capable de conserver…

Laurence Devillers : “Reconnaître une personnalité juridique aux robots serait dangereux et inacceptable”

Article
3 min
« Her » : que feront les hommes quand leur intelligence sera dépassée ?
Alexandre Lacroix 24 avril 2014

Le dernier film de Spike Jonze, Her, n’est pas qu’une merveilleuse romance liant un homme et une intelligence artificielle : c’est aussi une…

« Her » : que feront les hommes quand leur intelligence sera dépassée ?

À Lire aussi
Les machines végétales vont-elles révolutionner la robotique ?
Les machines végétales vont-elles révolutionner la robotique ?
Par Octave Larmagnac-Matheron
juillet 2021
L'Université de la Singularité arrive en France
L'Université de la Singularité arrive en France
Par Cédric Enjalbert
juillet 2015
La morale est-elle compatible avec l’intelligence artificielle?
La morale est-elle compatible avec l’intelligence artificielle?
Par Alexandre Lacroix
avril 2016
  1. Accueil-Le Fil
  2. Articles
  3. Jean-François Bonnefon : “Une IA peut être un agent moral”
Philosophie magazine n°178 - mars 2024
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Avril 2024 Philosophe magazine 178
Lire en ligne
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Réseaux sociaux
  • Facebook
  • Instagram
  • Instagram bac philo
  • Linkedin
  • Twitter
Liens utiles
  • À propos
  • Contact
  • Éditions
  • Publicité
  • L’agenda
  • Crédits
  • CGU/CGV
  • Mentions légales
  • Confidentialité
  • Questions fréquentes, FAQ
À lire
Bernard Friot : “Devoir attendre 60 ans pour être libre, c’est dramatique”
Fonds marins : un monde océanique menacé par les logiques terrestres ?
“L’enfer, c’est les autres” : la citation de Sartre commentée
Magazine
  • Tous les articles
  • Articles du fil
  • Bac philo
  • Entretiens
  • Dialogues
  • Contributeurs
  • Livres
  • 10 livres pour...
  • Journalistes
  • Votre avis nous intéresse