“Garantie humaine” contre l’IA : un principe pour les irresponsables ?
Fortement critiqué de son vivant pour sa théorie de l’autonomie de la technique, Jacques Ellul semble avoir anticipé les problématiques soulevées par l’IA. La responsabilité de l’humain s’efface devant l’autonomie des « machines apprenantes »... Alors, contre qui le patient peut-il se retourner en cas d’erreur de diagnostic par l’algorithme ? Le principe de « garantie humaine » entend poser des gardes-fous. Explications.
Appliquée à la santé, l’IA promet de déceler de futures maladies par l’analyse d’une quantité de données incommensurable pour l’esprit d’un seul homme. Par exemple, l’algorithme serait capable de prédire des cancers sur plusieurs décennies sur la base de radiographies et de signaux indétectables à l’œil nu. Mais en cas d’erreurs, comment l’humain peut-il être responsable de ce qu’il ne comprend pas ?
Imaginez un instant que les données récoltées par l’algorithme comportent des erreurs, ou encore que le chemin emprunté par l’IA soit faussé. Le diagnostic serait donc erroné et le traitement inadapté, entraînant de sérieuses complications pour la santé du patient. C’est là tout l’enjeu du principe de « garantie humaine », discuté en ce moment à l’Assemblée et au Sénat, face à l’autonomie des algorithmes.
De troubles définitions
« Intelligence artificielle » et « garantie humaine » ne font pas l’objet de définitions unifiées. Pour l’IA, les normes européennes et françaises discutent de « prise de décision automatisée », de « machine apprenante », ou encore de « traitement algorithmique de données massives ». Autrement dit, l’humain assigne des objectifs à un algorithme (un calcul), qui va traiter une grande quantité de données. Mais puisque l’homme n’est pas capable de les analyser par lui-même, il n’a pas conscience du chemin que l’algorithme emprunte pour obtenir son résultat. Autonome dans son raisonnement, l’algorithme est dit « intelligent ». Mais où est passée l’autonomie de l’humain ?
Quelles questions éthiques posent les robots de conversations ? Cette interrogation est au cœur du dernier rapport du Comité consultatif…
Dans Faire la morale aux robots. Une introduction à l’éthique des algorithmes (Flammarion, 2021), le chercheur en éthique de l’intelligence…
Les relations humaines et la justice sont tout aussi essentielles que les besoins organiques auxquels nos existences confinées semblent être…
Le eurodéputés ont adopté le jeudi 16 février 2017 une résolution visant à établir des règles juridiques et éthiques en matière de robotique et d…
La légalisation de l’euthanasie divise. Si Régis Aubry et André Comte-Sponville défendent le droit de mourir dans la dignité, ces deux membres du Comité consultatif national d’éthique – récemment saisi de cette question par François…
« Un irresponsable n'est plus un citoyen », lançait récemment Emmanuel Macron dans un entretien à propos des antivax. La phrase du…
Un robot de discussion est parvenu à imiter, de manière extrêmement convaincante, le langage et les raisonnements du philosophe américain …
Le Comité consultatif national d’éthique a rendu son avis sur la légalisation de l’euthanasie le 1er juillet dernier. Certaines voix dissonantes…