• Contenus gratuits
  • Notre offre
Menu
  • Ressources
    • Toutes les ressources
  • Infos
    • Toutes les infos
  • Essentiels
    • Tous les essentiels
  • Analyses
    • Toutes les analyses
  • Data
    • Data
  • Newsletters
  • Profil
    • Je teste 15 jours
    • Je me connecte
  • Profil
    • Mon profil
    • Je me déconnecte
CLOSE

Accueil > Financement et politiques publiques > Intelligence artificielle en santé : qui est responsable ?

Intelligence artificielle en santé : qui est responsable ?

En santé, les logiciels d’IA bénéficient d’un encadrement spécifique via des dispositions du code de la Santé publique sur leur conception et leur utilisation comme l’interdiction de l’établissement d’un diagnostic par un système d’intelligence artificielle sans intervention conjointe d’un médecin par exemple. Le Code de déontologie médicale prévoit par ailleurs que “le médecin ne peut aliéner son indépendance professionnelle sous quelque forme que ce soit”. Décryptage de la notion de responsabilité dans le domaine d’IA en santé.

Par Camille Boivigny. Publié le 29 juin 2021 à 15h46 - Mis à jour le 09 juillet 2021 à 13h53
  • Ressources

David Gruson, fondateur du think tank ETHIK-IA, porte l’initiative citoyenne et académique française visant à “proposer une série d’outils et de notes de cadrage pour garantir un regard humain sur les algorithmes en santé. Celle-ci a notamment permis que le principe de garantie humaine soit introduit à l’article 14 du projet de règlement sur l’IA de la Commission européenne paru le 21 avril 2021. Ce concept permet de garantir une intervention humaine dans la prise de décision découlant de l’utilisation d’algorithmes d’IA, visant à ce que l’humain reste seul décideur (tel que consacré à l’article 11 du projet de loi de bioéthique pour 2019). Au niveau international, l’Organisation mondiale de la santé a publié le 28 juin 2021 le premier rapport mondial sur l’IA appliquée à la santé et six principes directeurs relatifs à sa conception et son utilisation. Quant à l’agence américaine du médicament, la Food and Drug Administration (FDA), elle a approuvé dix solutions à base d’IA et diffusé son plan d’action en Janvier 2021, intitulé “Artificial Intelligence/Machine Learning (AI/ML)-Based : Software as a Medical Device (SaMD) Action Plan”. Le Congrès et la FDA prévoient d’être en mesure de “finaliser un cadre assez complet en tirant parti des négociations en cours sur les modifications des frais d’utilisation des DM qui devront être conclues au plus tard en 2022.”

Responsabilité de l’algorithme

Selon Alexandre Templier, président de l’entreprise technologique Quinten, spécialiste de l’IA en santé, “la responsabilité liée à l’utilisation d’un logiciel d’IA suppose l’analyse de différents régimes juridiques, contractuelle d’une part, extracontractuelle d’autre part.” Il est possible d’aménager contractuellement cette responsabilité, sachant que les clauses destinées à minimiser le caractère spécifiquement médical voire d’exclure la responsabilité du fabricant seront probablement écartées par le juge. “Lorsque le produit ne produit pas l’effet attendu au niveau de performance promis, la responsabilité du fait des produits défectueux est applicable à l’IA”, détaille-t-il à mind Health. “Le fabricant est ainsi responsable de la mise sur le marché du logiciel, même s’il en a délégué l’élaboration à un concepteur ou à des développeurs vers lesquels il pourra se retourner le cas échéant”. Le professionnel de santé bénéficie quant à lui d’un régime de responsabilité du fait des matériels utilisés : il ne peut-être tenu responsable que des dommages consécutifs à une faute de sa part dans le choix ou l’utilisation d’un outil technologique. “Devant s’assurer de l’innocuité d’un traitement qu’il dispense, il est en effet envisageable qu’à l’avenir une obligation de vigilance quant aux outils technologiques utilisés pèse sur lui”, précise Alexandre Templier.

La Commission européenne a notamment recommandé une évolution du régime de responsabilité existant afin que chaque obligation soit assumée par l’acteur le mieux placé pour prendre en charge le risque potentiel lié à l’utilisation de l’algorithme.

La résolution du Parlement européen

En octobre 2020, le Parlement européen a adopté une résolution relative au régime de responsabilité civile de l’IA (2020/2014(INL). Proposant de créer à l’échelle européenne une responsabilité spéciale des produits d’IA, cette résolution remet en cause les régimes de responsabilité actuels et prie la Commission européenne de soumettre une proposition de règlement relatif à la responsabilité des systèmes d’IA. Ce dernier reprend la précédente résolution de 2017 dans laquelle la Commission européenne témoignait son intérêt au regard de la création d’une personnalité juridique aux robots, afin qu’ils soient responsables de leurs actes. Le Parlement s’est prononcé en faveur de la création d’un régime spécial de responsabilité, propre aux logiciels d’IA, intégrant les problématiques liés aux algorithmes d’apprentissage automatique et d’apprentissage profond. “Outre le régime des produits défectueux, le Parlement propose de créer un régime autonome de responsabilité pour les logiciels d’intelligence artificielle, qu’ils soient statistiques, de machine learning ou de deep learning”, explique Alexandre Templier. “La création d’un tel régime suppose deux finalités : d’une part, la protection des victimes préjudiciées par un algorithme d’IA, et d’autre part, de favoriser le développement d’algorithmes et notamment des technologies d’IA au sein de l’Union Européenne.” poursuit le CEO. Cette résolution propose d’instaurer des régimes de responsabilité en fonction du risque lié à l’utilisation des logiciels d’IA, et distingue ainsi ceux “à risque élevé” des autres. Pour la première catégorie, le Parlement suggère d’en établir une liste, sachant que la particularité du régime de responsabilité des logiciels d’IA à haut risque est qu’il est basé sur la responsabilité objective. Les autres logiciels demeureront soumis au régime de responsabilité pour faute présumée, sauf s’ils ont causé des incidents répétés entraînant un préjudice ou un dommage grave, auquel cas ils pourraient bénéficier du régime de responsabilité objective. Ce dernier est favorable aux victimes puisqu’il ne leur appartient pas de prouver la faute ou la défectuosité des systèmes d’intelligence artificielle, contrairement à la directive relative aux produits défectueux.

Proposition de révision

La résolution précise également la nécessité de réviser le régime de responsabilité du fait des produits défectueux, afin de l’adapter aux caractéristiques des logiciels d’intelligence artificielle. “Le Parlement suggère de préciser la définition des “produits” entrant dans le champ d’application de la directive, et propose de modifier la notion de “producteur” afin qu’entre dans son champ d’application l’intégralité des acteurs ayant participé à la conception des algorithmes (fabricants, les développeurs, les programmeurs, les prestataires de services et les opérateurs d’amont)”, note Alexandre Templier. “Enfin, le Parlement suggère dans cette résolution de restreindre l’utilisation entre acteurs de clauses contractuelles de limitation de responsabilité afin de ne pas porter atteinte aux droits des victimes d’être indemnisées.” Quant à la responsabilité du fait du concepteur du logiciel d’IA, “les utilisateurs peuvent en effet commettre une faute susceptible d’engager leur responsabilité”, conclut le CEO.

Camille Boivigny
  • Europe
  • Intelligence Artificielle
  • Logiciel
  • Règlementaire

Besoin d’informations complémentaires ?

Contactez Mind Research

le service d’études à la demande de mind

À lire

Le concept d’IA de confiance en santé

Explicabilité et interprétabilité, critères indispensables de l’IA de confiance

Découvrez nos contenus gratuitement et sans engagement pendant 15 jours J'en profite
  • Le groupe mind
  • Notre histoire
  • Notre équipe
  • Nos clients
  • Nous contacter
  • Nos services
  • mind Media
  • mind Fintech
  • mind Health
  • mind Rh
  • mind Retail
  • mind Research
  • Les clubs
  • mind et vous
  • Présentation
  • Nous contacter
  • Vous abonner
  • A savoir
  • Mentions légales
  • CGU
  • CGV
  • CGV publicité
  • Politique des cookies
Tous droits réservés - Frontline MEDIA 2025
  • Twitter
  • LinkedIn
  • Email