• Contenus gratuits
  • Notre offre
Menu
  • Ressources
    • Toutes les ressources
  • Infos
    • Toutes les infos
  • Essentiels
    • Tous les essentiels
  • Analyses
    • Toutes les analyses
  • Data
    • Data
  • Newsletters
  • Profil
    • Je teste 15 jours
    • Je me connecte
  • Profil
    • Mon profil
    • Je me déconnecte
CLOSE

Accueil > Industrie > Stratégie > La dernière version du projet de loi de bioéthique pourrait-elle entraver les IA autonomes ?

La dernière version du projet de loi de bioéthique pourrait-elle entraver les IA autonomes ?

Entre l’Assemblée nationale et le Sénat, l’article 11 du projet de loi de bioéthique, consacré à l’intelligence artificielle utilisée en médecine, aura été revu et amendé pour notamment renforcer le rôle du professionnel de santé. Sa nouvelle mouture soulève la question du devenir des IA autonomes.

Par . Publié le 03 février 2020 à 13h49 - Mis à jour le 03 février 2020 à 13h49
  • Ressources

Le projet de loi relatif à la bioéthique poursuit son parcours parlementaire, entamé en juillet 2019, et vient d’être examiné en première lecture par le Sénat. L’article 11, qui porte sur l’utilisation d’un traitement algorithmique à l’occasion d’un acte “à visée préventive, diagnostique ou thérapeutique”, a été modifié par sa commission spéciale pour “préserver une forme de garantie humaine”, indique-t-elle dans son rapport, et adopté en l’état par les sénateurs. Ainsi, il n’est plus question d’une intervention du professionnel de santé lors du paramétrage du traitement algorithmique, mention qui a été supprimée ; désormais, c’est “la saisie d’informations relatives au patient dans le traitement algorithmique” qui doit se faire sous le contrôle du professionnel de santé qui utilise l’outil. La commission a également fait ajouter qu’“aucune décision médicale ne peut être prise sur le seul fondement” du traitement algorithmique.

David Gruson, président d’Ethik-IA et membre du comité de direction de la chaire santé de Sciences Po Paris, défenseur du principe de garantie humaine de l’intelligence artificielle (IA) en santé, a fait savoir par communiqué de presse le 31 janvier 2020 qu’il voyait dans cette nouvelle version “une heureuse clarification rédactionnelle (…). Les innovateurs en IA et les utilisateurs d’algorithmes médicaux ont désormais à engager le travail opérationnel de préparation en vue de leur mise en conformité à ces nouvelles exigences de régulation positive”. Quid des dispositifs médicaux intégrant une IA autonome ?

Selon l’analyse de Cécile Théard-Jallu, avocate et associée chez De Gaulle Fleurance & Associés, la nouvelle mouture de l’article 11 semble pencher en défaveur des IA autonomes. À ce titre, elle s’interroge sur ce que recouvre le terme de “décision médicale” : “intervient-elle lors de chaque usage de l’outil médical, donc par exemple à chaque prise de paramètre physiologique ou à chaque calcul ? Ou relève-t-elle d’une décision de prescription plus en amont, qui permettrait ensuite une utilisation par le patient ? Cet ajout de la commission spéciale du Sénat rend-il impossible une utilisation par le patient lui-même d’un outil intégrant de l’IA ? Cela semblerait étonnant au regard des produits existant déjà sur le marché ou en cours d’expérimentation. Et les exemples d’outils connectés intégrant de l’IA commencent à se multiplier : appareils de diabétologie, tee-shirts intégrant des fonctions d’ECG, dispositifs pour l’apnée du sommeil à base d’oxymètres, appareils de télésurveillance, etc. Transmettre tous les matins une donnée qui enclenche par exemple un dosage relève-t-il d’une ‘décision médicale’ ?” Cécile Théard-Jallu comprend bien la volonté des sénateurs d’éviter le risque que le médecin délègue sa décision à un système autonome, “avec la possible présence de boîtes noires et donc de mécanismes pour lesquels le processus décisionnel ne peut plus être exploré ni expliqué ou les biais maîtrisés. Ceci étant, un décret en Conseil d’État, pris après avis motivé de la Commission nationale de l’informatique et des libertés (Cnil), devra permettre à ce nouveau dispositif de rester opérationnel et adapté à l’usage de l’IA sur le terrain”. 

L’information sera préalable

Le nouvel article 11 stipule en outre que le professionnel devra expliquer au patient “sous une forme intelligible la manière dont ce traitement serait mis en oeuvre à son égard” et que cette information devra être “préalable” à l’utilisation dudit traitement. Une réponse aux interrogations de la Commission nationale de l’informatique et des libertés lors de son audition par l’Assemblée nationale. Pour l’avocate, il s’agit “concrètement de permettre au patient de refuser le cas échéant. Ou alors de changer de médecin”. L’article ajoute enfin que “les concepteurs (du) traitement algorithmique (…) s’assurent de la transparence du fonctionnement de l’outil par ses utilisateurs”. Pour Cécile Théard-Jallu, l’interpellation directe du concepteur dans le texte de loi fait figure de “rééquilibrage : l’utilisation d’un traitement algorithmique ne relève pas de la seule responsabilité du médecin”. Toutefois, si le Sénat a insisté sur la transparence, “pourquoi dans ce cas ne pas exiger que le concepteur assure également la traçabilité du processus ?”.

Des précisions à cet article 11 seront donc apportées par le décret attendu en Conseil d’État, qui précisera “notamment la mise en œuvre de l’information du patient, les conditions d’utilisation du traitement algorithmique par les professionnels de santé et celles dans lesquelles la transparence du fonctionnement dudit traitement est assurée par son concepteur”. D’ici là, le projet de loi doit encore terminer son examen parlementaire qui débutera par une deuxième lecture à l’Assemblée nationale.

  • Diagnostic
  • Dispositif médical
  • Intelligence Artificielle
  • Legislation

Besoin d’informations complémentaires ?

Contactez Mind Research

le service d’études à la demande de mind

À lire

Les données de santé et l’IA au sommaire des États généraux de la bioéthique

Bioéthique : l'avis du CCNE n'oublie pas le numérique et l'IA

Intelligence artificielle : la mission parlementaire sur la bioéthique veut maintenir la responsabilité du médecin

L'intelligence artificielle présente dans le projet de loi sur la bioéthique

Bioéthique : la Cnil pointe les imprécisions sur l’information du patient traité par une IA 

Découvrez nos contenus gratuitement et sans engagement pendant 15 jours J'en profite
  • Le groupe mind
  • Notre histoire
  • Notre équipe
  • Nos clients
  • Nous contacter
  • Nos services
  • mind Media
  • mind Fintech
  • mind Health
  • mind Rh
  • mind Retail
  • mind Research
  • Les clubs
  • mind et vous
  • Présentation
  • Nous contacter
  • Vous abonner
  • A savoir
  • Mentions légales
  • CGU
  • CGV
  • CGV publicité
  • Politique des cookies
Tous droits réservés - Frontline MEDIA 2025
  • Twitter
  • LinkedIn
  • Email