• Contenus gratuits
  • Notre offre
Menu
  • Ressources
    • Toutes les ressources
  • Infos
    • Toutes les infos
  • Essentiels
    • Tous les essentiels
  • Analyses
    • Toutes les analyses
  • Data
    • Data
  • Newsletters
  • Profil
    • Je teste 15 jours
    • Je me connecte
  • Profil
    • Mon profil
    • Je me déconnecte
CLOSE

Accueil > Parcours de soins > Gestion de la data > Bioéthique : la Cnil pointe les imprécisions sur l’information du patient traité par une IA 

Bioéthique : la Cnil pointe les imprécisions sur l’information du patient traité par une IA 

Dans le cadre de l’examen du projet de loi relatif à la bioéthique, la Cnil a été auditionnée le 4 septembre 2019. L’occasion pour sa présidente, Marie-Laure Denis, de border l’information du patient lorsque son médecin utilise des traitements algorithmiques.

Par . Publié le 13 septembre 2019 à 16h38 - Mis à jour le 13 septembre 2019 à 16h38
  • Ressources

Le projet de loi relatif à la bioéthique a entamé son examen parlementaire par une série d’auditions menées à l’Assemblée nationale entre le 25 juillet et le 5 septembre 2019 par une commission spéciale. Ce fut le tour, le 4 septembre, de la nouvelle présidente de la Commission nationale de l’informatique et des libertés (Cnil), Marie-Laure Denis. Elle a à cette occasion souligné la légèreté de l’article 11 du projet de loi, qui vise, en trois courtes phrases, à “sécuriser la bonne information du patient lorsqu’un traitement algorithmique de données massives (‘intelligence artificielle’, IA) est utilisé à l’occasion d’un acte de soins” et à “garantir une intervention humaine”. Le texte ne reprend que très peu, en effet, les recommandations de la mission d’information de l’Assemblée nationale ou celles du Conseil consultatif national d’éthique pour les sciences de la vie et de la santé.

Pourtant, pour citer Marie-Laure Denis, “l’article 11 est emblématique des enjeux inédits que dessinent les nouveaux usages des technologies, en particulier les traitements algorithmiques appliqués aux données de santé”. Or, “les dispositions du projet de loi restent, nous semblent-ils, un peu au milieu du gué. Je ferais d’abord une remarque liminaire sur la structure de l’article qui soulève d’importantes difficultés de compréhension”. Pour rappel, l’article stipule que, “lorsque pour des actes à visée préventive, diagnostique ou thérapeutique est utilisé un traitement algorithmique de données massives, le professionnel de santé qui communique les résultats de ces actes informe la personne de cette utilisation et des modalités d’action de ce traitement”. La présidente de la Cnil s’interroge : “à quel stade ? Parle-t-on du stade amont, de la mise au point des algorithmes et donc dans une phase expérimentale, autrement dit les données étant utilisées pour effectuer l’apprentissage et le paramétrage de l’algorithme, ou parle-t-on en aval du stade de leur utilisation au bénéfice d’un patient en particulier ? On comprend que le premier alinéa vise la phase d’utilisation, en aval, mais la lecture du second est plus incertaine”. En l’occurrence, le second paragraphe de l’article 11 stipule que “l’adaptation des paramètres du traitement est réalisée avec l’intervention d’un professionnel de santé et peut être modifiée par celui-ci”. Marie-Laure Denis estime que “cette incertitude doit être levée clairement” car elle conditionne notamment le rôle donné au médecin. 

Quel statut accorder aux non DM ?

Elle a par la suite “souligné trois enjeux”. En premier lieu, “le projet de loi ne précise pas la temporalité de l’information portée à la connaissance de la personne : avant l’usage ou après, au stade de la communication des résultats aux patients ? Le principe de transparence, en toute logique, devrait conduire à une information préalable. Cela rejoint également l’esprit du Code de la santé publique qui prévoit que les décisions concernant la santé d’un patient sont prises par celui-ci en ayant en main toutes les informations utiles”.

Deuxième enjeu, “il nous paraît souhaitable de bien distinguer deux niveaux d’informations à délivrer aux patients : il y a d’une part les informations à donner sur le résultat brut du traitement algorithmique, autrement dit ce que dit la machine, et il y a d’autre part les conclusions qu’en tire le professionnel de santé. Cette distinction est utile notamment dans l’optique de préserver l’espace de la décision médicale”. Enfin, Marie-Laure Denis a tenu à évoquer l’évaluation de la qualité et de l’efficacité de ces traitements algorithmiques : “certains d’entre eux peuvent être regardés comme des dispositifs médicaux mais il n’est pas évident que l’ensemble des traitements visés par cet article seront des DM et, pour ceux qui ne seraient pas susceptibles de recevoir cette qualification, une réflexion devrait être conduite sur leur statut et l’existence en tout cas d’une évaluation scientifique encadrée”.

  • cloud
  • CNIL
  • Dispositif médical
  • Intelligence Artificielle
  • Legislation
  • Patient

Besoin d’informations complémentaires ?

Contactez Mind Research

le service d’études à la demande de mind

À lire

Les Cnil européennes appellent à un accord temporisant le Cloud act

Découvrez nos contenus gratuitement et sans engagement pendant 15 jours J'en profite
  • Le groupe mind
  • Notre histoire
  • Notre équipe
  • Nos clients
  • Nous contacter
  • Nos services
  • mind Media
  • mind Fintech
  • mind Health
  • mind Rh
  • mind Retail
  • mind Research
  • Les clubs
  • mind et vous
  • Présentation
  • Nous contacter
  • Vous abonner
  • A savoir
  • Mentions légales
  • CGU
  • CGV
  • CGV publicité
  • Politique des cookies
Tous droits réservés - Frontline MEDIA 2025
  • Twitter
  • LinkedIn
  • Email