• Contenus gratuits
  • Notre offre
Menu
  • Ressources
    • Toutes les ressources
  • Infos
    • Toutes les infos
  • Essentiels
    • Tous les essentiels
  • Analyses
    • Toutes les analyses
  • Data
    • Data
  • Newsletters
  • Profil
    • Je teste 15 jours
    • Je me connecte
  • Profil
    • Mon profil
    • Je me déconnecte
CLOSE

Accueil > Financement et politiques publiques > Politique de santé > IA appliquée au diagnostic : 2 comités d’éthique rendent leur avis

IA appliquée au diagnostic : 2 comités d’éthique rendent leur avis

Les solutions d'intelligence artificielle appliquées au diagnostic médical se sont multipliées ces dernières années et questionnent notre système de santé. Saisis par le Premier ministre en 2019 pour renforcer le cadre éthique de ces systèmes d'IA, deux collèges d'experts viennent de rendre leur avis.

Par Romain Bonfillon. Publié le 13 janvier 2023 à 16h03 - Mis à jour le 13 janvier 2023 à 17h07
Une ablation par IA avec le logiciel VX1 de Volta Medical
  • Ressources

Le Comité consultatif national d’éthique pour les sciences de la vie et de la santé (CCNE) et le Comité national pilote d’éthique du numérique (CNPEN) ont publié, le 10 janvier, un rapport sur les enjeux d’éthique de l’utilisation de l’intelligence artificielle (IA) dans le champ du diagnostic médical. Dans cet avis commun, le CCNE et le CNPEN dressent tout d’abord un panorama des systèmes d’intelligence artificielle appliqués au diagnostic médical (SIADM) et formulent 16 recommandations. Les deux comités consultatifs rappellent notamment que “les SIADM produisent des résultats basés d’une part sur des approches probabilistes et d’autre part qu’ils peuvent être entachés d’erreurs”. Les équipes soignantes et les patients doivent ainsi pouvoir prendre de la distance avec les résultats fournis, soulignent les deux instances consultatives, qui présentent les ressources permettant cette prise de recul. Tout SIADM doit en outre être soumis à un contrôle humain, précise le rapport, et ses résultats doivent être explicables.

Le concept d’IA de confiance en santé

Un “principe de bienfaisance”

“Le contrôle de conformité du SIADM, qui assure qu’il n’est pas dangereux et ainsi autorise sa mise sur le marché, doit être amélioré”, souligne le rapport qui propose que l’évaluation de son efficacité clinique prouve non seulement son absence de nocivité mais aussi qu’il  contribue efficacement au “principe de bienfaisance”. Enfin, s’agissant de la finalité des SIADM, le CCNE et le CNPEN recommandent qu’ils soient toujours utilisés “en priorité dans une optique d’amélioration du soin, avant les intérêts organisationnels, économiques, ou managériaux”.

Romain Bonfillon
  • Diagnostic
  • Etude
  • Intelligence Artificielle

Besoin d’informations complémentaires ?

Contactez Mind Research

le service d’études à la demande de mind

À lire

L’IA va-t-elle vraiment révolutionner la recherche ?

Ayala Bliah

L’IA en santé peut-elle créer de la valeur ?

Tiem Brienen, directeur associé de l'Anap
Entretien

Tim Brienen (Anap) : “Regarder comment l'intelligence artificielle apporte de la valeur à l'établissement”

Découvrez nos contenus gratuitement et sans engagement pendant 15 jours J'en profite
  • Le groupe mind
  • Notre histoire
  • Notre équipe
  • Nos clients
  • Nous contacter
  • Nos services
  • mind Media
  • mind Fintech
  • mind Health
  • mind Rh
  • mind Retail
  • mind Research
  • Les clubs
  • mind et vous
  • Présentation
  • Nous contacter
  • Vous abonner
  • A savoir
  • Mentions légales
  • CGU
  • CGV
  • CGV publicité
  • Politique des cookies
Tous droits réservés - Frontline MEDIA 2025
  • Twitter
  • LinkedIn
  • Email