Pour être appliquée en toute confiance, l’intelligence artificielle (IA) -du simple arbre décisionnel au réseau de neurones complexe- doit pouvoir rendre des comptes à celui qui l’utilise. Ses définition, périmètre, explicabilité et interprétabilité s’avèrent donc indispensables à son application en santé mais demeurent encore évolutives comme l’expliquait mind Health dans son précédent dossier. Plusieurs outils permettent toutefois d’encadrer l’élaboration d’algorithmes et la traçabilité...
Explicabilité et interprétabilité, critères indispensables de l’IA de confiance
L’IA, lorsqu’elle peut être qualifiée de confiance, permet de répondre à certaines problématiques relatives à son utilisation en santé. mind Health a interrogé des acteurs du secteur, l’Institut Curie, la Chaire Good in Tech, la start-up Numalis, la Haute autorité de santé (HAS), et le cabinet de conseil Quinten Health pour décrypter les processus de construction et d’évaluation visant au développement d’applications concrètes encadrées de cette technologie évolutive.
Vous lisez cet article grâce à votre abonnement à mind Health.
Explorez de nouveaux horizons en consultant nos autres verticales :
Vous avez une information à nous partager ?
Article à retrouver dans La lettre mind Health n°174
Chaque mois, retrouvez l'essentiel de nos articles
Mercredi 15 décembre 2021
Nos autres services
Ce que vous devez absolument lire cette semaine
Les contenus essentiels de la semaine sélectionnés par la rédaction.
Les articles les plus consultés du mois sur mind Health
Ce sur quoi les lecteurs cliquent le plus le mois dernier.
Ce sur quoi les lecteurs cliquent le plus le mois dernier.