David Gruson, fondateur du think tank ETHIK-IA, porte l’initiative citoyenne et académique française visant à “proposer une série d’outils et de notes de cadrage pour garantir un regard humain sur les algorithmes en santé. Celle-ci a notamment permis que le principe de garantie humaine soit introduit à l’article 14 du projet de règlement sur l’IA de la Commission européenne paru le 21 avril 2021. Ce concept permet de garantir une intervention humaine dans la prise de décision découlant de...
Intelligence artificielle en santé : qui est responsable ?
En santé, les logiciels d’IA bénéficient d’un encadrement spécifique via des dispositions du code de la Santé publique sur leur conception et leur utilisation comme l’interdiction de l’établissement d’un diagnostic par un système d’intelligence artificielle sans intervention conjointe d’un médecin par exemple. Le Code de déontologie médicale prévoit par ailleurs que “le médecin ne peut aliéner son indépendance professionnelle sous quelque forme que ce soit”. Décryptage de la notion de responsabilité dans le domaine d’IA en santé.
Vous avez une information à nous partager ?
Article à retrouver dans La lettre mind Health n°155
Chaque mois, retrouvez l'essentiel de nos articles
Mercredi 30 juin 2021
Nos autres services
Ce que vous devez absolument lire cette semaine
Les contenus essentiels de la semaine sélectionnés par la rédaction.
Les articles les plus consultés du mois sur mind Health
Ce sur quoi les lecteurs cliquent le plus le mois dernier.
Ce sur quoi les lecteurs cliquent le plus le mois dernier.