Accueil > Industrie > L’IA confronte les acteurs du dispositif médical à de nouveaux défis L’IA confronte les acteurs du dispositif médical à de nouveaux défis L'arrivée massive de l’intelligence artificielle (IA) dans le monde du dispositif médical confronte les fabricants comme les professionnels de santé à de nouveaux défis. Comment s’assurer de la sécurité de ces solutions ? Une IA peut-elle être jugée coupable ? Comment évaluer ce qui évolue ? Quid des futures réglementations ? Lors du dernier salon Medi'Nov, dirigeants de start-up, juristes, assureurs et médecins ont fait le point sur ces questions qui bousculent l’écosystème. Par Romain Bonfillon et Coralie Baumard. Publié le 13 juin 2023 à 22h30 - Mis à jour le 03 juillet 2023 à 18h54 Ressources “Une grosse partie des assets d’une société est aujourd’hui composée de ses algorithmes”, fait d’emblée remarquer Bruno Virieux, CEO de Predisurge, qui développe des solutions logicielles d’aide à la décision pour les interventions cardiovasculaires. Aussi, invite-t-il tous les éditeurs de ces solutions à apporter un soin particulier aux données de santé qui ont permis de les construire pour éviter que certains biais “contaminent” les précieuses formules mathématiques, qui constituent désormais la principale richesse d’une société. “Souvent, constate-t-il, il y a la volonté d’aller vite et l’on accuse les contraintes réglementaires européennes de freiner la mise sur le marché”. La rigueur du Vieux Continent est pourtant, selon lui, une chance à saisir. “Le niveau de la mer va monter, et nous avons un énorme avantage : c’est chez nous que la mer est montée en premier”, métaphorise-t-il, rappelant que “l’ensemble des réglementations sur les données sont en train de se calquer sur le modèle RGPD”. Pour tirer parti de cette chance, encore faut-il que l’écosystème français et européen s’empare pleinement de ces réglementations et Thomas Roche, avocat associé au pôle Santé Numérique & Sciences du Vivant de Life Avocats, rappelle l’importance de construire sa base de données en conformité avec ces dernières, puis de la protéger au titre de la propriété intellectuelle. “Sans cette conformité et cette protection, la base de données n’existe juridiquement pas, elle n’a strictement aucune valeur”, met-il en garde. Comment protéger des inventions dans le domaine de l’IA ? “Dans le cadre d’acquisitions ou de prises de participation, poursuit Thomas Roche, nous gérons très régulièrement des due diligence. Notre rôle est notamment de regarder si les données ont été collectées et obtenues conformément à la réglementation. Chaque entreprise doit être en capacité de démontrer les conditions d’acquisition de ses données. Nous allons la challenger sur ce point, car c’est l’une des conditions de la valeur d’une société.” Mais, comme le soutient Bertrand De Haut De Sigy, avocat spécialisé en droit de la santé associé au cabinet UGGC, “la problématique de l’IA est plus vaste que cette simple question de la donnée, elle pose aussi la question de la responsabilité”. La responsabilité médicale : à qui la faute ? Me Bertrand De Haut De Sigy L’histoire s’est passée hors champ médical mais reste édifiante : ”Un de mes confrères avocats, raconte Me Bertrand De Haut De Sigy, s’est fait attraper puisque les conclusions qu’il avait présentées devant le tribunal avaient été écrites avec ChatGPT. Il ne s’est pas aperçu que l’intelligence artificielle s’était trompée dans son recensement de la jurisprudence, elle avait même créé une fausse référence de jurisprudence. La faute est ici humaine puisque l’IA n’est qu’une aide à la décision, un outil. De la même manière, ce n’est pas l’IA qui doit rendre le service pour lequel on va voir un médecin.” Du côté des assureurs des médecins, l’inquiétude grandit. Philippe Auzimour, directeur général du Cabinet Branchet, se prépare à ce que les patients interrogent leur médecin sur la présence ou non de l’IA dans les traitements et diagnostics qui leur sont proposés. “La perte de chance est un des principaux risques liés à l’utilisation de l’IA : les patients pourront faire valoir l’existence d’un préjudice pour le non recours ou le recours à l’IA en cas de diagnostic tardif ou erroné”. Sa crainte est que les gros industriels comme les plus petites start-up transfèrent leur responsabilité sur le praticien. “À ce jour, ils prennent des couvertures d’assurances inadaptées, comme des responsabilités civiles produits ou des responsabilités civiles équivalentes à celles d’un éditeur de logiciel classique”, constate-t-il. Évaluer ce qui évolue Frédéric Le Guillou Pour Frédéric Le Guillou, pneumologue et président élect de la Société Française de Santé Digitale, cette implication du professionnel de santé dans la chaîne de responsabilité est naturelle, car “que l’on ait un algorithme, un objet connecté ou de l’IA, la première responsabilité est celle du fait des choses”. Cependant, un problème se pose, selon lui : “à partir du moment où l’on a une intelligence artificielle qui a été conçue avec une version alpha autoapprenante mais qui va évoluer, est-ce que, à terme, le producteur de la solution d’intelligence artificielle pourrait se désengager de sa responsabilité indemnitaire du fait de l’évolution du dispositif ?”. “L’idée de responsabilité des produits défectueux est fondée sur l’idée d’une responsabilité automatique. L’IA, avec des évolutions autogénérées, dédouane finalement les producteurs de ces solutions de leur responsabilité” analyse Me Bertrand De Haut De Sigy, qui rappelle que la Commission européenne est venue apporter une exception à cette exonération : “à partir du moment où l’on ne peut plus identifier qui est responsable du développement, on retombe dans la présomption initiale : le producteur sera toujours responsable”. Tanel Petelot, CEO d’Emobot, qui développe une solution qui capte le signal de l’humeur, tient à ce propos à dédramatiser ces enjeux, en dénonçant au passage la mystification qui entoure l’IA. “De manière générale, il existe très peu d’IA autoapprenante, car le niveau de ressources à mobiliser serait inimaginable. Aujourd’hui, une IA répond à un processus pour lequel elle a été entraînée et qui n’est que le résultat du choix de l’algorithme et du choix des données. Dans le nouveau règlement européen sur les dispositifs médicaux, les IA sont d’ailleurs fixées, ce sont simplement des algorithmes”, rappelle-t-il. In fine, le principe qui prévaut, dans le droit français (les lois de bioéthique de 2021), dans le règlement européen comme à l’OMS est la notion de supervision et de garantie humaine (portée par David Gruson et son initiative Ethik-IA). L’éthique a ses conséquences juridiques : c’est parce que chaque solution d’IA doit être pensée comme un outil utilisé sous la supervision humaine, que la responsabilité sera toujours humaine. A ce titre, le professionnel de santé qui l’utilise ne peut pas se dédouaner et prétendre avoir agi sous son influence : c’est bien lui, en tant qu’expert médical, qui signe le compte-rendu de diagnostic ou l’ordonnance. Quelles bonnes pratiques ? Plus que l’IA en elle-même, c’est aujourd’hui la question du recours ou non à l’IA qui inquiète les assureurs. “Nous demandons aux sociétés savantes de faire des référentiels afin que nos médecins assurés sachent dans quel cas, ils peuvent faire confiance à l’IA, affirme Philippe Auzimour. Car, quand un médecin est mis en cause et se présente devant un expert judiciaire, la première chose que ce dernier regarde est le respect ou non des recommandations de sa société savante”. “Mais les sociétés savantes sont elles-mêmes dépassées par l’intelligence artificielle”, lui répond le Dr Jean-Claude Couffinhal, Responsable Innovation, Robotique & Formation de l’Académie Nationale de Chirurgie. Cette dernière mène actuellement un travail pour intégrer l’IA dans ses recommandations mais à charge surtout, pour le fabricant, d’expliquer, preuves cliniques à l’appui, ce que fait et ne fait pas sa solution, estime le Dr Couffinhal. Philippe Auzimour, directeur général du Cabinet Branchet La responsabilisation des professionnels de santé passe également par la formation. “Les grands acteurs forment les médecins mais qu’en est-il des start-up qui ne sont pas encore structurées et sont en phase de levée de fonds ?” s’interroge Philippe Auzimour. “Les médecins doivent savoir quelles données ils utilisent pour voir s’il n’existe pas un biais. Ensuite, vient le point contractuel. Je pense que les cabinets de radiologie, en premier lieu, puis les hôpitaux ou les cliniques qui ont des urgences, doivent lire attentivement les contrats des éditeurs ou des start-up et s’intéresser à la couverture d’assurance dont ils disposent. Il est très imprudent d’utiliser un logiciel d’IA avec un éditeur, un prestataire qui est mal assuré”, prévient-il. L’émergence des solutions d’IA pousse déjà les assureurs à chercher une expertise auprès de “spécialistes de l’intelligence artificielle qui seront des avocats ou des médecins spécialisés formés par les éditeurs qui, eux, comprendront la donnée et l’algorithme”, analyse Philippe Auzimour, qui pousse aussi l’idée d’un consentement électronique du patient qui soit lié à l’utilisation de l’intelligence artificielle, en radiologie notamment. Rappelons qu’en France, ce consentement n’est pas nécessaire. Conformément aux lois de bioéthique de 2021, une simple information du patient suffit au médecin pour utiliser l’IA comme outil d’aide au diagnostic. Quid des futures réglementations ? “Très peu de dispositifs médicaux utilisant de l’IA sont à ce jour passés sous les fourches caudines du MDR”, fait remarquer Mathieu Leclerc-Chalvet, directeur général de Therapixel. Ce dernier ne se dit cependant pas inquiet par les éventuelles nouvelles contraintes que pourrait faire peser le nouveau règlement sur les DM (son logiciel d’aide à la décision MammoScreen a reçu le marquage CE, mais sous les anciennes directives). “Nous concernant, fait-il remarquer, les exigences de la FDA sont beaucoup plus élevées en termes de preuve clinique”. De la même manière, l’IA Act (qui, selon la vice-présidente de la Commission européenne, en charge de la transition numérique et de la concurrence, Margrethe Vestager, devrait être “adopté d’ici à la fin de l’année”) ne devrait pas, selon lui, affoler les acteurs du secteur du dispositif médical. “Au regard des ébauches de règlement que j’ai pu consulter, le niveau de preuve exigé ne devrait pas être très supérieur à celui du RGPD, le label HDS ou de la certification ISO 27001”, estime-t-il. C’est un règlement qui veut s’appliquer à toutes les IA, et le secteur du dispositif médical est déjà très réglementé. Je vois mal comment on pourrait nous demander plus que ce que nous faisons déjà”, conclut-il. Quel modèle économique pour les logiciels d’aide à la décision ? Les dispositifs médicaux numériques (DMN) qui embarquent de l’intelligence artificielle (IA) peinent aujourd’hui à trouver une voie d’accès au marché. Pour les porteurs de ces solutions, et en particulier celles à usage collectif (cela concerne tous les logiciels d’aide à la décision), la “voie royale”, celle du remboursement, a souvent des allures de chemin de croix. Mathieu Leclerc-Chalvet, directeur général de Therapixel, n’a d’ailleurs pas entrepris pour la France de demande de remboursement. “Tout ce qui est logiciel d’aide à la décision est considéré a priori comme faisant partie des outils nécessaires au radiologue pour faire un travail de l’état de l’art. C’est donc inclus dans l’acte, de la même manière qu’il n’existe pas un remboursement spécifique pour le scanner en lui-même, ou l’ordinateur utilisé pour lire les images”, explique-il. Une voie d’accès au remboursement passerait par le codage d’un acte spécifique (comme c’est en train d’être mis en place pour la robotique en chirurgie, ndlr). Cependant, regrette Mathieu Leclerc-Chalvet, “cela met des années à être obtenu et cela ne peut se faire que si la solution est déjà utilisée et établie de manière substantielle sur un marché”. Une telle stratégie semble d’ailleurs incompatible avec la nature même de ces solutions. “Il y a toujours un gap entre la vitesse de développement des technologies et l’arrivée sur le marché. S’agissant de l’IA, il s’agit d’un véritable gouffre et il n’est pas concevable de se laisser 3 ans pour obtenir un remboursement. En 3 ans, notre technologie aurait déjà été dépassée”. Aussi, il a fallu que Therapixel se confronte rapidement au marché, en prouvant aux utilisateurs finaux les gains d’efficience apportés par sa solution. “Nous avons pu démontrer que les radiologues pouvaient lire de manière plus confiante et rapide les examens de dépistage de cancers du sein. Sur cette base-là, ils pouvaient lire plus d’examens à l’heure, il y avait un rapport coût-bénéfice”. Une dernière étape fait aujourd’hui l’objet de toutes ses attentions : l’évaluation de la solution par les utilisateurs potentiels. “Nous leur proposons des schémas d’évaluation, nous renseignons les grilles d’informations de certains catalogues de solutions d’IA, mais ce dernier kilomètre est compliqué. Quand l’IRM est arrivé, les radiologues n’étant pas des physiciens, cela a mis beaucoup de temps avant qu’ils maîtrisent suffisamment les aspects technologiques pour se l’approprier. C’est pareil avec l’IA, cela met du temps…”, conclut Mathieu Leclerc-Chalvet, qui n’hésite pas à parler d’une phase d’évangélisation”. Romain Bonfillon et Coralie Baumard Algorithmesassurances santébase de donnéesDispositif médicalDonnées de santéIntelligence ArtificielleJuridiqueRèglementaire Besoin d’informations complémentaires ? Contactez le service d’études à la demande de mind