Accueil > Financement et politiques publiques > Le concept d’IA de confiance en santé Le concept d’IA de confiance en santé L’intelligence artificielle semble envahir tous les domaines en santé, de l’imagerie jusqu’à l’optimisation du parcours de soins, sans oublier la recherche et le développement de traitements. En regard de l’impact de cette technologie, la condition sine qua non de son application réside dans la confiance que praticiens et patients peuvent accorder à ses résultats. mind Health décrypte avec des experts le concept d’IA de confiance et les enjeux inhérents à son usage en santé. Par Camille Boivigny. Publié le 27 avril 2021 à 16h54 - Mis à jour le 05 mai 2021 à 18h13 Ressources Intelligence artificielle (IA) est la traduction inexacte de l’anglais “artificial intelligence”: “intelligence” signifiant “traitement des informations”, c’est le traitement artificiel, par la machine, des informations, qui rend cette dernière intelligente. À l’ère du “Digital New Deal”, l’IA, nourrie de Big Data, a pour vocation de transformer des données de santé en insights, autrement dit en informations pertinentes. L’intérêt porté à cette technologie semble aussi important que les interrogations qu’elle suscite, notamment par sa matérialisation via des systèmes informatiques. Le défi consistant à l’utiliser pour industrialiser des tâches automatisables chronophages sans compromettre la décision médicale susceptible d’impacter la santé des patients, ni déshumaniser les métiers, s’avère de taille. La santé, un domaine d’application à haut risque D’après Juliette Mattioli, experte en IA chez Thalès qui s’est exprimée lors du webinaire “Assurer le succès des IA pour l’industrie pharmaceutique“ organisé en juillet dernier par Adebiotech : “en santé, l’IA regorge de systèmes critiques. L’impact d’une erreur peut avoir de graves conséquences sur une personne (safety critical) ou sur l’économie (business critical)”. “Les industriels doivent être exigeants envers les fabricants d’IA, en regard des contraintes éthiques, réglementaires et opérationnelles en santé”, renchérit Manuel Gea, président d’Adebiotech. Selon lui, l’industrie pharmaceutique manque de compétences informatiques et est absente du Grand Défi IA. Or, “il faut passer du stade de la start-up nation, dont 99 % des solutions ne répondent pas aux normes, à celui de la scale-up nation disposant d’applications pérennes et assurables parce qu’explicables. Tous les algorithmes de deep learning développés aujourd’hui ne sont pas explicables, et encore moins normalisables. C’est du gâchis puisque d’ici quelques années elles devront être certifiées rétroactivement, sachant qu’un algorithme mal développé n’est pas rattrapable. Il s’agit d’intégrer des algorithmes utiles dans les processus industriels de développement et de prise de décision, en élaborant une chaîne de conception fiable respectant les exigences du secteur. L’explicabilité sera un avantage concurrentiel considérable.” “Il faut passer de la start-up nation à la scale-up nation” Manuel Gea, président d’Adebiotech Confiance technique versus confiance humaine D’après un article du Massachusetts Institute of technology (MIT), d’instinct l’humain fait plus confiance à un ordinateur. C’est aussi ce que constate le guide IA digne de confiance du collectif Impact AI : “l’IA effectue des calculs hors de portée de n’importe quel être humain, qui permettent de mieux analyser des situations et de prendre, statistiquement, de meilleures décisions.” Toutefois, selon Cynthia Fleury Perkins qui s’est exprimée lors d’une conférence d’Ethik IA et du Craps sur la garantie humaine en février dernier. “L’IA vise à aider et renforcer des décisions et non les confisquer”, souligne-t-elle en évoquant la question de l’empathie artificielle. “La traduction doit être possible depuis un praticien hautement spécialisé jusqu’au consentement du patient, sans que l’apprentissage par l’IA mène à une perte des acquis et de compétences.” Il s’agit d’expliquer de manière humaine ce que fait une machine. Jean-Paul Segade, président du Craps insiste : “l’IA ne peut pas faire la différence entre le diagnostic déclaré, ressenti et perçu. Il ne faudrait pas réduire l’échange patient-médecin à une simple relation technique qui éliminerait toute notion de confiance indispensable à l’adhésion à l’acte”. Pour David Gruson, cette garantie humaine réside dans l’éthique et la traçabilité d’une chaîne algorithmique compréhensible et pouvant rendre des comptes à tout moment, soutenue par une “régulation positive”. Le principe de garantie humaine vise à ce que l’humain reste seul décideur, tel que consacré à l’article 11 du projet de loi de bioéthique de 2019. “Ce principe est dans plusieurs rapports dont celui intitulé ‘Numérique et Santé’ élaboré par la CERNA (la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene) et le CCNE) énonçant qu’un patient recevant un résultat directement issu d’algorithme pourrait avoir un droit de recours à un ‘vrai’ médecin pour deuxième avis”, rappelle Christine Balagué, directrice de la Chaire Good in Tech. L’IA propose, le professionnel de santé dispose. Indispensables définitions… “Le concept d’IA vise à conférer des capacités cognitives à un système artificiel, à savoir la perception (de son entourage, pour une meilleure compréhension), l’apprentissage, l’abstraction (comment abstraire de l’information à partir d’observations pour créer du sens) et le raisonnement (mécanismes permettant d’aider à la décision, planification, résolution de problèmes complexes)”, poursuit Juliette Mattioli. Selon elle, l’IA est aujourd’hui confondue avec la science des données alors qu’elle repose sur deux paradigmes complémentaires : “l’IA statistique et connexionniste à partir de données, d’exemples, inférant un concept grâce auquel elle reconnaît et comprend son environnement, et l’IA symbolique qui, partant d’exemples et d’une modélisation généralement tirée d’une expertise ou connaissance métier, infère la résolution d’un problème, menant à une prise de décision. Autrefois cela s’appelait les systèmes experts, à base de règles ou de connaissances, la programmation par contraintes.” ….et délimitations : Pour définir le concept d’IA de confiance, terme impliquant sous-jacemment que l’IA par essence n’en est pas digne, Christine Balagué, énonce quatre critères intrinsèques. D’abord, la discrimination potentielle des individus provoquée par des biais dans les données : “un diagnostic pourrait être biaisé si la performance de l’algorithme utilisé n’a pas été vérifiée au regard de sous-catégories. On obtiendrait un taux d’erreur plus important sur les hommes que sur les femmes par exemple, ou sur les personnes âgées par rapport aux jeunes. Un algorithme performant à 75 % peut l’être à 90 % sur les femmes et à 50 % sur les hommes”. L’opacité des systèmes constitue un second critère : “un algorithme de deep learning peut être performant à 95 % sur la détection de la maladie d’Alzheimer, sans que l’on puisse expliquer quelles sont les variables expliquant ce résultat, car le modèle est trop complexe. Il est donc important de rendre les systèmes explicables pour les médecins utilisateurs, et interprétables : l’explication doit être comprise par l’utilisateur. Le médecin doit pouvoir comprendre le fonctionnement du système, son raisonnement, via des interfaces, comment l’algorithme parvient à tel résultat. Ainsi on n’informe pas le médecin que dans 95 % des cas un patient est atteint d’Alzheimer mais plutôt que tel patient présente telles caractéristiques et dans 95 % des cas on pense à un diagnostic d’Alzheimer, en proposant d’autres profils de patients en comparaison”. “L’IA de confiance n’est pas discriminante mais interprétable, sans biais, et dénuée d’opinions encapsulées ou du moins tracées” Christine Balagué, Professeur, Institut Mines-Télécom Business School Titulaire Chaire Good in Tech La fiabilité constitue pour la chercheuse le troisième critère : “un modèle fournissant tel résultat sur un patient doit être reproductible, aussi bon et standardisé, sur d’autres patients. Une quantité conséquente de données permet au système d’acquérir fiabilité et robustesse, celle-ci étant indissociable de sa capacité de généralisation. Le taux de précision (% de faux positifs et de faux négatifs) en permet la mesure dans le temps”. Le dernier critère réside dans les “opinions encapsulées dans les algorithmes” dans le cas d’aide à la prise de décision : “Cela correspond aux choix du datascientist insérés dans le code. En imagerie oncologique par exemple, on pourrait choisir de minimiser les faux négatifs pour éviter l’annonce par un médecin de l’absence de pathologie alors que ce serait faux. La solution c’est la traçabilité des choix et des opinions au sein du code. Il s’agit simplement d’indiquer ‘à telle ligne de code le choix a été fait de minimiser les faux négatifs’, c’est une opinion.” La compréhension du fonctionnement d’une IA, clé de la confiance Pour Arnault Ioualalen, président exécutif de la start-up Numalis qui fournit des outils aux concepteurs d’IA et s’attaque au domaine de la santé, “la confiance n’est pas absolue” mais “s’inscrit dans un contexte et est toujours attachée à un usage, un domaine d’emploi précis, qui implique des contraintes éthiques, de fonctionnement et réglementaires. La confiance accordée à un système se situe à leur croisement”. Selon lui, l’appellation de “système de boîte noire” est “impropre car on peut tout à fait observer ce qui compose une IA, ce qu’elle fait, les 0 et 1 du code informatique. Simplement on ne le comprendra pas.” Il explique que l’IA raisonne non pas en arborescence mais mathématiquement en s’appuyant sur des datas. Elle projette un problème qu’on lui a posé, sous forme de calcul dans un espace constitué de dizaines de milliers de dimensions, et vérifie si le résultat est cohérent avec les règles apprises. Alors que l’humain raisonne de manière symbolique, en s’appuyant sur la logique, ne pouvant réfléchir qu’à quatre voire cinq dimensions maximum, selon une suite logique d’opérations et de déductions. “Les systèmes d’IA miment ce qu’on leur montre, on les corrige pour qu’ils suggèrent au mieux la bonne réponse dans la variété d’environnements dans lesquels on les a entraînés. Le but étant qu’ils soient capables de généraliser leur comportement, en prenant une position intermédiaire, médiane entre les situations connues.” Selon lui, des contraintes découlent des exigences de performance à assurer, à partir desquelles décrire, construire des techniques, des argumentaires d’évaluation. Il s’agit de “structurer les exigences pour ancrer la confiance dans des choses concrètes et pas dans des concepts abstraits”. Mais la puissance de l’IA, l’exhaustivité de son explicabilité ne réside pas dans la définition paroxystique préalable de l’exigence escomptée. Même si sa puissance de calcul et de modélisation en termes mathématiques est infinie. Les voies du code ne sont pas impénétrables “Le machine learning est une technologie logicielle algorithmique permettant à un ordinateur d’apprendre sans avoir été explicitement programmé à cet effet, à partir de données historiques accumulées dans le but de réaliser une prédiction ou une classification sur des exemples à venir”, détaille Alexandre Templier, CEO de Quinten. “Le deep learning est une branche du machine learning dont la particularité est la capacité de modélisation de relations très complexes entre les données, en utilisant des couches de réseaux de neurones artificiels”, explique-t-il. La profondeur de l’algorithme étant associée à la multiplicité de ses couches. Cette analogie provient du fait que l’architecture du cerveau humain soit structurée en réseaux de neurones, des nœuds connectés par des synapses. “Dans les algorithmes connexionnistes, les variables ou leurs combinaisons représentent les nœuds. Pendant l’apprentissage, l’algorithme, nourri de données, identifie progressivement les variables et/ou les combinaisons de variables clefs tout en pondérant leurs relations. Il s’auto structure au fur et à mesure jusqu’à ce qu’il soit capable de réaliser une prédiction ou une classification suffisamment fiable à partir de nouveaux exemples. Comme d’identifier avant même qu’ils soient traités, les patients à forte probabilité de répondre à un traitement, ou à fort risque de développer un effet indésirable. Il existe par ailleurs des approches par morceaux, par sous-groupes, qui consistent à extraire des règles métier tout à fait interprétables et qui sont fondamentalement différentes de celles qui tendent à résumer un phénomène et sa prédiction avec une seule équation ou en un seul réseau”, pointe le CEO de Quinten. Au-delà de la performance, l’interprétabilité et la capacité de généralisation des algorithmes sont au cœur des enjeux de la médecine personnalisée.” “Le système de boîte noire est une appellation impropre” Arnault Ioualalen, Président exécutif de Numalis Supervisé versus non supervisé L’entraînement de l’algorithme, son apprentissage, peut-être supervisé ou non. Instinctivement on pourrait croire que supervisé/non supervisé signifie “par un humain” donc par définition, explicable. Il n’en est rien ! “Dans le cas de l’apprentissage supervisé, il s’agit d’une base de données déjà annotée par des humains. Le système apprend au fur et à mesure avec chaque nouvelle donnée”, décrit Christine Balagué. “Cela consiste à nourrir l’algorithme de données d’entrée et de sortie pour chaque exemple, afin qu’il apprenne à prédire les données de sortie à partir des données d’entrée pour de nouveaux exemples”, souligne Alexandre Templier. “Dans le cas d’un réseau de neurones, non supervisé, il n’y a pas de base de données codées préalable. Le réseau cherche par lui-même à créer des regroupements, apprenant et créant des patterns différents”, complète la chercheuse. “Dans ce cas il s’agit de regrouper les exemples en ‘clusters’ en fonction de leurs similarités dans l’espace des variables disponibles, indépendamment de toute question, puis d’évaluer chaque cluster sous l’angle de la question posée”, abonde le P-DG de Quinten. Les objectifs de ces deux approches sont différentes mais complémentaires : supervisée, le modèle est entraîné pour fournir une réponse lors d’une prochaine observation. Non supervisée, elle vise à mieux comprendre les typologies d’observations et la relation entre les variables. Les experts sont unanimes, la clef réside dans la combinaison des méthodes d’IA, supervisée, non supervisée, connexionniste et symbolique. Jusqu’à présent, il manquait aux acteurs développant ces technologies d’IA en santé un cadre clair pour les appliquer. La Commission européenne a proposé le 21 avril 2021 de “nouvelles règles et actions en faveur de l’excellence et de la confiance dans l’intelligence artificielle”. Ce règlement vise à “faire de l’Europe le pôle mondial d’une IA digne de confiance” grâce à la “combinaison d’un tout premier cadre juridique sur l’IA et d’un nouveau plan coordonné avec les États membres.” Dans une seconde partie, mind Health reviendra sur les outils permettant de construire et d’évaluer une IA de confiance. Camille Boivigny base de donnéesbig dataDiagnosticDonnées de santéIndustrieIntelligence ArtificielleLaboratoiresLogicielmédecinParcours de soinsPatientRèglementairestart-upSystème d'information Besoin d’informations complémentaires ? Contactez le service d’études à la demande de mind À lire Alliance entre Quinten Health et Euresis Partners Synapse Medicine déploie avec Thériaque une offre dédiée aux établissements hospitaliers Dataroom Les start-up françaises de la e-santé ont levé 145,5 millions d’euros au premier trimestre 2021 La Mayo Clinic crée deux entreprises en vue de constituer une plateforme d'IA Le Broad Institute accueille un centre de recherche en IA doté de 300 M$ L’intelligence artificielle fonctionnelle à 67 % dans le secteur de la santé Entretien Jessica Leygues (Medicen): "Nous créons un nouvel axe stratégique très fort dédié à la data et l'IA" L'AMI "Santé numérique" est ouvert Droit Devant Les solutions numériques en santé ont désormais une classification HAS