Accueil > Parcours de soins > Gestion de la data > Le modèle de “système de santé apprenant” défendu lors d’un forum de la FDA Le modèle de “système de santé apprenant” défendu lors d’un forum de la FDA L’édition 2019 du forum scientifique de la FDA s’est tenue les 11 et 12 septembre. Il y a été notamment question du modèle de “learning health system” mais aussi de la difficulté de se fier à l’intelligence artificielle ou de trier la masse de données de santé désormais utilisables. Par . Publié le 01 octobre 2019 à 12h32 - Mis à jour le 01 octobre 2019 à 12h32 Ressources Tous les deux ans, depuis 2015, la Food & Drug Administration (FDA) américaine organise un forum scientifique ouvert au public où ses scientifiques et chercheurs exposent ce qu’est la “science réglementaire”. À savoir comment la FDA utilise les nouvelles technologies. Cette année, le forum se tenait les 11 et 12 septembre, dans les locaux de l’agence, dans le Maryland. Sean Mackey, professeur d’anesthésiologie à l’université Stanford et spécialisé dans le traitement de la douleur, y a longuement défendu le principe de “learning health care system”, une forme de système de santé qui, grâce au recueil de données, intègre dans la pratique quotidienne des praticiens des processus de production de connaissances afin d’améliorer continuellement les soins. Un système dans lequel “les données informent la pratique et la pratique informe les données” : la recherche se rapproche de la pratique clinique plutôt que de rester universitaire, les essais se déroulent dans des conditions de vie réelle, les données de santé sont collectées, agrégées et rapidement structurées pour être facilement intégrées à la pratique. Pour ce faire, les données sur lesquels les “learning health systems” reposent doivent respecter selon Sean Mackey six critères : variété, volume, vélocité, variabilité, validité et valeur. Des principes qu’il s’est lui-même appliqués en créant le programme CHOIR, pour Collaborative health outcomes information registry : une plateforme de “learning health system” gratuite et disponible en open source. “Nous l’utilisons pour l’aide à la décision, pour la découverte de biomarqueurs, pour la réalisation d’essais cliniques en vie réelle. Tout est placé sur Google Cloud et plus de 100 M$ y ont été investis. Nous avons fait en sorte de rendre le système facile d’utilisation pour les cliniciens et avons à ce jour collecté les données de plus de 50 000 patients dans quelque 100 000 études longitudinales. Nous avons construit un moteur de fouille de données. Les dossiers médicaux électroniques y sont intégrés. Et le programme a fait l’objet de 25 à 30 publications. L’idée est de faire de nos hôpitaux des laboratoires de recherche”. Car chaque patient qui fournira de la donnée de qualité aidera non seulement à adapter son traitement mais “nous aidera pour le développement de futurs traitements”. Les données cliniques fournies deviennent en effet des données de qualité suffisante pour la recherche. L’apprentissage automatique, une “boîte noire” Si CHOIR semble être un succès, Sean Mackey a admis avoir eu à relever trois défis : le coût de ce type de plateforme, la méfiance des patients – “personne ne veut vous donner ses données pour qu’elles soient agrégées” – et la législation. C’est notamment pour ces raisons qu’a été développé un modèle de calcul distribué : au lieu de partager la donnée, la plateforme fonctionne en réseau. “Le programme d’analyse y est partagé puis distribué sur les différents sites de CHOIR. Aucune donnée ne quitte ainsi les sites locaux.” Un choix qui fait penser au projet Substra en cours de mise en place en France. Pour autant, il a été interrogé à l’issue de sa session sur la confiance qui peut être portée à des modèles statistiques ou informatiques : “nous voyons l’intérêt de bénéficier de plus en plus de données et ce que cela apporte à la médecine de précision. Nous en sommes ainsi à parler apprentissage automatique et intelligence artificielle mais nous obtenons des réponses sans savoir comment nous y sommes arrivés”. Sean Mackey compare en effet les modèles d’apprentissage automatique à des boîtes noires : “c’est pour moi l’un des plus grands défis. Je ne peux pas regarder dans la boîte et voir quels facteurs ont permis d’arriver à telle décision. Beaucoup de praticiens n’auront pas confiance dans ces nouvelles approches. Mais je pense que, lorsque nous en comprendrons les mécanismes, nous nous y fierons davantage. Cela ne signifie pas que les méthodes de deep learning n’ont pas d’avenir, ce n’est pas mon message. Elles fonctionnent très bien d’ailleurs dans le dépistage, mais elles sont ensuite validées par un professionnel et nous pouvons alors saisir pourquoi elles ont abouti à telle réponse”. Bakul Patel, directeur du département Santé digitale de la FDA, a abondé : “jusqu’à présent, les médecins étudient quelque chose puis l’appliquent. Ici, c’est l’opposé. Nous entraînons des outils d’apprentissage automatique sans savoir exactement comment. Nous n’avons pas encore trouvé comment rendre humainement compréhensibles ces méthodes. Je pense que cela prendra encore du temps avant d’être confortable avec ces outils et de nous appuyer sur ces méthodes prêtes à l’emploi”. “Distinguer le signal du bruit” face au big data Enfin, à la question de la définition d’une donnée de santé réellement utile pour la médecine de précision et que devrait donc intégrer la FDA, maintenant que peuvent être collectées des informations telles que la pression artérielle, le régime diététique, les revenus ou “combien de fois vos enfants vous ont réveillé dans la nuit”, tous deux ont admis ne pas pouvoir encore y répondre. Selon Sean Mackey, “en réalité, tout est aujourd’hui basé sur des croyances. Lorsque nous avons commencé à travaillé avec les National health institutes (NIH), nous devions définir cinq données à collecter. Nous nous sommes demandé “qu’est-il important de mesurer ?… Aucune idée, mesurons tout !” Au bout d’un mois et de 1 000 patients, en analysant les données recueillies, nous avons constaté que l’une des cinq était inutile. In fine, nous nous sommes débarrassés de deux mesures. C’est un exemple”. Bakul Patel estime en effet que “nous faisons face à tant d’inconnues qu’il faut bien commencer quelque part”. Toutefois, il appelle à de la méthodologie, de la rigueur : “le coût de la mesure est réel et nous ne devons pas perdre de temps. Nous devons trouver comment distinguer le signal du bruit. C’est la dichotomie de la donnée contre laquelle nous luttons”. big dataDonnées de santéEssais cliniquesIntelligence Artificielleobjets connectésRecherchevie réelle Besoin d’informations complémentaires ? Contactez le service d’études à la demande de mind