Accueil > Industrie > LLM : nouvelle obsession et/ou vraie révolution ? LLM : nouvelle obsession et/ou vraie révolution ? Cela faisait des années que les organisateurs du congrès HIMSS, n’avaient pas connu une telle effervescence autour d’une nouvelle technologie. À défaut d’être présents dans toutes les solutions exposées, les Large Language Models (LLM) étaient dans toutes les bouches. Car l’ensemble de l’écosystème de la santé numérique s'interroge aujourd'hui sur ses possibles cas d’usage… Par Romain Bonfillon. Publié le 25 avril 2023 à 22h50 - Mis à jour le 17 janvier 2024 à 17h09 Ressources Déceler une tendance prégnante parmi les centaines d’innovations technologiques présentées chaque année au congrès HIMSS est parfois un exercice difficile, qui expose au débat. S’agissant de ChatGPT, et plus largement des grands modèles de langage, le raz-de-marée est tel, dans les conversations des acteurs comme dans les dizaines de keynotes dédiées, qu’aucun doute n’est permis : nous sommes face à une vague de fond, aussi massive qu’inattendue. L’un des premiers surpris a peut-être été Julius Bogdan, analyste spécialisé en IA qui dirige, pour tout le secteur de l’Amérique du Nord, le cabinet de conseil de la Healthcare Information and Management Systems Society (HIMSS).”Le domaine de la santé a mis au moins 10 ans à adopter l’intelligence artificielle traditionnelle, et son impact a mis du temps à se faire sentir, rappelle-t-il. L’IA générative a surgi de manière beaucoup plus rapide. Ce qui me surprend le plus est la rapidité avec laquelle elle a rapidement été intégrée au système de soins. L’annonce récente d’Epic, qui va intégrer ChatGPT dans son dossier patient informatisé (DPI), est énorme ! Epic est le DPI le plus utilisé aux États-Unis et a mis des années à intégrer progressivement des outils d’IA traditionnels.” Comment expliquer un tel phénomène ? “La principale raison est, selon moi, qu’avec ChatGPT, il n’est pas seulement question de soin, poursuit Julius Bogdan. ChatGPT est apparu l’an dernier et compte aujourd’hui plus de 100 millions d’utilisateurs à travers le monde. Cette technologie a donc simultanément attiré l’attention de toutes les industries, y compris celle du soin.” LLM, un “buzzword” ? Dans les allées du salon HIMSS 2023, à proximité des stands d’Epic et de 3M Sans parler de “mode”, il nous faut constater qu’en dehors des stands – bondés d’Epic, de Nuance, de 3M (et de quelques petites start-up qui proposent, à l’instar de l’indienne Reya – des chatbots s’appuyant sur ChatGPT-4), la déferlante des LLM ne s’est pas encore traduite en très large proposition de produits. “Comme l’a été l’IA traditionnelle à ses débuts, l’IA générative, et en particulier ChatGPT, est aussi un buzzword, analyse Julius Bogdan. Concrètement, nous n’avons pas encore de catalogues de solutions dans lesquelles les hôpitaux, ou les médecins, pourraient aller piocher. Ces technologies n’en sont qu’à la phase précoce de leur développement, pas encore à la phase marketing”, résume-t-il. Le directeur exécutif de l’initiative @Hôtel-Dieu affiche la même prudence, et relativise : “il existe des acteurs économiques qui creusent le même sillon des LLM depuis des années, sur des solutions plus servicielles et moins anecdotiques que ChatGPT”, affirme Nicolas Castoldi, citant en exemple le positionnement intéressant de la française Nabla qui propose une solution permettant aux soignants qui suivent des patients à distance “une série de réactions de base. Le soignant peut corriger, ajuster ce qui lui est proposé. C’est une proposition de premier niveau, qui est un usage possible de ce genre de technologie”, analyse-t-il. Quels premiers cas d’usage ? “Les chatbots sont là où les IA génératives peuvent être intégrées le plus facilement et le plus rapidement”, confirme Julius Bogdan, qui prédit des “progrès spectaculaires” dans ce domaine. “Elles iront beaucoup plus loin que les agents conversationnels actuels qui permettent de dire à quelle heure l’établissement est ouvert, quel est le numéro de téléphone de tel service hospitalier, résume-t-il. Les médecins pourront l’utiliser dans les phases d’après-traitement, pour fournir des explications très complètes au patient”. La grande question, au centre de tous les fantasmes et de toutes les inquiétudes, reste celle de la capacité de ces intelligences à poser un diagnostic médical. Lors de la session plénière qui ouvrait le congrès HIMSS, Peter Lee, vice-président de Microsoft, en charge de la recherche, a prédit que ces IA génératives pourront jouer le rôle d’assistant du médecin et l’aider à établir un diagnostic. IA générative : ChatGPT a-t-il un avenir dans la santé? Mais les médecins ne sont pas les seuls à s’interroger sur les possibles cas d’usage de ces nouvelles IA. Les acteurs du médicament s’y intéressent également, à l’instar de Clément Goehrs, le CEO de la start-up française Synapse Medicine. “En tant qu’entreprise basée sur l’IA comme outil d’aide à la décision, nous avons naturellement déjà travaillé sur ces IA génératives. Mais notre but reste d’apporter de la valeur et pas d’entrer dans une course en avant, comme beaucoup de sociétés actuellement, pour sortir rapidement une solution de la boîte”, affirme-t-il, faisant le constat que “toutes les entreprises du secteur ont des programmes d’IA et cherchent à se positionner sur cette thématique, c’est une tendance lourde. Mais il est difficile de dire pour l’instant comment ces technologies vont trouver leur place. Il y a des modèles qui sont hyper faciles à comprendre, comme Nuance, qui va se servir de cette IA pour la retranscription et la synthèse d’entretiens médicaux. S’agissant de la valeur ajoutée médicale, il est encore un peu tôt pour se prononcer”, indique-t-il, anticipant simplement le fait que ces “systèmes seront forcément régulés par les autorités de santé comme la FDA. Pour l’heure, ces technologies nous permettent d’aller encore plus vite sur notre programme de R&D” explique-t-il, promettant une annonce sur le sujet au salon SantExpo (du 23 au 25 mai à Paris). Comment faire progresser ces IA en santé ? Concernant la valeur médicale des LLM, il reste encore quelques freins, identifiés par Julius Bogdan. “Le problème aujourd’hui avec ChatGPT est que cette technologie est entraînée sur un jeu de données extrêmement large, qui correspond peu ou prou au contenu d’internet. Sam Altman, le CEO d’OpenAI, a expliqué que la prochaine étape de son développement sera la création de larges bibliothèques de données, spécifiques à chaque industrie. Il y aura donc, dans le futur, une bibliothèque de données spécifique au retail, à la finance, à la santé. Il faut ici rappeler que la médecine a un langage spécifique, un jargon, qui est utilisé pour désigner des problèmes de santé très spécifiques et le risque de biais est grand. Cette question est en rapport avec ce que l’on appelle des ontologies. Les ontologies sont l’ingénierie humaine qui permet de bâtir une sorte de dictionnaire”, explique-t-il. Parmi ces modèles de données spécifiques à la médecine, citons SNOMED et ICD10. “Sans ces ontologies, il est difficile de cartographier de manière large ce que l’IA générative fait d’un problème de santé spécifique, poursuit Julius Bogdan. La prochaine consistera donc à entraîner une IA générative spécifique au domaine du soin et à créer parallèlement une ontologie beaucoup plus globale qui puisse décrire et traduire dans un langage médical universel la totalité des problèmes de santé existants. Sous ces deux conditions seulement, il sera possible de faire réellement avancer les capacités diagnostiques des IA génératives”. À noter que, selon le directeur général de la start-up Lovelace AI, Andrew Moore, “les hôpitaux ont leur rôle à jouer dans l’émergence de ces IA au service du soin. Ils doivent prendre toute leur place et ne pas attendre que des géants comme OpenAI (dont Microsoft est le partenaire officiel) leur invente des cas d’usage”, a-t-il expliqué en substance, lors d’une keynote de HIMSS 2023. “Les grands modèles de langage (LLM) existent déjà et c’est aux utilisateurs finaux de les utiliser pour inventer des applications possibles…et ne pas dépendre des géants américains”, a-t-il conseillé, face à un parterre de délégations hospitalières venues du monde entier. “L’IA est un outil d’aide à la décision, pas un outil de décision” Julius Bogdan, analyste spécialisé en IA et directeur du cabinet de conseil de HIMSS pour l’Amérique du Nord Et l’humain dans tout ça ? Une intelligence artificielle pourrait-elle, demain, remplacer le médecin, en particulier pendant la phase diagnostique ? “Il y a 10 ans, l’IA promettait déjà de remplacer les médecins généralistes et tous les autres. Nous allions tous, selon les premiers éditeurs de solutions, pouvoir faire notre autodiagnostic avec notre téléphone portable, s’amuse Julius Bogdan. Nous n’y sommes pas encore, parce qu’il faut bien comprendre la fonction première de cette technologie, qui est d’augmenter les capacités du médecin. Elle est là pour lui faire gagner du temps, notamment sur les tâches administratives et c’est à ce dernier qu’il incombe de valider, ou pas, ce que l’IA lui annonce. L’IA est un outil d’aide à la décision, pas un outil de décision.” Pour Clément Goehrs, dont la start-up vise à réduire le risque médicamenteux, il est également hors de question de se passer d’une intervention humaine. “Même une marge de 1% ou 2% d’erreur ne serait pas acceptable et nous ne pouvons pas nous permettre d’utiliser une IA générative qui, à une question posée, nous répondrait “probablement” ou “peut-être”, explique-t-il. Et de conclure : notre intérêt est d’apporter le meilleur des deux mondes : la partie générative qui permet un confort et un gain de temps, tout en amenant la sécurité absolue au travers d’une intervention humaine qui valide.” Quels risques ? “Le risque de porter préjudice au patient n’incombe pas à l’IA, rappelle Julius Bogdan, il provient du faux diagnostic qui reste encore et toujours aujourd’hui posé par le médecin. Lorsque vous abandonnez vos décisions médicales à un algorithme, vous perdez le contrôle sur les limites de ces intelligences, il faut être très prudent.” Aussi interrogé sur la demande d’Elon Musk (et de 1400 scientifiques et experts en IA, dans le cadre d’une lettre ouverte) d’établir un moratoire sur le développement des IA génératives, pour laisser le temps d’en évaluer les risques, Julius Bogdan semble, en premier lieu, plutôt favorable à cette initiative : “dans le principe, son intention n’est pas mauvaise, dire qu’il faut porter une attention particulière au développement de ces IA me paraît utile. Mais en même temps, nuance-t-il, c’est un peu vain. La course est lancée, il est trop tard. Il nous faut maintenant explorer, de manière la plus sécurisée possible, quelles peuvent être les applications concrètes de ces nouvelles intelligences. C’est cette exploration qui va nous permettre de les faire progresser et aussi d’en connaître les limites. Chaque technologie avance en tâtonnant, c’est aussi ce qui rend l’aventure excitante, fait-il remarquer. Maintenant, je comprends très bien pourquoi Elon Musk a pris cette position. Vous aurez remarqué qu’il vient de créer sa propre entreprise d’intelligence artificielle. Faites ce que je dis, pas ce que je fais…” “Faudra-t-il, lorsque le patient aura subi un dommage, faire un procès contre l’IA ou contre le médecin qui l’utilise ?” Kay Firth-Butterfield, avocate et CEO du Centre for Trustworthy Technology Pour l’avocate et CEO du Centre for Trustworthy Technology Kay Firth-Butterfield, l’émergence des IA générative dans le domaine du soin pose de nombreuses questions de responsabilité. “Faudra-t-il, lorsque le patient aura subi un dommage, faire un procès contre l’IA ou contre le médecin qui l’utilise ? Et comment pourra-t-on s’assurer que ce dernier a fait toutes les vérifications nécessaires ?” s’est interrogée l’experte en management des systèmes d’IA, dans le cadre de la conférence plénière. L’une des principales difficultés pour établir une responsabilité demeure l’effet “boîte noire”, propre à l’IA et qui n’échappe pas aux LLM. Concernant ChatGPT, il est impossible de mettre au jour et de pointer une source particulière qui lui a permis de générer telle réponse, tant la quantité des données qui l’alimentent est gigantesque. Il n’est pas plus envisageable d’en révéler le code source, ce dernier étant en évolution permanente s’agissant d’une solution de machine learning. Les systèmes LLM sont capables de prédire des mots mais ne peuvent pas réfléchir à leur sens. “Peut-on se contenter de la réponse de l’IA sans comprendre ce qui a permis de la générer ?” s’interroge Reid Blackman, fondateur et directeur de Virtue, un cabinet de conseil spécialisé dans le risque éthique lié au numérique. Quelles pistes de création de valeur ? “Chaque technologie disruptive a la particularité de débuter sans modèle économique, il lui faut l’inventer, rappelle Julius Bogdan. Des technologies comme les LLM créent de nouveaux métiers, elles bouleversent plusieurs industries, et peuvent même devenir une industrie à part entière. Je n’ai pas de boule de cristal et il nous reste à découvrir comment on peut faire de l’argent avec.” Aujourd’hui tout le monde peut utiliser ChatGPT gratuitement. Mais il faut se rappeler que ChatGPT a été construit à partir de données recueillies sur internet. C’est grâce à nos usages que cet outil s’affine et lorsque l’on dit qu’il n’y a pas encore de débouché économique, rappelons nous seulement du montant du partenariat entre OpenAI et Microsoft. “Dix milliards de dollars, c’est une offre commerciale plutôt correcte !”, plaisante Julius Bogdan. Antoine Tesnière, directeur général de PariSanté Campus, lors du congrès HIMSS 2023 Frappé également par l’émergence des IA génératives, Antoine Tesnière, directeur général de PariSanté Campus, prédit que “les outils de collecte d’information, d’analyse des données, de diagnostic et de suivi vont s’interfacer rapidement avec les outils de monitoring.” “L’arrivée de ChatGPT a rendu ces éléments visibles, ils étaient auparavant très experts, analyse-t-il. Il est compliqué d’expliquer au grand public comment un algorithme va analyser des niveaux de grille sur un scanner. Alors qu’ici, en posant une question, on obtient une réponse précise, structurée, dans toutes les langues.” Des premières applications émergent d’ailleurs : “ChatGPT ne fait pas tout, mais des sociétés développent des applications qui se basent sur son LLM et qui vont ajuster pouvoir produire du diagnostic, constate-t-il. On en voit déjà apparaître aux États Unis. L’enjeu est de taille pour que la France et l’Europe soient positionnées dans la production de ces modèles de langage, qui vont modifier la manière de prendre en charge les patients.” Romain Bonfillon Algorithmeschatbotdossier patient informatiséHIMSSIntelligence ArtificielleMarchéOutils numériques Besoin d’informations complémentaires ? Contactez le service d’études à la demande de mind À lire Les premiers pas de ChatGPT en santé ChatGPT passé au crible dans le domaine de la prévention des maladies cardiovasculaires