Objet de curiosité, de sarcasmes ou de craintes, ChatGPT connaît depuis le début de l’année une notoriété qui dépasse le cadre de la simple innovation technologique et interroge plus largement l’apport des IA génératives. Déjà expérimenté dans certains secteurs, ChatGPT peut-il se frayer un chemin dans celui, très réglementé, de la santé ?

De quoi parle-t-on ?

Lancé par l’entreprise américaine OpenAI, ChatGPT est un agent conversationnel capable de générer automatiquement du texte plausible et cohérent. Pour cela, il se base sur un grand modèle de langage (LLM) génératif pré entraîné qui, à partir de scores de probabilités, va prédire la suite de mots à générer à partir d’un texte d’amorce. Concrètement, ChatGPT propose donc le texte le plus probable à partir de la suite de mots donnée en entrée, et génère ainsi un texte plausible. Point essentiel : la cohérence du texte proposé par ChatGPT, bien que bluffante parfois, ne signifie pas toutefois que le texte est véridique. C’est pour cela que l’on parle de texte « plausible ».

Pourquoi c’est important ?

ChatGPT a dépassé les 100 millions d’utilisateurs actifs en janvier 2023, à peine deux mois après son lancement. Par comparaison, TikTok a mis neuf mois avant d’atteindre ce cap et Instagram, deux ans et demi. Et ce ne pourrait être qu’un début. Microsoft, qui a investi 1 milliard de dollars dans OpenAI en 2019, a annoncé en janvier un investissement pluriannuel de plusieurs milliards de dollars dans OpenAI et son intention de déployer les modèles d’OpenAI dans ses outils grands publics. Par ailleurs, OpenAI a annoncé le 14 mars le lancement du modèle GPT-4, une version améliorée du modèle GPT-3.5, qui opère actuellement ChatGPT. GPT-4 promet d’être plus fiable et capable de gérer des instructions plus nuancées que la version précédente. La médecine surveille de près les potentiels cas d’usage qui pourraient naître de cette évolution, la découverte de médicaments pourrait en faire partie.

Prudence en santé

De premières expérimentations ont également lieu en santé, pour identifier des cas d’usage potentiels. Le chatbot a ainsi été testé comme un outil d’aide à la prévention des maladies cardiovasculaires. Les professionnels de santé d’AnsibleHealth, une clinique virtuelle américaine spécialisée dans les maladies pulmonaires chroniques, l’ont expérimenté dans la rédaction de lettres ou pour simplifier des rapports de radiologie avant de les transmettre aux patients. Mais le modèle de ChatGPT est aussi connu pour produire des réponses erronées et pour “halluciner” c’est-à-dire « produire des contenus absurdes ou mensongers par rapport à certaines sources » comme le reconnaît OpenAI dans un de ses rapports techniques. Difficile à concilier dans un monde médical où les erreurs peuvent avoir des conséquences fatales. En 2020, lorsque les équipes de la start-up Nabla avaient testé GPT-3 en lui posant des questions médicales, le modèle avait ainsi finir par conseiller à un patient fictif de… se suicider. Cette expérience a conforté Alexandre Lebrun, le PDG de Nabla, dans l’idée qu’utiliser ces modèles pour faire du conseil médical n’était pas la voie à suivre. “Nous nous y attendions mais les résultats ont été catastrophiques, cela nous a confirmé que c’était une mauvaise idée de les utiliser pour remplacer les médecins”, a-t-il confié à mind.

Thomas Gouritin, cofondateur et CEO de la start-up ASISPO

Thomas Gouritin, cofondateur et CEO de la start-up ASISPO, déconseille lui-aussi de prendre les réponses de ChatGPT pour argent comptant en raison de l’effet boîte noire. “Le problème avec des algorithmes de type grands modèles de données, comme GPT-3 et tous les autres qui sont en train de sortir, c’est que nous ne savons pas exactement comment le modèle a été pré entraîné. Le modèle va générer la réponse tout seul, sans trop savoir à partir de quoi, ni comment, prévient-il. Un algorithme bien fait sur la santé devrait dégager plusieurs pistes, chacune liée à un score de confiance, permettant de parvenir à une recommandation éclairée et accompagnée d’une véritable évaluation. Il ne devrait pas donner une réponse générale qui ressemble à une réponse universelle.”

Une question d’entraînement

Autre écueil :  la temporalité des données d’entraînement. “ChatGPT a été entraîné sur des données datant de 2021. Or, la connaissance médicale évolue de manière très rapide”, fait remarquer Chanfi Maoulida, membre du Club Digital Santé, qui dénonce également l’opacité du système d’OpenAI. “Où sont hébergées les données ? Qui les gèrent ? Comment sont-elles vérifiées ? Ce sont des informations que nous n’avons pas. Cela pose question, alors que dans le domaine de la santé, il est demandé aujourd’hui d’avoir un hébergement en France”. Adel Mebarki, cofondateur et directeur général de Kap Code, résume ainsi la problématique de l’outil : “Nous ne savons pas aujourd’hui à quel degré nous pouvons faire confiance à ChatGPT”.

Adel Mebarki, cofondateur et directeur général de Kap Code

En outre, ChatGPT est un modèle généraliste qui n’a pas uniquement été pré-entraîné pour la génération de textes biomédicaux, mais s’appuie sur des corpus de textes dont la nature et le contenu sont variés. Le fait que ChatGPT ne soit pas conçu spécifiquement pour des usages en santé est précisément la raison pour laquelle il doit être écarté des applications médicales risquées, estiment des experts interrogés par mind. Mais l’apport de ChatGPT pourrait être ailleurs, pour aider à la documentation scientifique grâce à sa capacité à résumer des textes par exemple. Ou dans l’accompagnement des maladies chroniques et dans l’aide à l’observance des traitements.

>> Pour aller plus loin, decrouvez notre analyse publiée sur mind Pro : IA générative : ChatGPT a-t-il un avenir dans la santé?