Accueil > Industrie > TENDANCES 2025 – IA générative : quelles régulations après les premiers déploiements ? TENDANCES 2025 – IA générative : quelles régulations après les premiers déploiements ? mind Health décrypte 10 tendances qui marqueront l'année 2025. L’univers de la santé n’échappe pas à l'engouement pour l'intelligence artificielle (IA) générative. Les questions qui se posent désormais concernent l’évaluation et la régulation de ces grands modèles. Par Clarisse Treilles. Publié le 28 janvier 2025 à 8h00 - Mis à jour le 28 janvier 2025 à 17h10 Ressources Depuis l’explosion de l’intelligence artificielle générative et le développement des grands modèles généralistes tels que OpenAI et Mistral AI, les entreprises en santé s’appuient sur ces LLM sur-entraînés pour inventer de nouveaux services et produits. L’IA générative a pris une place centrale dans le développement des médicaments et des soins personnalisés. L’IA ambiante a fait son entrée dans les cabinets, soulageant les charges administratives des médecins. La rédaction automatisée de comptes-rendus, la collecte d’informations via des interfaces conversationnelles ou encore l’aide à la prescription sont des cas d’usage en plein essor. Les questions qui se posent aujourd’hui concernent l’évaluation et la régulation de ces modèles. Comment s’assurer des bonnes pratiques ? Quels outils choisir ? Comment évaluer leur pertinence et leur efficacité ? Signaux forts et faibles : Le secteur de la santé et des dispositifs médicaux va être amené à intégrer l’IA Act dès 2026. Le nouveau cadre juridique européen, très dense, régule l’usage de l’intelligence artificielle, dont l’IA générative. Le projet “PARTAGES” est l’un des lauréats de l’appel à projets France 2030 sur l’IA générative. Coordonné par le Health Data Hub et porté par un consortium de 32 partenaires incluant des laboratoires de recherches (du CNRS, de l’INRIA ou de diverses universités), des établissements de santé publics et privés, et des entreprises, ce projet vise à concevoir un grand modèle de langue francophone et adapté au secteur de la santé. Chez Docaposte, l’IA générative fait partie des sujets forts pour 2025 : Dominique Pon a annoncé le 15 octobre 2024 le lancement de “Dalvia Lab”, une plateforme d’expérimentation de son IA. La Haute Autorité de santé (HAS) a inscrit l’IA générative à sa feuille de route pour les prochaines années. La mission du numérique en santé, créée en 2021, a ouvert un chantier sur l’IA pour accompagner les usages. Au travers d’une série d’entretiens et d’une analyse de la littérature, les responsables identifient les besoins et les points d’inquiétude sur l’usage des LLM, afin de rédiger un plan d’action. La Cnil a publié en avril 2024 ses premières recommandations sur le développement des systèmes d’intelligence artificielle, pour concilier les enjeux juridiques et techniques liés à l’application du RGPD à l’IA. “De nombreux acteurs ont fait part à la Cnil de questionnements concernant l’application du règlement général sur la protection des données (RGPD) à l’intelligence artificielle (IA), en particulier depuis l’émergence de systèmes d’IA génératives” justifiait la Cnil. En 2025, Unicancer va lancer une formation dédiée à l’IA générative ouverte aux professionnels médicaux et soignants, ainsi qu’à l’ensemble des professionnels des établissements affiliés. La société américaine Hippocratic AI, qui développe des grands modèles de langage en santé, a annoncé en septembre 2024 qu’elle allait créer un programme académique certifiant visant à former les cliniciens à l’utilisation de l’IA en médecine. L’Organisation mondiale de la Santé (OMS) a publié en janvier 2024 de nouvelles lignes directrices sur l’éthique et la gouvernance des grands modèles multimodaux (LMM), destinées aux gouvernements, aux entreprises technologiques et aux fournisseurs de soins de santé. Aux Etats-Unis, un executive order avait été publié par la Maison Blanche le 30 octobre 2023 pour sécuriser l’usage de l’IA. Toutefois, ce décret a été abrogé par la nouvelle administration Trump le jour même de l’investiture le 20 janvier. La FDA commence à se pencher sur la régulation de l’IA générative. Ce sujet est notamment apparu au cours de la toute première réunion de son comité consultatif sur la santé numérique en novembre 2024. À ce jour, l’agence a autorisé près de 1 000 dispositifs médicaux intégrant de l’IA, mais aucun de ces dispositifs n’utilise l’IA générative. Au Royaume-Uni, la première édition de l’AI Safety Summit s’est tenue en novembre 2023. Le NICE (National Institute for Health and Care Excellence) a, de son côté, publié un document sur l’utilisation potentielle de l’IA, incluant l’IA générative, dans la génération de preuves pour évaluer les technologies de santé. Cette déclaration donne à voir son point de vue sur les méthodes d’IA dans la génération et la communication des preuves prises en compte par ses programmes d’évaluation. Google DeepMind a présenté en décembre 2024 un benchmark pour “évaluer les facultés des grands modèles de langage”. Baptisé FACTS Grounding, il vise à calculer le degré de précision avec lequel les LLM “fondent leurs réponses sur les sources fournies et évitent les hallucinations”. Pourquoi c’est important ? L’IA générative apporte son lot de risques (hallucination, incertitudes sur les données d’entraînement, taille des modèles, etc.), rendant son évaluation complexe. Intelligence artificielle : comment les biais influencent les modèles en santé ? Pour lutter contre les potentielles erreurs et établir des règles communes pour une concurrence équitable au sein du marché européen, l’Europe s’est engagée sur la voie de la régulation, avec une prolifération de textes qui s’entrecroisent. “Il y a une production de textes très prolifique s’agissant de l’innovation et la santé, comme l’AI Act et le Data Government Act, et des textes sectoriels comme l’EHDS, qui sont des réglementations à prendre en compte pour implémenter correctement le AI Act” a souligné Jérôme Fabiano, Deputy Managing Director chez EIT Health, à mind Health. “Ces textes, dit-il, vont faire l’objet d’analyses par les États membres pour voir, d’un point de vue matriciel, entre les obligations transverses et les obligations sectorielles, comment ces textes doivent être interprétés de façon claire et efficace, et comment il faut communiquer dessus. Nous ne savons pas encore comment cela va se passer. Des bacs à sable réglementaires vont sans doute se mettre en place pour tester les IA, et a fortiori les IA génératives”. Des investigations ont démarré du côté de la HAS, de la FDA et du NICE pour savoir comment mettre en musique ces IA génératives, même s’il n’existe pas à date de consensus international sur la façon d’évaluer la technologie dans le secteur de la santé. “Normalement, lorsqu’un nouveau dispositif ou un nouveau médicament arrive sur le marché américain, la Food and Drug Administration (FDA) l’examine pour en vérifier la sécurité et l’efficacité avant qu’il ne soit largement disponible. Malheureusement, l’approche habituelle visant à protéger le public et à aider les médecins et les hôpitaux à gérer les nouvelles technologies de soins de santé ne fonctionnera pas pour l’IA générative. Pour tirer pleinement parti des avantages cliniques de cette technologie tout en minimisant ses risques, nous aurons besoin d’une approche réglementaire aussi innovante que l’IA générative elle-même” évoquait en septembre dernier un article paru dans Harvard Business Review. IA générative : où sont les opportunités en santé ? Analyses et perspectives pour 2025 Xavier Tannier, directeur du LIMICS “Après une phase d’euphorie, qui a accueilli des déploiements à tout-va, la situation semble aujourd’hui se calmer pour se mettre en ordre de bataille”, indique à mind Health Xavier Tannier, directeur du LIMICS, laboratoire de recherche en informatique pour la santé. “La réflexion est maintenant de savoir comment évaluer proprement l’IA générative et dans quelle situation elle s’avère vraiment utile. En revanche, son évaluation est loin d’être simple, car les métriques classiques ne sont plus aussi pertinentes.” La Haute Autorité de santé devrait sortir un plan d’actions courant 2025. L’enjeu n’est pas de “créer une couche de régulation supplémentaire” mais bien de “structurer les cadres d’usage” assure Aude Rochereau, cheffe de projet à la mission numérique en santé de la HAS, à mind Health. Aux États-Unis, en revanche, l’arrivée de Donald Trump entraîne une vague de dérégulation qui n’épargne pas le secteur de la santé. Le décret de 2023 sécurisant l’usage de l’intelligence artificielle dans tous les secteurs a d’ores et déjà été abrogé par Donald Trump le 20 janvier 2025. Publié en octobre 2023, ce décret prévoyait que les développeurs de systèmes d’IA “les plus puissants” partagent leurs résultats de tests de sécurité avec le gouvernement. Mais également que les entreprises développant des modèles de base qui présentent un risque “sérieux” pour la sécurité ou la santé publique devront informer les autorités lors de la formation du modèle. Le 21 janvier, Donald Trump a annoncé un investissement de 500 Mds $ pour doper l’intelligence artificielle. Cris Ross, ex-Chief Information Officer de la Mayo Clinic, a partagé son analyse lors du Health & Tech summit 2024 qui s’est tenu à PariSanté Campus en décembre dernier : “Il est facile de déréguler, mais plus difficile de réguler, a-t-il confié. Je pense que les entités qui ont tenté jusqu’à présent d’utiliser les données pour faire de la médecine de précision ont utilisé une base éthique. Dans un environnement plus dérégulé, on verra certainement plus de “mauvais acteurs” utiliser des données de manière inappropriée.” Clarisse Treilles Données de santéia générativeRechercheRèglementairestart-up Besoin d’informations complémentaires ? Contactez le service d’études à la demande de mind