Accueil > Parcours de soins > L’implémentation timide de l’IA dans la pharma L’implémentation timide de l’IA dans la pharma Malgré des milliards investis par l’industrie pharmaceutique pour intégrer l’intelligence artificielle à ses activités de R&D, l’IA peine encore à s’imposer uniformément dans ce secteur industriel très réglementé. Lors d’une matinée organisée le 23 septembre par TechToMed sur l’IA & les ressources humaines dans la pharma, les invités ont dressé la liste des principaux freins. Par Clarisse Treilles. Publié le 24 septembre 2025 à 17h25 - Mis à jour le 24 septembre 2025 à 17h29 Ressources Hormis les phases de recherche précliniques, où l’IA est devenue quasi incontournable pour faire progresser les pipelines de candidats médicaments, le monde de la pharma adopte encore timidement les outils d’IA et les LLMs généralistes, peu adaptés aux métiers et aux risques de sécurité propres à ce secteur réglementé. “L’intégration de l’IA dans les entreprises, et plus particulièrement dans l’industrie pharmaceutique, se heurte à de nombreux obstacles. Ces freins sont souvent dus à une résistance au changement, des craintes infondées et une méconnaissance du fonctionnement de l’IA” constate Vincent Kemmoun, président de la société Jarvis-Med, qui développe des solutions d’IA appliquées à l’industrie pharma. Des bots pour former les visiteurs médicaux Il constate que l’organisation des entreprises n’est pas toujours optimale pour combler ce retard. “Les DSI freinent souvent l’intégration de l’IA, et il y a un manque de formation et d’accompagnement”, dit-il. “Les DSI ne sont généralement pas en prise directe avec la stratégie globale d’IA, qui est plutôt placée sous la responsabilité d’un Chief AI Officer global, lorsque ce poste existe”, souligne Loïc Touranchet, employment law partner au sein du cabinet Actance. Dans un rapport sur l’emploi dans l’industrie pharmaceutique, le Leem constate que près de 3000 postes supplémentaires seront à pourvoir d’ici 2030 pour combler les compétences spécifiques autour des métiers de la data, de l’intelligence artificielle et de la cybersécurité. Vincent Kemmoun note que les prompt engineers feront partie des compétences les plus recherchées dans les prochaines années, pour travailler notamment sur des assistants d’IA. Vincent Kemmoun a commencé à intégrer plusieurs cas d’usage spécifiques à la pharma au sein de sa plateforme Bot4lab (recherche et synthèse d’articles scientifiques, accès simplifié aux essais cliniques en langage naturel, etc.). Il travaille actuellement sur des bots pour former des visiteurs médicaux. “L’IA permet de générer des cas cliniques référencés. Le bot est configuré pour créer différents profils de médecins avec lesquels les visiteurs peuvent dialoguer” explique Vincent Kemmoun. Les risques de “Shadow AI” Sans cadre stratégique sur l’IA clairement défini, l’un des principaux risques est de favoriser le phénomène de “Shadow AI” auquel les entreprises sont souvent confrontées mais qui reste difficile à mesurer. “Une mauvaise utilisation peut produire des résultats qui sont faux ou trompeurs, conduisant à prendre des décisions à partir d’informations erronées ou à faire fuiter des données sensibles” souligne Vincent Kemmoun. Que deviennent les données une fois introduites dans une IA générative ? Les experts qui travaillent sur l’IA en santé sont formels : il est impossible de le savoir. L’une des solutions consiste à créer un modèle d’IA “fermé”, qui fonctionne sur des bases de données internes. Certains laboratoires ont déjà le leur, même si ce processus implique plusieurs étapes contraignantes, relève Vincent Kemmoun : “Tout d’abord, il faut structurer, vectoriser, travailler et organiser les données afin qu’elles puissent être utilisées pour entraîner les modèles. Ensuite, une infrastructure adéquate est indispensable. Cela peut aller d’un simple ordinateur pour une petite application à des GPU (processeurs graphiques) pour des volumes de données et des entraînements massifs impliquant des milliards de paramètres. L’investissement peut être considérable : par exemple, le coût pour une pharma pour créer son propre modèle de langage interne est estimé entre 70 et 100 M€, quand cela concerne le drug discovery”. Amgen diversifie les cas d’usage des LLMs et des outils d’IA générative Une autre option consiste à utiliser des services cloud sécurisés. “Dans ce cas, précise Vincent Kemmoun, vous pouvez héberger vos données internes sur un cloud et les encrypter avec une clé qui garantit que vous seul avez accès aux entrées et aux sorties de ces données”. Clarisse Treilles Intelligence ArtificielleLaboratoiresOutils numériquesRechercheRessources humainesStratégie Besoin d’informations complémentaires ? Contactez le service d’études à la demande de mind