• Contenus gratuits
  • Notre offre
Menu
  • Ressources
    • Toutes les ressources
  • Infos
    • Toutes les infos
  • Essentiels
    • Tous les essentiels
  • Analyses
    • Toutes les analyses
  • Data
    • Data
  • Newsletters
  • Profil
    • Je teste 15 jours
    • Je me connecte
  • Profil
    • Mon profil
    • Je me déconnecte
CLOSE

Accueil > Parcours de soins > Gestion de la data > Essais cliniques : Les étapes pour utiliser les données disponibles

Essais cliniques : Les étapes pour utiliser les données disponibles

Alors que les coûts de R&D pour la mise sur le marché d'une nouvelle molécule sont compris entre 1 à 3 milliards de dollars, les solutions utilisant le big data, les analyses de grandes bases de données et l’intelligence artificielle sont de plus en plus citées par les laboratoires pharmaceutiques pour réduire ces coûts et optimiser certaines étapes. Pourtant, avant de mettre en place ces systèmes, la définition de la finalité, la réalisation de cartographies des sources puis de nettoyage des données disponibles semblent être un passage obligé. Retour sur les différentes possibilités.

Par Aurélie Dureuil. Publié le 09 juillet 2018 à 16h40 - Mis à jour le 09 juillet 2018 à 16h40
  • Ressources

Avec l’essor des biotechnologies, de la médecine de précision, etc. les coûts pour la recherche et le développement de nouvelles molécules thérapeutiques ont augmenté ces dernières années. Suivant les analyses, les estimations s’échelonnent à des montants d’environ un milliard d’euros pour le Leem, à plus de 2,6 milliards de dollars pour le centre d’étude sur le développement de médicament Tufts. Fin 2017, le cabinet McKinsey estimait que la mise en place du digital dans la R&D pourrait engendrer entre 50 et 150 Mds $ d’économies en Ebitda pour l’industrie. Parmi les perspectives, le cabinet cite l’analyse avancée de grands ensembles de données ainsi que le machine learning pour comprendre et visualiser l’interaction des cibles et prédire in silico la probabilité de réussite d’une molécule sur le marché. Or, pour alimenter les bases de données et les technologies de machine learning, les données sont indispensables. Une première étape consiste à cartographier celles disponibles en interne mais également en externe.

Première étape : définir la finalité

En interne, une première source de données repose sur les essais cliniques menés par les laboratoires depuis de nombreuses années. “Quand on a réalisé beaucoup d’essais cliniques, ce qui est le cas pour la plupart des laboratoires, on peut avoir des tendances, faire des analyses statistiques. Pour le remboursement, les laboratoires mettent également en place des études comparatives d’efficacité. Toutes les données collectées dans le cadre des analyses pour obtenir le remboursement sont une richesse”, observe Virginie Lefebvre Dutilleul, associée EY et avocat au barreau des Hauts de Seine. Chez Pierre Fabre, Thierry Picard, le CDO de la branche pharma, détaille le projet de Data académie en cours de lancement. “L’objectif est de faire prendre conscience aux porteurs de gisement de données qu’elles ont de la valeur pour l’entreprise”, précise-t-il. Un programme de formation, d’abord des dirigeants de l’entreprise puis des collaborateurs, est prévu sur la période 2018-2021. En outre, le laboratoire débute une cartographie des données de l’entreprise avec un premier projet autour de la R&D. L’objectif étant de faire émerger “4 à 5 projets structurants pour l’entreprise en 2019”, précise le dirigeant qui se montre ouvert sur la finalité de ces projets. Il chiffre en dizaines de milliers d’euros cette initiative de cartographie des données.

Du côté de Novartis, Salah-Dine Chibout, responsable Monde des investigations toxicologiques, confiait en février à mind Health : “Nous avons conduit des études cliniques depuis plus de soixante-dix ans. Nous avons stocké une énorme quantité d’informations, mais jusqu’à maintenant nous n’avions pas eu d’accès à ces données du fait du manque de capacités des ordinateurs. Nous sommes aujourd’hui capables d’aller dans nos bases de données cliniques pour cibler des maladies. Nous allons pouvoir faire le lien entre des évènements extrêmement complexes et parfois rares. Avec notre banque de données de criblage à haut débit, nous allons passer au crible des millions de molécules pour trouver des candidats médicaments”. L’utilisation de ces données est ainsi envisagée pour ouvrir de nouveaux axes de recherche et non pour remplacer des essais cliniques à mener. “Nous travaillons à développer de nouveaux médicaments au-delà de ceux existants sur le marché. Il est difficile d’imaginer l’influence des essais cliniques antérieurs et la valeur de nos données internes pour le développement de nos futurs médicaments. Néanmoins, le croisement de ces données avec des données externes a démontré sa valeur”, affirme Raphaël Pousset-Bougere, vice président Big data et analytics du laboratoire français Ipsen.

Optimiser les phases d’essais cliniques à venir

Dans le domaine des essais cliniques, sans aller chercher des données trop anciennes, les données des premières phases peuvent ainsi être utilisées pour optimiser les phases suivantes. “Depuis notre création fin 2008, nous avons travaillé des dizaines de fois sur la sécurisation des essais cliniques. Il s’agit d’apprendre au maximum des phases en amont pour optimiser le ciblage des études aval. L’objectif est d’utiliser les données qui existent déjà pour mieux concevoir une étude clinique”, témoigne Alexandre Templier, président et fondateur de Quinten. La société est spécialisée dans la valorisation des données dans plusieurs secteurs, l’industrie pharmaceutique représentant le principal, d’après le dirigeant. La société Owkin se positionne également sur cette application. “Si un essai de phase II a été particulièrement brillant mais que la phase III a échoué ou que les résultats sont moins bons qu’attendus, nous retournons dans les données pour identifier un biomarqueur ou un mécanisme de résistance expliquant ce qu’il s’est passé. Il est ensuite possible de refaire un essai clinique sur un sous-groupe de patients”, observe Anna Huyghues Despointes, responsable de la stratégie d’Owkin. Si elle ne communique pas les coûts de ces prestations, elle affirme : “Quand un laboratoire a déjà investi des millions pour développer un produit, il est prêt à payer quelques centaines de milliers d’euros pour refaire cette analyse”.

Deuxième étape : identifier les types de données

Sur le type de données disponibles, la cartographie porte sur les données disponibles en interne mais également les sources externes. “Pour les données d’essais cliniques, peu de laboratoires les récoltent en direct. Ils passent par des CRO, qui récupèrent les données auprès des sites investigateurs et les agrègent. En général, il s’agit de données tabulaires qui doivent être disponibles pour la demande d’autorisation de mise sur le marché (AMM)”, indique Anna Huyghues Despointes. Elle distingue trois autres types de données : d’imagerie (histopathologie et radiologie), multi-omique et celles issues des dossiers médicaux électroniques. “Dans les projets autour des essais cliniques, nous avons créé un protocole que nous fournissons aux laboratoires et CRO pour récolter les données. En effet, en général, ce qui est utilisé dans les essais, ce sont les comptes-rendus d’imagerie et pas les images elles-mêmes par exemple. Dans nos projets, nous essayons de faire remonter les images”, précise la responsable de la stratégie d’Owkin. Il s’agit alors d’accéder à des données externes au laboratoire.

Si une partie concerne des essais cliniques menés par le laboratoire, des possibilités se développent aujourd’hui pour accéder à des données extérieures. “Chaque laboratoire a accès à des données toujours très riches et, parfois extrêmement précises, mais uniquement liées aux pathologies sur lesquelles il travaille. A l’inverse, les organismes de remboursement de soins, les hôpitaux, les médecins de ville et les pharmaciens d’officine disposent de données massives en vie réelle. Il faut combiner les deux, c’est-à-dire tirer parti des données cliniques sur un nombre réduit de patients puis extrapoler en allant chercher dans des bases de données moins précises mais beaucoup plus volumineuses et hétérogènes”, indique Alexandre Templier (Quinten). Une convergence des différentes sources qui se retrouve notamment dans le projet du Health Data Hub, dont la mission de préfiguration a été lancée le 12 juin par Agnès Buzyn et qui fait partie des mesures du Conseil stratégique des industries de santé du 10 juillet 2018. Autre ressource externe : le site clinicaltrials.gov américain, pour Ipsen. “A partir de ces données, nous avons fait évoluer une application de suivi des études cliniques pour géolocaliser les sites investigateurs pour une pathologie en particulier. Cette application fait maintenant partie de nos procédures standard”, se félicite Raphaël Pousset-Bougere.  

Troisième étape : les rendre exploitables

Une fois les sources de données identifiées, encore faut-il qu’elles soient exploitables dans les outils d’analyses de big data ou d’intelligence artificielle. Comme en témoigne Thierry Picard de Pierre Fabre, qui détaille le cadre du programme de cartographie en R&D : “Nous estimons à entre 150 et 200 le nombre de gisements de données dans ce domaine. Pour chacun, il s’agit d’identifier la nature, l’état de qualification, les possibilités de réexploiter ou pas les données en fonction du format, de la facilité d’extraction…, ainsi que de vérifier le statut réglementaire et juridique”. Pour mener ce projet, il a constitué une équipe d’environ cinq personnes pour réaliser une cinquantaine d’interviews d’employés au sein de la R&D. Les 4 à 5 projets identifiés devront ensuite être menés sur une période de 5 à 6 mois avec un retour sur investissement relativement court, indique Thierry Picard. Pour rendre ces données exploitables, Alexandre Templier (Quinten) mentionne le travail de dé-identification, qui “n’est pas immédiat ni gratuit, mais tout à fait indispensable”. De son côté, Anna Huyghues Despointes cite le travail de nettoyage des données. “Il y a un vrai travail de pré-processing sur les données tabulaires. Le problème n’est pas une question de standard mais c’est le fait qu’il y ait des fautes. Pour un humain, on comprend relativement vite qu’il y a une faute : un espace supplémentaire, un chiffre dans une colonne qui ne doit pas en contenir, etc. Pour une machine, ce n’est pas facile à comprendre. Nous travaillons à automatiser cette étape”, indique-t-elle. La responsable de la stratégie d’Owkin évoque également le travail autour des données d’imagerie : “Les formats sont assez standards. La difficulté repose sur la qualité des métadonnées (marque du scanner, résolution…)”.

Outre l’aspect technique, Virginie Lefebvre Dutilleul (EY) alerte sur la question juridique. “Si les laboratoires n’ont accès qu’à des données anonymisées et agrégées – non réidentifiables – il ne s’agit alors pas de données personnelles. Sinon, il s’agit de données de santé et la finalité de l’usage est clé. Si le consentement a été donné pour un essai clinique, il faudrait un nouveau consentement pour les utiliser à nouveau. Maintenant, les laboratoires anticipent mieux et mettent en place une stratégie de recueil d’informations et de consentement pour limiter ces contraintes”. Ainsi, avant de mettre en place des projets de big data et d’intelligence artificielle, les laboratoires mènent des projets pour définir la finalité de l’usage, cartographier les différentes sources disponibles puis les rendre exploitables.

 


Exemples de sociétés intervenants sur les données pour les essais cliniques – Données recueillies par mind Health

 

Aurélie Dureuil
  • base de données
  • big data
  • Essais cliniques
  • Intelligence Artificielle

Besoin d’informations complémentaires ?

Contactez Mind Research

le service d’études à la demande de mind

Découvrez nos contenus gratuitement et sans engagement pendant 15 jours J'en profite
  • Le groupe mind
  • Notre histoire
  • Notre équipe
  • Nos clients
  • Nous contacter
  • Nos services
  • mind Media
  • mind Fintech
  • mind Health
  • mind Rh
  • mind Retail
  • mind Research
  • Les clubs
  • mind et vous
  • Présentation
  • Nous contacter
  • Vous abonner
  • A savoir
  • Mentions légales
  • CGU
  • CGV
  • CGV publicité
  • Politique des cookies
Tous droits réservés - Frontline MEDIA 2025
  • Twitter
  • LinkedIn
  • Email