Accueil > Industrie > Joëlle Barral (Google DeepMind) : “Nous voulons démontrer la capacité des modèles d’IA à confronter diverses hypothèses” Joëlle Barral (Google DeepMind) : “Nous voulons démontrer la capacité des modèles d’IA à confronter diverses hypothèses” La société DeepMind, spécialisée dans la recherche fondamentale en intelligence artificielle, s’est notamment fait connaître pour son logiciel AlphaFold, utilisé par près de 3 millions de chercheurs des sciences de la vie aujourd’hui. Comment les modèles d’IA sont en passe de devenir des assistants scientifiques ? mind Health a interrogé Joëlle Barral, Senior Director of Research & Engineering de Google DeepMind, lors du Sommet Google for Health France qui s’est tenu à Paris le 3 juillet 2025. Par Clarisse Treilles. Publié le 10 juillet 2025 à 8h00 - Mis à jour le 28 juillet 2025 à 15h03 Ressources Comment sont organisées les équipes chez DeepMind, et la vôtre en particulier ? Je suis désormais basée à Paris, au sein d’un centre d’IA inauguré l’année dernière. Ce centre rassemble plus de 300 chercheurs et ingénieurs. Chez Google DeepMind, nos équipes de recherche sont véritablement mondiales. Des milliers de chercheurs constituent nos équipes, mais elles sont réparties partout dans le monde. Elles collaborent de manière transverse : il ne s’agit pas d’un centre travaillant sur un sujet et un autre sur un autre. L’expertise rassemble des personnes qui peuvent être par exemple en Californie, à Londres, à Paris ou à Bangalore. Naturellement, il existe parfois une expertise plus thématique. Par exemple, nous avons beaucoup parlé de Gemma aujourd’hui [lors du Sommet Google for Health France du 3 juillet 2025, ndlr]. Gemma est en partie développée à Paris. Bien que ce ne soit pas la seule localisation, nos équipes parisiennes y jouent un rôle majeur, ce qui nous rend très fiers. Nous disposons également d’équipes interdisciplinaires, notamment avec Michael Howell qui dirige des équipes de cliniciens assez conséquentes. C’est important en santé d’avoir des partenaires pour faire avancer la recherche. Par exemple, nous avons un projet de recherche baptisé AMIE, pour “Articulate Medical Intelligence Explorer”, réalisé avec le Beth Israel Medical Center, dans le but de réaliser une première validation clinique, afin de mieux comprendre à quoi peut servir cette technologie une fois déployée au sein d’un hôpital. Ce projet de recherche a déjà donné lieu à deux articles publiés dans Nature. Comment décririez-vous Gemma ? Gemma est une famille de modèles ouverts, et ainsi accessibles à tous. Elle comprend des versions telles que Gemma 2 et Gemma 3, ainsi que des déclinaisons spécialisées. Lors de Google I/O, nous avons dévoilé Sign-Gemma, dédié à l’interprétation du langage des signes, et MedGemma, spécifiquement conçu pour les applications dans les secteurs de la santé et des sciences de la vie. Il est important de souligner que MedGemma n’est pas un produit final, mais un outil destiné aux développeurs et chercheurs. Ces derniers peuvent l’adapter et l’enrichir avec leurs propres données et cas d’usage. L’objectif est de permettre la création d’applications qui pourraient, par exemple, nécessiter une approbation réglementaire avant leur commercialisation. Dans un cadre de recherche, MedGemma s’intègre comme un instrument au sein des boîtes à outils existantes. Google est entré dans l’ère Gemini. Pourriez-vous nous donner plus de détails sur son utilisation et son fonctionnement ? C’est un modèle d’une grande puissance, capable non seulement de répondre aux interrogations d’un utilisateur ordinaire, mais également d’assister les développeurs de logiciels dans leurs tâches de programmation. Nous introduisons un modèle généraliste dont les capacités sont démontrées à travers de multiples dimensions, telles que la résolution d’exercices de mathématiques et l’exécution de diverses tâches. L’évaluation de ses aptitudes se fait sur un certain nombre de ces dimensions. Lors de l’évaluation de l’assimilation d’un cours par un étudiant, des méthodes simples et efficaces permettent de déterminer si des connaissances utiles ont été acquises. De même, notre modèle, Gemini, est évalué sur des dimensions spécifiques, mais il développe ensuite des capacités très générales. Gemini est le moteur de notre innovation, et nous mettons ses capacités à la disposition des entreprises via nos solutions cloud, pour une multitude de cas d’usage. Nous souhaitons démocratiser l’accès à une technologie comparable, en particulier pour les pays en développement et leurs besoins spécifiques, ainsi que pour l’écosystème des développeurs et des chercheurs. À cette fin, nous avons conçu Gemma, une version allégée de Gemini, avec des modèles optimisés pour tenir sur un GPU ou TPU, permettant ainsi leur exécution sur des appareils mobiles tels que les téléphones. Cela ouvre la voie à de nouveaux cas d’usage, y compris pour des usages locaux. Dans le secteur de la santé, cette autonomie est appréciée car elle élimine la dépendance à un cloud particulier. De surcroît, la disponibilité d’un modèle en “open-weight” [un modèle open-weight met uniquement à disposition ses poids, c’est-à-dire les paramètres appris durant l’entraînement, ndlr] permet au plus grand nombre de l’affiner à l’aide de données spécifiques à chaque cas d’utilisation. Ceci étend considérablement les domaines d’application, permettant aux développeurs et aux chercheurs de résoudre une multitude de problèmes spécifiques, dans des contextes très variés. [Étude exclusive] Les initiatives des géants de la tech dans le secteur de la santé en 2024 Comment DeepMind appréhende les enjeux liés au déploiement d’une intelligence artificielle éthique et fiable ? Chez Google DeepMind, nous avons massivement investi très tôt dans l’IA, animés par la conviction qu’elle deviendrait un outil puissant capable de répondre à de nombreuses questions. Cette idée a toujours été au cœur de nos préoccupations. Dès la prise de conscience du caractère révolutionnaire de cette technologie, nous avons sollicité l’expertise de philosophes et des spécialistes de l’éthique. Leur mission était d’appuyer nos chercheurs dans l’analyse des implications de cette avancée, et ce, très en amont du processus de développement. Par la suite, l’ampleur de nos découvertes est devenue évidente, notamment grâce à des innovations telles qu’AlphaFold, qui a résolu le défi du repliement des protéines. Nous nous sommes interrogés sur l’utilisation de cette technologie. Pour répondre à cette question, comme pour de nombreuses questions en santé, il aurait été absurde de travailler de manière isolée. Nous avons donc sollicité l’avis d’un panel d’une trentaine d’experts. Leur conclusion unanime a été de mettre cette technologie au service de la recherche, et ce, en open source. Nous avons adopté une approche progressive pour certains de nos modèles, comme AlphaFold. Initialement, nous les mettons à la disposition d’un groupe restreint d’utilisateurs afin d’observer leur utilisation et de nous assurer qu’il n’y a pas d’effets secondaires. Une fois cette phase validée, nous élargissons l’accès à l’ensemble de la communauté. C’est une démarche pas à pas que nous appliquons pour un certain nombre de nos modèles. Si l’on considère l’ensemble de nos modèles d’IA et nos applications, Google a très tôt affirmé que cette technologie était trop importante pour ne pas être régulée, et bien régulée. C’est d’ailleurs très important car si la régulation est inadaptée, alors non seulement elle ne permettra pas de prévenir les usages indésirables mais elle entravera l’innovation potentiellement bénéfique. Ces questions complexes exigent des équipes pluridisciplinaires pour leur analyse approfondie. Je fais partie de notre “Responsibility and Safety Council” [comité de responsabilité et de sécurité, ndlr], un comité que nous avons créé pour examiner chacun de nos modèles avant de les mettre à disposition, que ce soit pour nos produits internes ou de manière plus large. Quel est l’impact des biais dans les innovations en santé ? Les biais sont un problème important. Il faut partir d’un constat initial, celui que le web est biaisé. Cette distorsion est d’autant plus significative que c’est le web qui a, à l’origine, massivement alimenté les grands modèles de données. Par défaut, sans intervention, les grands modèles d’IA reproduisent tous les biais présents sur le web. Ce point est particulièrement pertinent en santé, notamment au regard des modèles ouverts. En effet, dans le domaine de la santé, il existe non seulement les biais du web, mais aussi une multitude d’iniquités. Ceux-ci concernent l’accès aux soins, mais également la participation aux essais cliniques (qui y a accès, comment ils sont menés, sur quelles populations). Les résultats des essais cliniques sont ensuite généralisés à l’ensemble de la population, alors que cette dernière n’a pas forcément été représentée dans ces études. Un exemple frappant est celui des médicaments destinés aux femmes, où paradoxalement, les femmes sont souvent sous-représentées, voire absentes des essais cliniques. Cette situation, bien que partant de bonnes intentions, est problématique. L’idée est par exemple de ne pas inclure de femmes enceintes dans les essais, et pour les études de longue durée, d’éviter le risque que des participantes ne puissent pas les achever en raison d’une grossesse. Cependant, cette approche limite la représentativité des essais et soulève la question de la pertinence des traitements pour l’ensemble de la population féminine. Les modèles ouverts comme MedGemma offrent un accès à la technologie, permettant aux acteurs de l’écosystème de répondre à leurs besoins spécifiques en fonction d’une géographie particulière ou d’un contexte particulier. Pour que l’IA réussisse dans le monde réel, en particulier dans des domaines cruciaux comme la santé, nous devons prouver qu’elle est à la fois pertinente et sûre. Cette validation est idéalement menée par les experts qui déploient ces outils au sein des communautés. Les modèles ouverts sont la clé. Ils permettent à ces spécialistes de tester et d’adapter l’IA à leur contexte spécifique. Cette approche déplace l’attention des benchmarks abstraits vers une évaluation fiable et centrée sur l’humain, garantissant que la technologie sert efficacement sa communauté unique. Biais de l’IA : à chaque modèle sa méthode corrective Il est certain, aujourd’hui, qu’AlphaFold connaît un succès retentissant dans la communauté scientifique. Qu’est-ce que cela vous inspire ? Ce qui me frappe le plus, c’est que 3 millions de chercheurs dans le monde et 75 000 en France utilisent aujourd’hui AlphaFold. Si vous m’aviez demandé il y a quelques années combien de personnes étaient susceptibles de s’intéresser à la prédiction des protéines en trois dimensions, je n’aurais certainement pas répondu des millions ! Ces chiffres continuent d’augmenter car les protéines sont l’élément constitutif du vivant. Avec les générations successives d’AlphaFold, la modélisation s’étend au-delà des protéines pour inclure l’ensemble des biomolécules, ce qui élargit considérablement les possibilités d’utilisation de ces modèles. Ce logiciel va-t-il continuer d’évoluer ? Bien sûr. Il ne s’agit pas uniquement des protéines, mais de l’ensemble des biomolécules. Il reste encore beaucoup de travail pour bien comprendre toute cette science du vivant, notamment les interactions. Il y a quelques années, nous avons également fondé Isomorphic Labs, qui se concentre sur la découverte de médicaments, notamment grâce à AlphaFold, mais pas exclusivement. C’est là que réside la prochaine étape : AlphaFold a permis de résoudre un problème très précis, à savoir la prédiction tridimensionnelle de la structure des protéines. Maintenant, se pose la question de l’accélération de la découverte de médicaments, qui est un processus actuellement très long (15 ans) et coûteux (des milliards). Le coût élevé s’explique par l’investissement dans des molécules en phase clinique, malgré une faible probabilité de succès final. Quel rôle joue l’IA dans ce processus complexe ? L’intelligence artificielle est en passe de révolutionner la découverte de médicaments en augmentant les probabilités de succès et en accélérant l’ensemble de la chaîne de valeur. Aujourd’hui, le hasard joue encore un grand rôle ! L’IA, grâce à sa capacité à absorber et à traiter une quantité colossale d’informations, est devenue un outil extrêmement puissant pour surmonter ces défis. L’IA ne sert pas seulement à offrir une réponse à une question donnée, mais peut aussi formuler des hypothèses et accompagner un chercheur, un peu comme le ferait un tableau blanc interactif. Imaginez que vous écrivez des équations, que vous réfléchissez à des hypothèses, et que ce tableau blanc vous indique quelle piste serait intéressante à creuser en particulier. L’image à retenir est celle d’un assistant scientifique. Nous voulons démontrer la capacité des modèles d’IA à confronter diverses hypothèses. Ce système est conçu pour, par exemple, faire émerger un protocole expérimental ayant une probabilité de succès accrue ou identifier des pistes de recherche potentiellement plus fructueuses. Cela signifie qu’il est capable non seulement de générer des idées, mais aussi d’identifier celles qui présentent le plus grand potentiel. AlphaGenome, lancé récemment, a-t-il le potentiel de devenir un “game changer” comme AlphaFold ? AlphaMissense, notre autre modèle génomique, nous a permis de mieux comprendre les 2% du génome qui codent pour les protéines. AlphaGenome se penche sur les 98 % restants : les régions “non codantes”. Longtemps mal comprises, voire qualifiées d’ “ADN poubelle”, ces régions sont pourtant impliquées dans un nombre croissant de maladies (cancers, troubles neurologiques, maladies cardiaques, etc.). En mettant AlphaGenome à la disposition des scientifiques, nous espérons accélérer les découvertes biologiques et, à terme, le développement de nouveaux traitements. Google a organisé un hackathon à Paris le 5 juillet dernier, avec 150 personnes inscrites. De quoi s’agit-il exactement ? Nous avons organisé un hackathon axé sur MedGemma et TxGemma, au service des sciences de la vie et de la santé. L’objectif de ce hackathon est de réunir tous les acteurs de l’écosystème : start-up, étudiants, chercheurs membres de grands groupes, médecins, ainsi que les développeurs des grands modèles comme Gemma, qui, bien que petit parmi les grands, reste un modèle d’envergure [doté de milliards de paramètres, ndlr]. L’objectif était de réunir tous les acteurs de l’écosystème français et de leur offrir une journée pour s’approprier MedGemma. Des équipes ont été constituées en amont pour travailler sur un sujet particulier qu’elles ont ensuite proposé. Cette démarche a deux objectifs principaux. Le premier objectif est de faire émerger des cas d’usage concrets dans un domaine des sciences de la vie très vaste. Ces solutions innovantes ont abordé des problèmes critiques du monde réel. Les équipes ont créé des outils allant de systèmes de rationalisation des demandes aux urgences pour alléger la charge des médecins, à des applications offrant une interprétation médicale et du soutien aux patients en oncologie. Il est essentiel de comprendre les besoins cliniques auxquels de tels modèles peuvent apporter une réponse concrète. Notre deuxième objectif est de capitaliser sur la dynamique de l’écosystème. Il est crucial de comprendre un environnement en constante évolution et de favoriser les rencontres entre les acteurs. Ayant passé près de 20 ans dans la Bay Area, un écosystème d’innovation particulièrement fertile, je suis convaincue de la valeur des synergies et des interactions pour stimuler l’innovation. Je crois fermement à l’importance des échanges et des rencontres. Les participants ont l’occasion de s’écouter mutuellement, de confronter leurs idées et de rebondir sur celles des autres. C’est un processus essentiel, surtout dans le domaine de la santé, un secteur complexe qui implique de nombreux acteurs et où le besoin de collaboration est immense. Notre Lab IA a justement été conçu comme un lieu ouvert où les diverses communautés de l’IA peuvent se rencontrer. Cet événement s’inscrit parfaitement dans cette démarche. Une restitution sera-t-elle prévue ? Nous souhaitons potentiellement accompagner certains projets qui émergeront de cet hackathon, afin de permettre à ceux qui le désirent de poursuivre leur développement au-delà de cette journée unique. Nous étudions les moyens de concrétiser cet accompagnement, en particulier pour les médecins, car leur engagement dans un environnement entrepreneurial est rare et précieux. Ils sont très occupés et ont peu de temps. Pour tous les médecins qui nous ont rejoint à l’occasion de ce hackathon, il est crucial de trouver des moyens pour qu’ils puissent continuer à s’engager dans ce type de projet. C’est essentiel pour que l’innovation atteigne ensuite les praticiens et les patients. Biographie Au sein de Google : Depuis novembre 2023 : Research & Engineering Senior Director, Google DeepMindAvril 2022 – novembre 2023 : Engineering Director, Google ResearchOctobre 2015 – mai 2022 : Joëlle Barral a occupé divers postes au sein de Verily, basée en Californie. Elle a dirigé Verb Surgical, une coentreprise entre Verily et Johnson & Johnson, qui a développé une plateforme de robotique chirurgicale augmentée par l’IA.Avril 2014 – Octobre 2015 : Senior Hardware Engineer, Google X (Moonshot Factory) Formation :Titulaire d’un master en mathématiques/physique de l’Ecole Polytechnique et d’un doctorat en génie électrique de l’Université de Stanford. Clarisse Treilles Données de santédrug discoveryGAFAMIntelligence ArtificiellePartenariatRechercheStratégie Besoin d’informations complémentaires ? Contactez le service d’études à la demande de mind