Accueil > Parcours de soins > MedGemma : Google dévoile deux nouveaux modèles multimodaux MedGemma : Google dévoile deux nouveaux modèles multimodaux Par Coralie Baumard. Publié le 11 juillet 2025 à 16h19 - Mis à jour le 11 juillet 2025 à 16h19 Ressources Google Research a annoncé dans un post de blog, publié le 9 juillet, que deux nouveaux modèles multimodaux venaient enrichir MedGemma, sa famille de modèles d’IA générative ouverts et conçus pour accélérer le développement de l’IA dans le secteur de la santé. Le premier modèle, MedGemma 27B Multimodal, complète des modèles déjà publiés. Il permet de récupérer et d’interpréter des données des dossiers médicaux électroniques et de générer des comptes-rendus radiologiques. MedSigLIP est, lui, un encodeur d’images et de texte optimisé pour la recherche et la classification d’images médicales. Google indique que l’entreprise américaine DeepHealth l’expérimente déjà pour améliorer la détection de nodules pulmonaires. À noter : Dans un entretien, Joëlle Barral, Senior Director of Research & Engineering de Google DeepMind, a détaillé à mind Health les différents modèles d’IA lancés par Google ainsi que les enjeux liés à leur déploiement. Coralie Baumard GAFAMia générativeImagerie médicaleIntelligence ArtificielleOutils numériques Besoin d’informations complémentaires ? Contactez le service d’études à la demande de mind