IA en santé : comment lutter contre les biais ?

Aide au diagnostic, analyse d’images, évaluation d’une réponse à un traitement, triage des patients aux urgences… La santé est l’un des secteurs qui a le plus adopté l’intelligence artificielle ces dernières années. Une aide précieuse pour les soignants et les patients, mais qui reste soumise aux biais des modèles mathématiques.

L’actu

Selon une étude américaine de l’université du Colorado, publiée le 5 août 2024, certains outils d’intelligence artificielle destinés aux soins de santé mentale peuvent être perturbés par des biais de genre et d’origine ethnique.

De quoi parle-t-on ?

Loin d’être anodins, les biais peuvent entraîner des erreurs de sens et de diagnostic préjudiciables pour les patients. Les développeurs de solutions d’intelligence artificielle doivent donc veiller à trois enjeux clés : la qualité des données entrantes, la détection d’éventuels biais, l’explicabilité des algorithmes, dans l’objectif de prouver la fiabilité des modèles et leur efficience dans un contexte réel.

Pourquoi c’est important ?

Les algorithmes accompagnent de plus en plus les usages, qu’il s’agisse d’apporter une aide au diagnostic, analyser des images médicales, évaluer la réponse à un traitement, trier les patients aux urgences ou encore améliorer l’accès aux essais cliniques. Un biais d’algorithme peut, dès lors, être synonyme d’une réduction des chances pour les patients, et soulève la question de la responsabilité en cas d’erreur.

,