L’actu
Selon une étude américaine de l’université du Colorado, publiée le 5 août 2024, certains outils d’intelligence artificielle destinés aux soins de santé mentale peuvent être perturbés par des biais de genre et d’origine ethnique.
De quoi parle-t-on ?
Loin d’être anodins, les biais peuvent entraîner des erreurs de sens et de diagnostic préjudiciables pour les patients. Les développeurs de solutions d’intelligence artificielle doivent donc veiller à trois enjeux clés : la qualité des données entrantes, la détection d’éventuels biais, l’explicabilité des algorithmes, dans l’objectif de prouver la fiabilité des modèles et leur efficience dans un contexte réel.
Pourquoi c’est important ?
Les algorithmes accompagnent de plus en plus les usages, qu’il s’agisse d’apporter une aide au diagnostic, analyser des images médicales, évaluer la réponse à un traitement, trier les patients aux urgences ou encore améliorer l’accès aux essais cliniques. Un biais d’algorithme peut, dès lors, être synonyme d’une réduction des chances pour les patients, et soulève la question de la responsabilité en cas d’erreur.