TEST 15 JOURS

IA Act : quelles implications pour la santé ?

Le secteur de la santé et des dispositifs médicaux va être amené à intégrer l’IA Act dès 2026. Le nouveau cadre juridique européen, très dense, encadre l’usage de l’intelligence artificielle, à l’heure où les LLM et le phénomène ChatGPT trouvent des cas d’usage dans de nombreux domaines, dont la santé.

Par Clarisse Treilles. Publié le 20 février 2024 à 11h48 - Mis à jour le 20 février 2024 à 13h59

Découlant d’une proposition initiale de la Commission en avril 2021, le processus d’élaboration du règlement européen sur l’intelligence artificielle arrive en fin de course. Après un accord trouvé entre le Parlement européen et le Conseil de l’Union européenne le 8 décembre 2023, le Conseil des ministres des Etats membres a, à son tour, approuvé le règlement le 2 février dernier. 

Si sa publication est toujours attendue au JO de l’Union européenne, l’entrée en vigueur du règlement est prévue dès 2026. Un tel délai, estime Nicolas Miailhe, fondateur et président de The Future Society, “laissera le temps aux acteurs de s’adapter, en commençant à faire des évaluations et des audits préliminaires à blanc”.

Ce “texte tentaculaire”, comme le décrit Geoffroy Sinègre, juriste et enseignant en droit du numérique, place la régulation et l’innovation “au cœur des débats”. Ces enjeux sont aujourd’hui discutés à grande échelle, l’IA Act s’inscrivant dans un cadre juridique international en pleine évolution, avec l’executive order publié à l’automne dernier par la Maison Blanche pour sécuriser l’usage de l’IA, ou encore la première édition de l’AI Safety Summit qui s’est tenue en novembre 2023 au Royaume-Uni. Ce règlement européen inédit doit par ailleurs composer avec un corpus de textes déjà dense (RGPD, DMA, DSA, Data Act, etc), qui contribue à “enserrer la gouvernance algorithmique” analyse Nicolas Miailhe.

Le règlement européen sur l’IA a plusieurs volets. Il englobe :  

  • des règles harmonisées pour la mise sur le marché, la mise en service et l’utilisation des systèmes d’IA dans l’UE ;
  • une interdiction visant certaines pratiques d’IA ;
  • des exigences spécifiques pour les systèmes d’IA à haut risque et des obligations pour les opérateurs de ces systèmes ;
  • des règles de transparence harmonisées pour certains systèmes d’IA, des règles harmonisées pour la mise sur le marché de modèles d’IA à usage général ;
  • des règles relatives à la surveillance du marché, à la gouvernance et à l’application de la surveillance du marché ; 
  • des mesures visant à soutenir l’innovation (avec l’établissement de bacs à sable notamment).

En outre, ce texte vient dessiner une pyramide de risques pour venir appliquer une contrainte réglementaire croissante sur les systèmes considérés comme les plus dangereux. Au sein de cet ensemble, “le choix a été de faire une définition large des traitements algorithmiques” analyse Nicolas Miailhe, ajoutant que “les LLM [large language models, ndlr] sont devenus le cœur de la chaîne de valeur qui émerge”.…

Besoin d’informations complémentaires ?

Contactez

le service d’études à la demande de mind