Accueil > Parcours de soins > Systèmes d’IA : les bons réflexes à acquérir pour anticiper et réduire les menaces Systèmes d’IA : les bons réflexes à acquérir pour anticiper et réduire les menaces Comment protéger ses données à l’ère de l’intelligence artificielle ? La Commission nationale de l’informatique et des libertés (CNIL) s’est penchée sur cette question lors d’un webinaire à l’automne sur la sécurité des systèmes d’intelligence artificielle. Par Clarisse Treilles. Publié le 21 février 2023 à 22h42 - Mis à jour le 22 février 2023 à 15h43 Ressources Les solutions alimentées à l’intelligence artificielle sont déjà une réalité dans bien des domaines en santé, comme en médecine prédictive, pour l’aide à la décision ou encore dans le champ de la robotique. La CNIL, témoin de l’intérêt grandissant des acteurs de la santé pour ces innovations, sensibilise les professionnels aux nouveaux risques engendrés par les technologies de rupture qui sollicitent d’importantes quantités de données. L’IA va-t-elle vraiment révolutionner la recherche ? Dans un effort d’accompagnement des professionnels concernés par les enjeux de protection des données, le régulateur dispense des conseils pratiques liés à la sécurité des systèmes, à appliquer d’un bout à l’autre de la chaîne, de la conception à la mise en production. Nouvelles menaces En plus des risques les plus connus, comme les pertes de confidentialité, d’intégrité ou de disponibilités des données, la CNIL identifie trois types d’attaques qui visent les systèmes d’intelligence artificielle en particulier, à savoir les attaques par manipulation, par infection et par exfiltration. Selon le régulateur, connaître ces trois modèles d’attaque s’avère capitale, d’autant qu’il existe plusieurs sous-domaines dans chacune de ces catégories, qui peuvent toucher aussi bien les données d’entraînements que le comportement du modèle. Le travail d’analyse consiste ensuite à identifier les types de menaces les plus susceptibles d’exploiter les vulnérabilités d’un système donné. La CNIL apprend également aux professionnels à caractériser les risques potentiels, selon leur gravité et leur vraisemblance. Un plan de déploiement bien ficelé Une fois les risques analysés, le premier réflexe, pour les concepteurs de systèmes d’IA, est de bâtir un plan de déploiement suffisamment détaillé, dans lequel il serait par exemple intéressant d’introduire un raisonnement “privacy by design”, conseillent les experts de la CNIL. Comment l’IA est en train de transformer la filière dentaire ? La surveillance des ressources utilisées s’avère être aussi une étape indispensable dans le processus. Tout ce qui touche par exemple à la qualité, au volume, à la cohérence et à la traçabilité des données sont autant d’aspects sur lesquels les professionnels sont invités à concentrer leurs efforts. Au niveau des données d’entraînement, la CNIL recommande de surveiller l’impact des données et de consolider les jeux de données pour permettre “une meilleure généralisation du modèle”. Ce niveau de vigilance s’applique également sur la méthode d’apprentissage elle-même. Maîtriser les entrées et les sorties A l’étape de la mise en production, la CNIL souligne l’importance de bien contrôler les entrées et les sorties, en veillant, par exemple, à limiter le nombre de requêtes API et à contrôler le degré d’informations transmises à l’utilisateur. En fin de compte, la CNIL insiste sur la nécessité de construire une “stratégie organisationnelle” autour des systèmes d’IA. Cela prend en compte la documentation liée aux choix de conception, la supervision du fonctionnement du système, l’identification des personnes clés, sans oublier l’encadrement du recours à des sous-traitants. La CNIL estime que le concepteur d’un système d’IA doit informer autant que possible le praticien du fonctionnement de son système, en précisant les cas d’usage où le système est performant, ainsi que ses limites. Pour les responsables de traitement sans connaissance spécifique en matière d’IA, la CNIL les invite à s’intéresser aux produits qui leur sont proposés et de bien s’assurer qu’ils ont déjà été éprouvés pour d’autres cas d’usage. Sans retour d’expérience, la CNIL encourage les professionnels à se renseigner en amont sur le code et à tester le système dans des conditions proches de la réalité avant la mise en production finale. Le chantier de l’AI Act Le futur règlement européen sur l’intelligence artificielle (AI Act) doit répondre à des enjeux de confiance et de transparence, en s’adressant aux fournisseurs de solution, qui vont devoir assurer qu’ils respectent un certain nombre de critères. La législation suit une approche fondée sur les risques et établit un cadre juridique pour l’IA. La Commission européenne a présenté sa proposition initiale en avril 2021 et le Conseil de l’UE a adopté sa position commune en décembre 2022. La proposition est actuellement examinée par les colégislateurs, le Parlement européen et le Conseil. Du côté de la CNIL, le régulateur a annoncé le 23 janvier dernier la création d’un service de l’intelligence artificielle pour préparer l’entrée en vigueur du futur AI Act européen. Clarisse Treilles CNILCybersécuritéIntelligence Artificielle Besoin d’informations complémentaires ? Contactez le service d’études à la demande de mind