• Contenus gratuits
  • Notre offre
Menu
  • Ressources
    • Toutes les ressources
  • Infos
    • Toutes les infos
  • Essentiels
    • Tous les essentiels
  • Analyses
    • Toutes les analyses
  • Data
    • Data
  • Newsletters
  • Profil
    • Je teste 15 jours
    • Je me connecte
  • Profil
    • Mon profil
    • Je me déconnecte
CLOSE

Accueil > Assurance > Nouveaux risques > Systèmes d’IA : les bons réflexes à acquérir pour anticiper et réduire les menaces

Systèmes d’IA : les bons réflexes à acquérir pour anticiper et réduire les menaces

Comment protéger ses données à l’ère de l’intelligence artificielle ? La Commission nationale de l’informatique et des libertés (CNIL) s’est penchée sur cette question lors d’un webinaire à l’automne sur la sécurité des systèmes d’intelligence artificielle.

Par Clarisse Treilles. Publié le 27 février 2023 à 11h05 - Mis à jour le 01 mars 2023 à 16h24
  • Ressources

Les solutions alimentées à l’intelligence artificielle sont déjà une réalité dans bien des domaines en finance, comme dans la gestion d’actifs, le scoring ou la lutte contre la fraude à l’assurance. 

La CNIL, témoin de l’intérêt grandissant des acteurs de l’industrie financière pour ces innovations, sensibilise les professionnels aux nouveaux risques engendrés par les technologies de rupture qui sollicitent d’importantes quantités de données.

L’IA va-t-elle vraiment révolutionner la recherche ?

Dans un effort d’accompagnement des professionnels concernés par les enjeux de protection des données, le régulateur dispense des conseils pratiques liés à la sécurité des systèmes, à appliquer d’un bout à l’autre de la chaîne, de la conception à la mise en production.

Nouvelles menaces

En plus des risques les plus connus, comme les pertes de confidentialité, d’intégrité ou de disponibilités des données, la CNIL identifie trois types d’attaques qui visent les systèmes d’intelligence artificielle en particulier, à savoir les attaques par manipulation, par infection et par exfiltration. 

Selon le régulateur, connaître ces trois modèles d’attaque s’avère capitale, d’autant qu’il existe plusieurs sous-domaines dans chacune de ces catégories, qui peuvent toucher aussi bien les données d’entraînements que le comportement du modèle.

Le travail d’analyse consiste ensuite à identifier les types de menaces les plus susceptibles d’exploiter les vulnérabilités d’un système donné. La CNIL apprend également aux professionnels à caractériser les risques potentiels, selon leur gravité et leur vraisemblance.

Un plan de déploiement bien ficelé

Une fois les risques analysés, le premier réflexe, pour les concepteurs de systèmes d’IA, est de bâtir un plan de déploiement suffisamment détaillé, dans lequel il serait par exemple intéressant d’introduire un raisonnement “privacy by design”, conseillent les experts de la CNIL.

Vers une utilisation responsable de l’intelligence artificielle dans la finance

La surveillance des ressources utilisées s’avère être aussi une étape indispensable dans le processus. Tout ce qui touche par exemple à la qualité, au volume, à la cohérence et à la traçabilité des données sont autant d’aspects sur lesquels les professionnels sont invités à concentrer leurs efforts.

Au niveau des données d’entraînement, la CNIL recommande de surveiller l’impact des données et de consolider les jeux de données pour permettre “une meilleure généralisation du modèle”. Ce niveau de vigilance s’applique également sur la méthode d’apprentissage elle-même.

Maîtriser les entrées et les sorties

A l’étape de la mise en production, la CNIL souligne l’importance de bien contrôler les entrées et les sorties, en veillant, par exemple, à limiter le nombre de requêtes API et à contrôler le degré d’informations transmises à l’utilisateur.

En fin de compte, la CNIL insiste sur la nécessité de construire une “stratégie organisationnelle” autour des systèmes d’IA. Cela prend en compte la documentation liée aux choix de conception, la supervision du fonctionnement du système, l’identification des personnes clés, sans oublier l’encadrement du recours à des sous-traitants.

La CNIL estime que le concepteur d’un système d’IA doit informer autant que possible l’utilisateur du fonctionnement de son système, en précisant les cas d’usage où le système est performant, ainsi que ses limites.

Pour les responsables de traitement sans connaissance spécifique en matière d’IA, la CNIL les invite à s’intéresser aux produits qui leur sont proposés et de bien s’assurer qu’ils ont déjà été éprouvés pour d’autres cas d’usage. Sans retour d’expérience, la CNIL encourage les professionnels à se renseigner en amont sur le code et à tester le système dans des conditions proches de la réalité avant la mise en production finale. 

Le chantier de l’AI Act

Le futur règlement européen sur l’intelligence artificielle (AI Act) doit répondre à des enjeux de confiance et de transparence, en s’adressant aux fournisseurs de solution, qui vont devoir assurer qu’ils respectent un certain nombre de critères. La législation suit une approche fondée sur les risques et établit un cadre juridique pour l’IA. La Commission européenne a présenté sa proposition initiale en avril 2021 et le Conseil de l’UE a adopté sa position commune en décembre 2022. La proposition est actuellement examinée par les colégislateurs, le Parlement européen et le Conseil. Du côté de la CNIL, le régulateur a annoncé le 23 janvier dernier la création d’un service de l’intelligence artificielle pour préparer l’entrée en vigueur du futur AI Act européen.

Ce contenu a été réalisé par la rédaction de mind Health (une publication du groupe mind), service d’information professionnelle consacré à la transformation numérique du secteur de la santé, et édité par la rédaction de mind Fintech.

Clarisse Treilles
  • données personnelles
  • intelligence artificielle
  • régulation

Besoin d’informations complémentaires ?

Contactez Mind Research

le service d’études à la demande de mind

Découvrez nos contenus gratuitement et sans engagement pendant 15 jours J'en profite
  • Le groupe mind
  • Notre histoire
  • Notre équipe
  • Nos clients
  • Nos services
  • mind Media
  • mind Fintech
  • mind Health
  • mind Rh
  • mind Retail
  • mind Research
  • Les clubs
  • mind et vous
  • Présentation
  • Nous contacter
  • Vous abonner
  • A savoir
  • Mentions légales
  • CGU
  • CGV
  • CGV publicité
  • Politique des cookies
Tous droits réservés - Frontline MEDIA 2025