Accueil > Assurance > Xavier Vamparys (CNP Assurances) : “Nous voulons pouvoir justifier à tout moment d’une décision prise sur la base d’un algorithme ou d’un modèle d’IA” Xavier Vamparys (CNP Assurances) : “Nous voulons pouvoir justifier à tout moment d’une décision prise sur la base d’un algorithme ou d’un modèle d’IA” CNP Assurances met en place un dispositif de gouvernance de l’éthique de l’intelligence artificielle. Son référent, Xavier Vamparys, s'exprime en exclusivité pour mind Fintech. Par Antoine Duroyon. Publié le 10 juin 2020 à 15h33 - Mis à jour le 28 janvier 2025 à 15h54 Ressources CNP Assurances présente une démarche autour de l’éthique de l’intelligence artificielle. En quoi consiste-t-elle et comment va-t-elle s’organiser ? Chez CNP Assurances, nous avons la conviction que l’intelligence artificielle ne pourra se déployer pleinement que si elle est en mesure de susciter la confiance. C’est pourquoi nous adoptons une charte de l’IA éthique qui vise à fixer les orientations du groupe. Cette charte repose sur cinq piliers et principes : la transparence, l’équité, le respect de la vie privée, le contrôle humain et la responsabilité. En tant que responsable de l’éthique de l’IA, un poste nouvellement créé (et sous la responsabilité de Jean-Baptiste Nessi, directeur technique groupe, ndlr), je soumettrai cette charte dans les prochaines semaines à la validation d’un comité pluridisciplinaire. Ce comité sera composé d’experts et de spécialistes représentant différents métiers et sensibilités au sein de CNP Assurances : juridique, conformité, RSE, direction de l’expérience client et des systèmes d’information, etc. Ses ressources seront aussi complétées par des apports extérieurs, avec des représentants du monde académique ou de la recherche, ainsi que des experts des sciences humaines. Il aura pour mission de fixer des perspectives et le cas échéant de rendre des arbitrages, dans la mesure où des compromis peuvent être nécessaires, par exemple entre performance et transparence. Nous préférons des modèles moins performants mais parfaitement explicables à des modèles très performants mais peu explicables. Que recouvre votre fonction de responsable de l’éthique de l’IA ? Je serai amené à jouer un rôle de référent en matière d’éthique de l’IA, notamment pour des sujets de compatibilité avec la charte éthique. Il s’agira notamment de distinguer les cas d’usage sensibles, qui pourraient potentiellement porter atteinte aux droits et aux intérêts de l’assuré, des cas d’usage non sensibles. Je pourrai également intervenir dans le cadre d’un PoC ou de l’acquisition d’une solution IA sur étagère. Sur ma feuille de route figure aussi la sensibilisation des collaborateurs et des partenaires à cette “charte de bonne conduite”, le recensement des usages de l’IA au sein du groupe, la cartographie des risques, ainsi que la participation aux travaux de Place et académiques. Quels sont les usages de l’IA chez CNP Assurances ? Jusqu’à présent, les développements ont surtout porté sur l’amélioration de l’efficacité opérationnelle et la digitalisation des process : déploiement d’un algorithme de reconnaissance des caractères et d’interprétation de texte pour la lecture des RIB et la classification de documents, adoption d’une solution de traitement automatisé des mails (avec Recital, ndlr), test d’outils d’aide à la décision pour les conseillers… Notre réflexion et nos efforts portent désormais sur l’amélioration des parcours clients, avec par exemple la mise en oeuvre d’agents conversationnels permettant d’augmenter les plages horaires où les clients peuvent nous contacter. Précisons que dans le cas du recours à un agent conversationnel, le client devrait systématiquement être informé du fait qu’il a en face de lui une machine et non un être humain. Vous avez évoqué le principe de transparence. En quoi est-il fondamental s’agissant de technologies d’intelligence artificielle ? C’est dans notre ADN d’être un assureur responsable, d’avoir une conception de l’assurance qui est celle d’être un organisateur de solidarité. La difficulté réside dans la défiance qui entoure l’IA, souvent vue comme une boîte noire. L’explicabilité représente donc un enjeu fondamental. Ce que demande l’assuré, ce n’est pas de comprendre le modèle sous-jacent, très difficile à décrypter d’ailleurs s’agissant de certains modèles d’apprentissage comme les réseaux de neurones, mais de comprendre la décision qui en résulte. Nous voulons donc pouvoir justifier à tout moment d’une décision prise sur la base d’un algorithme ou d’un modèle d’IA. Certes, l’explicabilité ne sera pas une transparence totale, mais nous devons être en mesure de faire deux choses : expliquer les décisions et pouvoir soumettre nos modèles à des audits, notamment venant du régulateur. Nous répondons d’ailleurs à deux points soulignés par l’ACPR dans sa synthèse la consultation de place sur l’IA : définir une gouvernance appropriée des algorithmes et s’assurer de la fiabilité des algorithmes et de l’atteinte de leurs objectifs. L’intelligence artificielle va-t-elle remettre en cause le principe de mutualisation inhérent à l’assurance ? Je ne crois pas vraiment à l’hyper-segmentation par l’IA et je ne pense pas d’ailleurs qu’il s’agisse d’une bonne chose en matière de gestion des risques. De plus, s’agissant des risques longs, que nous couvrons chez CNP Assurances en tant qu’assureur de personnes, la situation d’un individu à un moment donné a une importance moindre que pour les couvertures courtes. Avec nos contrats d’assurance-vie ou d’assurance emprunteur, on accompagne nos assurés sur de très longues périodes. Prédire à un instant t ce qui peut arriver à un individu à instant t+1 ou t+2 n’est pas pertinent en ce qui nous concerne. L’hyper-individualisation des contrats d’assurance porte par ailleurs le risque de laisser sur le bas-côté des personnes qui présentent des risques aggravés. On souhaite que l’assurance reste un produit inclusif et qu’il y ait donc toujours une mutualisation forte. Il est vrai que l’IA, qui est un outil de prédiction, a tendance à bousculer le pilier de l’aléa. Un certain nombre d’aléas vont disparaître, ce qui nécessite que nous réinventions une partie de notre métier, mais je ne crois pas du tout que les capacités prédictives de l’IA feront disparaître totalement les aléas. Quel peut être l’impact du COVID-19 sur le développement de l’IA ? Cette période est venue souligner les attentes excessives que nous pouvons nourrir face à l’IA. Certains peuvent par exemple se demander pourquoi l’IA n’a pas été capable de nous prévenir de l’imminence d’une crise sanitaire ? Je vois deux leçons à tirer à ce stade : l’IA fonctionne bien sur des scénarios connus mais pas dans des situations radicalement nouvelles. Par ailleurs, il faut des données, mais aussi une expertise métier que l’IA n’a pas forcément. La crise sanitaire que nous traversons peut donc favoriser l’émergence d’une IA hybride où l’expertise humaine est intégrée dans les modèles. Xavier Vamparys Depuis 2020 : responsable de l’éthique de l’intelligence artificielle chez CNP Assurances ; chercheur invité à Télécom Paris 2019-2019 : Mission partage de compétences – CNP/DreamQuark (Intelligence artificielle) Depuis décembre 2018 : chargé de mission IA, CNP Assurances 2016 – 2018 : directeur juridique corporate, CNP Assurances 2011-2016 : responsable du département juridique international, CNP Assurances 2007-2011 : conseil juridique, BNP Paribas 2006-2007 : responsable juridique, Oddo Corporate Finance 1999 – 2006 : Associate / Avocat aux barreaux de Paris et New York, Shearman & sterling Formation Diplômé de l’ESSEC Maîtrise de droit à l’Université Paris 1 Panthéon-Sorbonne Juris doctor, Columbia Law School Executive MBA à l’Université Paris Dauphine Data science starter program, Ecole Polytechnique Executive Education Antoine Duroyon assurance de personnesintelligence artificiellemachine learning Besoin d’informations complémentaires ? Contactez le service d’études à la demande de mind