Accueil > Services bancaires > Natixis automatise son KYC grâce à l’IA et à l’alliance entre les métiers, la conformité et l’IT Natixis automatise son KYC grâce à l’IA et à l’alliance entre les métiers, la conformité et l’IT Le processus KYC représente pour Natixis un défi opérationnel majeur, à la fois coûteux et complexe. Pour y répondre, la filiale de BPCE a initié une démarche d'automatisation basée sur l'intelligence artificielle, en s'appuyant sur la plateforme Dataiku pour orchestrer l'extraction de données. Par Christophe Auffray. Publié le 22 octobre 2025 à 9h00 - Mis à jour le 21 octobre 2025 à 18h15 Ressources Dans le secteur bancaire, le processus Know Your Customer (KYC) constitue une obligation réglementaire incontournable, visant à lutter contre le blanchiment d’argent et le financement du terrorisme. Mais il représente également un centre de coûts significatif et un fardeau opérationnel pour les institutions financières. Si ce processus est mal exécuté, le risque est de se faire “taper très méchamment sur les doigts” par le régulateur, rappelait Laurent Blanchon, chef de projet chez Natixis, le 23 septembre 2025 à l’occasion du Dataiku Summit. Un défi de volume, de diversité et de complexité documentaire L’enjeu pour Natixis en matière de KYC est donc double : répondre rigoureusement à ses obligations réglementaires tout en optimisant l’efficacité et en réduisant les coûts d’un processus lourd et consommateur de ressources. Selon Laurent Blanchon, les défis opérationnels de Natixis s’articulent autour de la gestion documentaire dans un contexte international. Premier facteur de complexité : le volume de documents. Pour chaque client, les analystes KYC doivent traiter en moyenne une trentaine de documents. Environ la moitié provient directement du client, ce qui, multiplié par des dizaines de milliers de clients, représente un volume de travail colossal. La diversité linguistique constitue un second facteur de complexité. Les documents sont reçus “dans n’importe quelle langue“, que ce soit “du chinois, […] du russe, […] du français, […] de l’anglais.” Cette barrière linguistique complexifie l’analyse par des équipes qui ne sont pas nécessairement polyglottes. Combinés, ces paramètres rallongent sensiblement le temps de traitement manuel, et donc les coûts associés au KYC. D’après une donnée communiquée à l’IT, les équipes métier estiment en moyenne à 25 minutes le temps nécessaire au traitement du seul rapport annuel. Ce coût en temps et en équivalent temps plein (ETP) représente un potentiel d’optimisation significatif. La redondance de l’information : un casse-tête pour l’extraction Au-delà du volume, un autre défi majeur réside dans la dispersion et la redondance de l’information. Une même donnée, comme la liste des dirigeants ou l’adresse d’une entreprise, peut figurer simultanément dans plusieurs documents (Kbis, statuts…). Toutefois, la fiabilité de la donnée n’est pas homogène. Par exemple, le nom d’un dirigeant sera plus exact sur sa pièce d’identité que sur un Kbis, où des erreurs de frappe peuvent survenir. Cette multiplicité des sources place l’analyste KYC face à une question critique qui résume le cœur du problème opérationnel : “où collecter une information donnée ?.” Cette interrogation constante engendre une perte de temps et un risque d’erreur. Face à ce double enjeu de traitement de masse et de fiabilisation de la donnée, Natixis a opté pour une approche technologique visant à automatiser l’extraction. L’intégration de l’intelligence métier était toutefois indispensable : elle a donc été placée au cœur du dispositif. Une collaboration tripartite constituait un passage obligé, souligne Laurent Blanchon. La mise en œuvre d’une solution technologique basée sur l’IA ne peut être efficace que dans le cadre d’une collaboration étroite et itérative entre les différentes expertises de la banque. Laurent Blanchon insiste : “le succès du projet ne repose pas seulement sur l’outil, mais sur la synergie des compétences entre les équipes métier, la conformité et l’IT.” Le rôle des équipes métier et de la conformité La contribution des équipes métier et de la conformité est fondamentale pour insuffler “l’intelligence” nécessaire à l’outil. Ainsi, le métier apporte sa connaissance fine des documents. Son expertise de terrain va guider l’IA. La conformité, quant à elle, définit le cadre réglementaire et les règles de validité. C’est elle qui détermine “quel document est le plus probant”, établissant ainsi une hiérarchie de fiabilité entre les différentes sources. Les équipes informatiques, enfin, agissent comme les architectes de la solution. Leur rôle est de traduire les règles métier en instructions efficaces pour les modèles d’IA, en sachant “comment implémenter les règles” et rédiger les prompts de manière “suffisamment efficiente.” La collaboration entre les trois parties se matérialise par une boucle de feedback constante. C’est cette organisation collaborative qui permet de construire une logique métier directement dans l’outil. Et l’outil technique, justement ? Plutôt que d’utiliser une chaîne OCR (reconnaissance optique de caractères) combinée à un LLM, Natixis a choisi de positionner la plateforme Dataiku comme le cerveau de son architecture. Ce choix IT permet d’aller au-delà de la simple extraction de texte, en y intégrant une couche d’intelligence et de contrôle, justifie le chef de projet de la banque. Au-delà de l’extraction : l’implémentation des règles métier Un LLM, à l’état brut, ne sait pas appliquer une logique métier. Comme le souligne Laurent Blanchon, “dire je vais plutôt prendre telle donnée dans tel document plutôt que tel autre, le LLM seul ne sait pas le faire.” C’est à ce niveau que Dataiku intervient. La plateforme agit comme un chef d’orchestre : elle programme l’intelligence métier définie par la collaboration tripartite. Elle peut ordonner au LLM de “chercher telle information dans tel document” et, de manière cruciale, de ne chercher “que cette information-là.” Cette approche ciblée génère des bénéfices directs, notamment financiers. En évitant d’interroger le modèle sur des informations non nécessaires, la banque optimise l’utilisation des ressources informatiques. Le recours à un LLM n’est en effet pas neutre économiquement. La solution répond également à une exigence réglementaire fondamentale : l’auditabilité. Pour chaque donnée extraite, le système fournit une traçabilité complète. Le livrable final est un fichier PDF entièrement auditable, qui spécifie, pour chaque donnée, sa source (document et emplacement). Le rapport inclut en outre la donnée d’origine avant sa traduction, garantissant une transparence totale et facilitant les contrôles. Mais encore fallait-il confirmer la performance du système à travers un proof of concept (POC). La preuve par les chiffres : les résultats du POC Afin de tester la viabilité de la solution et de “convaincre notre direction que c’était faisable”, Natixis a mené un POC sur un périmètre défini : la recherche de onze informations clés au sein de soixante rapports annuels de clients. Les résultats quantitatifs sont jugés encourageants, mais à condition d’être interprétés avec nuance. En effet, dans 40,5 % des documents, l’outil a trouvé l’information recherchée. Ce chiffre doit toutefois être mis en perspective avec une autre donnée. Dans 37 % des cas, l’information n’a pas été trouvée, simplement parce qu’elle n’était pas présente dans le document source. Tous les rapports annuels ne se valent pas : simple bilan financier pour une PME, ils peuvent atteindre jusqu’à 300 pages pour un grand groupe. Autre indicateur partagé par Natixis : le taux d’informations erronées s’est élevé à 2,5 %. Ce niveau de risque est jugé acceptable par la banque au regard des gains d’efficacité. “C’est un risque qu’on peut prendre”, résume Laurent Blanchon. Des gains qualitatifs et un avertissement sur les LLM Au-delà des gains de temps, le POC a également mis en évidence des bénéfices qualitatifs significatifs. L’automatisation améliore la qualité, la précision et la fraîcheur des données saisies, en évitant les raccourcis parfois pris par les analystes KYC. Par exemple, pour gagner du temps, un opérateur pouvait se contenter de saisir la ville et le pays d’une adresse, ou de ressaisir les chiffres d’affaires de l’année précédente. L’outil, lui, extrait les “vraies valeurs.” Cependant, le projet a aussi servi de rappel quant aux précautions à prendre avec les LLM, notamment concernant le réglage du paramètre de température du modèle. Un niveau de température trop élevé, synonyme de créativité, accroît le risque d’erreurs. Cette phase d’apprentissage ouvre désormais la voie à une généralisation sur le KYC, mais aussi à de nouveaux cas d’usage. Dans un premier temps, l’objectif est d’étendre la solution à onze types de documents et 24 données distinctes. Cette industrialisation s’appuie sur des succès antérieurs, comme la traduction du Kbis et un “projet d’analyse de sentiments sur les concepts de blanchiment et de corruption”, dont les résultats ont été jugés “très bons.” Plus important encore, la réussite du projet a créé un effet d’entraînement au sein de la banque. Comme l’explique Laurent Blanchon, “nous avons donné des idées à d’autres métiers”, à commencer par l’analyse des critères ESG, prévue pour 2026. Parallèlement, de nouveaux projets sont envisagés autour de la “classification [et] validation des documents”, complétant ainsi la chaîne de traitement documentaire automatisée et démontrant la valeur transversale de l’approche initiée. Christophe Auffray conformitéIA générativeKYCLLM Besoin d’informations complémentaires ? Contactez le service d’études à la demande de mind À lire BNP Paribas déploie une plateforme interne de LLM-as-a-Service Comment Dataiku a aidé la Bred à améliorer la gestion de ses GAB grâce aux données