• Contenus gratuits
  • Notre offre
Menu
  • Ressources
    • Toutes les ressources
  • Infos
    • Toutes les infos
  • Essentiels
    • Tous les essentiels
  • Analyses
    • Toutes les analyses
  • Data
    • Data
  • Newsletters
  • Profil
    • Je teste 15 jours
    • Je me connecte
  • Profil
    • Mon profil
    • Je me déconnecte
CLOSE

Accueil > Services bancaires > Banque au quotidien > Comment les banques s’emparent-elles de leurs données ?

Comment les banques s’emparent-elles de leurs données ?

Optimisation des processus, meilleure connaissance client, aide dans la lutte contre la fraude… Les cas d’usage de la data science se multiplient à travers l’industrie. Mais que signifie, d’un point de vue organisationnel, la généralisation du recours à la data science ? 
 

Par . Publié le 28 octobre 2019 à 15h40 - Mis à jour le 16 novembre 2020 à 14h49
  • Ressources

Big data, structuration des données, data lake, data science et valorisation des données…. Par où commencer dans cet océan d’informations, si facilement assimilées à “l’or noir du XXIe siècle” ? La particularité de ce questionnement, pour les institutions bancaires, est que ces dernières accumulent de la donnée depuis leur création, mais que la régulation en contrôle l’usage. Cet encadrement porte aussi bien sur les informations elles-mêmes que sur l’exploitation qui en est faite, ou sur les méthodes et durées de conservation… Comment, donc, prendre possession de ces données et tirer profit des avancées que permettent les vastes progrès de l’intelligence artificielle ? Dans quelle mesure la traditionnelle séparation entre les données de chaque métier empêche-t-elle les expérimentations et l’innovation ? 

Les quatre pieds du big data

Avant d’évoquer la data science, il faut revenir sur sa matière première : les données. “Le big data repose sur quatre pieds”, explique même le directeur de l’intelligence artificielle de Devoteam Aymen Chakhari. Et ces derniers influencent la manière dont les entreprises en général, et les banques en particulier, s’emparent ensuite des nouveaux outils de traitement et d’analyse de données. 

La data foundation, d’abord, consiste à définir la donnée, gérer les coûts systèmes, mettre en place les tuyaux par lesquels ellese passeront ainsi que les portails y donnant accès. Vient ensuite la protection de la donnée. “Il s’agit d’élaborer une stratégie de protection de toutes les informations disponibles, puis de leur appliquer les attributs de confidentialité choisis”, poursuit Aymen Chakhari. Puis vient le data management, “qui regroupe aussi bien la structuration de la donnée que les outils qui permettront de l’utiliser”. Que ce soit des bots ou d’autres types d’API, on aborde là le domaine du data knowledge : les données fournies à l’utilisateur ne sont plus ni brutes, ni de simples informations, elles sont connectées à d’autres, de manière à donner un résultat articulé, compréhensible et utile. “Le quatrième pied, termine Aymen Chakhari, est celui de la smart data, ou de la data science”. C’est ici que l’on utilise des mathématiques, de la statistique, de l’informatique ou encore de la visualisation de données pour répondre à un besoin précis, améliorer un processus ou faciliter une prise de décision. 

Gouvernance

Pour agir à tous les niveaux de cette chaîne de la donnée, la gouvernance est un enjeu crucial, qui commence être officialisé dans les institutions bancaires. Au niveau du groupe ou des métiers, de la donnée ou de l’usage qui en est fait… les stratégies divergent. Ainsi existe-t-il chez BNP Paribas un Chief Data Officer (CDO) pour le groupe depuis le 1er juillet 2019, puis, pour chaque métier, un CDO dédié. En revanche, il n’y a “ni patron de la data science, ni de l’intelligence artificielle à l’échelle du groupe, et encore moins à l’échelle d’un métier, car ces univers ne concernent pas le seul CDO”, déclare Christophe Bonnefoux, lui-même Chief Data Officer de BNP AM depuis janvier 2018. 

Comment l’expliquer ? “Nous sommes partis d’un monde où les banques doivent faire face aux obligations du régulateur, ce qui a fait naître une gouvernance des données”, explique Christophe Bonnefoux. C’est à ce niveau que s’organise la responsabilité de l’intégrité, de la qualité et de la protection des données. “Mais aujourd’hui se pose la question de la valorisation de ces données.” Or celle-ci nécessite aussi bien les compétences d’un CDO que celles des experts en CRM Analytics, des équipes de Quantitative Research Group (QRG, qui testent et façonnent des stratégies de gestion, ndlr), ou des collaborateurs qui ont déjà testé des outils d’intelligence artificielle dans leurs services, etc. “On est au milieu du gué, et pour le moment, c’est à la main des métiers, et même des fonctions. Ces acteurs ont besoin de traiter la donnée et qu’on leur laisse l’initiative”. 

Chez BPCE, même combat : la création du poste de directeur de la gouvernance et de la démocratisation de la data date de juin 2019. Il a échu à Ludovic Favarette, qui répond à Yves Tyrode, directeur en charge du digital et de la data. Pourquoi maintenant ? “Parce que le sujet est en train de mûrir, reconnaît Ludovic Favarette, et parce que cela permet de penser la banque de demain en partant de la donnée.” Le numérique et de nouvelles réglementations comme le RGPD poussent les banques à optimiser l’usage qu’elles font de leurs données, explique-t-il, tout en préservant la confiance qui existe dans ces institutions. Une vingtaine de collaborateurs aident donc Ludovic Favarette à créer du lien au niveau des établissements, fédérer les actions qui ont été faites dans chaque entité du groupe, participer à l’acculturation et à la formation générale… Et, globalement, “à mettre de l’huile dans les rouages pour que tous ces acteurs aillent dans une même direction.”

Vision généralisée ou tests par métiers ?

Cette direction, justement, est définie précisément chez BPCE : chaque test, chaque projet lié aux données doivent permettre de répondre à l’un des quatre axes stratégiques établis. Ces axes sont “augmenter notre PNB, optimiser nos frais généraux, optimiser nos risques et améliorer la satisfaction de nos clients et/ou de nos collaborateurs”, énumère le directeur de la gouvernance et de la démocratisation de la data. Les tests sont, autant que possibles, réalisés irl, “dans la vraie vie”, puis, s’ils fonctionnent, “nous essayons d’utiliser notre force de frappe nationale pour les étendre”. Le processus est facilité par l’existence d’une plateforme data au niveau du groupe, qui doit permettre de faire monter les collaborateurs en compétences, et par le réseau de data management officers et de leurs équipes à travers le groupe. 

Chez BNP, on envisage le problème différemment, à partir de la matière première. Un Data & AI lab a bien été créé au sein de l’entité Corporate and Institutional Banking, dirigé par Edouard d’Archimbaud, mais dans le reste du groupe, ce sont plutôt les CDO qui cadrent le mouvement : leur rôle, détaille Christophe Bonnefoux, est notamment de définir quelles données sont stratégiques. “À partir de là, il est possible de décider qui doit gouverner quoi, de diffuser une culture de la donnée, d’embarquer les personnes que l’on mettra en charge de la transformation et de la gestion de ces informations, etc”. Car même d’un point de vue technique, vouloir profiter de la vague de la data science provoque de réels chamboulements. 

Casser les silos

Historiquement, la donnée était stockée en silo, et appelée via des applications, en fonction des besoins. Des datawarehouses, ou entrepôts de données, stockaient le matériau brut de chacun. À partir de ces grandes unités de stock, l’IT créait des datamarts spécialisés, en fonction de l’usage et/ou du service qui le lui demandait. Aujourd’hui, on casse ces silos pour créer d’immenses data lakes, ce qui pose de nouvelles questions d’organisation. “Il ne s’agit plus de savoir qui a le droit de voir quoi à travers quelle application, mais qui à le droit d’accéder à quelle donnée via un même data lake”, détaille Christophe Bonnefoux. Et la question ne se pose pas qu’aux humains : “il s’agit aussi de définir quels accès on donne aux robots, et à quels robots.” 

Le groupe BPCE a d’ailleurs entamé un chantier numérique il y a trois ans pour répondre à ces nouveaux besoins.“Un data lake a été structuré au niveau groupe, ce qui a permis de rassembler les données de tous les établissements dans une même infrastructure”, rappelle Ludovic Favarette. Au bout de 18 mois, la plateforme a été livrée et les différentes filiales ont commencé à se l’approprier “en fonction des besoins et des cas d’usages, car les droits d’accès varient”. Quant à la gestion de ces plateformes et des données qui y sont rendues accessibles, elle crée elle-même de nouveaux métiers, note-t-il. “Avec un patrimoine qui tourne autour de 900 To de data (un téraoctet équivaut à environ 1000 gigaoctets, ndlr), il nous faut optimiser l’espace que l’on utilise, gérer le droit à l’oubli, faire fréquemment le ménage pour ne garder que le nécessaire…”, pointe Ludovic Favarette 

Une évolution que note aussi Christophe Bonnefoux chez BNP AM. Une équipe de data scientists travaille par exemple à mieux prévoir les incidents liés à la mauvaise qualité des données. “Ils utilisent des techniques de machine et de deep learning pour essayer de voir quel effet cela aurait si une donnée x devenait fausse demain, et pouvoir préparer les équipes de remédiation à intervenir.”

Gains de productivité et amélioration des produits

Les cas d’usage de la data science varient (voir encadré). Chez BNP AM, les équipes numérique et marketing captent des données externes, “les relient à celles des clients, et sont ainsi capables de faire du lead management avec un impact positif pour nos ventes”, note par exemple Christophe Bonnefoux. Elles s’équipent de moteurs prédictifs, aussi, pour aller au-devant des attentes de leurs interlocuteurs. “Nous faisons de la data science un outil décentralisé, car nous la voulons au plus près des métiers. C’est un vrai choix stratégique”, explique le Chief Data Officer. Directeur Europe du Sud d’Alteryx, Raphaël Savy note tout de même que certains usages reviennent plus dans la finance que dans d’autres industries. “Les reportings, les analyses, les multiples copié-collés que doivent réaliser certains contrôleurs de gestion, par exemple, sont très chronophages.” Une contrainte de productivité que la data science peut lever. 

Chez BPCE, Ludovic Favarette cite aussi des gains de temps sur l’administratif, une plus grande facilité à anticiper les moments décisifs de la vie des clients, ou encore l’optimisation des traitements dans la lutte contre la fraude et le blanchiment. Surtout, il souligne que l’adoption de ces outils est “en cours de structuration, en particulier pour ce qui est de sa gouvernance. On cherche à faire remonter les cas d’usages utiles, mais il ne faut surtout pas casser les initiatives.” Le jeu entre expérimentations locales et orchestration au niveau du groupe est une dimension importante de l’adoption, continue-t-il. “Lorsqu’on est DSI ou responsable des données dans une caisse régionale, on rencontre des problématiques spécifiques à son marché que le central serait en difficulté d’envisager”, soulève Ludovic Favarette. Mais lorsque le besoin de moyens plus conséquents, d’infrastructures, ou de confrontation entre data scientists se fait sentir, “c’est là que le rôle de l’organe central prend tout son intérêt : pour animer et mutualiser tout ce qui est en cours de construction”. Il a un rôle à jouer, aussi, sur “la façon dont on intègre les acteurs traditionnels de l’informatique, Informatique Banque Populaire (i-BP) et celle des Caisses d’Épargne (IT-CE).” 

Les cas d’usage favoris des banques

Scores d’attrition ou d’appétence d’une précision accrue, algorithmes mis à profit pour la montée en gamme des produits… Parmi les cas d’usage de l’analyse de données dans les banques, certains sont classiques, optimisant voire automatisant certaines tâches exercées auparavant. Ainsi la Caisse d’Épargne Rhône-Alpes s’est-elle tournée vers les outils de Quinten pour améliorer sa relation client, tandis que son homologue des Hauts-de-France a utilisé la solution d’Alteryx pour rendre ses données plus accessibles et plus facilement exploitables pour les métiers. Du côté de la Bred, mind Fintech s’est aussi penché sur le cas d’usage de la gestion des guichets automatiques abordé avec Dataiku, démonstration supplémentaire s’il en fallait une que les établissements sont demandeurs d’outils de data science pour améliorer leur quotidien. Chez Saagie, Dimitri Duval note qu’il est possible de “croiser des données pour faire ressortir des alertes de manière moins mécanique, plus intelligente” dans la lutte contre la fraude et le blanchiment.

Mais d’autres cas permettent de créer de nouveaux services. “La Banque Populaire Aquitaine Centre Atlantique, par exemple, comme l’ensemble des Banques Populaires et des Caisses d’Épargne, propose des terminaux de paiement à certains de ses clients professionnels”, raconte ainsi Ludovic Favarette. La question qui se posait était : “comment utiliser les données de ces outils pour les mettre à disposition du conseiller ?” La réponse a été de développer une application permettant “au pizzaïolo du quartier, au coiffeur, ou à n’importe quel commerçant qui n’a pas les moyens de payer un géomarketeur d’avoir tout de même quelques informations, comme le panier moyen ou les clients qui viennent et reviennent”. Un service que les conseillers peuvent désormais proposer à leurs clients. 

Pour Christophe Bonnefoux (BNP AM), ce sont les progrès internes qui se démarquent. “Le plus neuf,  lâche-t-il, c’est peut-être que le département des ressources humaines se dote de data scientists.” Ceux-ci peuvent désormais croiser les informations que le groupe détient sur les compétences de ses collaborateurs avec les fiches de postes ouverts. Résultat, “ils atteignent un niveau de service proche de celui de LinkedIn”, assure Christophe Bonnefoux.

Formation, acculturation

Surtout, l’usage raisonné du volume massif de données accumulées par les banques pose une question importante de démocratisation, d’acculturation : “Pour 1% des gens, il y a un besoin de formations et d’un accompagnement poussé”, estime Ludovic Favarette. Cela concerne les analystes et architectes de la donnée, “ces experts pour lesquels nous sommes déjà en train de structurer les formations, puis pour lesquels nous mettrons en place un dispositif d’animation de communauté.” Ensuite viennent “les 99% restants, qui ont moins besoin d’être formés que d’être informés, sensibilisés”. À ceux-là, il s’agit de faire comprendre l’importance de récupérer le numéro de téléphone ou le mail du client de manière fiable, par exemple. Il s’agit aussi d’expliquer qu’un traitement automatisé et amélioré des données leur permettra de se concentrer “sur des activités à plus forte valeur ajoutée”. 

Cette sensibilisation facilitera aussi le travail avec les prestataires extérieurs. Car ceux-ci sont témoins des différentes stratégies adoptées par les banques. “Certains clients viennent nous voir pour mettre sur pied une vision générale du big data, mais d’autres ne nous contactent que pour résoudre un point de friction précis”, témoigne ainsi Aymen Chakhari (Devoteam). Mais quand il s’agit de s’attaquer à l’automatisation ou à l’analyse de données portant sur des sujets pointus, ces acteurs peuvent se multiplier. Chez BNP AM, par exemple, Christophe Bonnefoux a rencontré une petite cinquantaine de start-up en un an. Cinq d’entre elles sont désormais en test.

Certains prestataires ont même fait d’un usage simplifié de la donnée leur fond de commerce. Nicolas Méric, par exemple, fondateur de Dreamquark, expliquait en juillet 2019 à mind Fintech vouloir “mettre entre les mains des utilisateurs business des outils autrefois réservés aux data scientist”. Même combat chez l’américain Alteryx, fondée une quinzaine d’années auparavant. Raphaël Savy évoque ainsi la création de “citizen data scientists”, au sens de donner à qui en a besoin “l’assurance de la data science, même si la personne n’a pas les connaissances statistiques ou mathématiques nécessaires pour développer son propre modèle”. Mais tous sont unanimes : pour que les projets d’usage de de la data science arrivent à terme, il faut une volonté, en interne, d’aider à l’acculturation et à la prise en main des données.

Comment se positionnent les prestataires ?

Les prestataires se bousculent sur ce marché avec des angles d’attaque multiples : adaptabilité de la solution à tel ou tel métier, souplesse de l’architecture pour multiplier les croisements de données. Qui convaincre, alors, pour remporter le marché ? Le cofondateur d’Indexima, Emmanuel Dubois, raconte viser “aussi bien les métiers que le service informatique, car celui-ci voit très bien l’intérêt de réduire les coûts de mémoire vive par 20 pour une analyse massive de données”. Pour s’assurer des cycles courts, l’entreprise cherche aussi à “identifier un problème précis, un point de douleur qu’on pourra résoudre”, puis, si la coopération fonctionne, à s’étendre auprès d’autres activités.

Dans les plus grandes entreprises, comme Saagie ou les SSII comme Devoteam, chez qui le traitement de la donnée n’est qu’une activité parmi d’autres, le problème peut être envisagé différemment. Dimitri Duval, FSI Data Strategy Principal de Saagie, explique par exemple : “on vient aussi bien nous chercher pour aborder le big data de front et élaborer toute une stratégie, que pour s’attaquer à un projet plus précis.” Deux manières de servir un même but, selon lui. Il note d’ailleurs que les banques ont des niveaux de maturité différents : “c’est rare qu’elles aient en interne les compétences qui permettent de structurer la donnée, créer certaines API, faire de la data science, en particulier dans les banques de détail.” 

Une partie du travail consiste donc, aussi, à accompagner dans l’acculturation à la data. “Pour cela, on s’organise souvent en lab, autour d’un data scientist et d’un data engineer, qui, traditionnellement, peuvent avoir du mal à faire valoir les besoins des métiers auprès de l’IT.” En orchestrant la collaboration entre des services qui n’ont pas l’habitude de travailler ensemble, ces prestataires participent à la transition vers un univers exploitant diverses données provenant de départements variés pour améliorer les produits et les process.


Pour consulter le tableau, cliquez sur l’image (PDF)

 

  • analyse de données
  • big data
  • data
  • intelligence artificielle
  • protection des données

Besoin d’informations complémentaires ?

Contactez Mind Research

le service d’études à la demande de mind

À lire

Comment Quinten a aidé la Caisse d’Epargne Rhône-Alpes à utiliser le big data pour améliorer sa relation client

Comment Saagie aide la Matmut à créer des applications Big Data

Comment Alteryx a aidé la Caisse d’Épargne Hauts de France à prendre en main ses données

Comment les banques se positionnent-elles face au cloud ?

Découvrez nos contenus gratuitement et sans engagement pendant 15 jours J'en profite
  • Le groupe mind
  • Notre histoire
  • Notre équipe
  • Nos clients
  • Nos services
  • mind Media
  • mind Fintech
  • mind Health
  • mind Rh
  • mind Retail
  • mind Research
  • Les clubs
  • mind et vous
  • Présentation
  • Nous contacter
  • Vous abonner
  • A savoir
  • Mentions légales
  • CGU
  • CGV
  • CGV publicité
  • Politique des cookies
Tous droits réservés - Frontline MEDIA 2025