• Contenus gratuits
  • Notre offre
Menu
  • Ressources
    • Toutes les ressources
  • Infos
    • Toutes les infos
  • Essentiels
    • Tous les essentiels
  • Analyses
    • Toutes les analyses
  • Data
    • Data
  • Newsletters
  • Profil
    • Je teste 15 jours
    • Je me connecte
  • Profil
    • Mon profil
    • Je me déconnecte
CLOSE

Accueil > Assurance > Comment Malakoff Humanis détecte les arrêts maladie suspicieux

Comment Malakoff Humanis détecte les arrêts maladie suspicieux

Dans le cadre de sa stratégie de maîtrise de la sinistralité, Malakoff Humanis a développé depuis 2018 un algorithme basé sur l’intelligence artificielle afin de repérer les arrêts de travail longs abusifs. Retour sur la construction de l’outil, ses améliorations et son utilisation au quotidien par le groupe de protection sociale paritaire et mutualiste.

Par Caroline Soutarson. Publié le 15 février 2023 à 15h17 - Mis à jour le 16 février 2023 à 14h39
Bureaux
  • Ressources

Les points clés

Les arrêts abusifs et injustifiés ont une incidence de 3 points sur le ratio de sinistralité des comptes clients chez Malakoff Humanis.

Avec son algorithme, le groupe cible deux fois mieux les arrêts de travail abusifs.

Le groupe de protection sociale permet à ses clients de comparer leurs données d’absentéisme avec les entreprises de leur secteur et de leur taille.

En 2017, Malakoff Humanis (Malakoff Médéric à l’époque) a créé une direction innovation, digitale et data. Parmi ses objectifs, la construction de “moteurs de prédiction et de personnalisation” grâce aux données, indiquait en 2018 à mind Fintech David Giblas, directeur général délégué, notamment en charge de l’innovation dans le groupe de protection sociale.

Dans la première salve d’outils créés, un algorithme pour prévenir la fraude aux arrêts de travail. “Depuis une dizaine d’années, nous observons une augmentation continue de l’absentéisme en France, avec notamment une accélération des arrêts longs”, expose Anthony Jabre, responsable du pilotage de l’indemnisation chez Malakoff Humanis. “L’analyse des données depuis 2018 met en lumière une diminution du nombre des arrêts courts [de 1 à 3 jours, Ndlr] qui passent de 29 % en 2018 à 22 % en 2022, et une augmentation du nombre des arrêts longs [supérieurs à 30 jours, Ndlr] passant de 9 % en 2018 à 14 % en 2022”, rapporte l’étude annuelle du groupe de protection sociale.

Prévenir, accompagner et contrôler

Or l’absentéisme a une répercussion directe sur l’activité de Malakoff Humanis. Selon le responsable de l’indemnisation, “les arrêts abusifs et injustifiés ont un impact de 3 points, en moyenne, sur la charge de sinistre supportée par les entreprises”. Face à ce constat, “Malakoff Humanis a bâti une stratégie sur trois piliers : prévenir les arrêts de travail en analysant les raisons de cet absentéisme, accompagner les entreprises et les salariés pendant les arrêts et durant le retour au travail et contrôler les arrêts de travail abusifs”, liste Anthony Jabre. 

Dans le cadre du troisième point, le groupe a décidé d’épauler ses équipes dans la vérification des arrêts de travail, “généralement supérieurs à 90 jours car c’est à partie de cette échéance que nous versons une indemnité journalière complémentaire à celle de la Sécurité sociale et de l’employeur”, rappelle Anthony Jabre.

La construction de l’algorithme de détection a débuté en 2018, avec une mise en production en 2019. “Il s’agissait de repenser le métier qui reposait alors beaucoup sur l’intuition et l’expérience. La technologie, fondée sur des données, permet de mieux orienter la décision des experts et d’éviter certains biais [cognitifs, ndlr] qu’ils peuvent avoir”, souligne le responsable. “L’algorithme est basé sur du machine learning. La machine cherche une cohérence entre les facteurs pathologiques, l’âge, la durée de l’arrêt… Par exemple, quelqu’un qui s’est cassé le pouce ne peut pas être en arrêt durant un an”, illustre Anthony Jabre.

Données de santé

Pour construire l’algorithme, Malakoff Humanis s’est appuyé sur ses données internes. Le recours à des données de santé étant très réglementé, “nous ne pouvons pas remonter un historique trop profond (la durée dépend du type de données). Mais étant donné que nous sommes le leader en prévoyance, nous disposons de beaucoup de données”, affirme Anthony Jabre. Pour son activité d’assurance, Malakoff Humanis dénombre 375 000 entreprises clientes, soit 10 millions d’assurés et ayants droit.

En plus des données, la technologie s’est appuyée sur les connaissances de médecins salariés du groupe. “La compréhension des pathologies est centrale dans le modèle. Les médecins nous ont aidé à créer de la donnée structurée pour chaque pathologie”, assure le responsable de l’indemnisation.

Pas de gain de productivité

Une fois l’ensemble de ces données réunies, des règles métiers ont été établies, raconte Anthony Jabre. Les experts techniques de la détection des arrêts travaillent étroitement avec l’équipe de data science qui traduit ces règles dans le modèle algorithmique. Puis des cas sont poussés pour entraîner l’algorithme. Plusieurs itérations ont été nécessaires. “Les experts débattent sur les cas problématiques pour décider s’il s’agit bien d’un abus ou non. Puis la balle repasse à l’algorithme dont le modèle s’enrichit des enseignements tirés des experts.” Encore aujourd’hui, des points hebdomadaires sont effectués avec l’équipe de data science pour améliorer l’algorithme de décision. 

“L’algorithme nous pousse dans nos retranchements”, déclare Anthony Jabre. Et c’est finalement son objectif. L’algorithme n’a pas vocation à remplacer les experts de Malakoff Humanis – il ne permet d’ailleurs aucun gain de productivité dans le traitement des cas. Il challenge leurs décisions. Si l’expert et l’algorithme arrivent à un résultat différent pour un même dossier, alors l’expert va essayer de comprendre la différence de point de vue. “Mais ce que pousse l’algorithme ne détermine pas la décision finale. Le métier a toujours raison”. Selon Anthony Jabre, ses équipes ne sont pas infantilisées par le dispositif. Au contraire, “les experts ont dorénavant un sentiment de maîtrise supérieur”.

Une amélioration de la détection deux fois plus précise

Cette sensation est corroborée par les résultats puisque “nous captons de plus en plus d’abus, avec un ciblage deux fois plus précis”, précise Anthony Jabre. Lorsque les résultats sont positifs, ils entraînent des expertises médicales, voire la suspension du versement des indemnités, ajoute le responsable.

Par ailleurs, la société estime avoir une meilleure compréhension de l’absentéisme. Elle distingue les abus d’autres absences, comme la peur de la reprise du travail. Un produit data complémentaire a été créé avec des règles métiers pour identifier les salariés qui auraient besoin d’être accompagnés, via une cellule d’écoute psychologique par exemple. “Souvent, ce sont des situations de fragilité qui complexifient le retour au travail. Les causes peuvent être humaines, comme une mauvaise relation avec un manager, ou psychologiques, comme la perte de cheveux à la suite d’un cancer qui entraîne une baisse de la confiance en soi… Les règles métiers permettent de distinguer ces salariés des assurés qui ne sont pas chez eux, par exemple”, pour lesquels la fraude apparaît comme plus réfléchie et/ou consciente.

Visualisations de données pour les entreprises

En plus de l’accompagnement des salariés, Malakoff Humanis a également pensé à ses clients directs, les entreprises. L’absentéisme long étant en hausse, avec une surreprésentation des jeunes, des femmes, des managers et des salariés aidants, les entreprises ont elles aussi un rôle clé pour aider à sa résorption. Malakoff Humanis a ainsi mis en place la plateforme “Diagnostic et protection du capital humain” qui permet de visualiser des indicateurs liés à l’absentéisme intra-entreprise, de comparer la “performance sociale” de la société à des entités similaires (par secteur ou par taille), demander une enquête sur leur propre absentéisme et bénéficier de recommandations d’actions pour le diminuer. 

Si l’algorithme de détection est continuellement amélioré par les équipes métiers et data science, Malakoff Humanis prévoit également davantage “d’évolutions sur l’accompagnement des assurés et le renforcement des capacités d’analyse et de restitution pour les clients via la datavisualisation”, conclut Anthony Jabre.

Malakoff Humanis, garant de l’intelligence artificielle responsable

“Nous sommes en cours d’évaluation pour obtenir le label d’intelligence artificielle responsable. La démarche nous amène à documenter nous outils avvec précision et à former les équipes. Dans le domaine médical, nous sommes de toute façon obligés d’être très précautionneux avec les algorithmes à cause du secret médical”, indique Anthony Jabre. Le diagnostic est mené par l’association Positive AI, une entité co-créée par le groupe de protection sociale, Orange France, L’Oréal et BCG Gamma. Il intervient dans un contexte européen de législation sur le sujet (lire notre Essentiel : “Vers une utilisation responsable de l’intelligence artificielle dans la finance”). Concernant l’algorithme de détection, il devrait passer le test car “il n’y a pas de surexploitation des données”. L’algorithme repose en effet sur du machine learning contrôlé de bout en bout par des humains.

Le label de Positive AI contrôle une quarantaine de critères. “Nous avons listé 20 points de contrôle en termes de conformité (RGPD), cycle de vie de l’algorithme, robustesse, analyse des résultats… Et pour les systèmes d’intelligence artificielle, nous en avons retenu 18 répartis en trois thématiques : les biais liées aux données et aux algorithmes, la transparence (et ses enjeux d’explicabilité et d’interprétabilité a minima) et la garantie humaine”, énumérait le directeur général délégué de Malakoff Humanis David Giblas en novembre 2022.

Caroline Soutarson
  • intelligence artificielle
  • machine learning
  • mutuelle

Besoin d’informations complémentaires ?

Contactez Mind Research

le service d’études à la demande de mind

À lire

Boardroom

Les collaborations, un levier essentiel pour les CVC mutualistes et paritaires de l’assurance

Malakoff Humanis a co-construit un label d’IA responsable

Collaboration entre Malakoff Humanis, Giphar et Livi pour lancer Mon Bilan Cardio

Carians

Comment Carians déploie le deuxième avis médical auprès des mutuelles et assureurs

Entretien

David Giblas (Malakoff Médéric Humanis) : “Nous entrons dans la phase 2 pour aller chercher toute la puissance des algorithmes”

Découvrez nos contenus gratuitement et sans engagement pendant 15 jours J'en profite
  • Le groupe mind
  • Notre histoire
  • Notre équipe
  • Nos clients
  • Nos services
  • mind Media
  • mind Fintech
  • mind Health
  • mind Rh
  • mind Retail
  • mind Research
  • Les clubs
  • mind et vous
  • Présentation
  • Nous contacter
  • Vous abonner
  • A savoir
  • Mentions légales
  • CGU
  • CGV
  • CGV publicité
  • Politique des cookies
Tous droits réservés - Frontline MEDIA 2025