• Contenus gratuits
  • Notre offre
Menu
  • Ressources
    • Toutes les ressources
  • Infos
    • Toutes les infos
  • Essentiels
    • Tous les essentiels
  • Analyses
    • Toutes les analyses
  • Data
    • Data
  • Newsletters
  • Profil
    • Je teste 15 jours
    • Je me connecte
  • Profil
    • Mon profil
    • Je me déconnecte
CLOSE

Accueil > Assurance > Malakoff Humanis a co-construit un label d’IA responsable

Malakoff Humanis a co-construit un label d’IA responsable

Malakoff Humanis, Orange, L’Oréal et BCG ont uni leurs forces pour créer Positive AI, une initiative collaborative qui milite pour une construction et une utilisation responsables de l’intelligence artificielle dans les entreprises. Un label sera notamment proposé à partir de 2023.

Par Caroline Soutarson. Publié le 17 novembre 2022 à 17h48 - Mis à jour le 25 mai 2023 à 14h59
  • Ressources

Les sociétés Malakoff Humanis, Orange France, L’Oréal et BCG Gamma (entité du cabinet de conseil dédiée à l’intelligence artificielle aux sciences de données) ont annoncé le 17 novembre le lancement de leur initiative Positive AI. Prenant la forme d’une association présidée par Laetitia Orsini Sharps, également EVP consumer business chez Orange France, l’organisation revêt, selon la dirigeante, trois fonctions : “proposer des outils concrets tels qu’un label et un référentiel d’IA responsable, créer un espace d’échanges pour les entreprises et contribuer au débat public”. 

notre Essentiel : Vers une utilisation responsable de l’intelligence artificielle dans la finance

Le projet est effectivement directement lié à l’établissement du cadre européen concernant l’intelligence artificielle. De ce fait, les quatre acteurs espèrent accueillir en leurs rangs d’autres entreprises, “de toutes tailles et tous secteurs afin de créer une communauté d’experts, en France et en Europe”, déclare Laetitia Orsini Sharps. Selon une étude de BCG parue en septembre 2022, ce sont 84 % des entreprises, dans 96 pays, qui voient l’intelligence artificielle responsable comme un enjeu important, bien que seules “16 % d’entre elles aient un programme mature sur le sujet”, précise Laurent Acharian, responsable marketing monde chez BCG Gamma.

Un label qui évalue près d’une quarantaine de critères

La construction d’un label est ainsi la première étape initiée par les entreprises fondatrices. Ce sont d’ailleurs des data scientists de leurs équipes qui l’ont élaboré. “La labellisation a fait ses preuves dans le cadre de la responsabilité sociétale des entreprises mais également de la qualité de vie au travail. Elle est également recommandée dans le livre blanc sur l’intelligence artificielle de la Commission européenne”, assure la présidente de Positive AI. 

Le label s’appuiera sur deux piliers : “la gouvernance de l’entreprise et l’algorithme lui-même”, ajoute-t-elle. Pour le premier, “nous avons listé 20 points de contrôle en termes de conformité (RGPD), cycle de vie de l’algorithme, robustesse, analyse des résultats… Et pour les systèmes d’intelligence artificielle, nous en avons retenu 18 répartis en trois thématiques : les biais liées aux données et aux algorithmes, la transparence (et ses enjeux d’explicabilité et d’interprétabilité a minima) et la garantie humaine”, énumère David Giblas, directeur général délégué de Malakoff Humanis. Dans le cadre d’une IA responsable, il est effectivement attendu que l’humain supervise les algorithmes, estiment les partenaires, et qu’il soit apte à les corriger. Disponible en 2023, le label Positive AI sera attribué par le cabinet externe indépendant EY.

Malakoff Humanis, Orange et L’Oréal ont chacun déjà expérimenté le label et le référentiel sur leurs propres systèmes d’IA (lutte contre la fraude, recommandation de chaînes de sport et analyse de commentaires des consommateurs respectivement, par exemple). De manière générale, “les marges de progression résident dans la documentation des systèmes d’IA, la gestion du cycle de vie des algorithmes et leur explicabilité”, reconnaît David Gilbas.

Caroline Soutarson
  • intelligence artificielle

Besoin d’informations complémentaires ?

Contactez Mind Research

le service d’études à la demande de mind

À lire

Vue Satellite
Notes de synthèse

Vers une utilisation responsable de l’intelligence artificielle dans la finance

Worldline Metavers

Comment Worldline travaille sur les paiements numériques de demain

Malgré les réglementations antitrust, les BATX poursuivent leurs projets dans la finance

Découvrez nos contenus gratuitement et sans engagement pendant 15 jours J'en profite
  • Le groupe mind
  • Notre histoire
  • Notre équipe
  • Nos clients
  • Nos services
  • mind Media
  • mind Fintech
  • mind Health
  • mind Rh
  • mind Retail
  • mind Research
  • Les clubs
  • mind et vous
  • Présentation
  • Nous contacter
  • Vous abonner
  • A savoir
  • Mentions légales
  • CGU
  • CGV
  • CGV publicité
  • Politique des cookies
Tous droits réservés - Frontline MEDIA 2025