• Contenus gratuits
  • Notre offre
Menu
  • Ressources
    • Toutes les ressources
  • Infos
    • Toutes les infos
  • Essentiels
    • Tous les essentiels
  • Analyses
    • Toutes les analyses
  • Data
    • Data
  • Newsletters
  • Profil
    • Je teste 15 jours
    • Je me connecte
  • Profil
    • Mon profil
    • Je me déconnecte
CLOSE

Accueil > Services bancaires > Banque au quotidien > Mistral AI, LightOn, Giskard, Hugging Face… Quelle place pour l’IA générative made in France ?

Mistral AI, LightOn, Giskard, Hugging Face… Quelle place pour l’IA générative made in France ?

Face à la domination des Américains, des start-up hexagonales se posent en alternatives et/ou en compléments d’OpenAI. Elles fournissent aussi aux entreprises du secteur financier des outils nécessaires à l’exploitation de l’intelligence artificielle générative, à l’image de Mistral AI, LightOn, Giskard, Hugging Face ou Poolside. Panorama des forces en présence.

Par Christophe Auffray. Publié le 11 avril 2024 à 10h30 - Mis à jour le 23 octobre 2024 à 10h34
Les éditeurs français de modèles de langage de grande taille (LLM)
  • Ressources
Les points clés
De nombreuses entreprises françaises, telles qu’AXA et Groupama, commencent leur stratégie IAGen avec des instances privées de Microsoft Azure, leur permettant de tester les fonctionnalités de l’IA générative sans exposer leurs données sensibles. Par exemple, Groupama a lancé GESICA, une version privée de ChatGPT, pour ses collaborateurs.
En parallèle des solutions propriétaires, plusieurs start-ups françaises comme Mistral AI et LightOn se positionnent sur le marché de l’IAGen avec des modèles de langage spécialisés, moins coûteux et open source. Mistral AI, en particulier, a développé des modèles performants et de plus petite taille, adaptés aux besoins spécifiques des entreprises et garantissant le contrôle total des flux de données.
Les entreprises françaises se tournent vers des acteurs locaux, comme Docaposte et SafeBrain, pour garantir la souveraineté et la sécurité des données. Leurs solutions, déployées sur des clouds certifiés SecNumCloud, assurent que les modèles et les flux de données restent conformes aux exigences des secteurs régulés.

Pour monter en compétences et lancer de premières expérimentations autour de l’IA générative (IAGen), les entreprises françaises sont nombreuses à recourir à des instances privées de Microsoft Azure ou à son assistance Copilot, pour la génération de code ou l’amélioration de l’efficacité opérationnelle par exemple. Les environnements cloud leur permettent ainsi de tester le potentiel de l’IAGen sans exposer leurs données.

La première étape dans la banque et l’assurance en matière de stratégie IAGen consiste souvent à se doter d’un Secure GPT, à l’image d’AXA ou de Groupama. L’assureur mutualiste fournit depuis décembre 2023 à certains de ses collaborateurs une version privée de ChatGPT, baptisée GESICA (pour Groupama Épargne Salariale Intelligence Conversationnelle Artificielle).

Mistral AI : un entraîneur de modèles spécialisés

Parallèlement à ces solutions propriétaires et sur étagère, les acteurs de place s’intéressent, dans le cadre d’une stratégie “make or buy”, aux solutions open source et/ou françaises. C’est sur ce segment des outils ouverts que se positionnent nombre de start-up nationales. Mais la concurrence avec les Américains que sont OpenAI ou Anthropic n’est pas nécessairement frontale.

L’Europe s’efforce de faire émerger ses propres champions – ce qu’elle n’est pas parvenue à faire jusqu’à présent sur le cloud. L’énorme pari de la France, ainsi que le présente Maya Noël, directrice générale de France Digitale, c’est Mistral AI. La jeune pousse est née le 28 avril 2023 à l’initiative de trois chercheurs en IA en provenance des GAFAM : Timothée Lacroix, Guillaume Lample et Arthur Mensch – et avec Cédric O, ancien secrétaire d’Etat français au numérique, comme consultant et lobbyiste. 

En moins d’un an, Mistral AI a fait feu de tout bois. Dès juin 2023, la start-up réalisait une première levée de fonds de 105 millions d’euros. En décembre, quelques jours avant l’accord européen sur l’AI Act, elle levait 385 millions d’euros supplémentaires auprès d’investisseurs européens et américains.

Mistral 7B, le premier modèle de Mistral AI

Mistral AI, avec une valorisation de 1,86 milliard d’euros, est dorénavant une licorne française. Elle compte plusieurs grands modèles de langage (LLM) à son actif, tous sous licence open source. Le premier, Mistral 7B, a été publié en septembre 2023. Il illustre parfaitement la stratégie poursuivie par la start-up consistant à fournir des modèles de petite taille, en open source, spécialisés et très performants.

Mistral 7B, c’est ainsi 7 milliards de paramètres (contre des centaines de milliards pour GPT-4 et les principaux modèles généralistes). Plus petit donc, mais il “surpasse de loin les performances du meilleur modèle de 13 milliards de paramètres disponible à ce jour”, affirment ses concepteurs. Les benchmarks étayent cette assertion.

Bloomberg se lance dans la cours aux LLM experts

En mars 2023, le groupe d’information financière Bloomberg dévoilait dans une note de recherche BloombergGPT, son LLM propriétaire doté de 50 milliards de paramètres. Spécifiquement entraîné sur un éventail de données financières (rapports annuels, communiqués de presse, dépêches Bloomberg…) remontant à 40 ans, ce modèle “surpasse de manière significative les modèles ouverts de taille similaire sur les tâches de traitement du langage naturel (NLP) propres au secteur financier [analyse de sentiment, reconnaissance des entités nommées, classification des informations, réponse aux questions, etc., Ndlr]”, tout en conservant des performances égales ou supérieures dans les tests de référence généraux. Cela étant, depuis la publication de cette note il y a un an, il est difficile de savoir ce qu’il advient concrètement de BloombergGPT. Il n’existe pas d’API ni d’interface permettant d’y accéder, ses développeurs assumant de “pêcher par excès de prudence” en suivant la pratique des développeurs de LLM de ne pas rendre leur modèle public.

Le modèle Mistral 8x7B égale ChatGPT sur certaines tâches

Fin 2023, le Français lançait le modèle Mistral 8x7B, aussi nommé Mixtral, cette fois un modèle de type “Sparse Mixture-of-Experts” (SMoE) – une architecture de réseau de neurones conçue pour améliorer l’efficacité et l’évolutivité des modèles traditionnels grâce à des sous-réseaux experts (8 pour Mixtral).

Avec Mistral 8x7B, Mistral AI égale sur différentes tâches “la performance de ChatGPT”, souligne Ludovic Gibert, chief data officer & innovation leader chez Crédit Agricole CIB. “Mixtral surpasse la performance de Llama2 70b [un modèle de Meta, Ndlr] tout en étant six fois plus rapide”, signale-t-il. Ce résultat, le LLM le doit à “une toute nouvelle architecture absente des autres propositions open source sous la forme de mélanges d’experts”

“Au sein de la communauté IA, nombreux sont ceux qui considèrent justement ce type d’architecture comme étant la ‘secret sauce’ de GPT-4”, commente encore l’expert. La plus-value de Mistral AI, comme l’explique à mind Fintech son cofondateur et CEO Arthur Mensch, c’est la différenciation au travers de modèles plus petits, spécialisés, ouverts et moins coûteux à exploiter.

Une solution française testée par les institutions financières

Le Français promeut une IA générative “sous le contrôle complet de l’utilisateur, qui maîtrise entièrement ses flux de données.” Pour le dirigeant français, “ce qui n’est pas désirable, c’est que deux ou trois acteurs américains monopolisent la discussion, décident des biais ou de l’orientation culturelle des modèles qu’on déploie.”

Selon nos informations, des banques et assurances françaises prévoient de tester ou expérimentent déjà les modèles conçus par Mistral AI, de la même manière qu’elles éprouvent les capacités d’autres modèles open source dits de fondation – catégorie à laquelle appartient Bloomz, sélectionné par le Crédit Mutuel Arkéa pour concevoir son propre LLM.

“Nous nous positionnons comme un entraîneur de modèles. Nous allons entraîner la couche basse, à la fois complexe et onéreuse, de cette technologie d’IA générative”, indique aussi Arthur Mensch, décrivant une autre différence vis-à-vis de géants comme OpenAI. En clair, la promesse de la start-up, face aux grands modèles de langage généralistes, c’est de fournir des modèles pré-entraînés à spécialiser en fonction des spécificités de chaque entreprise.

LightOn : un historique aux approches multiples

LightOn, une deeptech fondée en 2016, s’est d’abord intéressée aux processeurs pour l’IA. Son nom a souvent été cité aux débuts de ChatGPT en tant qu’alternative souveraine aux technologies américaines. 

LightOn ne se focalise pas sur une seule approche pour tirer le déploiement de ses modèles. La start-up se présente comme une solution intermédiaire entre le tout propriétaire et le tout open source. Afin de répondre aux différents besoins des entreprises, LightOn propose une plateforme complète : Paradigm.

La gestion du cycle de vie des LLM

La promesse de Paradigm est de couvrir les différentes étapes du workflow de l’IA générative : cas d’usage, déploiement, prompt design et management, évaluation et fine-tuning. “Paradigm permet de gérer tout le cycle de vie des LLM dans l’entreprise […] et nous utilisons l’IA à chacune de ces étapes”, explique Laurent Daudet, son directeur général et cofondateur. 

“Notre objectif est de continuer à développer des LLM parmi les meilleurs au monde”, soutient le dirigeant. LightOn peut ainsi revendiquer la création d’un modèle de 180 milliards de paramètres. Son expertise réside aussi dans l’entraînement et le fine-tuning.

“Nous savons aussi faire des LLM plus petits capables de passer en production facilement, sur des corpus particuliers, par exemple une langue définie”, précise Laurent Daudet. Illustration avec le LLM open source Alfred, dont une version 2 (Alfred-40B-1023) a été lancée en novembre 2023. Avec Alfred, LightOn couvre notamment un cas d’usage au cœur des premières réalisations des utilisateurs : la recherche dans des bases documentaires.

Q&A sur les corpus documentaires

“Le gros cas d’usage qui arrive, c’est véritablement le Q&A sur les corpus documentaires. Cela nous est souvent demandé”, témoignait déjà le CEO en septembre 2023 lors du salon Big Data. À cette application de l’IA générative, LightOn répond avec une fonction améliorée : “Chat with docs”.

Le LLM open source est entraîné spécialement pour ces tâches consistant pour un utilisateur à poser une question en langage naturel sur une base de documents internes. “Le modèle simplifie ainsi l’interaction avec les documents et optimise la recherche d’information”, souligne Laurent Daudet.

LightOn propose plusieurs solutions de déploiement, et notamment sur l’infrastructure d’un client (on-premise ou dans un cloud privé), en garantissant ainsi la confidentialité et la sécurité des données. Les utilisateurs peuvent aussi opter pour un usage d’Alfred depuis Paradigm, avec la promesse de bénéficier d’une “version plus avancée” au travers d’améliorations et de fonctionnalités supplémentaires.

Depuis octobre 2023, LightOn collabore aussi à un consortium réunissant Aleia, NumSpot et Docaposte. Cette alliance s’est concrétisée en novembre par le lancement d’une première solution souveraine d’IA générative à destination “des acteurs publics et privés exploitant des données sensibles.”

Hugging Face : concurrent et partenaire des hyperscalers

Hugging Face se partage entre les États-Unis et la France. D’un côté, la start-up a levé auprès d’investisseurs majoritairement américains (Salesforce, Google, Amazon, Sequoia Capital…) pas moins de 395 millions de dollars depuis sa création en 2016 et se valorise à 4,5 milliards de dollars. De l’autre, elle compte une grande partie de ses salariés en France. Cet effectif français, ses fondateurs prévoient d’ailleurs de le doubler.

La start-up est aussi très proche des géants du cloud. AWS a été son premier partenaire. Mais depuis janvier 2024, Google figure aussi parmi ses partenaires stratégiques. IA générative open source et cloud ne sont pas incompatibles. Au contraire. Les services cloud des hyperscalers sont souvent incontournables, en particulier pour la phase d’entraînement, très gourmande en ressources de calcul.

Le carrefour de l’open source

Hugging Face est un acteur central des modèles d’IA open source grâce à sa marketplace d’IA existantes et de jeux de données. “Si vous cherchez un modèle open source, vous allez sur Hugging Face, comme vous iriez sur Github pour chercher ou partager du code”, résume Julien Simon, chief evangelist chez Hugging Face. Aujourd’hui, l’IA open source est le leader en termes d’intérêt, d’adoption et généralement de performance des modèles […] Le cœur d’Hugging Face, c’est l’open source : la collection, l’hébergement et la mise en action de modèles et de jeux de données.”

L’entreprise héberge sur son service près de 500 000 modèles et approche les 100 000 jeux de données. “Tous sont open source, avec des licences différentes. Certaines sont compatibles avec un usage commercial, d’autres pas. À chacun de faire ses devoirs et d’utiliser les modèles correspondant à ses cas d’usage”, estime Julien Simon.

Pour les entreprises, Hugging Face a développé une offre dédiée, l’Enterprise Hub, avec à la clé “davantage de contrôle et de compliance”, via notamment une “meilleure intégration avec l’IT, le SSO [authentification unique, Ndlr], le choix de la localisation des données, etc.”

“Les modèles seuls n’ont pas un énorme intérêt. Ils sont compliqués à utiliser. Le succès d’Hugging Face vient de la construction depuis des années de librairies open source permettant d’utiliser simplement les modèles, notamment pour de l’entraînement et de l’inférence. Avec un niveau de développement assez limité, on peut utiliser ces modèles sans se poser trop de questions par rapport à leur déploiement ou leur passage à l’échelle”, défend le chief evangelist. 

Outre les modèles et les librairies, la start-up franco-américaine propose différents services, comme Spaces pour l’hébergement d’applications sur l’infrastructure Hugging Face ou Inference Endpoints pour le déploiement. “Cela, c’est le Hugging Face d’il y a deux ans”, précise toutefois Julien Simon. La licorne dispose également de ses propres modèles, développés et entraînés sur son infrastructure.

“Nous avons créé une alternative 100 % open source aux chabots propriétaires” cite-t-il ainsi, en référence à Hugging Chat. Pour répondre aux besoins de ses clients en matière de cloud, l’entreprise a noué des partenariats avec les hyperscalers.

L’inférence CPU en ligne de mire

L’objectif : “intégrer l’environnement open source sur le cloud et permettre la simplicité d’usage” sur les plateformes AWS, Azure et GCP, entre autres. Hugging Face a aussi noué des partenariats avec des acteurs des infrastructures, comme Nvidia. Les GPU sont en effet très demandés pour l’entraînement et l’accès à ces ressources se complexifie. 

“Le problème est réel sur tous les clouds […] La bonne nouvelle, c’est qu’on va enfin pouvoir faire autre chose que du Nvidia”, déclare Julien Simon en référence à l’accord conclu avec AMD, autre fournisseur de processeurs graphiques (GPU). L’expert annonce aussi pour 2024 l’avènement du thème de l’inférence CPU, soit le recours à un processeur classique, un CPU, pour le fonctionnement de l’IA.

“L’obsession GPU, l’obsession Nvidia, il est temps d’y mettre fin et de revenir à des choses plus réalistes. L’inférence CPU sera le thème de 2024. Avant de signer des commandes pour 2 millions de GPU, posez-vous les bonnes questions. C’est trop tard désormais et de meilleures solutions existent”, exhorte-t-il.

Julien Simon l’assure, les modèles hébergés par Hugging Face sont “le standard de fait aujourd’hui”. Il appelle par ailleurs à se méfier du marketing et des influenceurs sur LinkedIn : “il n’y a pas de meilleur modèle. Le meilleur, c’est le modèle pour vous, à l’instant T, pour votre cas d’usage, avec vos données, votre budget et votre compliance.”

Sur la base du consulting assuré par la startup, notamment “auprès des plus grandes banques mondiales”, Julien Simon estime que “le meilleur ROI est délivré par des petits modèles open source fin-tunés et réentraînés sur les données de l’entreprise […] Généralement, la meilleure performance s’obtient avec la RAG [génération augmentée de récupération, un processus consistant à optimiser le résultat d’un grand modèle de langage grâce à des informations ciblées, Ndlr] et le fine-tuning.”   

Giskard, Poolside AI, Safebrain… Des généralistes et des spécialistes

Mistral AI, LightOn et Hugging Face peuvent être considérés comme des généralistes (en termes de cas d’usage) de l’IA générative, et des outilleurs. D’autres acteurs du marché se spécialisent sur des cas d’usage donnés comme iAdvize, avec l’e-commerce et la relation client. Ils ne développent pas nécessairement leurs propres modèles.

Poolside est un autre spécialiste. Fondée aux États-Unis, la start-up à laquelle collabore l’ex-CTO de Github Jason Warner, s’est relocalisée à Paris. En août 2023, elle a levé 126 millions de dollars. Parmi ses investisseurs, elle compte notamment Xavier Niel, Rodolphe Saadé, Motier Ventures et Bpifrance. Sa spécialisation : la génération de code informatique.

Garantir la qualité des modèles

Giskard se positionne “sur le sujet très opérationnel de la qualité de l’IA” via une solution open source. Des représentants de l’éditeur accompagnaient le président Macron et sa délégation lors du sommet de Davos en janvier 2024. Son produit : un framework permettant de tester les modèles d’IA et de détecter erreurs et biais. “Nous nous voyons comme la ceinture – 3 points – de sécurité de l’IA”, déclare Alex Combessie, cofondateur et CEO de Giskard.

Trois points car l’éditeur français développe trois produits : une librairie open source pour tester les modèles et détecter les vulnérabilités, une interface visuelle pour la collaboration avec des équipes non techniques, et un système de monitoring des LLM en production.  Sa valeur, l’entreprise estime l’apporter en réduisant les risques et en améliorant l’efficacité opérationnelle sur les tests, mais également en permettant la confiance entre développeurs et métiers.   

Déploiement et cas d’usage sur mesure

Illuin Technology est un autre acteur français. Son CEO Robert Vesoul est aussi codirecteur de la chaire innovation digitale de CentraleSupélec. Le dirigeant revendique “l’une des plus grosses équipes de recherche d’ingénierie en IA en France avec 85 experts”. Il met en avant le traitement de cas d’usage “sur-mesure au travers d’une plateforme d’IA générative et de produits directement centrés sur les besoins client”. 

SafeBrain commercialise de son côté une plateforme de déploiement de LLM pour les agents conversationnels, “un ChatGPT privé pour les entreprises”, comme la décrit Loïc Boutet, cofondateur et directeur technique. L’éditeur met à disposition des modèles commerciaux et open source, ainsi que des services de sécurisation des données et d’audit. L’entreprise se revendique un acteur “souverain” via un déploiement sur le cloud certifié SecNumCloud d’Outscale.  

“On permet aux entreprises de disposer de couches de sécurisation pour se connecter aux LLM extérieurs et commerciaux. Nous proposons en même temps des LLM tournant sur notre plateforme en France. Nous pouvons aussi évidemment nous connecter aux SI internes des clients”, détaille Loïc Boutet.

Souveraineté et open source

Dans les discours des fournisseurs émergent de plus en plus d’arguments mettant en avant des IA et LLM souverains, comme c’est déjà le cas sur le cloud. C’est particulièrement prégnant chez Docaposte (aussi contributeur de Numspot sur le cloud souverain) et son consortium en raison d’un positionnement axé sur les secteurs régulés et dont les données sont sensibles.

L’open source, garantie d’une maîtrise des modèles et des données, gagne aussi en importance dans l’univers de l’IA générative. Cette option est étudiée par les entreprises dans le cadre de leur stratégie de make or buy. Les hyperscalers eux aussi s’en emparent, y compris Microsoft, afin de diversifier leurs offres et d’héberger tout type de modèle. Les débuts de l’IAGen ont été essentiellement tirés par les solutions propriétaires. Il faut incontestablement composer désormais, et plus encore à l’avenir, avec les outils issus de l’open source.

Christophe Auffray
  • IA générative
  • intelligence artificielle
  • LLM

Besoin d’informations complémentaires ?

Contactez Mind Research

le service d’études à la demande de mind

À lire

Le siège du groupe Crédit Agricole

Le Crédit Agricole vante une approche équilibrée de l’IA générative

bunq s'empare de l'IA générative

Le Crédit Mutuel veut miser sur l'IA générative et l'informatique quantique

Le Crédit Mutuel Arkéa publie en open source un modèle d’IA générative

Deutsche Bank investit dans un concepteur de LLM dédié au secteur financier

Découvrez nos contenus gratuitement et sans engagement pendant 15 jours J'en profite
  • Le groupe mind
  • Notre histoire
  • Notre équipe
  • Nos clients
  • Nos services
  • mind Media
  • mind Fintech
  • mind Health
  • mind Rh
  • mind Retail
  • mind Research
  • Les clubs
  • mind et vous
  • Présentation
  • Nous contacter
  • Vous abonner
  • A savoir
  • Mentions légales
  • CGU
  • CGV
  • CGV publicité
  • Politique des cookies
Tous droits réservés - Frontline MEDIA 2025