• Contenus gratuits
  • Notre offre
Menu
  • Ressources
    • Toutes les ressources
  • Infos
    • Toutes les infos
  • Essentiels
    • Tous les essentiels
  • Analyses
    • Toutes les analyses
  • Data
    • Data
  • Newsletters
  • Profil
    • Je teste 15 jours
    • Je me connecte
  • Profil
    • Mon profil
    • Je me déconnecte
CLOSE

Accueil > Assurance > Nouveaux risques > Guillaume Avrin (DGE) : “Dans le domaine de l’IA, la France et l’Europe peuvent assurer un leadership sur le BtoB”

Guillaume Avrin (DGE) : “Dans le domaine de l’IA, la France et l’Europe peuvent assurer un leadership sur le BtoB”

Guillaume Avrin, nommé en janvier 2023 par le gouvernement en tant que coordonateur national pour l'intelligence artificielle, fait le point sur la stratégie nationale pour l’intelligence artificielle (SNIA) et l'impact attendu de la future entrée en vigueur de l'IA Act.

Par Romain Bonfillon. Publié le 22 mars 2023 à 14h00 - Mis à jour le 28 janvier 2025 à 15h49
Guillaume Avrin
  • Ressources

Quel est le rôle du “Coordonnateur national pour l’intelligence artificielle” ?

Ma mission concerne la coordination interministérielle de la stratégie nationale en intelligence artificielle, ce qui consiste à s’appuyer sur l’ensemble des administrations concernées, ainsi que sur les centres et laboratoires de recherche, pour structurer l’écosystème d’IA sur le long terme et à tous les stades du développement technologique : formations, R&D, applicatifs, certification, mise sur le marché et diffusion intersectorielle, soutien et encadrement du déploiement. 

Avez-vous d’ores et déjà une feuille de route et, le cas échéant, quels sont ses grands axes ?

La stratégie nationale pour l’intelligence artificielle (SNIA) a été lancée en 2018 et renouvelée fin 2021. La priorité de la phase 2 de la SNIA est de favoriser la diffusion de l’IA dans notre économie.

Nous comptons atteindre cet objectif en agissant selon trois axes. D’abord, la formation initiale et continue à l’IA, en finançant la mise en place de formations “cœur IA” centrées sur les enseignements statistiques et mathématiques, et de formations appelées “IA+X”centrées sur l’application, l’utilisation et compréhension du pouvoir transformateur de l’IA (traitement automatique du langage, reconnaissance automatique des images, etc.) dans un domaine particulier (médecine, pharmaceutique, droit, production industrielle, logistique, industries culturelles et créatives, cybersécurité, etc.).

Ensuite, la poursuite d’un soutien à l’offre “deep tech”, aux acteurs émergents de l’innovation, notamment sur les volets IA de confiance, IA frugale et IA embarquée, en capitalisant sur des communs numériques (librairie logicielle souveraine en matière d’apprentissage machine et de préparation de données, outils pour le test et l’intégration d’algorithmes d’apprentissage profond sur des cibles embarquées, etc.), ainsi que les nouvelles avancées (IA générative, giga-modèles, etc.).

Enfin, l’instauration d’un cadre favorisant le rapprochement entre l’offre et la demande en IA, notamment via la mise en place d’outils nécessaires à la mise sur le marché d’IA de confiance et la mobilisation de l’ensemble des intermédiaires (les assureurs, les banquiers, les consultants, les organismes notifiés, les autorités notifiantes, les centres d’essais, etc.).

Comment vous préparez-vous à l’arrivée de l’IA Act et qu’est-ce que ce texte va changer concrètement pour les entreprises françaises travaillant dans ce secteur ?

Les négociations européennes sur le Règlement IA sont toujours en cours. La Commission a présenté sa proposition de Règlement en avril 2021, et pendant 18 mois environ, les 27 Etats membres ont beaucoup discuté et trouvé des compromis afin d’aboutir, en décembre 2022, à un texte commun sur la base duquel ils négocieront avec le Parlement européen. Pour le moment, nous attendons que le Parlement termine ses travaux internes afin que les trilogues puissent commencer. C’est seulement à l’issue de cette dernière étape de négociations entre la Commission, le Parlement et le Conseil des Etats membres que le texte sera finalisé.

La France a soutenu l’approche horizontale et l’approche par le niveau de risque proposées par la Commission européenne. Cela signifie que le Règlement sera applicable, à quelques exceptions près, à tous les secteurs d’activité, dans le public comme dans le privé. C’est donc un texte dont l’impact sera important pour beaucoup d’entreprises, mais aussi pour les administrations publiques qui développeront des systèmes d’IA.

Pour les systèmes considérés à haut risque, le Règlement prévoit ainsi des obligations, notamment techniques, pour s’assurer de leur conformité avant qu’ils ne soient mis sur le marché européen ou mis en service. Peu importera si l’entreprise qui fournit un tel système est située dans l’Union européenne ou non. Il s’agit ici d’harmoniser les règles pour les systèmes d’IA qui sont considérés comme présentant des risques élevés pour la santé, la sécurité ou les droits fondamentaux des personnes. Le Règlement interdira également certains usages de l’IA, considérés comme non compatibles avec les valeurs européennes, comme par exemple les systèmes d’IA visant à faire de la notation sociale.

Nous considérons également qu’une fois adopté, le texte devrait laisser suffisamment de temps aux entreprises et aux administrations publiques des Etats membres pour se mettre en conformité, à l’instar du RGPD. En effet, il s’agit d’un règlement complexe, qui impactera quasiment tous les secteurs, et qui nécessite par ailleurs de mettre en œuvre au préalable un système de gouvernance et de contrôle, au niveau national et au niveau européen. C’est la raison pour laquelle les Etats membres ont proposé de fixer le délai laissé aux acteurs pour se mettre en conformité à 3 ans après l’entrée en vigueur du texte. Cela peut sembler théoriquement long mais en réalité, comme cela a été le cas pour le RGPD, ce délai nous semble nécessaire pour que les entreprises françaises et européennes puissent intégrer au mieux ces nouvelles exigences de manière intelligente, cohérente et efficace dans leurs processus de développement et d’utilisation de l’IA, sans que cela ne freine ni n’interrompe les processus d’innovation et de développement. 

Quelles sont selon vous les forces et faiblesses de l’écosystème français autour de l’IA ?

Il me semble important de signaler tout d’abord la qualité de la formation en France qui permet de faire émerger de nombreux talents dans le domaine de l’IA, qui sont ensuite recherchés en France, en Europe et à l’international. Il faut ensuite signaler la qualité de notre infrastructure de recherche, avec des laboratoires de référence dans la plupart des domaines de l’IA. Les instituts 3IA constitués dans le cadre de la phase 1 de la SNIA ont mis l’écosystème R&D national en ordre de bataille et nous sommes à présent en mesure de passer à l’offensive sur un certain nombre de sujets identifiés comme prioritaires. 

Nos grands groupes se sont également emparés du sujet, comme le montre la constitution du Manifeste IA réunissant une quinzaine de ces groupes industriels qui collaborent sur l’IA. Nous pouvons regretter de ne pas avoir encore en France d’équivalent aux Big Techs qui, directement ou par le biais d’organisations  subventionnées comme OpenAI et DeepMind, investissent de manière massive dans des modèles d’IA, générant ainsi des avancées scientifiques et technologiques majeures, souvent destinées à un usage BtoC. La France et l’Europe ont à minima la possibilité d’assurer un leadership sur le BtoB, notamment par l’exploitation de viviers de données industrielles et commerciales inaccessibles aux Big Techs. Cela nécessite toutefois de nombreux investissements sur les communs numériques de l’IA (infrastructures de calcul et de stockage, banques de données, modèles open source entraînés sur le patrimoine national de données, etc.).

De nombreuses startups, dont certaines des 29 licornes, émergent également sur l’IA et illustrent le dynamisme croissant de l’écosystème national. Certaines petites entreprises manquent cependant encore d’expérience sur l’IA, ce qui ralentit leur automatisation. La SNIA devra mettre en place les actions et dispositifs nécessaires pour assurer à l’ensemble du tissu économique national l’accès aux gains de compétitivité rendus possibles par l’automatisation des process industriels et administratifs par l’IA.   

ChatGPT fait les gros titres de tous les journaux depuis plusieurs semaines. Pensez-vous qu’il y a un effet d’emballement derrière cette innovation ou est-elle réellement disruptive ?

Les giga-modèles de type transformers font l’objet de publications scientifiques démontrant leur très fort potentiel depuis plusieurs années. Plus que l’innovation technologique, c’est l’expérimentation et l’acculturation accélérée à l’IA du grand public qui constituent selon moi la véritable rupture. Le phénomène ChatGPT a mis en évidence l’excellent niveau de performance sur certaines tâches de ces modèles, la nécessité de faciliter l’expérimentation pour favoriser la diffusion de l’IA dans l’économie, et l’importance des communs numériques (larges bases de données d’apprentissages conformes à la réglementation européenne et respectant les droits d’auteur et de PI, giga-modèles pré-entrainés open source, supercalculateurs pour l’entraînement des modèles, métriques consensuelles pour l’évaluation de l’IA générative, etc.). Les cas d’usages de ces modèles sont très nombreux avec un potentiel de transformation de l’économie très important à condition de garantir la confiance dans ses résultats.

Dans quels domaines pensez-vous qu’elle pourrait d’abord s’appliquer ? Avec quels bénéfices et quels risques ?

L’ensemble des tâches administratives, de l’exécution de procédures aux expertises juridiques et financières, semblent pouvoir faire l’objet d’une automatisation par l’IA générative. Les giga-modèles multimodaux comme GPT-4 étendent encore le panorama de tâches concernées. D’importants gains de compétitivité pour les entreprises seraient ainsi accessibles à court terme. 

Concernant les risques, il semble important de signaler que l’IA générative n’est compatible aujourd’hui avec aucun des trois axes du volet “deep tech” de la SNIA. L’IA générative n’est en effet à ce jour pas une IA de confiance : certaines bases de données d’apprentissage, reposant principalement sur un scrapping du web, ne semblent pas respecter les droits d’auteur et de propriété. Il n’existe pas encore de métrique consensuelle permettant d’apprécier l’équité (absence de biais), la robustesse, la résilience de ces modèles.  

Elle n’est pas non plus frugale. Son entraînement et chaque calcul d’inférence sont beaucoup plus coûteux en énergie que les modèles d’IA utilisés jusqu’à présent. 

Elle n’est pas “embarquable”, ce qui rend son utilisation complexe et onéreuse pour de nombreuses applications, notamment dans des domaines stratégiques pour l’Europe (mobilité, production industrielle nécessitant des calculs on premise, etc.). Par ailleurs, la dimension de ces giga-modèles rend leur entraînement inaccessible à la plupart des PME/ETI. Seules les multinationales, en particulier états-uniennes et chinoises, semblent réellement disposer des ressources suffisantes pour se positionner sur ce marché. Il y a un véritable enjeu de souveraineté à court terme. 

Comment créer de la confiance dans l’IA ? Les exigences reposent-elles toujours sur l’auto-déclaratif ?

Comme indiqué précédemment, la version définitive de l’AI Act n’est pas encore connue. La version de travail actuelle prévoit effectivement de l’auto-déclaration pour les domaines d’application cités dans l’annexe 3 [authentification biométrique, gestion des infrastructures, éducation, emploi, accès à des services privés et publics, justice, migration et processus démocratiques, Ndlr]. En revanche, pour les domaines déjà couverts par des réglementations européennes existantes (citées dans l’annexe 2 du texte), des certifications réglementaires (évaluations de conformité tierces réalisées par des organismes notifiés) sont prévues.  

Pour les systèmes d’IA critiques, quelles méthodes de supervision sont aujourd’hui en place pour s’assurer qu’il n’y a pas de dérive ou de modification de performances du système ?

Il existe de nombreuses méthodes de supervision pour éviter les dérives ou pertes massives de performances, dont certaines sont encore à un stade de R&D. A titre d’exemples, la méthode la plus évidente est la réévaluation du modèle après chaque modification des paramètres. Il est également possible de contrôler les caractéristiques statistiques de l’échantillon d’apprentissage pour détecter les changements substantiels. Il est par ailleurs à noter qu’il existe des méthodes pour limiter a priori le risque de dérive plutôt que le détecter a posteriori (par exemple la détection automatique des données aberrantes et atypiques en sortie des capteurs). 

Vous avez été responsable du département “Évaluation de l’IA” au LNE. Dans un entretien accordé à mind Health, vous évoquiez les différentes méthodes pour lutter contre l’effet “boîte noir” des IA. À date, l’option choisie est-elle toujours le test entrée/sortie ?

Les modèles d’IA génératif sont à ce jour très volumineux (plusieurs dizaines de milliards de paramètres), ce qui rend la preuve formelle de fonctionnement inaccessible. L’évaluation entrée/sortie sur bases de données de test ou par l’utilisation humaine semble demeurer la seule option. 

Quelles limitations entendez-vous porter, dans le cadre de l’AI Act, à l’analyse du risque de crédit ?

La France ne décide pas seule des évolutions du Règlement IA, et les 27 Etats membres, la Commission, et le Parlement européen doivent encore négocier pour parvenir à un texte de compromis. S’agissant de l’utilisation de systèmes d’IA pour évaluer les capacités de crédit d’une personne, les États membres ont en effet décidé dans le texte de l’orientation générale du Conseil de les maintenir globalement dans la liste des systèmes à haut risque. Si cela reste le cas à l’issue des discussions avec le Parlement, alors cela voudra dire qu’ils devront respecter l’ensemble des règles imposées par le Règlement IA. Nous verrons quelle sera la position du Parlement européen, car encore une fois, le texte ne sera final qu’à l’issue des trilogues.

Cet entretien a été réalisé par la rédaction de mind Health, publication du groupe mind.

Romain Bonfillon
  • intelligence artificielle
  • régulation

Besoin d’informations complémentaires ?

Contactez Mind Research

le service d’études à la demande de mind

Découvrez nos contenus gratuitement et sans engagement pendant 15 jours J'en profite
  • Le groupe mind
  • Notre histoire
  • Notre équipe
  • Nos clients
  • Nos services
  • mind Media
  • mind Fintech
  • mind Health
  • mind Rh
  • mind Retail
  • mind Research
  • Les clubs
  • mind et vous
  • Présentation
  • Nous contacter
  • Vous abonner
  • A savoir
  • Mentions légales
  • CGU
  • CGV
  • CGV publicité
  • Politique des cookies
Tous droits réservés - Frontline MEDIA 2025