Accueil > Médias & Audiovisuel > Guillaume Avrin (Direction générale des entreprises) : “Dans le domaine de l’intelligence artificielle, la France et l’Europe peuvent assurer un leadership sur le BtoB” Guillaume Avrin (Direction générale des entreprises) : “Dans le domaine de l’intelligence artificielle, la France et l’Europe peuvent assurer un leadership sur le BtoB” Rattaché à la Direction générale des entreprises, Guillaume Avrin est depuis janvier 2023 coordinateur national pour l'intelligence artificielle auprès du gouvernement. Alors que les outils se développent au sein des médias et de la publicité, en particulier les outils génératifs de contenus, il détaille la stratégie nationale pour l’intelligence artificielle (SNIA) et l'impact attendu de la future entrée en vigueur de l'IA Act pour les acteurs du marché et le cadre réglementaire. Par Romain Bonfillon. Publié le 13 avril 2023 à 13h51 - Mis à jour le 14 avril 2023 à 14h08 Ressources Vous avez été nommé coordinateur national pour l’intelligence artificielle en janvier. En quoi consiste votre rôle ? Ma mission concerne la coordination interministérielle de la stratégie nationale en intelligence artificielle, ce qui consiste à s’appuyer sur l’ensemble des administrations concernées, ainsi que sur les centres et laboratoires de recherche, pour structurer l’écosystème d’IA sur le long terme et à tous les stades du développement technologique : formations, R&D, applicatifs, certification, mise sur le marché et diffusion intersectorielle, soutien et encadrement du déploiement. Guillaume Avrin 2023 Coordinateur national pour l’intelligence artificielle, DGE 2017 Responsable du département Évaluation de l’intelligence artificielle, LNE, et expert indépendant en intelligence artificielle Quelles sont les principales orientations de votre feuille de route ? La stratégie nationale pour l’intelligence artificielle (SNIA) a été lancée en 2018 et renouvelée fin 2021. La priorité de la phase 2 de la SNIA est de favoriser la diffusion de l’IA dans notre économie. Nous comptons atteindre cet objectif en agissant selon trois axes. D’abord par la formation initiale et continue à l’IA, en finançant la mise en place de formations “cœur IA” centrées sur les enseignements statistiques et mathématiques, et de formations appelées “IA+X” centrées sur l’application, l’utilisation et compréhension du pouvoir transformateur de l’IA (traitement automatique du langage, reconnaissance automatique des images, etc.) dans un domaine particulier (médecine, pharmaceutique, droit, production industrielle, logistique, industries culturelles et créatives, cybersécurité, etc.). Le deuxième axe de notre feuille de route est la poursuite d’un soutien à l’offre “deep tech”, aux acteurs émergents de l’innovation, notamment sur les volets IA de confiance – IA frugale – IA embarquée, en capitalisant sur des communs numériques (librairie logicielle souveraine en matière d’apprentissage machine et de préparation de données, outils pour le test et l’intégration d’algorithmes d’apprentissage profond sur des cibles embarquées, etc.), ainsi que les nouvelles avancées de l’IA générative, giga-modèles, etc. Enfin dernier axe de la feuille de route, l’instauration d’un cadre favorisant le rapprochement entre l’offre et la demande en intelligence artificielle. Notamment via la mise en place d’outils nécessaires à la mise sur le marché d’IA de confiance et la mobilisation de l’ensemble des intermédiaires : les assureurs, les banquiers, les consultants, les organismes notifiés, les autorités notifiantes, les centres d’essais, etc. “Le Règlement interdira également certains usages de l’IA, considérés comme non compatibles avec les valeurs européennes” Comment vous préparez-vous à l’arrivée de l’IA Act et qu’est-ce que ce texte va changer concrètement pour les entreprises françaises travaillant dans ce secteur ? Les négociations européennes sur le Règlement IA sont toujours en cours. La Commission a présenté sa proposition de Règlement en avril 2021, et pendant 18 mois environ, les 27 Etats membres ont beaucoup discuté et trouvé des compromis afin d’aboutir, en décembre 2022, à un texte commun sur la base duquel ils négocieront avec le Parlement européen. Pour le moment, nous attendons que le Parlement termine ses travaux internes afin que les trilogues puissent commencer. C’est seulement à l’issue de cette dernière étape de négociations entre la Commission, le Parlement et le Conseil des Etats membres que le texte sera finalisé. La France a soutenu l’approche horizontale et l’approche par le niveau de risque proposées par la Commission européenne afin d’équilibrer innovation et protection des citoyens européens. Cela signifie que le Règlement sera applicable, à quelques exceptions près, à tous les secteurs d’activité, dans le public comme dans le privé. C’est donc un texte dont l’impact sera important pour beaucoup d’entreprises, mais aussi pour les administrations publiques qui développeront des systèmes d’IA. Comment Ogilvy Paris a utilisé l’intelligence artificielle générative pour créer en 24h une vidéo sur La laitière au service de Nestlé Pour les systèmes considérés à haut risque, le Règlement prévoit ainsi des obligations, notamment techniques, pour s’assurer de leur conformité avant qu’ils ne soient mis sur le marché européen ou mis en service. Peu importera si l’entreprise qui fournit un tel système est située dans l’Union européenne ou non. Il s’agit ici d’harmoniser les règles pour les systèmes d’IA qui sont considérés comme présentant des risques élevés pour la santé, la sécurité ou les droits fondamentaux des personnes. Le Règlement interdira également certains usages de l’IA, considérés comme non compatibles avec les valeurs européennes, comme par exemple les systèmes d’IA visant à faire de la notation sociale. Nous considérons également qu’une fois adopté, le texte devrait laisser suffisamment de temps aux entreprises et aux administrations publiques des Etats membres pour se mettre en conformité, à l’instar du RGPD. En effet, il s’agit d’un règlement complexe, qui impactera quasiment tous les secteurs, et qui nécessite par ailleurs de mettre en œuvre au préalable un système de gouvernance et de contrôle, au niveau national et au niveau européen. C’est la raison pour laquelle les Etats membres ont proposé de fixer le délai laissé aux acteurs pour se mettre en conformité à 3 ans après l’entrée en vigueur du texte. Cela peut sembler théoriquement long mais en réalité, comme cela a été le cas pour le RGPD, ce délai nous semble nécessaire pour que les entreprises françaises et européennes puissent intégrer au mieux ces nouvelles exigences de manière intelligente, cohérente et efficace dans leurs processus de développement et d’utilisation de l’IA sans impact sur les processus d’innovation et de développement. Comment l’intelligence artificielle générative bouleverse les médias Quelles sont selon vous les forces et les faiblesses de l’écosystème français autour de l’IA ? Il me semble important de signaler tout d’abord la qualité de la formation en France qui permet de faire émerger de nombreux talents dans le domaine de l’IA, qui sont ensuite recherchés en France, en Europe et à l’international. Il faut ensuite signaler la qualité de notre infrastructure de recherche, avec des laboratoires de référence dans la plupart des domaines de l’IA. Les instituts 3IA constitués dans le cadre de la phase 1 de la SNIA ont mis l’écosystème R&D national en ordre de bataille et nous sommes à présent en mesure de passer à l’offensive sur un certain nombre de sujets identifiés comme prioritaires. Nos grands groupes se sont également emparés du sujet, comme le montre la constitution du Manifeste IA réunissant une quinzaine de ces groupes industriels qui collaborent sur l’IA, dans le cadre du Grand défi “IA de confiance”, par l’organisation de challenges étudiants, etc. Nous pouvons regretter de ne pas avoir encore en France d’équivalent aux Big Techs, comme Google, Microsoft, Meta, Baidu, qui, directement ou par le biais d’organisations subventionnées comme OpenAI et DeepMind, investissent de manière massive dans des modèles d’IA, générant ainsi des avancées scientifiques et technologiques majeures, souvent destinées à un usage B2C (pour le consommateur). La France et l’Europe ont la possibilité a minima d’avoir un leadership sur le B2B (usage par l’entreprise), notamment par l’exploitation de viviers de données industrielles et commerciales inaccessibles aux Big Techs. Cela nécessite toutefois de nombreux investissements sur les communs numériques de l’IA (infrastructures de calcul et de stockage, banques de données, modèles open source entraînés sur le patrimoine national de données, etc.). De nombreuses startups, dont certaines des 29 licornes, émergent également sur l’IA et illustrent le dynamisme croissant de l’écosystème national. Certaines petites entreprises manquent cependant encore d’expérience sur l’IA, ce qui ralentit leur automatisation. La SNIA devra mettre en place les actions et dispositifs nécessaires pour assurer à l’ensemble du tissu économique national l’accès aux gains de compétitivité rendus possibles par l’automatisation des process industriels et administratifs par l’IA. “Ll’IA générative n’est à ce jour pas une IA de confiance” ChatGPT est très médiatisé depuis cet automne. Pensez-vous qu’il y a un effet d’emballement derrière cette innovation ou est-elle réellement disruptive ? Les giga-modèles de type transformers font l’objet de publications scientifiques démontrant leur très fort potentiel depuis plusieurs années. Plus que l’innovation technologique, c’est l’expérimentation et l’acculturation accélérée à l’IA du grand public qui constituent selon moi la véritable rupture. Le phénomène ChatGPT a mis en évidence plusieurs choses. D’arbord l’excellent niveau de performance sur certaines tâches de ces modèles. Ensuite la nécessité de faciliter l’expérimentation pour favoriser la diffusion de l’IA dans l’économie. Enfin l’importance des communs numériques : de larges bases de données d’apprentissages conformes à la réglementation européenne et respectant les droits d’auteur et de PI, les giga-modèles pré-entrainés open source, les supercalculateurs pour l’entraînement des modèles, les métriques consensuelles pour l’évaluation de l’IA générative, etc. Les cas d’usages de ces modèles sont très nombreux avec un potentiel de transformation de l’économie très important à condition de garantir la confiance dans ses résultats. “Les outils de développement dans les médias vont progressivement se doter de fonctionnalités similaires à celles de ChatGPT” Dans quels domaines pensez-vous que l’IA générative pourrait d’abord s’appliquer ? Avec quels bénéfices et quels risques ? L’ensemble des tâches administratives, de l’exécution de procédures aux expertises juridiques et financières, semblent pouvoir faire l’objet d’une automatisation par l’IA générative. Les giga-modèles multimodaux comme GPT-4 étendent encore le panorama de tâches concernées. D’importants gains de compétitivité pour les entreprises seraient ainsi accessibles à court terme. Concernant les risques, il semble important de signaler que l’IA générative n’est à ce jour pas une IA de confiance : certaines bases de données d’apprentissage, reposant principalement sur un scrapping du web, ne semblent pas respecter les droits d’auteur et de propriété. Il n’existe pas encore de métrique consensuelle permettant d’apprécier l’équité (absence de biais), la robustesse, la résilience de ces modèles. Par ailleurs, la dimension de ces giga-modèles rend leur entraînement inaccessible à la plupart des PME et ETI. Seules les multinationales, en particulier états-uniennes et chinoises, semblent réellement disposer des ressources suffisantes pour se positionner sur ce marché. Il y a un véritable enjeu de souveraineté à court terme et de dépendance aux hyperscalers états-uniens. Enfin, son entraînement et chaque calcul d’inférence sont beaucoup plus coûteux en énergie que les modèles d’IA utilisés jusqu’à présent ; il sera nécessaire d’accompagner son développement en veillant à notre impact environnemental. Elle n’est pas non plus “embarquable”, ce qui rend son utilisation complexe pour de nombreuses applications, notamment dans des domaines stratégiques pour l’Europe (mobilité, production industrielle nécessitant des calculs on premise, etc.). Les tests se développent dans la production d’informations via l’intelligence artificielle Comment créer de la confiance dans l’intelligence artificielle ? Les exigences reposent-elles toujours sur l’auto-déclaratif ? Comme je l’indiquais précédemment, la version définitive de l’AI Act n’est pas encore connue. La version de travail actuelle prévoit effectivement de l’auto-déclaration pour les domaines d’application cités dans l’Annexe 3. En revanche, pour les domaines déjà couverts par des réglementations européennes existantes (Annexe 2), des certifications réglementaires (évaluations de conformité tierces réalisées par des organismes notifiés) sont prévues. Pour les systèmes d’IA critiques, quelles méthodes de supervision sont aujourd’hui en place pour s’assurer qu’il n’y a pas de dérive ou de modification de performances du système ? Il existe de nombreuses méthodes de supervision pour éviter les dérives ou pertes massives de performances, dont certaines sont encore à un stade de R&D. A titre d’exemple, la méthode la plus évidente est la réévaluation du modèle après chaque modification des paramètres. Il est également possible de contrôler les caractéristiques statistiques de l’échantillon d’apprentissage pour détecter les changements substantiels. Il est par ailleurs à noter qu’il existe des méthodes pour limiter a priori le risque de dérive plutôt que le détecter a posteriori, avec par exemple la détection automatique des données aberrantes et atypiques en sortie des capteurs. Romain Bonfillon InnovationsIntelligence artificielleRéglementationTechnologies Besoin d’informations complémentaires ? Contactez le service d’études à la demande de mind À lire Analyses Les tests se développent dans la production d'informations via l'intelligence artificielle Confidentiels Les médias français veulent défendre leurs droits face à l’IA générative Plusieurs sociétés technologiques lancent des dispositifs de génération d’images par l’IA Des médias français testent l'IA générative pour illustrer des articles [Info mind Media] L'Obs utilise Spotl pour sous-titrer ses vidéos BuzzFeed veut une plus grande productivité de ses journalistes Chat GPT-4 facilite encore davantage la production automatisée de contenus Comment Ogilvy Paris a utilisé l'intelligence artificielle générative pour créer en 24h une vidéo sur La laitière au service de Nestlé L’intelligence artificielle générative confrontée au droit d’auteur Microsoft veut intégrer des fonctionnalités de ChatGPT à son moteur de recherche Bing Tribunes gratuit “Les outils de développement dans les médias vont progressivement se doter de fonctionnalités similaires à celles de ChatGPT” La Cnil crée un pôle dédié à l’intelligence artificielle Tribunes gratuit "L’unification des données client nécessite une grande rigueur méthodologique" ChatGPT illustre les progrès réalisés dans la production automatisée de contenus essentiels Nos synthèses et chiffres sur les principales thématiques du marché Les mutations du search à l'ère de l'IA générative L'application inaboutie de la loi sur les droits voisins Google vs DOJ : tout ce qu'il faut savoir sur le procès qui pourrait redéfinir l'adtech L’essentiel sur les identifiants publicitaires La transformation du marché publicitaire en 2024 2023 : le marché publicitaire doit se préparer à la fin du tracking utilisateur Comment l’intelligence artificielle générative bouleverse les médias Les enjeux réglementaires des médias en 2023 analyses Les articles d'approfondissement réalisés par la rédaction Adtech : pourquoi la Commission européenne sanctionne Google de près de 3 milliards d’euros Retail media : une consolidation indispensable des régies pour répondre aux attentes des acheteurs publicitaires IA et monétisation des contenus : comment l’IAB Tech Lab veut contrôler les robots crawlers Droits voisins : l’Apig veut introduire une plainte contre Meta devant l'Autorité de la concurrence Paul Boulangé (Starcom France) : "Nous sommes en train de déployer Captiv8 en France, notre solution d'automatisation du marketing d'influence" Claire Léost devient DG de CMA Média, WPP Media promeut Stéphanie Robelus… Comment les SSP généralistes investissent le secteur du retail media Bénédicte Wautelet (Le Figaro) : “Toute solution qui utilise de l’IA en rapport avec nos contenus doit y être autorisée et nous rémunérer” Aides à la presse : combien les éditeurs ont-ils perçu en 2024 ? Le New York Times affiche toujours une croissance très robuste portée par le numérique data Les baromètres, panoramas et chiffres sur l'évolution du marché Le classement des éditeurs français qui ont le plus d'abonnés purs numériques Les données récoltées par les acteurs de la publicité en ligne La liste des sociétés présentes dans les fichiers ads.txt des éditeurs français Les gains de budget des agences médias Opt-out : quels éditeurs français interdisent les robots crawlers de l'IA générative ? Le panorama des sociétés spécialisées dans les technologies de l’e-retail media La liste des outils utilisés par les équipes éditoriales, marketing et techniques des éditeurs français Le détail des aides à la presse, année par année La liste des CMP choisies par les principaux médias en France Digital Ad Trust : quels sites ont été labellisés, pour quelles vagues et sur quel périmètre ?