Accueil > Médias & Audiovisuel > Bénédicte Wautelet (Le Figaro) : “Toute solution qui utilise de l’IA en rapport avec nos contenus doit y être autorisée et nous rémunérer” Bénédicte Wautelet (Le Figaro) : “Toute solution qui utilise de l’IA en rapport avec nos contenus doit y être autorisée et nous rémunérer” Les éditeurs de presse français adoptent des stratégies défensives pour faire face à la multiplication des robots qui aspirent leurs contenus. Entre révision de ses conditions générales, mises à jour régulières de son fichier robots.txt et négociations avec les acteurs de l’IA générative, le groupe Figaro cherche à se perfectionner dans la détection des robots crawlers. Pour mind Media, Bénédicte Wautelet, directrice juridique du groupe, revient sur les moyens mis en place. Par Charlène Salomé. Publié le 27 août 2025 à 17h11 - Mis à jour le 28 août 2025 à 15h12 Ressources Le fichier robots.txt du Figaro interdit les robots sur une dizaine d’URL spécifiques et plus de 200 sur l’ensemble de son site, dont une vingtaine sont liés à des finalités d’intelligence artificielle… Quelles sont les règles qui entourent ces interdictions ? Comment le groupe choisit-il d’interdire ou non certains robots ? Nous avons entrepris une démarche de reprise en main de nos contenus, qui s’est mise en place dans le contexte du crawl, c’est-à-dire des activités de collecte de contenus en ligne. Nous nous sommes équipés d’une cellule de pilotage de reprise des contenus afin d’analyser le crawl sur nos sites, dont je suis en charge avec un juriste. Cette cellule est transverse et pluridisciplinaire. Elle dispose d’un prisme à trois têtes : juridique, technique mais aussi commerciale, car nous voulons nouer des relations financières avec les acteurs qui jouent le jeu. On monte en puissance en accélérant nos démarches dans une logique d’assainissement de notre trafic et de chasse aux crawlers non autorisés. On s’est notamment équipé de la solution BotsCorner pour analyser le trafic. On a également revu nos conditions générales et retravaillé notre fichier robots.txt. On priorise toujours la négociation et la conclusion d’un accord, mais si elle n’aboutit pas, on annonce une interdiction d’accès (Le Figaro interdit l’accès à ses contenus notamment pour les bots d’OpenAI – GPTBot, ChatGPT-User et OAI-Search Bot -, mais aussi ceux d’Anthropic – Anthropic AI, Claude Bot et Claude Web -, d’Amazon – Amazon Bot et Meta -, et Query Metasearch, ndlr). Opt-out : quels éditeurs français interdisent les robots crawlers de l’IA générative ? Pourquoi avoir choisi BotsCorner ? Comment se passe la collaboration ? C’est une société française qui est partenaire de nombreux éditeurs français, et qui gravite dans le milieu de la surveillance du crawling depuis longtemps. Elle nous permet d’avoir une vraie visibilité sur ces acteurs du crawling. C’est un vrai partenaire pour protéger les droits d’auteur. Plusieurs bots d’entraînement sont désignés dans vos fichiers (CCBot, ClaudeBot, GPTBot), mais pas Google-Extended et Applebot-Extended. L’absence de certains bots vaut-elle accord pour la collecte de vos contenus ? Ou illustre-t-elle la difficulté à maintenir ce fichier à jour ? Ces absences ne valent pas pour accord, comme indiqué dans nos conditions générales, que nous avons modifiées en fin d’année dernière. Elles peuvent s’expliquer par des discussions qui sont encore en cours. Parfois, on est en train de faire des constats, ou ce sont des agents que nous n’avons pas encore identifiés. Ces fichiers robots.txt ne sont pas toujours consultés par les robots crawlers. Selon une étude de TollBit, le crawl des robots IA passant outre ces interdictions a augmenté de 40 % entre le troisième et le quatrième trimestre 2024. Avez-vous observé que les robots que vous bloquiez explicitement continuaient de crawler vos contenus ? Une fois bloqués, les robots ne crawlent pas nos contenus directement, mais nous savons qu’il existe des stratégies de contournement. Il existe plusieurs façons de contourner ces mesures. Les robots peuvent, par exemple, passer par d’autres acteurs, qui se sont fait une spécialité de récupérer les contenus pour d’autres en les revendant à des tarifs dérisoires. Il existe des acteurs de toute taille sur le marché, de très petits mais aussi de très grandes entreprises internationales, rendant le traçage difficile et nous contraignant à adapter nos négociations en fonction de nos interlocuteurs, des produits qu’ils proposent et de l’utilisation qu’ils font de nos contenus. IA, veille, publicité, agrégation de contenus… Quels sont les robots crawlers que les éditeurs français bloquent ou autorisent sur leurs sites ? Recevez-vous du trafic en provenance des robots que vous bloquez ? Non. Quand on bloque, on ne reçoit plus de trafic en provenance de ces acteurs. Le Figaro a-t-il conclu des accords rémunérés avec des acteurs de l’IA afin d’autoriser l’utilisation de ses contenus contre rémunération, à l’instar du Monde avec OpenAI ? L’IA est partout. Dès lors, toute solution qui utilise de l’IA en rapport avec nos contenus doit y être autorisée et nous rémunérer spécifiquement pour cet usage. Nous avons signé des accords avec des acteurs majeurs qui ont fait le choix de conclure avec nous, en leur octroyant des licences d’utilisation de nos contenus. Ils sont désormais des diffuseurs autorisés de nos contenus. Des accords historiques ont par ailleurs été remodelés pour y intégrer l’IA, comme celui avec l’agrégateur Factiva/ Dow Jones. Nous avons également signé avec de nouveaux acteurs, à l’instar de Meltwater et Signal AI. Nous voulons savoir ce qui est fait de nos contenus et être rémunérés à notre juste valeur. Robots.txt : notre Tracker Pour faire valoir leurs droits face aux acteurs de l’intelligence artificielle générative, de nombreux éditeurs français ont choisi de leur signifier leur refus d’accès ou de préciser leur position via le TDM Reservation Protocol. Dans un tracker dédié, mind Media surveille quotidiennement les fichiers robots.txt de plusieurs centaines de sites d’environ 150 éditeurs français majeurs. Consultez les choix de chacun d’eux dans notre rubrique Data. Charlène Salomé IA générativeRobotsSearchSites d'actualité Besoin d’informations complémentaires ? Contactez le service d’études à la demande de mind À lire Cloudflare lance le "pay per crawl", pour monétiser l'aspiration de contenus par les plateformes d'IA générative Analyses IA générative : face aux robots crawlers, la réponse au cas par cas des éditeurs Analyses Confidentiels ENQUÊTE - Plusieurs médias français et européens préparent une class action contre Google aux Pays-Bas Confidentiels INFO MIND MEDIA - Droits voisins : après Le Monde, Le Figaro et Les Échos-Le Parisien ont signé avec Microsoft Les diversifications tirent à la hausse l'activité du groupe Figaro Media.Figaro s’appuie sur l’IA de Google pour développer un outil d’amélioration du media planning Analyses Quels sont les robots des acteurs de l’intelligence artificielle qui convoitent les contenus des éditeurs ? Analyses Quelle est la stratégie des éditeurs vis-à-vis des robots crawlers ? essentiels Nos synthèses et chiffres sur les principales thématiques du marché Les mutations du search à l'ère de l'IA générative L'application inaboutie de la loi sur les droits voisins Google vs DOJ : tout ce qu'il faut savoir sur le procès qui pourrait redéfinir l'adtech L’essentiel sur les identifiants publicitaires La transformation du marché publicitaire en 2024 2023 : le marché publicitaire doit se préparer à la fin du tracking utilisateur Comment l’intelligence artificielle générative bouleverse les médias Les enjeux réglementaires des médias en 2023 analyses Les articles d'approfondissement réalisés par la rédaction INFO MIND MEDIA - Yahoo lance un plan social en France pour se séparer de son équipe éditoriale Baromètre RECMA - mind Media : le bilan des gains de budgets en France depuis début 2025 Heikel Manai (France Télévisions) : “En matière d’IT, un dogmatisme 100% européen serait contre-productif” INFO MIND MEDIA - L’Équipe gagne son match judiciaire contre Fedcom Media CGV 2026 des régies TV : un pas supplémentaire vers la simplification du trading Mara Negri (EBX) : “Notre objectif est de proposer des inventaires BVOD et CTV dans l’ensemble des pays européens" INFO MIND MEDIA - L’alliance adtech des médias français Mediasquare peine elle aussi à faire condamner Google en justice IA générative : panorama des solutions techniques de protection et de monétisation des contenus Fermeture de Xandr DSP : qui va gagner la bataille des budgets ? Adtech : les réactions et analyses du secteur à la condamnation de Google par la Commission européenne data Les baromètres, panoramas et chiffres sur l'évolution du marché Le classement des éditeurs français qui ont le plus d'abonnés purs numériques Les données récoltées par les acteurs de la publicité en ligne La liste des sociétés présentes dans les fichiers ads.txt des éditeurs français Les gains de budget des agences médias Opt-out : quels éditeurs français interdisent les robots crawlers de l'IA générative ? Le panorama des sociétés spécialisées dans les technologies de l’e-retail media La liste des outils utilisés par les équipes éditoriales, marketing et techniques des éditeurs français Le détail des aides à la presse, année par année La liste des CMP choisies par les principaux médias en France Digital Ad Trust : quels sites ont été labellisés, pour quelles vagues et sur quel périmètre ?