Les éditeurs de presse français adoptent des stratégies défensives pour faire face à la multiplication des robots qui aspirent leurs contenus. Entre révision de ses conditions générales, mises à jour régulières de son fichier robots.txt et négociations avec les acteurs de l’IA générative, le groupe Figaro cherche à se perfectionner dans la détection des robots crawlers. Pour mind Media, Bénédicte Wautelet, directrice juridique du groupe, revient sur les moyens mis en place.
Le fichier robots.txt du Figaro interdit les robots sur une dizaine d’URL spécifiques et plus de 200 sur l’ensemble de son site, dont une vingtaine sont liés à des finalités d’intelligence artificielle… Quelles sont les règles qui entourent ces interdictions ? Comment le groupe choisit-il d’interdire ou non certains robots ?
Nous avons entrepris une démarche de reprise en main de nos contenus, qui s’est mise en place dans le contexte du crawl, c’est-à-dire des activités de collecte de...
Vous lisez cet article grâce à votre abonnement à mind Media.
Explorez de nouveaux horizons en consultant nos autres verticales :
Vous avez une information à nous partager ?