Accueil > Assurance > Nouveaux risques > L’Europe amorce une régulation de l’IA L’Europe amorce une régulation de l’IA Avec l’adoption d’une réglementation européenne sur l’intelligence artificielle, une première étape a été franchie en matière d’encadrement de l’IA dans le monde du travail. Ce texte, qui entrera pleinement en application le 2 août 2026, soumet les systèmes d’IA utilisés à des exigences particulières d’analyse et de gestion des risques. Il impulse un mouvement au niveau des États membres et des organisations et pourrait servir d’exemple à d’autres pays, comme les États-Unis ou le Japon. Par Nathalie Tran. Publié le 27 janvier 2025 à 14h46 - Mis à jour le 29 janvier 2025 à 16h42 Ressources L’année 2024 a marqué le début d’un encadrement juridique de l’utilisation de l’IA. Le 21 mai, les Vingt-sept ont adopté la réglementation européenne sur l’intelligence artificielle, l’AI Act. Ce texte, entré en vigueur le 2 août dernier, et qui vise à promouvoir l’introduction d’une “IA centrée sur l’humain et l’éthique”, va s’appliquer par phases jusqu’en août 2026 à tous les utilisateurs et fournisseurs de systèmes introduits ou déployés sur le marché européen. Il s’agit, d’une part, d’encourager la technologie tout en maîtrisant, d’autre part, les risques qu’elle peut engendrer et notamment son impact sur le travail et les salariés. Protéger les données personnelles des salariés Au niveau national, les États membres vont devoir mettre en place des autorités compétentes chargées d’appliquer le texte et de veiller à ce que les systèmes d’IA respectent les réglementations en vigueur. Certains, comme l’Irlande, ont été parmi les premiers à ouvrir le bal. Quelques projets de loi consacrés à la protection des données personnelles des salariés dans le cadre de l’utilisation de l’IA au travail commencent également à voir le jour. C’est le cas en Allemagne et en Italie. Mais pour l’instant, aucun n’a encore été adopté. Information des représentants des salariés L’AI Act crée par ailleurs une obligation d’information des représentants des salariés et des personnels concernés, préalable à l’introduction de ce type de systèmes dans les entreprises. La Pologne a d’ores et déjà pris les devants en soumettant au Parlement, dès le mois de juin, un projet de loi visant à modifier sa loi sur les syndicats afin de l’adapter au développement des nouvelles technologies et à leur utilisation dans le monde du travail. Ainsi, un syndicat pourra interroger l’employeur sur “les systèmes d’intelligence artificielle qui affectent la prise de décision et qui peuvent avoir un effet sur les conditions de travail et de rémunération”. Cette obligation d’information est également instaurée par la directive européenne sur les travailleurs des plateformes, adoptée à la mi-octobre, qui encadre désormais le management algorithmique. Dialogue social autour de l’IA chez AXA France En revanche, si le texte européen ne fait pas de l’IA un sujet de dialogue social, en France, les organisations syndicales se mobilisent pour inciter les partenaires sociaux à négocier des accords d’entreprise sur le sujet et les outiller à cet effet. Certains envisagent même la signature d’un accord national interprofessionnel (ANI). Quelques entreprises pionnières, comme AXA France, ont déjà lancé une démarche de dialogue social sur l’IA, mais elles restent rares. La banque française BNP Paribas a quant à elle signé un nouvel accord mondial visant notamment à protéger les salariés face au déploiement de l’IA. Ce début de régulation en Europe pourrait s’étendre prochainement à d’autres pays dans le monde. En septembre dernier, les ministres du Travail du G7, dont font partie les États-Unis, le Canada et le Japon, se sont mis d’accord sur un plan d’action pour une IA de confiance basée sur l’humain. Celui-ci met notamment en avant le rôle du dialogue social tout au long du processus de développement des technologies. À noter que, fin 2023, les États-Unis ont déjà publié un premier décret pour “protéger les Américains des risques potentiels des systèmes d’IA”. Ce contenu a été réalisé par la rédaction de mind RH (une publication du groupe mind), service d’information professionnelle consacré aux pratiques RH, droit du travail, relations professionnelles, problématiques RSE… Nathalie Tran intelligence artificiellerégulation Besoin d’informations complémentaires ? Contactez le service d’études à la demande de mind À lire Entretien Gabriele Mazzini (EU AI Act) : “La confiance des citoyens dans l'intelligence artificielle conditionne son adoption”