Aller au contenu principal
Réforme 28 août 2025 6 min de lecture

Intelligence artificielle au travail : les premières obligations de l'AI Act

Le 2 août 2025, le règlement européen sur l’intelligence artificielle (AI Act, règlement UE 2024/1689) franchit un cap opérationnel. Les États membres devaient désigner leurs autorités nationales de surveillance avant cette date. Les premières obligations pour les fournisseurs de modèles d’IA à usage général entrent en vigueur. Pour les employeurs, l’échéance la plus lourde — les obligations complètes sur les systèmes d’IA « à haut risque » utilisés en gestion des ressources humaines — est fixée à août 2026. L’été 2025 est le moment d’anticiper.

Le calendrier de l’AI Act en trois vagues

Le règlement européen, adopté le 13 juin 2024, s’applique par étapes. La première vague (février 2025) a interdit les systèmes d’IA présentant un « risque inacceptable » — manipulation subliminale, notation sociale, identification biométrique à distance en temps réel dans l’espace public (hors exceptions judiciaires).

La deuxième vague, celle du 2 août 2025, impose la transparence pour les modèles d’IA à usage général (type GPT, Claude, Gemini) et la désignation des autorités nationales compétentes. En France, la CNIL et la DGE (Direction générale des entreprises) se partagent le rôle de surveillance.

La troisième vague, prévue pour août 2026, est celle qui concerne directement les employeurs. Les systèmes d’IA classés « à haut risque » — dont ceux utilisés en recrutement, en évaluation des performances et en gestion du personnel — seront soumis à un régime complet d’obligations : évaluation de conformité, documentation technique, supervision humaine, journalisation des décisions, information des personnes concernées.

Quels outils RH sont visés

L’annexe III du règlement liste huit domaines d’application des systèmes à haut risque. Le point 4 concerne l’emploi, la gestion des travailleurs et l’accès au travail indépendant. Sont expressément visés les systèmes d’IA utilisés pour :

Le tri et la présélection de candidatures. Les logiciels de recrutement qui filtrent automatiquement les CV sur des critères définis — expérience, compétences, mots-clés — entrent dans cette catégorie dès lors qu’ils intègrent un composant d’intelligence artificielle (scoring, matching, ranking).

L’évaluation des performances. Les outils qui mesurent la productivité individuelle, analysent le comportement des salariés ou génèrent des scores de performance à partir de données collectées (temps de connexion, volume d’activité, analyse de communication) sont concernés.

La gestion des plannings et des affectations. Les algorithmes qui répartissent les tâches, optimisent les plannings ou décident des affectations géographiques sur la base de critères automatisés relèvent du même périmètre.

La surveillance du lieu de travail. Les systèmes de vidéosurveillance augmentée par IA, de détection d’anomalies comportementales ou de suivi des déplacements dans les locaux sont classés à haut risque.

Ce qui est exigé à partir d’août 2026

Les obligations pour les « déployeurs » (les employeurs qui utilisent ces systèmes, par opposition aux « fournisseurs » qui les développent) se déclinent en cinq points principaux.

L’évaluation d’impact. Avant de déployer un système d’IA à haut risque, l’employeur doit réaliser une évaluation d’impact sur les droits fondamentaux des personnes concernées (art. 27 du règlement). Cette évaluation s’apparente à l’analyse d’impact sur la protection des données (AIPD) du RGPD, mais couvre un spectre plus large : discrimination, liberté d’expression, droit au travail.

La supervision humaine. Chaque décision prise ou suggérée par le système doit pouvoir être contrôlée par un opérateur humain formé. Le « tout automatique » est interdit : un rejet de candidature par un ATS ne peut pas être définitif sans validation humaine.

L’information des personnes. Les salariés et les candidats doivent être informés qu’un système d’IA intervient dans le processus qui les concerne. Le CSE doit être consulté avant l’introduction de tout outil d’IA structurant (art. L. 2312-8 CT — « introduction de nouvelles technologies »).

La journalisation. Les logs du système — entrées, sorties, paramètres de décision — doivent être conservés pendant au moins six mois (art. 19 du règlement).

La documentation technique. L’employeur doit pouvoir produire la documentation fournie par le fournisseur du système et démontrer que le système est utilisé conformément à sa destination.

Ce que l’employeur doit faire dès maintenant

Recensez vos outils. Identifiez tous les logiciels et plateformes utilisés en RH qui intègrent un composant d’IA : ATS de recrutement (SmartRecruiters, Lever, Workable), plateformes d’évaluation (AssessFirst, Pymetrics), outils de planification (Planday, Shiftwork), logiciels de surveillance (Teramind, Hubstaff). Demandez à chaque éditeur si son outil entre dans le périmètre des systèmes à haut risque.

Informez votre CSE. Si votre entreprise est dotée d’un CSE, l’introduction ou la modification d’un outil d’IA en RH relève de la consultation obligatoire sur les nouvelles technologies. Un CSE non consulté pourrait obtenir en référé la suspension de l’outil.

Rédigez ou actualisez votre charte IA. Une charte d’utilisation de l’intelligence artificielle en entreprise n’est pas obligatoire à ce jour, mais constitue un outil de gouvernance qui facilitera la mise en conformité en 2026. Elle fixe les principes d’utilisation, les limites, la supervision humaine et les modalités d’information des salariés.

intelligence artificielleAI ActrecrutementRGPDCSE

Besoin d'aller plus loin ?

Nos guides vous accompagnent pas à pas sur les sujets RH complexes

Découvrir nos guides