AI Act : Quelles obligations pour la formation et les RH ?
05.03.2026 / Intelligence artificielle

Depuis l’arrivée de ChatGPT et autres LLM fin 2022, l’intelligence artificielle est au centre de tous les débats. Gouvernance des données, dérives, hallucinations et réponses biaisées, de nombreuses questions se posent quant à l’utilisation des outils IA. Dans le but d’encadrer l’utilisation et le développement de l’IA, l’Union européenne a adopté l’AI Act dès 2024. Ce règlement introduit de nouvelles obligations, notamment pour les RH, qui seront appliquées progressivement jusqu’en 2027. Quelles sont ces obligations ? Comment anticiper les changements à venir ? Découvrez tout ce qu’il faut savoir sur l’AI Act dans ce dossier du CNFCE.
AI Act : Comprendre les grandes lignes de ce règlement
Face à la place de plus en plus importante qu’occupe l’IA dans nos quotidiens, l’Europe a décidé d’agir avec des mesures concrètes. Adopté en 2024, l’AI Act est le règlement qui vient réguler petit à petit l’usage et le développement des systèmes basés sur l’intelligence artificielle au sein de l’Union européenne.
L’AI Act repose sur le classement des systèmes d’IA selon quatre principaux niveaux de risque :
- Risque inacceptable : ce niveau comprend les systèmes IA qui sont en total désaccord avec les valeurs fondamentales défendues par l’Union européenne. On parle notamment d’intelligences artificielles qui permettraient la mise en place d’un système de notation social, qui feraient usage de manipulation ou encore qui exploiteraient les vulnérabilités des utilisateurs.
- Haut risque : les IA à « haut risque » seront placées sous une surveillance renforcée. Ce niveau comprend les systèmes qui pourraient porter atteinte à la sécurité, à la santé ou aux droits fondamentaux des personnes physiques. Par exemple, une IA qui récolte et traite des données personnelles pour évaluer la santé d’un patient est considérée à haut risque.
- Risque spécifique de transparence : sont concernés les modèles d’IA à usage général (GPAI), c’est-à-dire les IA entraînées à l’aide d’une grande quantité de données et capables d’exécuter des tâches très variées. Les outils IA les plus répandus font partie de cette classification : ChatGPT, Gemini, Midjourney, Perplexity, etc.
- Risque minimal : cela comprend notamment les IA qui permettent d’augmenter sa productivité personnelle ou bien d’appliquer des filtres sur une photo. Cette catégorie n’est soumise à aucune obligation particulière.
Quelles sont les obligations fixées par l’AI Act ?
Chaque niveau de risque possède son propre lot d’obligations :
- Les systèmes jugés inacceptables sont tout simplement interdits.
- Les systèmes dits à haut risque doivent :
- Assurer la qualité des données en s’assurant qu’elles soient pertinentes et sans aucun biais,
- Rédiger et fournir une documentation technique décrivant le fonctionnement du système et permettant aux autorités d’attester de sa conformité,
- Expliquer clairement aux utilisateurs finaux comment utiliser correctement l’outil.
- Les IA à usage général doivent :
- Fournir une documentation technique complète,
- Communiquer des informations et instructions claires aux développeurs qui souhaiteraient intégrer un modèle IA dans leur propre système,
- Respecter le droit d’auteur,
- Publier un résumé accessible du contenu utilisé pour entraîner le système IA.
Appréhendez les aspects clés de l'AI Act avec notre formation
Élaborez votre feuille de route en seulement 2 jours pour vous conformer à l’AI Act.
Quel est le calendrier d’application de l’AI Act ?
L’AI Act est officiellement entré en vigueur le 1er août 2024, mais l’application de ses différentes mesures est soumise au calendrier officiel :

- 2 février 2025 : interdiction de certains systèmes d’IA jugés de risque inacceptable. Application des exigences en matière de connaissance de l’IA.
- 2 août 2025 : les obligations pour les modèles d’IA à usage général (GPAI) entrent en vigueur.
- 2 août 2026 : les obligations pour les systèmes à haut risque entrent en vigueur. Les sanctions commencent à s’appliquer en cas de non-respect de la réglementation. Une obligation de transparence s’applique.
- 2 août 2027 : la conformité totale est attendue pour tous les systèmes réglementés, y compris certains produits intégrant de l’IA ainsi que les systèmes GPAI mis en service avant le 2 août 2025.
Quel est l’impact de l’AI Act sur les RH et la formation professionnelle ?
Former ses équipes à la maîtrise de l’IA
Depuis février 2025, l’AI Act prévoit que les salariés et les utilisateurs des systèmes d’IA soit un minimum formés à la manipulation de l’intelligence artificielle. Dès aujourd’hui, les services RH doivent donc veiller à ce que les équipes exposées à l’IA dans leur métier soient suffisamment formées pour assurer un usage conforme et dans les règles.
Pour ce faire, commencez par :
- Identifier et lister les outils IA déployés au sein de l’entreprise, et répertoriez leurs utilisateurs
- Intégrer des formations IA dans votre plan de développement des compétences.
Faites monter en compétences vos équipes avec nos formations IA
Respectez les obligations de formation en IA imposées par l’AI Act.
Identifier et sécuriser les systèmes d’IA à haut risque
Les services RH peuvent avoir recours à de nombreux outils pour mener à bien leurs missions :
- Système ATS pour assurer le suivi des candidats, trier et analyser les CV, créer et gérer les offres d’emploi, etc.
- Logiciel permettant d’évaluer les candidats via un système de scoring.
- Outil d’analyse comportementale ou émotionnelle.
Ces outils traitant des données sensibles et pouvant porter directement atteinte aux droits fondamentaux des individus, ils entrent dans la classification des systèmes à haut risque. De ce fait, les services RH devront être en mesure de respecter plusieurs obligations, et ce dès le 2 août 2026. Ils devront notamment être capables d’identifier les outils appartenant à cette classification ou encore d’exiger directement du fournisseur la documentation technique complète du système.
Créer un cadre transparent autour de l’IA
Le 2 août 2026 marque également l’entrée en vigueur d’une obligation de transparence pour les entreprises. Les utilisateurs de systèmes IA devront être explicitement informés qu’ils sont en train d’interagir avec une intelligence artificielle.
Par ailleurs, les entreprises ne pourront plus implémenter de nouveaux outils IA sans passer par une phase de validation préalable par le CSE.
Mettre en place une charte IA
Avec l’arrivée de ces nouvelles mesures, la mise en place d’une charte IA est d’autant plus importante. Elle permet à l’entreprise de responsabiliser ses salariés en fixant un cadre clair et ainsi limiter les usages non conformes et les risques de sanction.
Quelles sont les sanctions prévues par l’AI Act ?
L’AI Act prévoit plusieurs sanctions en fonction de la gravité du manquement :
- Jusqu’à 35 millions d’euros d’amende ou 7% du CA mondial annuel pour les sanctions les plus lourdes (ex : utilisation d’une IA classée risque inacceptable)
- Jusqu’à 15 millions d’euros ou 3% du CA mondial annuel pour les sanctions intermédiaires (ex : non-respect des obligations pour les IA à haut risque)
- Jusqu’à 7,5 millions d’euros ou 1% du CA mondial annuel pour les sanctions les moins lourdes
Le CNFCE, organisme de formation en intelligence artificielle
Le CNFCE accompagne des entreprises de toutes tailles dans leur transformation digitale et leur acculturation à l’IA. Bénéficiez de l’expertise de nos formateurs pour faire face à ces nouveaux enjeux.
Découvrez nos formations IA les plus populaires :
Formation rédaction web avec chatgpt
Formation chatgpt : gagner en productivité
Formation déléguer à des assistants virtuels
Pour aller plus loin, nous vous invitons également à consulter notre dossier :
Découvrez Notre expert : Jordan H.
Animé par une curiosité insatiable, Jordan H. découvre le marketing digital très tôt et développe une passion pour cette discipline. Après un passage dans un grand groupe du CAC40, il se spécialise dans le SEO, domaine qui le passionne toujours.
Titulaire d’un Bac+5 en marketing digital et riche de multiples certifications Google, il occupe aujourd’hui le poste de webmaster au CNFCE.
Une question ? Un besoin ?
Ces articles peuvent vous intéresser
Retour aux articlesUne question ? Un besoin ?