AI Act : Quelles obligations pour la formation et les RH ?

05.03.2026 / Intelligence artificielle

AI Act

Depuis l’arrivée de ChatGPT et autres LLM fin 2022, l’intelligence artificielle est au centre de tous les débats. Gouvernance des données, dérives, hallucinations et réponses biaisées, de nombreuses questions se posent quant à l’utilisation des outils IA. Dans le but d’encadrer l’utilisation et le développement de l’IA, l’Union européenne a adopté l’AI Act dès 2024. Ce règlement introduit de nouvelles obligations, notamment pour les RH, qui seront appliquées progressivement jusqu’en 2027. Quelles sont ces obligations ? Comment anticiper les changements à venir ? Découvrez tout ce qu’il faut savoir sur l’AI Act dans ce dossier du CNFCE.

AI Act : Comprendre les grandes lignes de ce règlement

Face à la place de plus en plus importante qu’occupe l’IA dans nos quotidiens, l’Europe a décidé d’agir avec des mesures concrètes. Adopté en 2024, l’AI Act est le règlement qui vient réguler petit à petit l’usage et le développement des systèmes basés sur l’intelligence artificielle au sein de l’Union européenne.

L’AI Act repose sur le classement des systèmes d’IA selon quatre principaux niveaux de risque :

  • Risque inacceptable : ce niveau comprend les systèmes IA qui sont en total désaccord avec les valeurs fondamentales défendues par l’Union européenne. On parle notamment d’intelligences artificielles qui permettraient la mise en place d’un système de notation social, qui feraient usage de manipulation ou encore qui exploiteraient les vulnérabilités des utilisateurs.
  • Haut risque : les IA à « haut risque » seront placées sous une surveillance renforcée. Ce niveau comprend les systèmes qui pourraient porter atteinte à la sécurité, à la santé ou aux droits fondamentaux des personnes physiques. Par exemple, une IA qui récolte et traite des données personnelles pour évaluer la santé d’un patient est considérée à haut risque.
  • Risque spécifique de transparence : sont concernés les modèles d’IA à usage général (GPAI), c’est-à-dire les IA entraînées à l’aide d’une grande quantité de données et capables d’exécuter des tâches très variées. Les outils IA les plus répandus font partie de cette classification : ChatGPT, Gemini, Midjourney, Perplexity, etc.
  • Risque minimal : cela comprend notamment les IA qui permettent d’augmenter sa productivité personnelle ou bien d’appliquer des filtres sur une photo. Cette catégorie n’est soumise à aucune obligation particulière.

Quelles sont les obligations fixées par l’AI Act ?

Chaque niveau de risque possède son propre lot d’obligations :

  • Les systèmes jugés inacceptables sont tout simplement interdits.
  • Les systèmes dits à haut risque doivent :
    • Assurer la qualité des données en s’assurant qu’elles soient pertinentes et sans aucun biais,
    • Rédiger et fournir une documentation technique décrivant le fonctionnement du système et permettant aux autorités d’attester de sa conformité,
    • Expliquer clairement aux utilisateurs finaux comment utiliser correctement l’outil.
  • Les IA à usage général doivent :
    • Fournir une documentation technique complète,
    • Communiquer des informations et instructions claires aux développeurs qui souhaiteraient intégrer un modèle IA dans leur propre système,
    • Respecter le droit d’auteur,
    • Publier un résumé accessible du contenu utilisé pour entraîner le système IA.

Appréhendez les aspects clés de l'AI Act avec notre formation

Élaborez votre feuille de route en seulement 2 jours pour vous conformer à l’AI Act.

Artificial Intelligence Act

Quel est le calendrier d’application de l’AI Act ?

L’AI Act est officiellement entré en vigueur le 1er août 2024, mais l’application de ses différentes mesures est soumise au calendrier officiel :

Calendrier AI Act

 

  • 2 février 2025 : interdiction de certains systèmes d’IA jugés de risque inacceptable. Application des exigences en matière de connaissance de l’IA.
  • 2 août 2025 : les obligations pour les modèles d’IA à usage général (GPAI) entrent en vigueur.
  • 2 août 2026 : les obligations pour les systèmes à haut risque entrent en vigueur. Les sanctions commencent à s’appliquer en cas de non-respect de la réglementation. Une obligation de transparence s’applique.
  • 2 août 2027 : la conformité totale est attendue pour tous les systèmes réglementés, y compris certains produits intégrant de l’IA ainsi que les systèmes GPAI mis en service avant le 2 août 2025.

Quel est l’impact de l’AI Act sur les RH et la formation professionnelle ?

Former ses équipes à la maîtrise de l’IA

Depuis février 2025, l’AI Act prévoit que les salariés et les utilisateurs des systèmes d’IA soit un minimum formés à la manipulation de l’intelligence artificielle. Dès aujourd’hui, les services RH doivent donc veiller à ce que les équipes exposées à l’IA dans leur métier soient suffisamment formées pour assurer un usage conforme et dans les règles.

Pour ce faire, commencez par :

Mettre en place une même formation IA générique pour tous les salariés n’est pas suffisant. On parle ici d’adapter le parcours de formation en fonction des besoins de l’utilisateur. Un rédacteur qui utilise l’IA pour produire ses contenus ou un comptable qui s’aide de l’IA pour de l’analyse de données n’auront pas besoin de la même formation.

Faites monter en compétences vos équipes avec nos formations IA

Respectez les obligations de formation en IA imposées par l’AI Act.

Intelligence artificielle

Identifier et sécuriser les systèmes d’IA à haut risque

Les services RH peuvent avoir recours à de nombreux outils pour mener à bien leurs missions :

  • Système ATS pour assurer le suivi des candidats, trier et analyser les CV, créer et gérer les offres d’emploi, etc.
  • Logiciel permettant d’évaluer les candidats via un système de scoring.
  • Outil d’analyse comportementale ou émotionnelle.

Ces outils traitant des données sensibles et pouvant porter directement atteinte aux droits fondamentaux des individus, ils entrent dans la classification des systèmes à haut risque. De ce fait, les services RH devront être en mesure de respecter plusieurs obligations, et ce dès le 2 août 2026. Ils devront notamment être capables d’identifier les outils appartenant à cette classification ou encore d’exiger directement du fournisseur la documentation technique complète du système.

Créer un cadre transparent autour de l’IA

Le 2 août 2026 marque également l’entrée en vigueur d’une obligation de transparence pour les entreprises. Les utilisateurs de systèmes IA devront être explicitement informés qu’ils sont en train d’interagir avec une intelligence artificielle.

Par ailleurs, les entreprises ne pourront plus implémenter de nouveaux outils IA sans passer par une phase de validation préalable par le CSE.

Mettre en place une charte IA

Avec l’arrivée de ces nouvelles mesures, la mise en place d’une charte IA est d’autant plus importante. Elle permet à l’entreprise de responsabiliser ses salariés en fixant un cadre clair et ainsi limiter les usages non conformes et les risques de sanction.

Quelles sont les sanctions prévues par l’AI Act ?

L’AI Act prévoit plusieurs sanctions en fonction de la gravité du manquement :

  • Jusqu’à 35 millions d’euros d’amende ou 7% du CA mondial annuel pour les sanctions les plus lourdes (ex : utilisation d’une IA classée risque inacceptable)
  • Jusqu’à 15 millions d’euros ou 3% du CA mondial annuel pour les sanctions intermédiaires (ex : non-respect des obligations pour les IA à haut risque)
  • Jusqu’à 7,5 millions d’euros ou 1% du CA mondial annuel pour les sanctions les moins lourdes

Le CNFCE, organisme de formation en intelligence artificielle

Le CNFCE accompagne des entreprises de toutes tailles dans leur transformation digitale et leur acculturation à l’IA. Bénéficiez de l’expertise de nos formateurs pour faire face à ces nouveaux enjeux.

Découvrez nos formations IA les plus populaires :

Formation rédaction web avec chatgpt

Formation chatgpt : gagner en productivité

Formation déléguer à des assistants virtuels

Formation Midjourney

Pour aller plus loin, nous vous invitons également à consulter notre dossier :