AI act et Collectivités avec Teriagen

IA Act 2025 : pourquoi la formation de vos agents est désormais obligatoire

RÉGLEMENTATION — FÉVRIER 2026

L’article 4 du règlement européen sur l’intelligence artificielle est en vigueur depuis le 2 février 2025. Votre collectivité est-elle en conformité ?

Introduction : une obligation légale que la plupart des collectivités ignorent

Depuis le 2 février 2025, un texte européen change fondamentalement la donne pour toutes les organisations qui utilisent l’intelligence artificielle. L’article 4 du règlement européen sur l’intelligence artificielle (IA Act, ou RIA) impose une obligation de «maîtrise de l’IA» à toute personne utilisant, exploitant ou maintenant un système d’IA dans un cadre professionnel.

Concrètement, cela signifie que si des agents de votre collectivité utilisent ChatGPT, Microsoft Copilot, Mistral AI ou tout autre outil d’IA générative dans leur travail quotidien, vous avez l’obligation légale de vous assurer qu’ils disposent d’un niveau suffisant de compétences en matière d’IA.

Or la réalité est brutale : 84 % des collectivités utilisatrices d’IA ont recours à l’IA générative, mais la grande majorité n’a mis en place aucun programme de formation structuré. Le CNFPT commence à peine à cartographier les besoins. La plupart des DGS que nous rencontrons n’ont jamais entendu parler de l’article 4.

Cet article décrypte cette obligation, ses implications concrètes pour les collectivités territoriales, les sanctions encourues, et vous donne une méthode actionnable pour vous mettre en conformité.

Ce que vous allez apprendre Ce que dit exactement l’article 4 de l’IA Act — Pourquoi les collectivités sont directement concernées — Le calendrier des sanctions (août 2026) — Les 4 niveaux de formation recommandés — Comment Teriagen vous aide à vous mettre en conformité — La checklist complète de conformité IA Act pour les collectivités

1. L’IA Act en 3 minutes : ce qu’il faut retenir

1.1 Qu’est-ce que l’IA Act ?

L’IA Act (règlement UE 2024/1689), également appelé RIA (Règlement sur l’Intelligence Artificielle), est le premier cadre réglementaire complet au monde sur l’intelligence artificielle. Adopté par le Parlement européen et le Conseil de l’UE, il est entré en vigueur le 1er août 2024, avec une application progressive sur trois ans.

Son objectif : encadrer l’utilisation de l’IA dans l’Union européenne en classifiant les systèmes d’IA selon leur niveau de risque, et en imposant des obligations proportionnées à chaque catégorie.

1.2 L’approche par les risques

Niveau de risqueDescriptionExemple pour une collectivité
InacceptablePratiques interdites. Manipulation, surveillance biométrique de masse, scoring social.Noté social des citoyens, reconnaissance faciale en temps réel dans l’espace public.
Haut risqueObligations lourdes : conformité, transparence, contrôle humain, gestion des risques.Systèmes d’aide à la décision pour l’attribution de logements sociaux, aide sociale, recrutement public.
Risque limitéObligations de transparence. Informer les utilisateurs qu’ils interagissent avec une IA.Chatbot citoyen, assistant IA sur le site web de la mairie.
Risque minimalPas d’obligations spécifiques, mais l’obligation générale de formation (art. 4) s’applique.ChatGPT, Copilot, Mistral Le Chat utilisés pour la rédaction ou la synthèse.
Point clé pour les collectivités Même si votre collectivité n’utilise que des outils à «risque minimal» (ChatGPT, Copilot, Mistral Le Chat pour la rédaction), l’obligation de formation de l’article 4 s’applique quand même. C’est une obligation transversale, indépendante du niveau de risque.

2. Article 4 : l’obligation de «maîtrise de l’IA» décryptée

2.1 Que dit exactement l’article 4 ?

L’article 4 du règlement européen sur l’intelligence artificielle, intitulé «Maîtrise de l’IA» (AI Literacy en anglais), impose aux fournisseurs et déployeurs de systèmes d’IA de prendre des mesures pour garantir un niveau suffisant de compétences en matière d’IA à leur personnel et à toute personne qui utilise des systèmes d’IA en leur nom.

Trois notions clés à comprendre :

  • Déployeur : toute organisation qui utilise un système d’IA dans un cadre professionnel. Une collectivité qui met Copilot ou ChatGPT à disposition de ses agents est un déployeur.
  • Maîtrise suffisante : les agents doivent comprendre ce qu’est l’IA, ses capacités, ses limites, ses risques et ses biais. Ils doivent être capables d’utiliser l’IA de manière responsable.
  • Adaptation au contexte : le niveau de formation doit tenir compte des connaissances techniques, de l’expérience, de l’éducation et du contexte d’utilisation. Un cadre dirigeant et un agent d’accueil n’ont pas les mêmes besoins.

2.2 Qui est concerné dans une collectivité ?

L’obligation s’applique à toute personne qui utilise un système d’IA dans le cadre de ses fonctions, y compris :

  • Les agents qui utilisent ChatGPT, Copilot, Mistral ou tout autre outil d’IA générative
  • Les cadres de direction qui supervisent des équipes utilisant l’IA
  • Les élus qui prennent des décisions basées sur des analyses générées par IA
  • Les prestataires et sous-traitants qui utilisent l’IA pour le compte de la collectivité
  • La DSI qui déploie et maintient les systèmes d’IA
  • Le DPO qui doit comprendre les implications RGPD de l’IA

2.3 Ce que la formation doit couvrir

Le règlement n’impose pas de méthodologie spécifique, mais la Commission européenne précise que la simple communication de notices d’utilisation ne suffit pas. Les formations doivent être interactives et personnalisées. Voici les compétences minimales attendues :

  • Comprendre ce qu’est l’IA générative : fonctionnement, capacités, limites. Savoir qu’un LLM peut «haluciner» des informations fausses.
  • Identifier les risques : biais, dépendance excessive, fuite de données, non-conformité RGPD.
  • Utiliser l’IA de manière responsable : savoir rédiger un prompt, vérifier les réponses, ne jamais saisir de données sensibles dans un outil non autorisé.
  • Connaître le cadre légal : RGPD, IA Act, droits des citoyens, obligations de transparence.
  • Appliquer la charte IA de la collectivité : outils autorisés, données exclues, processus de validation.
Obligation de documentation Il est fortement recommandé de documenter toutes les actions de formation pour être en mesure de justifier de la mise en conformité. Registres de formation, attestations de présence, évaluations de compétences : ces documents seront votre preuve en cas de contrôle.

3. Calendrier et sanctions : ce qui vous attend

3.1 Le calendrier de l’IA Act

DateÉchéanceImpact collectivité
2 février 2025Entrée en application de l’article 4 (formation obligatoire) + interdiction des pratiques IA inacceptablesVOUS ÊTES DÉJÀ CONCERNÉ
2 août 2025Désignation des autorités nationales de contrôle. Régime de sanctions défini par les États.Cadre de sanctions en préparation
2 août 2026Début des contrôles et sanctions effectives. Obligations pour les IA à haut risque + transparence.CONTRÔLES POSSIBLES
2 août 2027Application complète pour les systèmes IA intégrés dans des produits réglementés.Application complète

3.2 Les sanctions

L’IA Act ne prévoit pas de sanctions spécifiques pour le non-respect de l’article 4 seul. Le règlement renvoie aux États membres le soin de définir leur propre régime de sanctions, qui devait être finalisé au 2 août 2025.

Cependant, le cadre général de sanctions de l’IA Act est clair :

  • Pratiques interdites : jusqu’à 35 millions d’euros ou 7 % du CA mondial
  • Non-conformité aux obligations : jusqu’à 15 millions d’euros ou 3 % du CA mondial
  • Informations incorrectes : jusqu’à 7,5 millions d’euros ou 1 % du CA mondial

Point crucial : même si les contrôles ne débuteront qu’en août 2026, l’obligation est déjà en vigueur. En cas d’incident (fuite de données via ChatGPT, décision erronée basée sur une hallucination IA), le défaut de formation sera un facteur aggravant qui engagera la responsabilité de la collectivité.

Le risque réel pour les collectivités Au-delà de l’amende, le vrai risque est juridique et réputationnel. Un citoyen dont les données personnelles ont fuité via ChatGPT peut attaquer la collectivité en invoquant à la fois le RGPD et le défaut de formation IA Act. C’est l’effet ciseau : deux réglementations qui se renforcent mutuellement.

4. Les 4 niveaux de formation recommandés pour les collectivités

Chez Teriagen, nous avons développé un parcours de formation en 4 niveaux, spécifiquement conçu pour répondre aux exigences de l’IA Act tout en étant adapté aux réalités des collectivités territoriales.

NiveauPublicContenuFormat
1. SensibilisationTous les agents + élusQu’est-ce que l’IA générative ? Capacités, limites, hallucinations. Cadre légal (RGPD + IA Act). La charte IA de la collectivité.Session de 2h — en présentiel ou visio. Adapte le discours aux non-techniciens.
2. Formation outilsAgents catégorie B et CMaîtrise du prompting. Utilisation de Mistral Le Chat, Microsoft Copilot. Bonnes pratiques RGPD. Détection des hallucinations.1 jour — présentiel avec exercices pratiques sur les cas d’usage du service.
3. Formation stratégiqueCadres catégorie A, DGS, DSIGouvernance IA. Stratégie de déploiement. ROI et indicateurs. Gestion du changement. Conformité IA Act.2 jours / trimestre — présentiel. Intègre des retours d’expérience d’autres collectivités.
4. Formation avancéeDSI, référents IA, DPOArchitecture Copilot + Mistral. Création d’agents Copilot Studio. RAG sur données internes. Sécurité et SecNumCloud.2 jours — formation technique avec ateliers pratiques.

Résultat mesuré : 92 % des agents formés par Teriagen utilisent encore l’IA de manière encadrée 6 mois après la formation, contre 23 % sans accompagnement structuré. Le ROI moyen est de 300 à 400 % dès la première année.

5. Plan d’action : 6 étapes pour se mettre en conformité avant août 2026

Les contrôles commenceront au 2 août 2026. Vous avez 6 mois pour agir. Voici le plan d’action que nous recommandons.

Étape 1 : Recenser les systèmes d’IA utilisés (mars 2026)

Identifiez tous les outils d’IA utilisés dans votre collectivité : officiels et officieux (shadow IA). Créez un registre des systèmes d’IA avec pour chacun le nom de l’outil, le fournisseur, la classification de risque (IA Act), les services utilisateurs et les types de données traitées.

Livrable : Registre des systèmes d’IA de la collectivité.

Étape 2 : Évaluer les besoins de formation (mars 2026)

Pour chaque catégorie de personnel (agents, cadres, élus, prestataires), évaluez le niveau actuel de compétences IA et les besoins de formation spécifiques.

Livrable : Matrice des compétences IA par catégorie de personnel.

Étape 3 : Rédiger la charte IA (avril 2026)

Formalisez les règles d’usage de l’IA dans votre collectivité : outils autorisés, données sensibles exclues, processus de validation, rôles du DPO et de la DSI. La charte doit être adoptée en comité de direction.

Livrable : Charte IA de la collectivité, validée par le DGS et le DPO.

Étape 4 : Déployer le plan de formation (avril-juin 2026)

Lancez les formations en commençant par le niveau 1 (sensibilisation de tous les agents) puis les niveaux 2 et 3 ciblés par catégorie. Documentez systématiquement : registres de présence, contenus de formation, évaluations.

Livrable : Plan de formation IA avec attestations et évaluations.

Étape 5 : Déployer des outils sécurisés (mai-juin 2026)

Remplacez le shadow IA par des alternatives encadrées : Mistral Le Chat (gratuit) pour les usages généraux, Microsoft 365 Copilot pour la bureautique, Mistral AI sur SecNumCloud pour les données sensibles.

Livrable : Catalogue des outils IA autorisés avec leurs conditions d’usage.

Étape 6 : Mettre en place la gouvernance continue (juillet 2026)

Créez un comité de gouvernance IA, désignez un référent IA, définissez un calendrier de mises à jour des formations et du registre. La conformité IA Act n’est pas un projet ponctuel, c’est un processus continu.

Livrable : Comité de gouvernance IA, tableau de bord de conformité.

6. Checklist de conformité IA Act pour les collectivités

Utilisez cette checklist pour évaluer votre niveau de conformité actuel et identifier les actions prioritaires.

 ActionStatut
1Registre des systèmes d’IA utilisés dans la collectivitéFait / En cours / À faire
2Audit du shadow IA (usages non autorisés) 
3Classification des systèmes IA par niveau de risque (IA Act) 
4Charte IA rédigée et adoptée par la direction 
5DPO informé et impliqué dans la stratégie IA 
6Formation sensibilisation dispensée à tous les agents et élus 
7Formations spécifiques dispensées par catégorie (A, B, C) 
8Attestations de formation et registres documentés 
9Outils IA sécurisés déployés (Copilot, Mistral, SecNumCloud) 
10Comité de gouvernance IA créé avec référent désigné 
11Obligations de transparence respectées (chatbots, IA visibles) 
12Plan de mise à jour annuel des formations et du registre 
Conseil Teriagen Commencez par les 4 premières actions de cette checklist. Si elles ne sont pas faites, tout le reste sera bâti sur du sable. Teriagen peut réaliser l’ensemble de ce plan en 3 à 6 mois pour votre collectivité.

Conclusion : la formation, investissement ou obligation ?

Les deux. L’IA Act rend la formation à l’IA obligatoire. Mais au-delà de l’obligation légale, c’est un investissement extrêmement rentable. Nos données terrain le prouvent : chaque euro investi dans la formation IA génère 3 à 4 euros de gain de productivité dès la première année.

La fenêtre d’action est claire : vous avez jusqu’à août 2026 pour mettre votre collectivité en conformité avant le début des contrôles. Mais n’attendez pas la dernière minute. Les collectivités qui agissent maintenant bénéficient non seulement de la conformité réglementaire, mais aussi d’un avantage compétitif considérable : des agents formés, des outils sécurisés, un shadow IA éliminé et un ROI mesurable.

Chez Teriagen, nous avons déjà accompagné plus de 15 collectivités et formé plus de 200 agents territoriaux. Notre méthode combine conformité réglementaire et transformation opérationnelle. Parce que se mettre en conformité avec l’IA Act, c’est aussi l’occasion de transformer votre collectivité.

Vérifiez votre conformité IA Act — Consultation gratuite Teriagen propose une consultation gratuite d’1 heure pour évaluer la conformité de votre collectivité avec l’IA Act. Nous passons en revue votre situation, identifions les lacunes et vous proposons un plan d’action chiffré et planifié. Contactez-nous : contact@teriagen.com — www.teriagen.com

FAQ : Questions fréquentes sur l’IA Act et les collectivités

Cette section répond aux questions les plus fréquentes des DGS, DSI, DPO et élus.

L’article 4 de l’IA Act s’applique-t-il vraiment aux collectivités ?

Oui. L’article 4 s’applique à tous les déployeurs de systèmes d’IA, sans distinction de taille ou de secteur. Une commune de 5 000 habitants qui utilise ChatGPT est concernée au même titre qu’une métropole.

La formation est-elle obligatoire même pour les outils IA gratuits ?

Oui. L’obligation porte sur l’utilisation de tout système d’IA, qu’il soit gratuit ou payant. ChatGPT gratuit, Mistral Le Chat, Copilot intégré à Windows : dès lors qu’un agent les utilise dans son travail, la formation est requise.

Quelles sanctions risque ma collectivité ?

L’IA Act prévoit des amendes pouvant atteindre 35 millions d’euros pour les infractions les plus graves. Pour l’article 4 spécifiquement, les sanctions seront définies par la France et appliquées à partir d’août 2026. Le risque principal est l’aggravation en cas d’incident : un défaut de formation rendra la collectivité responsable.

Quel type de formation satisfait l’obligation ?

La Commission européenne précise que la simple diffusion de notices ne suffit pas. Les formations doivent être interactives, personnalisées selon le contexte d’utilisation et documentées. Teriagen propose des parcours certifiants adaptés aux 3 catégories d’agents territoriaux.

Le CNFPT propose-t-il des formations conformes ?

Le CNFPT commence à cartographier les besoins, mais son offre spécifique IA Act est encore limitée en 2026. Teriagen complète cette offre avec des formations sur mesure, directement actionnées sur les outils et les cas d’usage de votre collectivité.

Dois-je former les élus aussi ?

Oui. L’article 4 couvre toute personne qui utilise un système d’IA ou prend des décisions basées sur ses résultats. Si des élus utilisent des synthèses générées par IA pour prendre des décisions, ils doivent être sensibilisés.

Comment documenter la conformité ?

Tenez un registre des formations (dates, contenus, participants), conservez les attestations de présence, et réalisez des évaluations de compétences. Ce dossier sera votre preuve de conformité en cas de contrôle.

Teriagen peut-il accompagner notre mise en conformité complète ?

Oui. Nous proposons un accompagnement de bout en bout : audit des usages, registre des systèmes IA, charte IA, plan de formation, déploiement d’outils sécurisés et gouvernance continue. Plus de 15 collectivités nous font déjà confiance.

Share the Post:

Related Posts