Réunion de direction en collectivité territoriale pour la mise en conformité IA Act 2026 — agents et élus autour d'une table de conseil

IA Act 2026 : ce que chaque collectivité territoriale doit faire maintenant

Depuis le 2 février 2025, l’IA Act européen est entré en application. Pour les collectivités territoriales françaises, cette réglementation crée des obligations concrètes et immédiates : formation obligatoire des agents qui utilisent l’IA, cartographie des systèmes IA déployés, et mise en place d’un cadre de gouvernance documenté. Ignorer ces obligations expose la collectivité à des risques juridiques, financiers et de réputation significatifs. Ce guide complet détaille ce que l’IA Act impose aux collectivités, ce qui est déjà applicable, ce qui entre en vigueur en 2026, et comment organiser la mise en conformité de manière pragmatique et proportionnée.

Qu’est-ce que l’IA Act et pourquoi les collectivités sont-elles concernées ?

L’IA Act (Règlement européen 2024/1689) est le premier cadre réglementaire mondial sur l’intelligence artificielle. Adopté en juin 2024 et entré en application progressive depuis février 2025, il s’applique à toute organisation qui utilise, déploie ou développe des systèmes d’IA sur le territoire européen — y compris les collectivités territoriales.

Les collectivités sont concernées à double titre. D’une part comme utilisatrices de systèmes IA : outils de rédaction administrative, assistants IA, logiciels de transcription, systèmes d’analyse documentaire. D’autre part comme acteurs publics soumis à des exigences de transparence et de responsabilité renforcées vis-à-vis des administrés.

Le calendrier d’application que chaque DGS doit connaître

2 février 2025 : interdictions des pratiques IA inacceptables — applicable immédiatement 2 août 2025 : obligations de formation des agents utilisant l’IA (Article 4) — applicable 2 août 2026 : obligations complètes pour les systèmes IA à haut risque 2 août 2027 : obligations pour les systèmes IA à usage général (GPAI)

L’obligation de formation des agents — Article 4 de l’IA Act

C’est l’obligation la plus immédiate et la plus concrète pour les collectivités. L’Article 4 de l’IA Act impose que toute personne travaillant avec des systèmes d’IA dispose d’un niveau suffisant de “AI literacy” — littératie en intelligence artificielle.

Qui est concerné par l’obligation de formation ?

Sont concernés tous les agents qui utilisent des outils IA dans le cadre de leurs missions professionnelles. En pratique, dans une collectivité territoriale en 2026, cela couvre :

  • Les agents qui utilisent des assistants IA pour rédiger des courriers ou des comptes-rendus
  • Les agents qui utilisent des outils de transcription automatique
  • Les agents qui utilisent des outils IA pour la recherche documentaire et réglementaire
  • Les responsables de service qui supervisent des processus intégrant l’IA
  • Les élus qui utilisent des outils IA dans le cadre de leur mandat

Que doit couvrir la formation ?

La formation IA Act doit permettre aux agents de comprendre : le fonctionnement général des systèmes IA qu’ils utilisent, les risques associés à ces systèmes, les limites de l’IA et la nécessité de la supervision humaine, les règles de protection des données applicables, et les procédures de signalement en cas d’anomalie.

Quelle est la sanction en cas de non-conformité ?

L’IA Act prévoit des amendes pouvant atteindre 35 millions d’euros ou 7% du chiffre d’affaires mondial pour les violations les plus graves. Pour les collectivités territoriales, le risque principal est d’ordre juridique et de réputation : mise en cause de la responsabilité de la collectivité en cas d’incident lié à un usage IA non encadré, et exposition aux contrôles de la CNIL.

La cartographie des systèmes IA — première étape obligatoire

Avant de former les agents, la collectivité doit savoir quels systèmes IA sont utilisés. Cette cartographie est la première étape indispensable de toute démarche de conformité IA Act.

Comment identifier les systèmes IA dans votre collectivité ?

La réalité de 2026 est que la plupart des collectivités utilisent déjà de l’IA sans en avoir pleinement conscience. Les outils Microsoft 365 Copilot, les fonctions IA de Google Workspace, les assistants de rédaction intégrés aux logiciels métier — tous constituent des systèmes IA au sens de l’IA Act.

La classification des risques IA Act

L’IA Act classe les systèmes IA en quatre niveaux de risque :

Risque inacceptable : systèmes interdits — notation sociale, manipulation subliminale, reconnaissance faciale en temps réel dans les espaces publics (sauf exceptions strictes).

Haut risque : systèmes soumis aux obligations les plus strictes — notamment les systèmes IA utilisés dans les services publics essentiels, la gestion des infrastructures critiques, ou l’évaluation des administrés.

Risque limité : systèmes soumis à des obligations de transparence — chatbots, outils de génération de contenu.

Risque minimal : systèmes avec peu ou pas d’obligations spécifiques — la majorité des outils IA de productivité utilisés en collectivité.


La charte IA — cadre de gouvernance obligatoire

La charte IA n’est pas une obligation légale directe au sens de l’IA Act, mais elle est devenue la réponse pratique standard que les autorités de contrôle attendent des organisations qui déploient l’IA. Elle documente la gouvernance des usages IA et protège la collectivité en cas de contrôle.

Que doit contenir une charte IA pour une collectivité ?

Une charte IA efficace pour une collectivité territoriale doit couvrir sept éléments essentiels : la liste des outils IA autorisés et leurs conditions d’usage, les données qu’il est interdit de saisir dans les outils IA (données personnelles des administrés, données médicales, données financières sensibles), les règles de validation humaine des contenus générés par l’IA, les procédures de signalement des incidents, les responsabilités des agents et des encadrants, les modalités de mise à jour de la charte, et les sanctions applicables en cas de non-respect.

Comment construire la charte avec les agents ?

L’erreur la plus fréquente est de rédiger la charte sans impliquer les agents. Une charte imposée d’en haut est rarement appliquée. Une charte co-construite avec les services utilisateurs est adoptée et respectée. Teriagen recommande un processus en trois étapes : audit des usages réels avant la rédaction, ateliers de co-construction avec les référents de service, validation par la direction générale et les élus.


Le plan de mise en conformité en 6 étapes

Étape 1 — Audit des usages IA (semaines 1-2) Cartographier tous les systèmes IA utilisés dans la collectivité, identifier les agents utilisateurs, évaluer les niveaux de risque.

Étape 2 — Nomination d’un référent IA (semaine 2) Désigner un agent référent IA par service — point de contact pour les questions quotidiennes et relais de la gouvernance.

Étape 3 — Rédaction de la charte IA (semaines 3-4) Co-construire la charte avec les services, la valider en CODIR et la soumettre au Comité Technique.

Étape 4 — Formation des agents (mois 2) Former l’ensemble des agents utilisateurs selon les exigences de l’Article 4 — minimum une demi-journée par agent, avec attestation de formation.

Étape 5 — Constitution du dossier de conformité (mois 2-3) Rassembler : cartographie des usages, critères de sélection des outils, charte signée, attestations de formation, procédures de signalement.

Étape 6 — Révision annuelle (mois 12) Mettre à jour la cartographie, la charte et les formations en fonction des évolutions réglementaires et technologiques.


Ce que Teriagen a observé dans les collectivités accompagnées

Depuis 2023, Teriagen a accompagné 32 collectivités territoriales dans leur transformation par l’IA générative. Voici ce que nous observons systématiquement sur le terrain.

Le shadow IA est présent dans 100% des collectivités

Sans exception, toutes les collectivités que nous auditons utilisent déjà l’IA de manière non encadrée. En moyenne, 60% des agents utilisent des outils IA personnels (ChatGPT, Gemini) dans le cadre de leurs missions professionnelles, sans que la direction en soit informée. Cette situation crée un risque RGPD et IA Act immédiat.

La formation change durablement les comportements

Les agents formés par Teriagen migrent naturellement vers les outils référencés et encadrés. La formation ne supprime pas l’usage de l’IA — elle le sécurise et l’optimise. Six mois après une formation Teriagen, les collectivités accompagnées constatent une réduction de plus de 80% des usages non encadrés.

Les élus veulent être informés et rassurés

La question IA est systématiquement posée dans les conseils municipaux et communautaires. Les DGS qui ont structuré leur démarche IA Act disposent de réponses claires et documentées pour leurs élus — un avantage politique et institutionnel significatif.


FAQ — Vos questions sur l’IA Act et les collectivités

L’IA Act s’applique-t-il aux petites communes ? Oui. L’IA Act s’applique à toute organisation qui utilise des systèmes IA sur le territoire européen, quelle que soit sa taille. Une commune de 500 habitants qui utilise un assistant IA pour rédiger ses courriers est concernée par l’Article 4 au même titre qu’une métropole.

Quand la formation des agents est-elle obligatoire ? L’obligation de formation résultant de l’Article 4 est applicable depuis le 2 août 2025. Les collectivités qui n’ont pas encore formé leurs agents utilisateurs d’IA sont techniquement en retard de conformité.

Quel budget prévoir pour la mise en conformité IA Act ? Pour une collectivité de taille moyenne (50 à 200 agents), le budget de mise en conformité IA Act — audit, charte, formation — varie entre 5 000 et 15 000 euros selon le niveau d’accompagnement choisi. C’est un investissement très inférieur au coût d’un incident de données ou d’une mise en cause juridique.

La charte IA doit-elle être soumise au Comité Technique ? Oui. La charte IA constitue une règle générale d’utilisation des outils numériques professionnels — elle doit être soumise au Comité Social Territorial (CST, anciennement CT) pour avis avant mise en application.

Qu’est-ce que le shadow IA et pourquoi est-ce un risque IA Act ? Le shadow IA désigne l’usage non déclaré d’outils IA par les agents dans le cadre de leurs missions. Ces usages créent un risque IA Act car ils se font en dehors de tout cadre de gouvernance, sans cartographie des systèmes, sans évaluation des risques et sans formation des agents — autant d’obligations imposées par le règlement.

Mistral AI est-il conforme à l’IA Act ? Mistral AI est un éditeur français qui développe ses modèles dans le cadre réglementaire européen. Les solutions Mistral AI hébergées en France (Le Chat Enterprise, API Mistral) répondent aux exigences de souveraineté des données et sont compatibles avec les obligations RGPD et IA Act. Teriagen recommande Mistral AI pour les collectivités qui souhaitent une solution souveraine.

Faut-il un DPO pour gérer l’IA Act ? Le DPO (Délégué à la Protection des Données) joue un rôle important dans la conformité IA Act, notamment pour l’articulation avec le RGPD. Cependant, l’IA Act crée des obligations spécifiques qui vont au-delà des compétences traditionnelles du DPO — notamment la cartographie des risques IA et la gouvernance des usages. Un référent IA dédié est recommandé en complément.

Comment Teriagen accompagne-t-il les collectivités sur l’IA Act ? Teriagen propose un accompagnement complet en quatre étapes : audit des usages IA existants, co-construction de la charte IA, formation des agents selon les exigences de l’Article 4, et constitution du dossier de conformité. Cet accompagnement est calibré selon la taille et les contraintes budgétaires de chaque collectivité. Premier échange gratuit et sans engagement.

Quelles sont les sanctions en cas de non-conformité IA Act ? L’IA Act prévoit des amendes graduées selon la gravité de la violation : jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires mondial pour les violations les plus graves, jusqu’à 15 millions d’euros ou 3% pour les violations des obligations générales. Pour les collectivités, le risque principal est la mise en cause de la responsabilité civile et administrative en cas d’incident.

Par où commencer concrètement ? La première action est l’audit des usages IA — identifier quels outils sont utilisés par quels agents pour quelles missions. Cet audit peut être réalisé en interne via un questionnaire aux services, ou avec l’aide d’un prestataire spécialisé. Teriagen propose un audit IA Act en 5 jours ouvrés, avec livraison d’un rapport complet et d’un plan d’action priorisé.


Engagez votre démarche IA Act avec Teriagen

Teriagen a accompagné 32 collectivités territoriales dans leur mise en conformité IA Act depuis 2024. Notre approche est pragmatique, proportionnée et adaptée aux contraintes budgétaires et organisationnelles des collectivités françaises.

Le premier échange est gratuit et sans engagement. En 45 minutes, nous évaluons ensemble le niveau de conformité IA Act de votre collectivité, identifions les risques prioritaires et définissons un plan d’action réaliste.

Prendre rendez-vous

Share the Post:

Related Posts

© All Rights Reserved.