Guide gratuit 2026
⚠️ Applicable depuis février 2025 — Votre entreprise est-elle prête ?

AI Act :
Le Guide Essentiel
pour les Entreprises

Checklist de conformité, calendrier des échéances, niveaux de risque et plan d'action concret pour mettre votre organisation en règle avec le règlement européen sur l'intelligence artificielle.

Checklist 50 points Auto-évaluation complète
📅
Calendrier 2025-2027 Toutes les échéances clés
🎯
Plan d'action En 5 phases concretes

Pourquoi ce guide ?

Le Règlement européen sur l'Intelligence Artificielle (AI Act) est entre en vigueur le 1er aout 2024. C'est le premier cadre juridique au monde spécifiquement dédié a l'IA. Il impacte toute organisation qui développe, déploie ou utilise des systèmes d'IA dans l'Union européenne — y compris les entreprises hors UE dont les systèmes affectent des citoyens européens.

35 M€
Amende maximale
7 %
du CA mondial
2027
Application complète

Ce que vous trouverez dans ce guide

1
Comprendre l'AI Act en 5 minutes
Pyramide des risques, champ d'application et calendrier des échéances
p. 3
2
Checklist de conformité (50 points clés)
Points de contrôle essentiels par catégorie : données, documentation, transparence, sécurité
p. 4-5
3
Auto-diagnostic rapide
Évaluez votre niveau de maturité en 10 questions et identifiéz vos priorites
p. 6
4
Sanctions et cas concrets
Amendes, exemples d'infractions et retours d'expérience du marché
p. 7
5
Plan d'action en 5 phases
Feuille de route opérationnelle pour atteindre la conformité
p. 8

L'essentiel en un coup d'oeil

Le règlement classe les systèmes d'IA selon 4 niveaux de risque et impose des obligations proportionnées.

La pyramide des risques

❌ INTERDIT — Art. 5
Manipulation, social scoring, biométrie temps réel
⚠️ HAUT RISQUE — Art. 6
RH, crédit scoring, sante, justice, education
👁 RISQUE LIMITE — Art. 50
Chatbots, deepfakes, IA générative
✅ RISQUE MINIMAL
Filtres anti-spam, jeux video, recommandations
💡
Attention : la majorité des usages IA en entreprise relève du risque limite ou haut risque. Un chatbot client, un outil de tri de CV, un système de scoring : tous sont concernés par l'AI Act.

Calendrier d'application

2 Février 2025
Interdictions en vigueur
Les systèmes IA interdits (Art. 5) ne peuvent plus être utilises. Sanctions actives.
2 Aout 2025
Gouvernance & codes de conduite
Bureaux IA nationaux opérationnels. Codes de bonne pratique disponibles.
2 Aout 2026
Modeles de fondation (GPAI)
Obligations de transparence pour l'IA générative et les modèles a usage général.
2 Aout 2027
Application complète
Toutes les obligations pour systèmes a haut risque. Marquage CE et enregistrement UE obligatoires.
Les interdictions sont déjà en vigueur ! Depuis le 2 février 2025, les pratiques interdites exposent votre entreprise a des sanctions de 35 M€ ou 7% du CA mondial.

Qui est concerné ?

🏭
Fournisseurs

Toute entité qui développe ou fait développer un système IA et le met sur le marché ou en service dans l'UE.

💻
Déployeurs

Toute organisation qui utilise un système IA sous sa propre autorité — meme si le système est fourni par un tiers.

🌎
Hors UE

Les entreprises non européennes sont concernées si les résultats de leur IA sont utilises dans l'UE.

Les 50 points de contrôle essentiels

Parcourez chaque section et cochez les points que votre organisation maîtrise déjà. Identifiez les écarts pour prioriser vos actions.

🔴

1. Classification de vos systèmes IA

Vous avez inventorie tous les systèmes IA utilises dans votre organisation
Art. 6 P1
Chaque système est classe selon les 4 niveaux de risque (interdit / haut / limite / minimal)
Art. 6 P1
Aucun système interdit n'est en cours d'utilisation (Art. 5)
Art. 5 P1
Les systèmes a haut risque sont identifiés et documentés (Annexe III)
Annexe III P1
Vous avez déterminé votre role (fournisseur, déployeur, importateur) pour chaque système
Art. 3 P2
📈

2. Gestion des risques (systèmes a haut risque)

Un système de gestion des risques continu est établi et documenté
Art. 9 P1
Les risques pour la sante, la sécurité et les droits fondamentaux sont identifiés
Art. 9 P1
Les mesures d'atténuation sont proportionnées et documentées
Art. 9 P2
Des tests spécifiques valident les mesures de gestion des risques
Art. 9 P2
Un processus de mise a jour régulière du registre des risques est en place
Art. 9 P2
🗂

3. Gouvernance des données

Les jeux de données d'entraînement sont pertinents, représentatifs et exempts d'erreurs majeures
Art. 10 P1
Les biais potentiels dans les données sont identifiés et corriges
Art. 10 P1
Les operations de nettoyage, étiquetage et enrichissement sont documentées
Art. 10 P2
La conformité RGPD est assuree pour les données personnelles (AIPD réalisée si nécessaire)
Art. 10 P1
Les sources de données sont tracées et documentées (data lineage)
Art. 10 P2
📄

4. Documentation technique

Une description complète du système, de son usage prévu et de ses limitations est rédigée
Art. 11 P1
L'architecture, les algorithmes et les choix de conception sont documentés
Art. 11 P2
Les métriques de performance (précision, rappel, F1-score) sont mesurées et publiées
Art. 11 P2
Les model cards ou fiches modèle sont disponibles
Art. 11 P3
La documentation est mise a jour a chaque modification substantielle
Art. 11 P2
👁

5. Transparence et information

Les utilisateurs sont informes qu'ils interagissent avec une IA (chatbots, assistants)
Art. 50 P1
Les contenus générés par IA (texte, images, videos) sont clairement marques
Art. 50 P1
Des instructions d'utilisation complètes sont fournies aux déployeurs
Art. 13 P2
Les capacités et limitations du système sont communiquées
Art. 13 P2
Les risques résiduels sont documentés et communiqués
Art. 13 P2
👥

6. Surveillance humaine

Le système permet une supervision humaine efficace en temps réel
Art. 14 P1
Un mécanisme d'interruption (bouton d'arrêt) est fonctionnel
Art. 14 P1
Les superviseurs sont qualifies et formes a l'utilisation du système
Art. 14 P2
L'interface réduit le risque de sur-confiance (biais d'automation)
Art. 14 P3
Les superviseurs ont l'autorité pour annuler les résultats du système
Art. 14 P1
🔒

7. Sécurité, robustesse et cybersécurité

Le système est teste contre les attaques adversariales
Art. 15 P2
Les données en transit et au repos sont chiffrées
Art. 15 P1
Les acces sont contrôles et authentifiés
Art. 15 P1
Le système gere correctement les données erronées ou incomplètes
Art. 15 P2
Un plan de réponse aux incidents de sécurité est établi
Art. 15 P1
🏢

8. Gouvernance et organisation

Un responsable conformité AI Act est désigné
Art. 17 P1
Le DPO est impliqué dans les projets IA
Art. 17 P2
Les équipes sont formées a l'AI Act et a l'éthique de l'IA
Art. 17 P2
Une politique IA d'entreprise est établie et communiquée
Art. 17 P2
Des audits de conformité IA sont planifies et réalisés régulièrement
Art. 17 P3
📋

9. Journalisation et traçabilité

Le système enregistre automatiquement les événements (logs)
Art. 12 P1
Les logs incluent les entrées, sorties et identification de l'opérateur
Art. 12 P2
Les logs sont protégés contre toute alteration et conserves de maniere sécurisée
Art. 12 P1
La duree de conservation des logs est définie et respectee
Art. 12 P2
Un système de surveillance apres commercialisation est opérationnel
Art. 61 P2
💡
Comment utiliser cette checklist ? Imprimez ce guide et cochez les points maîtrisés. Comptez vos coches : 40+/50 = bon niveau, 25-39 = travail nécessaire, <25 = action urgente. Les points marques P1 sont les plus critiques a adresser en premier.

Évaluez votre maturité en 10 questions

Pour chaque question, attribuez un score de 1 (pas du tout) a 5 (totalement). Additionnez vos scores pour obtenir votre niveau de maturité AI Act.

🔍
Inventaire & Classification
Q1. Avez-vous un inventaire complet de tous les systèmes IA utilises dans votre organisation ?
Q2. Chaque système IA est-il classe selon les niveaux de risque de l'AI Act ?
📈
Gestion des risques
Q3. Disposez-vous d'un processus de gestion des risques spécifique a l'IA ?
Q4. Les impacts sur les droits fondamentaux ont-ils ete évalués ?
📄
Documentation
Q5. La documentation technique de vos systèmes IA est-elle a jour et complète ?
Q6. Les performances et limitations sont-elles mesurées et publiées ?
👁
Transparence
Q7. Les utilisateurs sont-ils informes lorsqu'ils interagissent avec une IA ?
Q8. Les contenus générés par IA sont-ils systematiquement marques ?
👥
Supervision & Gouvernance
Q9. Un mécanisme de supervision humaine est-il en place pour les décisions critiques ?
Q10. Un responsable conformité IA est-il désigné et vos équipes formées ?
Votre score total : _____ / 50
10-19
20-29
30-34
35-39
40-50
Critique
Action urgente requise
A risque
Chantier important
En cours
Progres nécessaires
Bon niveau
Ajustements mineurs
Exemplaire
Maintenir et améliorer
🚀
Score inférieur a 30 ? Ikasia propose une formation complète "Éthique, Régulation et IA" qui couvre l'ensemble des exigences AI Act, RGPD et les bonnes pratiques de gouvernance IA. Contactez-nous pour un diagnostic approfondi gratuit.

Ce que vous risquez en cas de non-conformité

L'AI Act prévoit des sanctions parmi les plus sévères du droit européen, comparables au RGPD. Les amendes sont calculées sur le chiffre d'affaires mondial annuel.

35 M€
ou
7 % du CA
Utilisation d'un système IA interdit (Art. 5)
15 M€
ou
3 % du CA
Non-respect des obligations pour systèmes a haut risque
7,5 M€
ou
1,5 % du CA
Fourniture d'informations inexactes aux autorités

Exemples concrets d'infractions

🔴 Pratiques interdites

  • Outil d'évaluation emotionnelle des candidats en entretien d'embauche
  • Notation sociale des clients pour moduler les services offerts
  • Scraping massif de photos sur réseaux sociaux pour reconnaissance faciale
  • Chatbot manipulant le comportement d'achat de personnes vulnérables

🟠 Non-conformité haut risque

  • Outil RH de tri de CV sans documentation technique ni audit de biais
  • Système de scoring crédit sans mécanisme de supervision humaine
  • IA de diagnostic médical sans traitement de l'exactitude et tests
  • Outil de notation etudiante sans transparence sur les critères

Cas réels et précédents

Cas Secteur Infraction Impact
Clearview AI Biométrie Scraping non cible d'images faciales (Art. 5) Interdit dans l'UE, amendes RGPD cumulées de 65M€+
Amazon Recruiting RH Biais de genre dans l'outil de tri de CV Projet abandonne, atteinte réputationnelle majeure
COMPAS (USA) Justice Biais racial dans l'évaluation du risque de récidive Proces, debat public sur l'équité algorithmique
HireVue RH Analyse faciale en entretien (reconnaissance emotions) Abandon de la fonctionnalite apres plainte FTC
Scoring social (Chine) Public Notation sociale citoyenne — modèle explicitement interdit par l'AI Act Référence directe dans les interdictions Art. 5
⚠️
Au-dela des amendes : les risques réputationnels Les entreprises prises en defaut subissent des pertes de confiance client, une couverture médiatique négative et des difficultés de recrutement. La conformité AI Act est aussi un avantage compétitif : elle renforce la confiance des partenaires et clients.

Votre feuille de route en 5 phases

Un plan d'action structure pour atteindre la conformité AI Act. Adaptez les durees a la taille de votre organisation et au nombre de systèmes IA concernés.

1
Inventaire & Classification
Semaines 1-4
Recenser tous les systèmes IA (y compris API tierces, outils SaaS avec composante IA)
Classifier chaque système selon les 4 niveaux de risque AI Act
Vérifier immédiatement l'absence de pratiques interdites (Art. 5)
Determiner votre role (fournisseur / déployeur) pour chaque système
2
Analyse des écarts & Priorisation
Semaines 5-8
Realiser l'auto-diagnostic (p. 6) pour chaque système a haut risque
Identifier les écarts critiques (P1) avec les exigences applicables
Prioriser les actions correctives par impact et effort
Évaluer le budget et les ressources nécessaires
3
Mise en conformité technique
Semaines 9-20
Rédiger la documentation technique pour chaque système a haut risque
Mettre en place les mécanismes de transparence et de marquage IA
Déployer les systèmes de journalisation (logs) et de surveillance humaine
Realiser les audits de biais et les tests de robustesse
4
Gouvernance & Formation
Semaines 16-24
Nommer un responsable conformité IA et définir les roles (RACI)
Établir la politique IA d'entreprise et les processus de validation
Former les équipes (développeurs, opérateurs, managers, direction)
Créer le comite d'éthique IA (recommande pour systèmes a haut risque)
5
Validation & Amélioration continue
A partir de la semaine 24
Realiser l'évaluation de conformité (auto-évaluation ou organisme notifié)
Établir le plan de surveillance apres déploiement
Planifier les audits périodiques et la veille réglementaire
Enregistrer les systèmes dans la base de données UE (si haut risque)
🛠
Besoin d'aide pour votre mise en conformité ? Ikasia accompagne les entreprises a chaque phase de ce plan. Nos formations "Éthique, Régulation et IA" et "Stratégie IA pour dirigeants" couvrent l'ensemble des compétences nécessaires. Demandez un diagnostic gratuit sur ikasia.ai.
Formation sur mesure

Passez à l'action avec Ikasia

La conformité AI Act n'est pas seulement une obligation réglementaire — c'est un avantage compétitif. Nos formations permettent à vos équipes de maîtriser les enjeux et de transformer la réglementation en opportunité.

🎓
Éthique, Régulation & IA 2 jours pour maîtriser l'AI Act, le RGPD, les biais et la gouvernance IA
📈
Stratégie IA pour Dirigeants Définir votre feuille de route IA avec ROI et conformité intégrés
🤖
IA Générative en Entreprise Former vos équipes aux outils IA avec les bonnes pratiques
🎯
Diagnostic Gratuit Évaluez votre maturité AI Act avec un expert en 30 minutes
GH
Guillaume Hochard
Fondateur d'Ikasia — PhD, ex-VP AI
📧 contact@ikasia.ai 🌐 ikasia.ai 📞 Sur demande