AI Act 2026 conformite entreprise. Reglementation europeenne intelligence artificielle. Obligations dirigeant, amendes jusqu'a 7% du chiffre d'affaires mondial. Cartographie Shadow AI, gestion des risques IA, supervision humaine. Methode Megin pour mise en conformite AI Act.
Conformite · AI Act · 2026

AI Act.
Votre exposition.

Aout 2026 : les systemes d'IA a haut risque sont strictement encadres. Les amendes vont jusqu'a 7% du chiffre d'affaires mondial. La question n'est plus de savoir si vous etes concerne — c'est de savoir si vous etes pret.

7%
Du CA mondial en amende
Aout 2026
Application haut risque
60-80%
Usages IA non cartographies
4 niveaux
De risque a classer
01 — Calendrier

Cinq dates. Une seule compte vraiment.

L'AI Act n'est pas une loi a venir — il est deja en vigueur. Mais la bascule majeure tombe en aout 2026.

A retenir

Aout 2026 = bascule des obligations principales. Les entreprises qui attendent seront en retard.

01
Aout 2024

Entree en vigueur de l'AI Act

Echeance : Aout 2024. Entree en vigueur de l'AI Act

02
Fevrier 2025

Interdictions (IA a risque inacceptable) applicables

Echeance : Fevrier 2025. Interdictions (IA a risque inacceptable) applicables

03
Aout 2025

Obligations sur les modeles IA a usage general

Echeance : Aout 2025. Obligations sur les modeles IA a usage general

04
Aout 2026

Application stricte des systemes a haut risque

Echeance : Aout 2026. Application stricte des systemes a haut risque

05
Aout 2027

Obligations etendues aux systemes embarques

Echeance : Aout 2027. Obligations etendues aux systemes embarques

02 — Classification

Tous les usages IA ne se valent pas.

L'AI Act classe les systemes par niveau de risque. Les obligations — et les amendes — en decoulent directement.

A retenir

Quatre niveaux : inacceptable, eleve, limite, minimal. Savoir ou vous etes, c'est la premiere marche.

01
Interdit depuis fevrier 2025

Risque inacceptable

Exemples : Notation sociale, manipulation subliminale, reconnaissance emotionnelle en entreprise, scoring biometrique en temps reel dans l'espace public. — Ce que cela implique : Retrait immediat sous peine de 7% du CA mondial.

02
Applicable strictement en aout 2026

Risque eleve

Exemples : Recrutement, evaluation des salaries, scoring credit, tri de candidatures, diagnostic medical, gestion d'infrastructures critiques. — Ce que cela implique : Documentation complete, supervision humaine, gestion des risques, tests de robustesse, information des personnes concernees.

03
Obligations de transparence

Risque limite

Exemples : Chatbots client, generation de contenu (deepfakes, images), systemes de categorisation biometrique. — Ce que cela implique : Informer explicitement l'utilisateur qu'il interagit avec une IA. Signaler les contenus generes.

04
Pas d'obligation specifique

Risque minimal

Exemples : Filtres anti-spam, moteurs de recommandation produits, jeux video utilisant de l'IA. — Ce que cela implique : Bonnes pratiques recommandees : documentation interne, tracabilite.

L'IA que vous ne voyez pas est celle qui vous expose le plus.
Shadow AI · Point aveugle
03 — Shadow AI

Ce que vous ne voyez pas vous expose.

60 a 80% des usages IA en entreprise ne sont pas cartographies — ChatGPT sur comptes personnels, extensions, outils gratuits branches a des workflows critiques.

A retenir

L'AI Act ne distingue pas l'IA achetee de celle que vos equipes utilisent. Dans les deux cas : vous etes responsable.

04 — Methode Megin

Cartographier. Classer. Structurer. Monitorer.

La plupart des acteurs facturent un audit, remettent un rapport, et disparaissent. Megin fait la chaine complete — de la cartographie a la supervision trimestrielle.

A retenir

La conformite n'est pas un evenement — c'est une posture qui se tient dans le temps.

01

Cartographier.

Inventaire exhaustif des systemes d'IA utilises — fournisseurs, outils internes, Shadow AI. Chaque ligne du registre est datee, signee, responsabilisee.

02

Classer.

Chaque systeme est rapporte a un niveau de risque AI Act. La classification determine l'effort de mise en conformite, pas l'inverse.

03

Structurer.

Documentation, supervision humaine, gestion des risques. Pas de powerpoints — des procedures courtes, operantes, revisees chaque trimestre.

04

Monitorer.

Un systeme IA evolue. Le registre aussi. Nous installons un cycle de revue trimestriel — c'est la seule posture qui tient dans la duree.

Questions frequentes

Ce que les dirigeants demandent.

Qu'est-ce que l'AI Act en pratique ?

L'AI Act est le reglement europeen qui encadre l'utilisation des systemes d'intelligence artificielle. Il classe les usages par niveau de risque (inacceptable, eleve, limite, minimal) et impose des obligations graduees : cartographie, documentation, supervision humaine, transparence. Il s'applique a toute entreprise qui deploie ou utilise de l'IA sur le marche europeen.

Quand l'AI Act entre-t-il en vigueur ?

L'AI Act est entre en vigueur en aout 2024. Les interdictions (IA a risque inacceptable) s'appliquent depuis fevrier 2025. Les obligations sur les modeles a usage general sont effectives depuis aout 2025. L'application stricte des systemes a haut risque est prevue pour aout 2026 — c'est la deadline critique pour la plupart des entreprises.

Mon entreprise est-elle concernee par l'AI Act ?

Toute entreprise qui deploie, utilise, distribue ou developpe un systeme d'IA accessible dans l'Union europeenne est concernee. Cela inclut l'usage de ChatGPT en interne, des outils de scoring RH, des chatbots client, des moteurs de recommandation, des systemes de detection. La taille de l'entreprise ne change pas l'obligation — elle change seulement les moyens a deployer.

Quelle amende en cas de non-conformite AI Act ?

Les amendes vont jusqu'a 35 millions d'euros ou 7% du chiffre d'affaires annuel mondial pour les violations les plus graves (usage d'IA interdite). 15 millions d'euros ou 3% du CA pour les manquements aux obligations des systemes a haut risque. 7,5 millions ou 1,5% du CA pour les manquements a la transparence. L'amende retenue est la plus elevee des deux montants.

Qu'est-ce que le Shadow AI en entreprise ?

Le Shadow AI designe l'ensemble des outils d'IA utilises par les collaborateurs sans validation ni cadrage officiel : ChatGPT sur comptes personnels, extensions navigateur, outils gratuits integres a des workflows critiques. Dans la plupart des entreprises de plus de 50 personnes, 60 a 80% des usages IA ne sont pas cartographies. C'est un risque majeur de fuite de donnees et de non-conformite AI Act.

Comment se mettre en conformite AI Act ?

En quatre etapes : (1) cartographier tous les systemes d'IA utilises dans l'entreprise — y compris Shadow AI ; (2) classer chaque systeme par niveau de risque AI Act ; (3) appliquer les obligations correspondantes — documentation, supervision humaine, transparence, gestion des risques ; (4) tenir ce registre a jour et designer un responsable. Le plus long, c'est la cartographie — c'est aussi ce qui evite 90% des expositions.

Qui est responsable si l'IA commet une erreur dans mon entreprise ?

L'AI Act considere l'entreprise qui deploie le systeme comme responsable de son usage. Meme si l'IA vient d'un fournisseur tiers, c'est l'utilisateur final — votre entreprise — qui doit garantir la supervision humaine, la documentation et l'information des personnes concernees. L'argument 'c'etait l'IA qui a decide' n'est pas recevable.

Faut-il declarer l'utilisation d'IA a la CNIL ?

Pas de declaration systematique, mais l'AI Act s'articule avec le RGPD. Tout systeme d'IA traitant des donnees personnelles doit etre documente dans le registre des traitements et faire l'objet d'une analyse d'impact (AIPD) si le traitement est a risque eleve. La CNIL est l'autorite francaise de supervision pour les aspects donnees personnelles de l'AI Act.

Prochaine etape

Cartographier votre exposition.

45 minutes pour identifier ou se situent vos usages IA, lesquels sont a risque eleve, et ce que represente la mise en conformite en effort et en calendrier. Sans engagement.