AI Act.
Votre exposition.
Aout 2026 : les systemes d'IA a haut risque sont strictement encadres. Les amendes vont jusqu'a 7% du chiffre d'affaires mondial. La question n'est plus de savoir si vous etes concerne — c'est de savoir si vous etes pret.
Cinq dates. Une seule compte vraiment.
L'AI Act n'est pas une loi a venir — il est deja en vigueur. Mais la bascule majeure tombe en aout 2026.
Aout 2026 = bascule des obligations principales. Les entreprises qui attendent seront en retard.
01Aout 2024Entree en vigueur de l'AI Act
Entree en vigueur de l'AI Act
Echeance : Aout 2024. Entree en vigueur de l'AI Act
02Fevrier 2025Interdictions (IA a risque inacceptable) applicables
Interdictions (IA a risque inacceptable) applicables
Echeance : Fevrier 2025. Interdictions (IA a risque inacceptable) applicables
03Aout 2025Obligations sur les modeles IA a usage general
Obligations sur les modeles IA a usage general
Echeance : Aout 2025. Obligations sur les modeles IA a usage general
04Aout 2026Application stricte des systemes a haut risque
Application stricte des systemes a haut risque
Echeance : Aout 2026. Application stricte des systemes a haut risque
05Aout 2027Obligations etendues aux systemes embarques
Obligations etendues aux systemes embarques
Echeance : Aout 2027. Obligations etendues aux systemes embarques
Tous les usages IA ne se valent pas.
L'AI Act classe les systemes par niveau de risque. Les obligations — et les amendes — en decoulent directement.
Quatre niveaux : inacceptable, eleve, limite, minimal. Savoir ou vous etes, c'est la premiere marche.
01Interdit depuis fevrier 2025Risque inacceptable
Risque inacceptable
Exemples : Notation sociale, manipulation subliminale, reconnaissance emotionnelle en entreprise, scoring biometrique en temps reel dans l'espace public. — Ce que cela implique : Retrait immediat sous peine de 7% du CA mondial.
02Applicable strictement en aout 2026Risque eleve
Risque eleve
Exemples : Recrutement, evaluation des salaries, scoring credit, tri de candidatures, diagnostic medical, gestion d'infrastructures critiques. — Ce que cela implique : Documentation complete, supervision humaine, gestion des risques, tests de robustesse, information des personnes concernees.
03Obligations de transparenceRisque limite
Risque limite
Exemples : Chatbots client, generation de contenu (deepfakes, images), systemes de categorisation biometrique. — Ce que cela implique : Informer explicitement l'utilisateur qu'il interagit avec une IA. Signaler les contenus generes.
04Pas d'obligation specifiqueRisque minimal
Risque minimal
Exemples : Filtres anti-spam, moteurs de recommandation produits, jeux video utilisant de l'IA. — Ce que cela implique : Bonnes pratiques recommandees : documentation interne, tracabilite.
L'IA que vous ne voyez pas est celle qui vous expose le plus.
Ce que vous ne voyez pas vous expose.
60 a 80% des usages IA en entreprise ne sont pas cartographies — ChatGPT sur comptes personnels, extensions, outils gratuits branches a des workflows critiques.
L'AI Act ne distingue pas l'IA achetee de celle que vos equipes utilisent. Dans les deux cas : vous etes responsable.
Cartographier. Classer. Structurer. Monitorer.
La plupart des acteurs facturent un audit, remettent un rapport, et disparaissent. Megin fait la chaine complete — de la cartographie a la supervision trimestrielle.
La conformite n'est pas un evenement — c'est une posture qui se tient dans le temps.
Cartographier.
Inventaire exhaustif des systemes d'IA utilises — fournisseurs, outils internes, Shadow AI. Chaque ligne du registre est datee, signee, responsabilisee.
Classer.
Chaque systeme est rapporte a un niveau de risque AI Act. La classification determine l'effort de mise en conformite, pas l'inverse.
Structurer.
Documentation, supervision humaine, gestion des risques. Pas de powerpoints — des procedures courtes, operantes, revisees chaque trimestre.
Monitorer.
Un systeme IA evolue. Le registre aussi. Nous installons un cycle de revue trimestriel — c'est la seule posture qui tient dans la duree.
Ce que les dirigeants demandent.
Qu'est-ce que l'AI Act en pratique ?
L'AI Act est le reglement europeen qui encadre l'utilisation des systemes d'intelligence artificielle. Il classe les usages par niveau de risque (inacceptable, eleve, limite, minimal) et impose des obligations graduees : cartographie, documentation, supervision humaine, transparence. Il s'applique a toute entreprise qui deploie ou utilise de l'IA sur le marche europeen.
Quand l'AI Act entre-t-il en vigueur ?
L'AI Act est entre en vigueur en aout 2024. Les interdictions (IA a risque inacceptable) s'appliquent depuis fevrier 2025. Les obligations sur les modeles a usage general sont effectives depuis aout 2025. L'application stricte des systemes a haut risque est prevue pour aout 2026 — c'est la deadline critique pour la plupart des entreprises.
Mon entreprise est-elle concernee par l'AI Act ?
Toute entreprise qui deploie, utilise, distribue ou developpe un systeme d'IA accessible dans l'Union europeenne est concernee. Cela inclut l'usage de ChatGPT en interne, des outils de scoring RH, des chatbots client, des moteurs de recommandation, des systemes de detection. La taille de l'entreprise ne change pas l'obligation — elle change seulement les moyens a deployer.
Quelle amende en cas de non-conformite AI Act ?
Les amendes vont jusqu'a 35 millions d'euros ou 7% du chiffre d'affaires annuel mondial pour les violations les plus graves (usage d'IA interdite). 15 millions d'euros ou 3% du CA pour les manquements aux obligations des systemes a haut risque. 7,5 millions ou 1,5% du CA pour les manquements a la transparence. L'amende retenue est la plus elevee des deux montants.
Qu'est-ce que le Shadow AI en entreprise ?
Le Shadow AI designe l'ensemble des outils d'IA utilises par les collaborateurs sans validation ni cadrage officiel : ChatGPT sur comptes personnels, extensions navigateur, outils gratuits integres a des workflows critiques. Dans la plupart des entreprises de plus de 50 personnes, 60 a 80% des usages IA ne sont pas cartographies. C'est un risque majeur de fuite de donnees et de non-conformite AI Act.
Comment se mettre en conformite AI Act ?
En quatre etapes : (1) cartographier tous les systemes d'IA utilises dans l'entreprise — y compris Shadow AI ; (2) classer chaque systeme par niveau de risque AI Act ; (3) appliquer les obligations correspondantes — documentation, supervision humaine, transparence, gestion des risques ; (4) tenir ce registre a jour et designer un responsable. Le plus long, c'est la cartographie — c'est aussi ce qui evite 90% des expositions.
Qui est responsable si l'IA commet une erreur dans mon entreprise ?
L'AI Act considere l'entreprise qui deploie le systeme comme responsable de son usage. Meme si l'IA vient d'un fournisseur tiers, c'est l'utilisateur final — votre entreprise — qui doit garantir la supervision humaine, la documentation et l'information des personnes concernees. L'argument 'c'etait l'IA qui a decide' n'est pas recevable.
Faut-il declarer l'utilisation d'IA a la CNIL ?
Pas de declaration systematique, mais l'AI Act s'articule avec le RGPD. Tout systeme d'IA traitant des donnees personnelles doit etre documente dans le registre des traitements et faire l'objet d'une analyse d'impact (AIPD) si le traitement est a risque eleve. La CNIL est l'autorite francaise de supervision pour les aspects donnees personnelles de l'AI Act.
Cartographier votre exposition.
45 minutes pour identifier ou se situent vos usages IA, lesquels sont a risque eleve, et ce que represente la mise en conformite en effort et en calendrier. Sans engagement.