L'IA Act entre
en vigueur.
Êtes-vous prêt ?

Le premier cadre juridique global pour l'intelligence artificielle entre en application progressive. 113 articles, 4 niveaux de risque, des sanctions qui dépassent le RGPD. Ce guide structure l'essentiel pour évaluer votre exposition.

Règlement (UE) 2024/1689 du 13 juin 2024
1er août 2024Entrée en vigueur
2 août 2026Application générale
113Articles
35 M€Amende maximale
Calendrier
d'application
Le législateur européen a prévu une mise en œuvre échelonnée sur trois ans. Les premières obligations sont applicables depuis février 2025. L'ensemble du règlement sera pleinement effectif en août 2027.
2 février 2025
Appliqué

Pratiques interdites et littératie IA

Les huit interdictions de l'article 5 et l'obligation de formation à l'IA (article 4) sont applicables.

2 août 2025
Appliqué

Modèles d'IA à usage général

Obligations de transparence et de documentation pour les fournisseurs de modèles GPAI. Désignation des autorités nationales compétentes.

2 août 2026
Prochaine échéance

Majorité du règlement

Systèmes à haut risque de l'annexe III, obligations de transparence (article 50), bacs à sable réglementaires. L'application forcée débute.

2 août 2027
À venir

Application intégrale

Systèmes à haut risque intégrés dans des produits réglementés. Fin de la période transitoire pour les modèles GPAI antérieurs à août 2025.

Classification
des risques
L'approche du règlement est graduée : plus le risque pour les droits fondamentaux et la sécurité des personnes est élevé, plus les exigences sont strictes.

Pratiques interdites

Article 5 — Chapitre II
Huit catégories d'utilisation jugées contraires aux valeurs fondamentales de l'Union. Sanctions : jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial. Applicable depuis le 2 février 2025.
Interdit

Manipulation subliminale

Techniques subliminales, manipulatrices ou trompeuses altérant la capacité de décision éclairée.

Interdit

Exploitation des vulnérabilités

Ciblage de l'âge, du handicap ou de la situation socio-économique.

Interdit

Scoring social

Classification fondée sur le comportement social entraînant un traitement défavorable injustifié.

Interdit

Prédiction d'infractions

Évaluation du risque d'infraction sur la seule base du profilage ou des traits de personnalité.

Interdit

Scraping facial non ciblé

Constitution de bases de reconnaissance faciale par collecte non ciblée sur Internet ou en vidéosurveillance.

Interdit

Reconnaissance des émotions

Inférence d'émotions au travail ou en éducation, sauf raisons médicales ou de sécurité.

Interdit

Catégorisation biométrique

Inférence d'attributs sensibles à partir de données biométriques.

Exception

Biométrie temps réel

Interdite pour la police dans les espaces publics, sauf exceptions strictes.

Systèmes à haut risque

Articles 6 à 49 — Chapitre III
Non interdits mais soumis à des obligations étendues. Deux critères de classification : intégration dans un produit réglementé (annexe I) ou domaine sensible (annexe III). Tout système utilisé pour le profilage est automatiquement classé à haut risque.
Annexe III

Biométrie

Identification à distance, catégorisation et reconnaissance des émotions.

Annexe III

Infrastructures critiques

Composants de sécurité : trafic, eau, gaz, électricité, réseaux numériques.

Annexe III

Éducation

Admission, évaluation, orientation, surveillance en examen.

Annexe III

Emploi et RH

Recrutement, tri de CV, évaluation, promotion, licenciement.

Annexe III

Services essentiels

Prestations sociales, scoring de crédit, assurance, urgences.

Annexe III

Répression et justice

Police, demandes d'asile, aide à la décision judiciaire.

Obligations des fournisseurs
Art. 9Gestion des risques — Identification et atténuation tout au long du cycle de vie.
Art. 10Gouvernance des données — Représentativité et absence de biais des jeux de données.
Art. 11Documentation technique — Preuve de conformité avant mise sur le marché.
Art. 12Registres — Journalisation automatique pour traçabilité et audit.
Art. 13Transparence — Informations claires sur capacités, limites, usages prévus.
Art. 14Contrôle humain — Supervision humaine effective.
Art. 15Robustesse et cybersécurité — Niveaux adéquats de fiabilité.
Art. 17Qualité — Système d'assurance couvrant l'ensemble du processus.

Risque limité

Article 50 — Chapitre IV
Les systèmes qui interagissent directement avec des personnes ou génèrent du contenu synthétique doivent assurer la transparence. Applicable à compter du 2 août 2026.
Transparence

Agents conversationnels

Informer l'utilisateur qu'il communique avec une IA.

Transparence

Hypertrucages

Signaler les contenus images, audio ou vidéo générés par IA.

Transparence

Textes générés

Identifier les textes d'intérêt public générés par IA.

Risque minimal

Pas d'obligations spécifiques
La majorité des systèmes d'IA en usage dans l'Union. Aucune obligation contraignante. Codes de conduite volontaires encouragés. Seule obligation transversale : la littératie IA (article 4).
Non réglementé

Exemples

Filtres anti-pourriel, jeux vidéo, recommandation de contenu, correcteurs, gestion d'inventaire.

Volontaire

Codes de conduite

Le règlement encourage des codes volontaires pour promouvoir la confiance (article 95).

IA à usage général

Articles 51 à 56 — Chapitre V
Les grands modèles de langage font l'objet d'un régime distinguant les modèles standards de ceux présentant un risque systémique. Code de pratique GPAI publié le 10 juillet 2025.
Tous modèles

Obligations de base

Documentation technique, respect du droit d'auteur, résumé des données d'entraînement.

Systémique

Obligations renforcées

Évaluations de modèle, tests contradictoires, suivi des incidents, cybersécurité.

Sanctions
Trois paliers proportionnés à la gravité. Le barème dépasse celui du RGPD. Pour les PME, c'est le montant le plus bas qui s'applique.
35 M€
ou 7 % du CA mondial

Pratiques interdites (article 5)

15 M€
ou 3 % du CA mondial

Systèmes à haut risque et obligations de transparence

7,5 M€
ou 1 % du CA mondial

Informations inexactes aux autorités

Notre
approche
L'EU IA Act distingue l'Organisme Notifié, qui délivre la certification officielle (article 43), du prestataire technique qui aide à maintenir la conformité au quotidien (articles 9, 10, 12, 13, 15). JozIA relève exclusivement de la seconde catégorie.

Organisme Notifié

Art. 43 — Évaluation de conformité
Rôle
Tampon officiel de mise sur le marché. Verdict binaire.
Fréquence
Ponctuelle : au lancement, puis lors de modifications substantielles.
Posture
Neutre et indépendant. Ne peut pas conseiller.
Accès
Accréditation COFRAC, plus de 200 000 euros.

JozIA

Art. 9, 10, 12, 13, 15 — Surveillance continue
Rôle
Surveille les biais, anonymise les données, génère les registres d'audit.
Fréquence
24 h/24, 7 j/7, sur chaque interaction applicative.
Posture
Aide activement à corriger avant le contrôle officiel.
Accès
Intégration en 15 minutes via SDK ou passerelle API.

L'Organisme Notifié va venir vous contrôler. Si vos registres ne sont pas parfaits, vous prenez jusqu'à 3 % d'amende. JozIA surveille vos flux en continu, bloque les biais en temps réel et prépare vos rapports automatiquement. Quand l'auditeur arrivera, vous n'aurez qu'à lui donner accès à votre tableau de bord.

Positionnement JozIA — Surveillance continue, pas certification officielle

Préparez-vous au contrôle
avant qu'il n'arrive

Audit des biais, journalisation des interactions, anonymisation des données personnelles. Diagnostic gratuit de 48 heures en mode lecture seule.

Aucune modification de vos systèmes. Aucune carte bancaire. JozIA n'est pas un organisme de certification.