La loi sur l'intelligence artificielle de l'UE : Ce que les entreprises doivent savoir

La loi sur l'intelligence artificielle de l'UE : Ce que les entreprises doivent savoir

19 août 2025

La loi sur l'IA de l'UE

L'Union européenne a adopté la première législation globale mondiale sur l'IA : la loi sur l'intelligence artificielle (AI Act). Officiellement Règlement (UE) 2024/1689, cette législation historique crée un cadre harmonisé pour l'IA dans tous les États membres de l'UE. Elle introduit un système de classification basé sur les risques, attribuant différentes obligations réglementaires en fonction du potentiel de nuisance que les systèmes d'IA peuvent poser à la sécurité et aux droits des personnes. Cet article explique ce que signifie la loi sur l'IA pour les entreprises développant ou déployant de l'IA, en particulier dans des secteurs à fort impact comme la santé, la finance, les forces de l'ordre et les ressources humaines.

Comprendre la pyramide des risques

La loi sur l'IA catégorise l'IA en quatre niveaux de risque :

  • Risque inacceptable : Interdit entièrement (par exemple, évaluation sociale, reconnaissance faciale en temps réel dans les lieux publics, IA manipulatrice).

  • Risque élevé : Autorisé uniquement avec des mesures de conformité strictes et des évaluations de conformité.

  • Risque limité : Soumis à des obligations de transparence (par exemple, chatbots, IA générative).

  • Risque minimal : La plupart des systèmes d'IA (par exemple, filtres anti-spam) ne font face à aucune nouvelle obligation.

Cette pyramide assure une réglementation proportionnée, ciblant la surveillance là où l'enjeu est le plus élevé.

Quelles pratiques d'IA sont interdites ?

Les systèmes d'IA qui posent un « risque inacceptable » pour les droits et la sécurité sont complètement interdits. Ceux-ci incluent :

  • Systèmes de notation sociale gérés par le gouvernement.

  • Identification biométrique en temps réel dans les lieux publics par les forces de l'ordre (avec des exceptions très étroites).

  • Reconnaissance des émotions dans les écoles ou les lieux de travail.

  • Police prédictive basée sur le profilage.

  • IA qui manipule de manière subliminale les utilisateurs.

Les violations peuvent entraîner des amendes pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires mondial.

IA à haut risque : conformité stricte requise

L'IA à haut risque couvre deux grandes catégories :

  1. IA intégrée dans des produits soumis à des normes de sécurité (par exemple, appareils médicaux, véhicules).

  2. IA autonome dans des domaines sensibles comme :

    • Santé (par exemple, outils de diagnostic)

    • Finance (par exemple, scores de crédit)

    • Emploi (par exemple, logiciels de recrutement)

    • Application de la loi (par exemple, analyse de preuves)

    • Contrôle des frontières, éducation, services publics et justice.

Obligations clés pour les fournisseurs d'IA à haut risque :

  • Gestion des risques et tests continus.

  • Données d'entraînement de haute qualité, atténuées des biais.

  • Documentation technique détaillée.

  • Suivi et traçabilité.

  • Instructions claires et transparence vis-à-vis des utilisateurs.

  • Capacités de surveillance humaine.

  • Mesures de robustesse, précision et cybersécurité.

  • Enregistrement dans la base de données de l'UE et marquage CE après évaluation de conformité.

Les utilisateurs (déployeurs) d'IA à haut risque ont également des devoirs : surveiller les performances, assurer la qualité des données d'entrée et signaler les incidents graves.

IA à risque limité : la transparence est essentielle

L'IA qui interagit avec les personnes ou génère du contenu doit divulguer sa nature d'IA. Les exemples incluent :

  • Chatbots qui doivent s'identifier comme non-humains.

  • Images ou vidéos générées par IA qui doivent être étiquetées.

  • Reconnaissance des émotions utilisée dans des contextes non sensibles doit être divulguée.

Les fournisseurs d'IA générative doivent également :

  • Étiqueter les productions (par ex., filigranes pour les deepfakes).

  • Divulguer des résumés de données d'entraînement pour se conformer à la loi sur le droit d'auteur.

IA à risque minimal : pas de nouvelles règles

La plupart des applications d'IA – comme les filtres anti-spam, les recommandations de films, les outils de grammaire – sont classées comme à risque minimal et ne sont soumises à aucune obligation de la loi sur l'IA. Cependant, les développeurs sont encouragés à suivre des codes de conduite volontaires et des pratiques éthiques exemplaires.

Règles spéciales pour l'IA polyvalente (GPAI)

Les modèles fondamentaux (comme les grands modèles de langage) relèvent de nouvelles obligations s'ils sont déployés dans l'UE :

  • Publier une documentation technique et des résumés des données d'entraînement.

  • Fournir des instructions d'intégration sûres.

  • Respecter la loi sur le droit d'auteur de l'UE.

S'ils sont classés comme GPAI systémique (par exemple, modèles avec plus de 10^25 FLOPs), des garanties supplémentaires s'appliquent :

  • Tests rigoureux et évaluations de sécurité contre l'adversaire.

  • Rapport d'incidents aux régulateurs de l'UE.

  • Mesures de réduction des risques et de cybersécurité.

Liste de vérification pour la conformité des entreprises

Si votre entreprise développe ou déploie de l'IA, voici comment commencer à se préparer :

  1. Auditez vos systèmes d'IA : Identifiez ceux qui sont à haut risque ou relèvent d'autres catégories réglementées.

  2. Conception pour la conformité : Intégrez la gestion des risques, la transparence et la surveillance humaine.

  3. Préparez la documentation : Maintenez des fichiers techniques, des journaux et des évaluations de conformité.

  4. Étiquetez et divulguez : Pour l'IA générative et à risque limité, assurez une transparence visible.

  5. Engagez les régulateurs tôt : Utilisez les laboratoires réglementaires ou consultez avec les organismes notifiés.

Quand ces règles s'appliquent-elles ?

  • Interdictions sur l'IA à risque inacceptable : En vigueur à partir de février 2025.

  • Obligations pour l'IA polyvalente : S'appliquent à partir d'août 2025.

  • Règles pour l'IA à haut risque : S'appliquent à partir d'août 2026.

Application et pénalités

La loi sur l'IA sera appliquée par les régulateurs nationaux et coordonnée par le Bureau européen de l'IA. Les sanctions incluent :

  • Jusqu'à 35 millions d'euros ou 7 % du chiffre d'affaires mondial pour les pratiques interdites.

  • Jusqu'à 15 millions d'euros ou 3 % pour non-conformité générale.

  • Amendes réduites pour les PME.

Dernières réflexions : IA de confiance comme avantage compétitif

Alors que la loi sur l'IA introduit des défis de conformité, elle offre également un chemin vers la construction de systèmes d'IA plus dignes de confiance, robustes et compétitifs. Les entreprises qui commencent à s'aligner sur la loi dès maintenant peuvent gagner la confiance des consommateurs et réduire les risques juridiques futurs.

Souhaitez-vous préparer votre portefeuille d'IA pour la conformité ? Réservez une démo avec Cogrant ou explorez nos ressources sur la feuille de route de la conformité IA.