IA Act, la loi européenne sur l'intelligence artificielle
La régulation de l’IA est en marche
28/10/2024
5 min
de lecture
Thomas Groc
De la médecine à la productivité des entreprises en passant la recherche d’informations, l’intelligence artificielle révolutionne tous les aspects de nos vies. Mais ces nouvelles technologies apportent aussi leur lot d'incertitudes. Depuis sa généralisation fin 2022, les scénarios catastrophes des films de science-fiction n’ont jamais semblé aussi réalistes. Alors pour éviter les dérives, une régulation semble nécessaire. C’est justement l’objectif de l’IA Act.
Qu'est-ce que l’IA Act ?
Face aux incertitudes qui entourent l’intelligence artificielle, l’Union européenne entend établir un cadre réglementaire complet pour cette technologie. C’est l’IA Act.
Objectif : une IA digne de confiance
Depuis sa généralisation fin 2022, l’IA est sur toutes les lèvres. Il faut dire que cette technologie est pour le moins ambivalente. D’un côté, elle permet à la civilisation d’évoluer de manière exponentielle, que ce soit en matière de médecine, de physique quantique, de stratégie d’entreprise, … Bref, les capacités de cette technologie sont infinies. Mais d’un autre côté, elle présente aussi des risques exponentiels, allant des biais algorithmiques à la perte de contrôle total, en passant par la désinformation ou la protection de la vie privée.
Pour l’Union Européenne, un juste équilibre est nécessaire. Avec l’IA, l’institution souhaite garantir que les systèmes d'IA respectent les droits fondamentaux et la sécurité des utilisateurs, tout en favorisant l’innovation.
Comment ?
- En fournissant des exigences claires pour les développeurs et les entreprises.
- En allégeant les charges administratives, surtout pour les petites et moyennes entreprises, afin de stimuler l'adoption de l'IA en Europe.
- En définissant les niveaux de risques de l’IA.
In fine, l’objectif est d'encourager le développement d’une IA digne de confiance, en créant un environnement sécurisé pour les utilisateurs, développeurs et déployeurs.
Une approche fondée sur les risques
Si l’intelligence artificielle est aussi problématique, c’est à cause de tous les risques qu’elle suppose. C’est pourquoi, l’IA Act adopte une approche fondée sur les risques. Elle classifie les systèmes d’intelligence artificielle selon leur potentiel de nuisance :
- Les risques inacceptables : comme les modèles d’évaluation sociale utilisés par certains gouvernements pour surveiller les citoyens et leur comportement. Ces systèmes sont totalement interdits.
- Les hauts risques : notamment les systèmes d’IA utilisés dans les infrastructures critiques, comme ceux qui régulent les transports. Ici, le risque de défaillance pourrait mettre en danger des vies. Ces technologies ne sont pas interdites, mais nécessitent un marquage CE pour être commercialisées.
- Les risques faibles : comme les chatbots. Ils sont encouragés, sous conditions de transparence. Ainsi, les assistants conversationnels doivent indiquer aux utilisateurs qu'ils interagissent avec un programme informatique.
- Les risques minimaux : comme les filtres anti-spam ou certains jeux vidéo.
À travers cette classification, l’IA Act s’efforce de protéger les utilisateurs tout en favorisant un écosystème d’innovation robuste.
Où en est-on ?
Après un premier vote le 2 février 2024, l’IA act est définitivement entré en vigueur le 1er août 2024. Cela dit, sa mise en œuvre se fera de manière progressive afin de permettre aux entreprises et aux États européens de s’y conformer.
Voyons le calendrier en détail :
- Février 2025 : interdiction totale de prendre des risques inacceptables
- Mai 2025 : finalisation des codes de pratique pour l'IA à usage général (GPAI).
- Août 2025 : nomination des autorités compétentes des États membres.
- Février 2026 : création d’un modèle de plan de surveillance post-commercialisation pour les fournisseurs d'IA à haut risque.
- Août 2026 : applications des obligations relatives aux systèmes d'IA à haut risque de l’annexe III, mise en œuvre des sanctions par les États et mise en place d’un bac à sable réglementaire opérationnel.
- Août 2027 : applications des obligations relatives aux systèmes d'IA à haut risque de l’annexe I
- Avant fin 2030 : de nouvelles obligations pour les systèmes d'information à grande échelle.
Pourquoi s'en préoccuper ?
1 - Un risque de perte de compétitivité
Bien qu’essentiel pour promouvoir la transparence et l’éthique, l’IA soulève des inquiétudes quant à la compétitivité des entreprises européennes. Selon Marianne Tordeux Bitker, directrice des affaires publiques de France Digitale, ce texte risque de “créer des barrières réglementaires supplémentaires qui profiteront à la concurrence américaine et chinoise et réduirons nos opportunités de faire émerger des champions européens de l’IA.”
C’est notamment le cas pour les systèmes interdits (car risque inacceptable) ou ceux nécessitant un marquage CE.
Cette pression réglementaire pourrait alors inciter certaines entreprises à se détourner de l’Europe, où l'environnement réglementaire est perçu comme trop restrictif.
2 - Une mise en conformité obligatoire pour les entreprises
Les premières mesures devant être mises en application dès février 2025, les entreprises européennes (comme Mistral AI) doivent commencer à s’y conformer. Et il faut agir vite.
En plus de l’IA Act, les entreprises sont soumises à de nombreuses contraintes réglementaires, comme les droits d’auteur ou encore le RGPD.
Ce paysage réglementaire de plus en plus strict vient challenger les entreprises et leurs systèmes d’intelligence artificielle. Mais c’est aussi d’en tirer parti pour améliorer les pratiques et renforcer la confiance des utilisateurs via des innovations responsables et éthiques.
Quoi qu’il en soit, les entreprises doivent dès aujourd’hui adopter une démarche proactive pour assurer une transition fluide vers cette nouvelle ère de régulation de l’IA.
Comment se mettre en conformité avec l’IA Act ?
Pour aider les entreprises à se conformer à l’IA Act, France Digitale, Wavestone et le cabinet d'avocats Gide ont élaboré un guide pratique.
Celui-ci résume les 10 étapes de la mise en conformité :
- Adopter un système de gestion des risques pour répondre aux risques identifiés
- Mettre en place une gouvernance des données pour s’assurer de leur qualité
- Rédiger une documentation technique incluant a minima les éléments minimums l'Annexe IV
- Garantir la traçabilité des archives tout au long de la durée de vie du système d'IA (SIA)
- Incorporer une supervision humaine pour prévenir ou minimiser les risques
- Assurer l’exactitude, la robustesse et la sécurité du SIA
- Établir un système de gestion de la qualité
- Rédiger une déclaration de conformité de l'UE
- S’assurer de la lisibilité du marquage CE (si applicable)
- Enregistrer le système d’IA dans la base de données de l'UE
En parallèle à ce guide, sachez que l’EU Artficial Intelligence Act (IA Act) a développé un outil de vérification de conformité.
Et si vous souhaitez participer au développement d’une IA éthique, commencez à vous former à cette technologie avec l’École Cube.