AI Act - Règlement sur l'intelligence artificielle
- Elio Schnarrenberger

- 22 juil.
- 8 min de lecture
Même s’il ne va pas de soi, le progrès évolue de façon exponentielle. À chaque raffinement de sa technique, l’humanité a connu une poussée de croissance, mais l’invention des outils, le domptage du feu, l’agriculture ou la révolution industrielle n’ont jamais provoqué autant d’innovations en un si court lapse de temps que la technologie de l’information.
Et pourtant, ni l’ordinateur permettant de calculer à des vitesses sans précédents, ni la création d’internet habilitant des échanges à une fréquence et une portée inégalée ne semblent autant révolutionnaire que l’avènement de l’intelligence artificielle (IA). Celle-ci permet d’automatiser des processus de complexité grandissante avec des performances dépassant déjà beaucoup d’experts dans des domaines spécifiques. Ainsi, « La machine a libéré l’homme de la force physique, l’ordinateur le libère de la force mentale. ». (Jean-Louis Lemoigne ?)
Mais là où les machines ont rencontré un mur infranchissable, i.e., la prise de décision, l’IA progresse sans accro notable. Ce développement effréné présente de nombreux avantages, mais pose également se sérieux problèmes aux conséquences potentiellement catastrophiques. Afin de pallier ces problèmes, l’Union européenne a instauré en 2024 le règlement sur l’intelligence artificiel (Artificial Intelligence Act – AI Act). Cet article traitera de son champ d’application, des acteurs concernés et pourquoi son implémentation est un tournant majeur pour l’industrie de la technologie de l’information.
LA LOI SUR L’IA : LA FIN D’UNE ELDORADO ?
La loi sur l'IA est la législation phare de l'UE pour réglementer l'intelligence artificielle. Elle vise à garantir un développement éthique de celle-ci. Suivant le règlement général sur la protection des données (GDPR), la législation sur les marchés numérique (DMA) et le règlement sur les services numériques, l’UE renforce sa position de leader mondial en matière de réglementation des technologies avec l’IA Act, car celle-ci est la première législation horizontale sur l’intelligence artificielle à l’échelle d’un continent. Face au développement rapide et à l’immission généralisée de cette technologie, l’Union européenne espère que cette loi aura des échos internationalement.
L’AI Act marque le passage d’un Far West technologique à une gouvernance normative en définissant un cadre légal structuré et en imposant des obligations techniques et éthiques aux développeurs, fournisseur (déployeurs) et utilisateurs.
La loi sur l’IA s’applique à tous les systèmes d’intelligence artificielle, définis comme :
« des systèmes conçus pour fonctionner avec un certain degré d'autonomie et produire des résultats tels que des prédictions, recommandations ou décisions influençant des environnements physiques ou virtuels ».
Cette définition est volontairement large pour permettre une applicabilité étendue et relativement durable face à une industrie en plein essor. Plus concrètement, les systèmes tels que algorithmes d’apprentissage automatique (machine-learning, deep-learning), les systèmes experts, symbolique ou hybrides et les IA embarquées dans les logiciels (appareil connectés ou robots) sont couvert par la loi.
PAS TOUTES LES IA SONT NÉES ÉGALES
La loi introduit une classification claire des systèmes d'intelligence artificielle basée sur les risques, selon quatre niveaux : minimal, limité, élevé et inacceptable.

Niveau 1 : risques minimaux
Ce niveau concernant les jeux vidéo ou les algorithmes utilisés pour des fonctions basiques telles que filtrer les courriels, bloqueur de publicités ou correcteur de textes basiques, etc. L’impact de ces IA étant insignifiant, ces IA ne sont pas soumises à l’AI Act et donc ne sont pas réglementés.
Niveau 2 : risques limités
Cette catégorie englobe les intelligences artificielles à usage général (GPAI) dont les produits et interactions peuvent être confondus avec des sources tangibles (Chatbots, deepfakes, etc.). Les utilisateurs doivent être conscients qu’ils font face à de l’IA. Ainsi, les développeurs et déployeurs sont soumis à une obligation de transparence. Cela implique la conformité à la directive sur les droits d'auteur et la publication d’un résumé du contenu utilisé pour la formation.
Niveau 3 : risques élevés
La majeure partie de la loi se concentre sur cette catégorie. Elle concerne les IA qui sont de plus en plus utilisées comme support de prise de décision dans des domaines critiques tels que la santé, l’éducation et la sécurité publique. Ainsi, les IAs dont l’impact a une conséquence directe sur la santé, la sécurité ou tous les autres droits fondamentaux reconnus par l’UE (e.g., la dignité, la liberté, l’égalité, la solidarité les droits civiques et la justice) sont tenues de respecter rigoureusement les exigences de l’AI Act. Ce niveau exige des systèmes de gestion des risques, des ensembles de données de qualité, des mécanismes de journalisation et des protocoles « human-in-the-loop » (HITL). Ces IA doivent faire l'objet d'une évaluation de la conformité par un tiers.
Niveau 4 : risques inacceptables
Ici, sont classées les systèmes d’IA interdits car leur impact potentiel sur les individus ou la société est jugé inacceptable et sont de facto bannis (notation sociale, techniques subliminales, manipulatrices ou trompeuses, déduction des émotions sur le lieu de travail ou dans les établissements d'enseignement, bref: tous ce qui pourrait se retrouver dans un roman dystopique).
TIMELINE
Comme de nombreuses lois, l’AI Act entre en vigueur de façon échelonnée :

Tout au long de son implémentation, un groupe d'experts scientifiques prodiguera des conseils sur les risques techniques émergents et la mise à jour des normes. Une fois en place, toute non-conformité s’accompagnera de sanction plus ou moins sévère pouvant aller jusqu’à 7% du chiffre d'affaires annuel global pour les plus gros contrevenants.
Les principaux acteurs concernés par cette loi sont naturellement les entreprises technologiques développant des IA destinées au marché européen (développeurs), mais aussi les fournisseurs (déployeurs) et dans certain cas, les utilisateurs.
Selon le niveau de risque de leur système, les développeurs doivent mettre en place des processus internes de gestion de risque, procéder à des évaluations méticuleuses des risques techniques et éthiques présentés par leur produits (e.g., une détection transversale des biais que les IA pourraient extrapoler des données fournies pour les entraîner), fournir de la documentation technique et faire valider les performances par des audits de partis tiers externes.
De plus, la loi exigera un suivi post-commercialisation et une gestion des risques tout au long du cycle de vie, ce qui élargit considérablement les processus traditionnels d'assurance qualité des logiciels.
EST-CE QUE L’ENJEU EN VAUT RÉELLEMENT LA CHANDELLE ?
Une fois n’est pas coutume, ce règlement introduit de nombreuses contraintes qui sembleraient compromettre le développement scientifique, technologique et économique, mais à quelles fins ?
L’histoire nous enseigne que, bien que souvent accueillies avec une désapprobation véhémente, les régulations se sont souvent révélées bénéfiques sur le long terme ; elles peuvent ainsi être considérées comme un investissement pour le bienêtre commun. Cela va sans dire qu’une adaptation difficile accompagne souvent leur adoption.
Tout cela dans le but d’accroître la sécurité et la confiance dans l'IA en s'attaquant à des risques réels tels que la désinformation, les systèmes de notation biaisés, les diagnostics médicaux défectueux ou la mise sur le marché de produits non-aboutis pouvant avoir des répercutions dramatiques sur la vie de leurs utilisateurs.
L’AI Act présente en outre l’avantage d’unifier les normes réglementaires entre les États membres de l'UE simplifiant le déploiement transfrontalier de l'IA au sein de l'UE et crée un précédent au niveau mondial, en influençant potentiellement la manière dont l'IA est réglementée dans d'autres juridictions (par exemple, au Canada, en Australie ou au Brésil).
En conséquence, les entreprises opérant dans ou avec l’UE devront adopter un changement de paradigme en intégrant la conformité réglementaire dans le processus de conception de leurs systèmes ou produit d’IA. Chaque étape de la production logicielle de la modélisation à la maintenance devra donc prendre en compte les exigences de cette loi. Les IA déjà déployées sont également soumises à l’AI Act et à son processus de conformité.
Cette loi professionnalise donc le développement de l'IA, en imposant des exigences techniques et éthiques tangibles.
L’EUROPE SE TIRE-T-ELLE UNE BALLE DANS LE PIED ?
Pour beaucoup, le mot régulation est synonyme d’obstacle au progrès, mais toute innovation n’est pas progrès que si elle ne va pas dans le bon sens. Concernant l’innovation, l’AI Act ne cherche ni à la freiner ni à l’arrêter, mais simplement à la diriger dans la bonne direction. De nombreux acteurs dans le développement de l’intelligence artificiel ne seront que modérément impacté par l’implémentation de cette nouvelle régulation. Tous les secteurs de recherches utilisant des IA ne verront leur charge de travail augmenter que marginalement ; un faible prix à payer pour la sérénité qu’offre ce règlement.
Malheureusement, l’introduction d’une réglementation dans un marché largement dérégulé peut présenter son lot de défis et préoccupations, en particulier si seule une portion de ce marché n’y est contrainte. En effet, le coût élevé de mise en conformité pourrait pénaliser les PME qui devraient consacrer une part proportionnellement plus grande de leur chiffre d'affaires annuel au respect des obligations découlant de la loi sur l'IA, réduisant ainsi leur avantage concurrentiel.
L’argument le plus retentissant est le ralentissement de l'innovation, en particulier dans les catégories d'IA à haut risque, où les obstacles bureaucratiques et la lenteur des processus d'approbation pourraient retarder la mise sur le marché.
Les développeurs d’IA dans l'UE pourraient être confrontés à un frein réglementaire qui inhiberait l'itération et l'expérimentation rapides créant une disparité dans la vitesse d'innovation par rapport à d’autres états non-soumis à l’AI Act tels que les États-Unis ou la Chine. Cette disparité créerait un fossé grandissant de exponentiellement et pouvant potentiellement désavantager tous les secteurs économiques de l’UE.
Naturellement, l’UE, le comité et le panel d’experts sont pleinement conscients de ces enjeux et travaillent d’arrache-pied pour trouver des solutions et proposent continuellement des alternatives pour remédier aux désavantages que peut présenter cette nouvelle loi.
Mais cela est sans compter toutes entreprises (européenne ou non) souhaitant accéder au marché européen devront se conformer à ce nouveau règlement. Les géants de la technologie comme les GAFA, Microsoft et OpenAI auront gros à perdre s’ils ne s’alignent pas sur les règlements européens. En faisant plier ces acteurs majeurs, l’AI Act pourrait devenir une référence internationale pour des régulations futures.
Elle introduirait une nouvelle forme de souveraineté technologique européenne, centrée sur la sécurité, la transparence, et les droits fondamentaux.
PRUDENCE EST MÈRE DE SURETÉ
Comme évoqué au début de cet article, le développement des IA est exponentiel. Cela peut s’expliquer par le fait que les nouveaux moyens offerts par cette technologie servent eux-mêmes au développement de celle-ci. Ce cercle vertueux crée un sentiment d’urgence en considérant que s’il y a des dérives, elles pourraient très vite prendre des proportions dantesques.
En définitive, considérant la progression exponentielle de l’intelligence artificielle, l’Europe ne prend pas les devants, mais s’assure de ne pas être dépassée par les événements en introduisant des garde-fous à une progression qui offrent autant d’opportunités inégalées positives que négatives. Quand les chances de gagner égalent celles de perdre, personne de raisonnable prendrait le pari. L’intelligence artificielle est un outil magnifique, certes, mais un outil à double tranchant dont l’impact peut être autant aurifique qu’horrifique. Discriminer entre ses avantages et ses inconvénients ne sera jamais facile, mais ne peut pas être délégué ultérieurement. Il s’agit là de mettre un cadre au plus vite afin d’éviter les dérives qui, elles aussi, seront exponentielles. Les législations dansent toujours sur un fil entre contrôle et libéralisation ; aucun absolu n’est acceptable, mais perdre l’équilibre est intolérable et pour garder son équilibre, il est plus simple de faire des ajustements mineurs réguliers que d’essayer de corriger le tir « plus tard ». Ainsi, les régulations sont critiquées au moment de leur création, mais une écrasante majorité sont saluées par les générations futures.
EN CONCLUSION
Face à l’essor fulgurant de l’intelligence artificielle, l’Union européenne a choisi de ne pas rester spectatrice : elle se positionne en précurseur en instaurant un cadre réglementaire ambitieux, l’AI Act, destiné à encadrer de manière proactive l’innovation technologique. Cette législation impose aux développeurs et déployeurs d’IA d’intégrer, dès la conception, des principes d’éthique, de sécurité et de transparence, selon un système de classification basé sur les risques. Elle oblige à repenser l’ingénierie logicielle à travers une approche fondée sur l’explicabilité, la traçabilité et la responsabilité.
Ce règlement, sans équivalent à ce jour, ne freine pas le progrès, mais cherche à canaliser son énergie brute dans une direction constructive et durable. Il représente une étape décisive vers une souveraineté technologique européenne, tout en envoyant un signal fort au reste du monde : l’innovation ne saurait s’affranchir de la conscience.
Certes, toute régulation implique des efforts d’adaptation, notamment pour les petites structures ou les projets à forte intensité algorithmique. Mais à long terme, l’instauration d’un environnement de confiance bénéficiera à l’ensemble de l’écosystème numérique, tant pour les entreprises que pour les citoyens. Dans un contexte où les usages de l’IA peuvent transformer en profondeur nos sociétés, ne pas réguler serait un pari hasardeux. À l’inverse, anticiper ses dérives potentielles par des garde-fous clairs et évolutifs est un choix de maturité politique.
Ainsi, l’Europe ne tente pas de freiner l’avenir, mais de lui donner une boussole.



Commentaires