IA : quelles pratiques interdites ?

Artimon Perspectives

Le 4 février 2025, la Commission européenne a approuvé le contenu d’un projet de lignes directrices clarifiant l’application des interdictions en matière d’intelligence artificielle (IA) définies par le Règlement (UE) 2024/1689 également connu sous le nom d’AI Act. Ce cadre réglementaire, entré en vigueur le 1ᵉʳ août 2024, a pour objectif de garantir une utilisation éthique et sécurisée des systèmes d’IA au sein de l’Union européenne. L’adoption de ces lignes directrices a des répercussions significatives sur divers acteurs, notamment les entreprises technologiques, les développeurs d’IA, les consommateurs et les autorités de régulation.

L’AI Act repose sur une classification des systèmes d’IA en fonction de leur niveau de risque. Ce cadre réglementaire distingue plusieurs catégories :

  • Les systèmes à risque inacceptable, interdits en vertu de l’Article 5.
  • Les systèmes à haut risque, soumis à des exigences strictes en matière de transparence et de supervision humaine.
  • Les systèmes à risque limité, nécessitant une obligation d’information.
  • Les systèmes à risque minimal, ne faisant l’objet que de recommandations éthiques.

L’objectif est de concilier innovation technologique et protection des droits fondamentaux, en alignant la régulation sur une évaluation probabiliste des menaces systémiques posées par l’IA.

L’Article 96(1)(b) du règlement mandate la Commission pour établir des lignes directrices précisant l’interprétation des pratiques prohibées. Ces directives visent à assurer une application homogène et juridiquement robuste du cadre réglementaire, en explicitant les critères d’identification des violations des principes fondamentaux de l’Union européenne.

Ce projet de lignes directrices est d’autant plus critique que les interdictions seront directement applicables dès le 4 février 2025. Il est donc essentiel pour les acteurs du secteur de l’IA d’anticiper ces obligations afin d’aligner leurs développements sur les exigences normatives européennes.

Cette initiative illustre un changement structurel dans la gouvernance de l’IA, où la régulation repose sur des modèles de contrôle ex-ante, s’inspirant de cadres éprouvés tels que le principe de précaution en matière de sécurité technologique.

Reste à voir comment ces lignes directrices seront opérationnalisées dans les secteurs industriels et scientifiques, et dans quelle mesure elles influenceront les standards internationaux.

En effet, malgré les efforts de l’UE pour établir un cadre harmonisé, le paysage réglementaire mondial de l’IA demeure fragmenté. Des pays comme les États-Unis adoptent des approches étatiques, tandis que d’autres, tels que la Chine ou le Brésil, développent leurs propres législations axées sur des aspects spécifiques de l’IA.

Mais même au sein de l’UE, la réussite du règlement dépendra fortement de sa mise en œuvre uniforme à travers les États membres. Des défis pourraient surgir en matière de coordination entre les autorités nationales compétentes, ainsi que dans l’établissement de mécanismes efficaces de surveillance et de conformité.


En conclusion, les lignes directrices approuvées par la Commission européenne le 4 février 2025 apportent une clarification essentielle sur les interdictions en matière d’IA, affectant un large éventail d’acteurs. Si ces mesures renforcent la protection des consommateurs et établissent des normes éthiques élevées, il est crucial de trouver un équilibre pour ne pas freiner l’innovation technologique et maintenir la compétitivité des entreprises européennes sur la scène internationale.

En effet, l’IA est un domaine en constante évolution. Le cadre réglementaire actuel pourrait nécessiter des mises à jour régulières pour rester pertinent face aux avancées technologiques et aux nouveaux cas d’utilisation qui pourraient émerger. Dans un contexte où l’UE joue les allers-retours sur les normes, il reste en question la permanence de ce texte sur lequel beaucoup d’espoirs sont placés.

Articles similaires