Accéder au contenu principal

L'Europe se dote du premier cadre législatif au monde sur l'intelligence artificielle afin de garantir les droits fondamentaux et les valeurs européennes

Depuis le 1er Aout 2024, l'Europe s'est dotée d'un règlement sur l'intelligence artificielle.

Le règlement européen sur l’intelligence artificielle, également connu sous le nom d'AI Act, est le premier cadre législatif au monde qui encadre le développement, la mise sur le marché et l’utilisation des systèmes d’IA. 

L'AI ACT fixe des règles claires pour encadrer l’utilisation des systèmes d’IA afin de garantir la sécurité, la santé et la protection des droits fondamentaux des personnes qui pourraient être impactées par ceux-ci.

Il s’appuie sur une approche basée sur les risques, catégorisant les systèmes d’IA selon leur impact potentiel, de risque minimal à inacceptable. En plus de protéger les citoyens et de limiter les usages nuisibles, le règlement encourage l’innovation, notamment pour les petites et moyennes entreprises (PME), et vise à renforcer la confiance dans ces nouveaux usages en pleine expansion.

Les pratiques inacceptables sont strictement interdites

Il prohibe la notation sociale par les autorités publiques. L’identification biométrique à distance en temps réel dans les lieux publics est également interdite, sauf dans des cas exceptionnels, comme les enquêtes pour des infractions graves. L'exploitation de la vulnérabilité des personnes (enfants, populations fragiles), pour influencer leur comportement de manière nuisible, est proscrite. Enfin, les pratiques manipulatrices visant à tromper les utilisateurs à leur insu sont également interdites.

Les systèmes d’IA à haut risque doivent être surveillés

Pour les systèmes considérés comme présentant un risque élevé, comme ceux utilisés dans la biométrie, l’éducation ou l’accès à l’emploi, des exigences strictes sont imposées. Ces systèmes doivent être rigoureusement testés avant leur mise sur le marché et surveillés tout au long de leur utilisation. Il est également obligatoire de prévoir une supervision humaine pour éviter que des décisions importantes soient prises uniquement par des machines.

Les systèmes d’IA à risque inacceptable. Soit tout système considéré comme une menace pour les personnes. Ces derniers peuvent comprendre : une manipulation de personnes ou de groupes de personnes spécifiquement vulnérables, à l’instar de jouets activés par la voix, qui peuvent engendrer des comportements dangereux chez les enfants ; la notation sociale (classement des personnes en fonction de leur situation socio-économique, de leur comportement, valeurs, etc.) ; une catégorisation et une identification biométrique des personnes, y compris en temps réel et à distance (par exemple, la reconnaissance faciale). Ces systèmes sont dorénavant proscrits dans l’Union européenne.  

Les systèmes d’IA à risque élevé : tout système ou modèle d’IA présentant des risques pour la santé, la sécurité et les droits fondamentaux des personnes. Plus largement, les systèmes constituant des profils et traitant automatiquement des données personnelles pour évaluer la vie d'une personne (performances professionnelles, situation économique, préférences, localisation, etc.) sont considérés à haut risque et sont donc visés par cette classification. Sont concernés, entre autres, les SIA impliqués dans le fonctionnement d’infrastructures critiques où la sécurité des citoyens est en jeu (ex. les transports, l’approvisionnement en eau, en gaz, en électricité, etc.), dans les services privés et publics (ex. évaluation des appels d’urgence, le triage des patients urgents, l’évaluation de la solvabilité, etc.), la formation éducative et professionnelle (affectation aux établissements, évaluation des résultats  scolaires, etc.), l’emploi (IA utilisée dans le recrutement ou la sélection de candidats, etc.) ou encore l’application de la loi et des décisions de justice (évaluation du risque de délinquance ou de récidive, profilage, etc.). Des exceptions sont évidemment prévues : recherche d’un disparu, prévention d’une menace terroriste imminente, etc. 

Les systèmes d’IA à risque limité, comme les chatbots, les systèmes de recommandations ou les « deepfakes », doivent être transparents et fournir à leurs utilisateurs des informations sur le contenu généré par IA avec lequel ils interagissent, de même pour des textes générés par IA délivrant une information d’intérêt public.  

Les systèmes d'IA doivent être transparents

Le règlement met aussi l’accent sur la transparence. Les systèmes d’IA qui interagissent directement avec des utilisateurs, comme les chatbots ou les outils génératifs (capables de créer des images ou des vidéos), doivent signaler clairement que le contenu produit est issu d’une IA. Cela permet aux utilisateurs de savoir avec quoi ils interagissent.

Le règlement sur l'IA concerne toute organisation, qu'elle soit une entreprise, une association ou une administration, qui fournit, importe, distribue ou déploie des systèmes ou modèles d'intelligence artificielle encadrés par le règlement.

Cela inclut les entités établies dans l'Union européenne (UE), ainsi que celles situées en dehors de l'Union, dès lors que leurs produits sont utilisés ou distribués dans l'UE.

Les acteurs particulièrement concernés sont ceux qui fournissent des systèmes d'IA dits « à haut risque » dans l'UE.

Sources : UE, Ministère de l'économie et de la souveraineté industrielle et numérique, BPI France.

 

 


Date de publication
21 Juillet 2025