Les lignes directrices sur les pratiques interdites en matière d’IA : décryptage du Règlement sur l’IA
France > Droit privé > Droit du numérique > Intelligence artificielle > Protection des données personnelles
Bartolomé Martín et Stéphanie Faber avocate au barreau de Paris [1]
Mai 2025
Traduction par Stéphanie Faber de l’article The European Commission’s Guidance on Prohibited AI Practices: Unraveling the AI Act[2] écrit par Bartolomé Martin
La Commission européenne a publié, le 4 février 2025, les très attendues Lignes Directrices sur les Pratiques jugées Inacceptables en matière d’Intelligence Artificielle (IA) « LDPIIA » – qui à la date de cet article ne sont disponibles qu’en langue anglaise Commission Guidelines on prohibited artificial intelligence practices established by Regulation (EU) 2024/1689 (AI Act) [3]. Cette publication est intervenue deux jours après l’entrée en vigueur des articles du Règlement sur l’IA (règlement (UE) 2024/1689)[4] « RIA » relatifs à ces pratiques et en parallèle des lignes directrices de la Commission sur la définition d’un système d’intelligence artificielle [1].
Il est appréciable que, tout en clarifiant la portée des pratiques interdites (ainsi que celles exclues de son champ d’application matériel), les LDPIIA abordent également des aspects plus généraux du RIA, offrant ainsi une sécurité juridique aux autorités, fournisseurs et déployeurs de systèmes ou de modèles d’IA dans l’application du texte.
Les LDPIIA précisent la portée de certains termes définis (telles que la « mise sur le marché », la « mise en service », le « fournisseur » ou le « déployeur »), et des exclusions du champ d’application du RIA. Elles apportent aussi des précisions sur le sens de certains termes non définis dans le RIA (comme l’« utilisation » d’un système d’IA, la « sécurité nationale », les « techniques délibérément manipulatrices » ou les « techniques trompeuses »). Elles adoptent également une approche proportionnée en ce qui concerne la répartition des responsabilités entre fournisseurs et déployeurs, précisant que ces responsabilités doivent être assumées par l’acteur le mieux placé dans la chaîne de valeur.
Les lignes directrices abordent également l’articulation du RIA avec d’autres législations de l’Union européenne, expliquant que bien que le RIA s’applique comme lex specialis par rapport aux autres actes législatifs primaires ou secondaires de l’Union (tels que le RGPD ou la législation de l’UE en matière de protection et de sécurité des consommateurs), il reste possible que certaines pratiques autorisées par le RIA soient interdites par d’autres textes. Autrement dit, le RIA vient compléter, et non remplacer, les autres législations européennes.
En raison de cette complémentarité des textes, les fournisseurs et déployeurs de systèmes d’IA sont confrontés à certains défis.
Par exemple, dans son Avis 28/2024, adopté en décembre 2024, sur certains aspects du traitement de données à caractère personnel dans le contexte des modèles d’IA [5] (qui n’est disponible qu’en anglais à la date de cet article), le Comité Européen de la Protection des Données (CEPD/EDPB) examine les prérequis pour que le traitement de données personnelles puisse se fonder sur la base juridique de « l’intérêt légitime ». Le CEPD indique que l’évaluation se fait généralement de façon distincte pour la phase de développement et la phase de déploiement. Cependant, il considère aussi que, dans certains cas, certains des objectifs envisagés pour la phase de déploiement peuvent être connus dès la phase de développement et, dans ce cas, doivent être pris en compte dès cette phase initiale dans l’évaluation de l’intérêt légitime.
La Commission européenne précise pour sa part, à la section 2.5.3 des LDPIIA, que le RIA ne s’applique pas aux activités de recherche, de test (sauf en conditions réelles) ou de développement portant sur des systèmes ou des modèles d’IA avant leur mise sur le marché ou leur mise en service (c’est-à-dire pendant la phase d’entraînement). Les LDPIIA donnent également des exemples de pratiques non interdites (et donc permises), qui, toutefois, sont peu susceptibles de pouvoir être fondées sur l’intérêt légitime des fournisseurs et/ou utilisateurs futurs.
Les pratiques interdites
1. Techniques subliminales, délibérément manipulatrices ou trompeuses (article 5, aliéna 1, points a) et b) du RIA)
Cette interdiction concerne les techniques subliminales, délibérément manipulatrices ou trompeuses causant un préjudice significatif et altérant de manière substantielle le comportement de personnes physiques ou de groupes de personnes, ou exploitant des vulnérabilités dues à l’âge, au handicap ou à la situation sociale ou économique spécifique.
La Commission fournit des exemples de techniques subliminales (messages visuels ou auditifs subliminaux, signaux subvisuels ou subaudibles, images dissimulées, diversion de l’attention, manipulation temporelle) et précise que le développement rapide de technologies telles que les interfaces cerveau-ordinateur ou la réalité virtuelle accroît le risque de manipulation subliminale sophistiquée.
S’agissant des techniques délibérément manipulatrices (visant à exploiter les biais cognitifs ou les vulnérabilités psychologiques), la Commission souligne que, pour que la pratique soit interdite, le fournisseur ou le déployeur doit avoir l’intention de causer un préjudice significatif (physique, psychologique ou économique). Cela correspond bien au caractère cumulatif des éléments prévus à l’article 5, aliéna 1, point a), mais pourrait laisser entendre qu’une manipulation non délibérément préjudiciable (par exemple, visant à améliorer le service pour l’utilisateur) resterait licite. Les LDPIIA évoquent ici la notion de « persuasion licite », qui respecte la transparence et l’autonomie individuelle.
Concernant les techniques trompeuses, il est précisé que l’obligation de signaler les « deepfakes » et certaines publications générées par l’IA sur des sujets d’intérêt général, ou encore de concevoir le système de sorte que les utilisateurs sachent qu’ils interagissent avec une IA (article 50, aliéna 4), s’ajoute à cette interdiction, qui a une portée plus restreinte.
En lien avec d’autres textes, notamment le DSA, la Commission reconnaît que les « dark patterns » ou « conceptions trompeuses » peuvent constituer une technique manipulatrice ou trompeuse lorsqu’ils causent un préjudice significatif.
Elle insiste aussi sur la nécessité d’un lien de causalité raisonnable entre la technique déployée et l’altération substantielle de la capacité des personnes à prendre des décisions autonomes et éclairées.
2. Notation sociale (article 5, aliéna 1, point c) du RIA)
La notation sociale est définie comme l’évaluation ou la classification de personnes physiques ou de groupes de personnes au cours d’une période donnée en fonction de leur comportement social ou de caractéristiques personnelles ou de personnalité, conduisant à un traitement préjudiciable ou défavorable des contextes sociaux dissociés ou à in traitement injustifié ou disproportionné. La Commission précise que le simple fait de procéder au classement d’individus sur cette base déclenche l’interdiction, et que la notion d’évaluation inclut le « profilage » (en particulier les analyses/prédictions de comportements ou d’intérêts).
Le traitement défavorable ou préjudiciable peut résulter d’une combinaison du système avec d’autres évaluations humaines, sous réserve cependant que le système d’IA ait joué un rôle pertinent dans l’évaluation. L’interdiction s’applique même si le traitement préjudiciable est réalisé par un tiers utilisant les scores.
La Commission déclare qu’il est toutefois permis de générer des scores sociaux à des fins spécifiques, dans le contexte initial de collecte des données, à condition que les conséquences négatives soient justifiées et proportionnées en fonction de la sévérité du score social.
3. Évaluation et prédiction du risque d’infractions pénales (article 5, aliéna 1, point d))
Les pratiques d’évaluation ou de prédiction du risque à commettre une infraction pénale ne sont interdites que si la prédiction repose uniquement sur la base du « profilage » d’une personne physique ou l’évaluation de ses traits de personnalité ou caractéristiques. Pour éviter un contournement de l’interdiction, tout autre élément pris en compte doit être réel, substantiel et pertinent (par exemple, un fait objectif directement lié à une activité criminelle, en particulier lorsqu’il y a une intervention humaine).
4. Moissonnage non ciblée d’images faciales (article 5, aliéna 1, point e))
L’interdiction vise la création ou le développement de bases de données de reconnaissance faciale (centralisées, décentralisées ou temporaires) par le moissonnage non ciblé d’images provenant de l’internet ou de systèmes de vidéosurveillance.
Elle ne s’applique pas à l’extraction de données biométriques autres que faciales, ni à des bases utilisées à d’autres fins (ex : génération de visages fictifs). L’utilisation de bases existantes avant l’entrée en vigueur du RIA demeure soumise au droit européen applicable en matière de protection des données personnelles.
5. Inférence des émotions (article 5, aliéna 1, point f))
Cette interdiction concerne les systèmes d’IA visant à inférer les émotions (au sens large) d’une personne physique à partir de données biométriques, sur le lieu de travail ou dans l’enseignement, sauf lorsque l’utilisation du système d’IA est destinée à être mise en place ou mise sur le marché pour des raisons médicales ou de sécurité. Les systèmes non interdits sont considérés à haut risque et soumis à des obligations d’information (article 50, aliéna 3).
La Commission européenne fait référence ici à certaines clarifications contenues dans le RIA, concernant la portée de la notion d’émotion ou d’intention. La notion d’émotion n’inclut pas, par exemple, les états physiques comme la douleur ou la fatigue, ni les expressions ou gestes apparents, à moins qu’ils ne soient utilisés pour inférer ou déduire des émotions ou intentions.
De même, les notions de lieu de travail et d’établissement d’enseignement sont interprétées largement. Les États membres ont également la possibilité d’introduire des réglementations plus favorables aux travailleurs en ce qui concerne l’utilisation des systèmes d’IA par les employeurs.
Il est précisé que les utilisations thérapeutiques autorisées inclues les dispositifs médicaux marqués CE, et que la notion de sécurité se limite à la protection de la vie et de la santé et non à d’autres intérêts tels que la propriété.
6. Catégorisation biométrique fondée sur des caractéristiques « sensibles » (article 5, aliéna 1, point g))
Cette interdiction concerne la catégorisation biométrique (sauf lorsqu’elle est purement accessoire à un autre service commercial et strictement nécessaire pour des raisons techniques objectives) qui catégorise individuellement les personnes physiques sur la base de leurs données biométriques afin d’arriver à des déductions ou des inférences concernant leur race, leurs opinions politiques, leur affiliation à une organisation syndicale, leurs convictions religieuses ou philosophiques, leur vie sexuelle ou leur orientation sexuelle.
Cette interdiction ne couvre pas l’étiquetage ou le filtrage d’ensembles de données biométriques légalement acquises (telles que des images), y compris dans le domaine répressif (par exemple, à des fins de maintien de l’ordre, pour assurer une représentation démographique équitable).
7. Identification biométrique à distance en temps réel à des fins répressives (article 5, aliéna 1, point h))
La Commission européenne consacre une partie importante du LDPIIA au développement de cette pratique interdite, qui fait référence à l’utilisation de systèmes d’identification biométrique à distance, en temps réel (acronyme anglais « RIB »), dans des espaces accessibles au public à des fins répressives. Des exceptions fondées sur l’intérêt public peuvent être prévues par les États membres dans leur droit national.
Garanties et conditions d’application des exemptions aux pratiques interdites
Les LDPIIA se terminent par une partie consacrée aux garanties et conditions d’application des exemptions aux pratiques interdites. Ceci comprend notamment la réalisation d’une analyse d’impact des systèmes d’IA à haut risque sur les droits fondamentaux (acronyme anglais « FRIA »), l’enregistrement du système d’IA ou l’exigence d’une autorisation préalable. L’analyse d’impact vise à identifier l’impact que certains systèmes d’IA à haut risque, y compris les systèmes d’identification biométrique à distance en temps réel, peuvent avoir sur les droits fondamentaux. Ce type d’analyse d’impact ne se substitue pas mais vient en complément de l’analyse d’impact sur la protection des données personnelles (AIPD) qu’un responsable du traitement (c’est-à-dire la personne physique ou morale qui détermine les moyens et les finalités d’un traitement de données personnelles) doit réaliser. L’analyse d’impact du RIA a cependant une portée plus large puisqu’elle couvre l’ensemble des droits fondamentaux et donc non limitée au droit fondamental à la protection des données personnelle.
Références
- ↑ Lire notre article Qu’est-ce qu’un système d’IA ? Des précisions dans les lignes directrices de la Commission européenne