AVIS RELATIF À L’IMPACT DE L’INTELLIGENCE ARTIFICIELLE SUR LES DROITS FONDAMENT

AVIS RELATIF À L’IMPACT DE L’INTELLIGENCE ARTIFICIELLE SUR LES DROITS FONDAMENTAUX 7 AVRIL 2022 AVISlogo de la CNCDH A - 2022 - 6 A - 2022 - 6 • Avis relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux 2 Avis relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux a été adopté lors de l'Assemblée plénière du 7 avril 2022. (Adoption à l'unanimité) Alors que les recherches sur l’intelligence artificielle (IA) et la mise en œuvre de ses applications pratiques se développent, la réglementation actuelle demeure lacunaire pour endiguer les atteintes possiblement majeures aux droits fondamentaux. Dans le contexte de l’adoption prochaine de la proposition de règlement de l’UE sur le sujet, et des travaux en cours au sein du Conseil de l’Europe, la CNCDH invite les pouvoirs publics à promouvoir un encadrement juridique ambitieux en la matière. Elle recommande, d’une part, d’interdire certains usages de l’IA jugés trop attentatoires aux droits fondamentaux, tels que le scoring social ou l’identification biométrique à distance des personnes dans l’espace public et les lieux accessibles au public. D’autre part, elle recommande de faire peser sur les utilisateurs d’un système d’IA des exigences en mesure de garantir le respect des droits fondamentaux : une étude d’impact, une consultation des parties prenantes, une supervision du système tout au long de son cycle de vie. La CNCDH appelle enfin à reconnaître des droits aux personnes ayant fait l’objet d’une décision impliquant un algorithme, notamment le droit à une intervention humaine dans le processus de décision, ou encore un droit au paramétrage des critères de fonctionnement du système d’IA. RÉSUMÉ. A - 2022 - 6 • Avis relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux 3 TABLE DES MATIÈRES. Introduction. 4 1. Les lignes rouges. 9 1.1. Les apports et les limites des interdictions posées par la proposition de règlement UE. 9 1.2. La nécessité d’étendre l’interdiction à d’autres domaines. 12 1.2.1. L’IA en justice. 13 1.2.2. L’IA et la reconnaissance des émotions. 14 2. Un encadrement garant du respect des droits fondamentaux. 15 2.1. Un contrôle à tous les stades de développement du système IA. 15 2.1.1. Une étude d’impact sur les droits fondamentaux : un préalable nécessaire. 16 2.1.2 Une supervision du système tout au long du cycle de vie. 19 2.1.3 Une formation et une sensibilisation aux enjeux de l’IA. 22 2.2. Des garanties du respect des droits fondamentaux à l’égard des décisions individuelles. 23 2.2.1. Une intervention humaine garante de la prise en compte des spécificités individuelles. 23 2.2.2. Une information garante de la dignité de la personne humaine. 26 Synthèse des recommandations. 30 Liste des personnes auditionnées. 33 A - 2022 - 6 • Avis relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux 4 Introduction. 1. Depuis quelque temps déjà, ce qu’il est désormais courant d’appeler « intelligence artificielle » ou « IA » agit au cœur du quotidien de chacun : propositions de contenu sur les réseaux sociaux ou les plateformes en ligne, accès à des applications ou à des lieux par authentification biométrique, diagnostics médicaux automatisés, etc. Elle fait cependant l’objet d’un engouement particulier depuis plusieurs années, en profitant d’investissements publics et privés massifs. Si certains la placent en effet au cœur d’une « nouvelle révolution industrielle », d’autres s’inquiètent d’une nouvelle vague d’automatisation des activités jusque-là réservées à l’être humain et, plus largement, des dérives d’une nouvelle gouvernance par les données, ainsi que, plus largement, d’atteintes possiblement majeures aux droits fondamentaux, sans compter son impact croissant sur l’environnement. 2. À titre liminaire, la Commission nationale consultative des droits de l’homme (CNCDH) tient à exprimer ses réserves à l’égard de la terminologie usitée en la matière. Elle observe en effet un excès d’anthropomorphisation dans les termes employés, à commencer par celui de l’« intelligence artificielle », mais également lorsqu’il est question de « réseaux de neurones », d’« apprentissage profond », etc. Cela engendre des confusions sur les possibilités réelles offertes par des systèmes de traitement de données, qui reposent sur des procédures codées dans des systèmes informatiques : il s’agit avant tout de mathématiques. L’ensemble des acteurs, tant du secteur public que du secteur privé, devrait donc s’affranchir de cette expression en raison de son impact psychologique, source de réticences ou au contraire de confiance et d’acceptation exagérées. C’est pourquoi la CNCDH recommande que les institutions publiques et les médias privilégient des expressions plus neutres, telles que des « systèmes algorithmiques d’aide à la décision » (SAAD). Néanmoins, pour des raisons de commodité rédactionnelle, et parce qu’il s’agit de l’usage actuellement consacré, la CNCDH fera dans cet avis référence à l’« IA ». Recommandation n°1 : La CNCDH recommande de privilégier, dans la communication institutionnelle, une terminologie plus neutre et objective que l’expression « intelligence artificielle », telle celle de « système algorithmique d’aide à la décision ». 3. Ce vocable recouvre, plus précisément, des technologies informatiques qui reposent sur des logiques de fonctionnement différentes : on distingue principalement l’IA symbolique (ou cognitiviste) de l’IA connexionniste. La première suppose de programmer une série d’instructions explicites et univoques – autrement dit un algorithme – appelées à donner un résultat, prévisible parce qu’il se présente comme le traitement logique des données rentrées dans le système. La seconde, d’apparition plus récente, repose sur un autre type d’algorithme, non plus axé sur une approche logique A - 2022 - 6 • Avis relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux 5 du traitement de l’information mais sur une approche probabiliste : les programmeurs conçoivent un algorithme d’apprentissage et soumettent à l’ordinateur une série de données (data set) à partir desquelles il va « apprendre » ou, plus exactement, inférer des règles. Cet apprentissage peut être supervisé ou non supervisé : dans le premier cas, les données utilisées pour l’apprentissage sont étiquetées, tandis que dans le second cas elles sont « brutes ». Dans cette dernière hypothèse, l’apprentissage machine établit des corrélations entre les informations qui ont alimenté le système. 4. Ce dernier type d’apprentissage, l’apprentissage machine, soulève des enjeux inédits par rapport à l’IA symbolique. Tandis que les instructions codées dans un logiciel « classique » peuvent aisément être communiquées (encore que la compréhension du système puisse être rendue malaisée lorsque ces instructions sont nombreuses et les données traitées volumineuses, comme c’est le cas par exemple de la plateforme en ligne d'admission dans l'enseignement supérieur, Parcoursup), le modèle auquel parvient la machine au terme de son apprentissage peut plus ou moins aisément faire l’objet d’une information, étant donné que les concepteurs du système sont dans certains cas extrêmes (en matière de deep learning notamment) bien incapables de connaître le modèle de fonctionnement auquel est parvenue la machine pour obtenir ses résultats. 5. Si l’IA pourrait permettre, selon certains, d’« activer nos droits fondamentaux »1, elle présente toutefois des risques incontestables pour ces derniers. Au niveau national, la Commission nationale de l’informatique et des libertés (CNIL) a publié en 2017 un rapport sur les algorithmes, fruit d’une vaste consultation auprès d’acteurs du secteur et de citoyens, face à la nécessité de « permettre à l’homme de garder la main »2, et a également axé sa réflexion sur certaines applications particulières de l’IA3. En 2017, encore, le Défenseur des droits alertait sur les risques de discrimination engendrés par l’utilisation d’algorithmes dans le cadre de la lutte contre la fraude aux prestations sociales, en ciblant des catégories de personnes à contrôler en priorité4. Depuis, le Défenseur des droits mène une réflexion plus large sur l’IA et les discriminations5. Au niveau international, de nombreuses instances ont également alerté sur l’impact de 1 Selon la formule présente dans le rapport Villani : « Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne », 28 mars 2018. 2 CNIL, « Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle », décembre 2017. 3 CNIL, « Chatbots : des humains comme les autres », LINC, 3 février 2017 ; « Reconnaissance faciale : pour un débat à la hauteur des enjeux », 2019. Plus récemment, la CNIL a également mis en ligne un ensemble de ressources pour le grand public et les professionnels (www.cnil.fr/fr/intelligence-artificielle/la-cnil-publie-ressources- grand-public-professionnels), ainsi que plusieurs articles, notamment sur la sécurité des systèmes d’IA ou sur l’apprentissage fédéré (https://linc.cnil.fr/fr/dossier-intelligence-artificielle). 4 Défenseur des droits, « Lutte contre la fraude aux prestations sociales : à quel prix pour les droits des usagers », septembre 2017. 5 Défenseur des droits, en partenariat avec la CNIL, « Algorithmes : prévenir l’automatisation des discriminations », 2020. Plus récemment, le DDD a publié un rapport sur les technologies biométriques : « Technologies biométriques : l’impératif respect des droits fondamentaux », 2021. A - 2022 - 6 • Avis relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux 6 l’IA sur les droits fondamentaux6. En particulier, l’Agence des droits fondamentaux de l’Union européenne (FRA), et le Comité ad hoc sur l’intelligence artificielle (CAHAI), organe du Conseil de l’Europe chargé d’examiner les possibilités uploads/S4/ a-2022-6-intelligence-artificielle-et-droits-fondamentaux-avril-2022.pdf

  • 30
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager
  • Détails
  • Publié le Jul 04, 2022
  • Catégorie Law / Droit
  • Langue French
  • Taille du fichier 1.8618MB