1 L’IA du Quotidien peut elle être Éthique ? Loyauté des Algorithmes d’Apprenti

1 L’IA du Quotidien peut elle être Éthique ? Loyauté des Algorithmes d’Apprentissage Automatique Philippe Besse1, Céline Castets-Renard2, Aurélien Garivier3 & Jean-Michel Loubes4 Résumé Associant données massives (big data) et algorithmes d’apprentissage automatique (machine learning), la puissance des outils de décision automatique suscite autant d’espoir que de craintes. De nombreux textes législatifs européens (RGPD) et français récemment promulgués tentent d’encadrer les usages de ces outils. Laissant de côté les problèmes bien identifiés de confidentialité des données et ceux d’entrave à la concurrence, nous nous focalisons sur les risques de discrimination, les problèmes de transparence et ceux de qualité des décisions algo- rithmiques. La mise en perspective détaillée des textes juridiques, face à la complexité et l’opacité des algorithmes d’apprentissage, révèle la nécessité d’importantes disruptions tech- nologiques que ce soit pour détecter ou réduire le risque de discrimination ou pour répondre au droit à l’explication. La confiance des développeurs et surtout des usagers (citoyens, justi- ciables, clients) étant indispensable, les algorithmes exploitant des données personnelles se doivent d’être déployés dans un cadre éthique strict. En conclusion nous listons, pour ré- pondre à cette nécessité, quelques possibilités de contrôle à développer : institutionnel, charte éthique, audit externe attaché à la délivrance d’un label. Mots clefs Intelligence artificielle, éthique, apprentissage automatique, discrimination, discrimi- nation impact assessment, droit à l’explication, qualité d’une décision automatique. 1 Université de Toulouse INSA, Institut de Mathématiques UMR CNRS 5219. 2 Université Toulouse Capitole, Institut de Recherche en Droit Européen, International et Comparé (IRDEIC). Membre de l’Institut Universitaire de France (IUF). 3 Ecole Normale Supérieure de Lyon, UMPA UMR CNRS 5569. 4 Université de Toulouse Paul Sabatier, Institut de Mathématiques UMR CNRS 5219. 2 Can Everyday AI be Ethical? Machine Learning Algorithm Fairness Abstract Combining big data and machine learning algorithms, the power of automatic decision tools induces as much hope as fear. Many recently enacted European legislation (GDPR) and French laws attempt to regulate the use of these tools. Leaving aside the well-identified prob- lems of data confidentiality and impediments to competition, we focus on the risks of discrim- ination, the problems of transparency and the quality of algorithmic decisions. The detailed perspective of the legal texts, faced with the complexity and opacity of the learning algo- rithms, reveals the need for important technological disruptions for the detection or reduction of the discrimination risk, and for addressing the right to obtain an explanation of the auto- matic decision. Since trust of the developers and above all of the users (citizens, litigants, cus- tomers) is essential, algorithms exploiting personal data must be deployed in a strict ethical framework. In conclusion, to answer this need, we list some ways of controls to be developed: institutional control, ethical charter, external audit attached to the issue of a label. Key-words Artificial intelligence, ethics, machine learning, discrimination impact assessment, right to explanation, quality of an automatic decision. 1 Introduction En 2017 la CNIL a initié un débat national sur le thème : « Ethique numérique : les al- gorithmes en débats » qui a donné lieu à la publication d’un rapport. Besse et al. (2017) y avait apporté leur contribution dont cet article reprend et développe la section 4 pour conti- nuer à faire avancer la réflexion sur le thème de la loyauté des décisions algorithmiques. Mandatée par le gouvernement, une commission présidée par Cédric Villani a elle aussi publié un rapport dans l’objectif est de « donner du sens à l’Intelligence artificielle » (IA). Comme le rapport de la CNIL, le rapport de la commission Villani consacre une large place aux questions éthiques soulevées par la généralisation de l’usage, au quotidien, d’algorithmes d’Intelligence Artificielle. La France n’est évidemment pas seule à se mobiliser sur cette question et les initiatives sont nombreuses dont celle du gouvernement britannique qui a publié un cadre éthique des données. Il n’est pas question d’aborder l’ensemble des algorithmes du vaste champ discipli- naire de l’IA mais de se focaliser sur ceux conduisant à des décisions impactant les personnes au quotidien : accès à la banque, l’assurance, la santé, l’emploi, les applications en matière judiciaire ou de police... Plus précisément cela concerne les algorithmes dits d’apprentissage automatique (machine learning) entraînés sur de vastes ensembles de données à minimiser certains critères mathématiques ou plus précisément statistique comme un taux d’erreur moyen afin d’automatiser la production de décisions. 3 Schématiquement les questions éthiques concernent principalement les problèmes de confidentialité des données à la base de l’apprentissage, d’entrave à la concurrence, de trans- parence ou explicabilité des décisions, de leurs risques de biais discriminatoires envers des individus ou groupes sensibles. Avec le déploiement du RGPD (Règlement Général européen sur la Protection des Données n°2016/679/UE), la CNIL focalise son action sur son cœur de métier, c’est-à-dire plus précisément sur la protection des données personnelles en proposant aux entreprises con- cernées des outils de mesure à même d’évaluer les risques encourus en matière de confiden- tialité : le DPIA ou data protection impact assessment. Il appartient en effet aux entreprises d’être proactives sur ce sujet pour être en mesure de montrer, en cas de contrôle, qu’elles maî- trisent la sécurité des données personnelles dans toute la chaîne de traitement, de l’acquisition à la décision. La constatation de défaillances sera l’occasion de très lourdes sanctions finan- cières : jusqu’à 20M€ et majorée pour une entreprise à 4 % du chiffre d’affaire annuel mon- dial (le plus élevé des deux chiffres devant être retenu). De son côté, suite à l’adoption de la loi n° 1321-2016 pour une République numérique, qui tient notamment compte de quelques dispositions du RGPD, l’INRIA a proposé un projet de plateforme collaborative (TransAlgo) qui permettrait d’archiver des outils automatiques produits par cinq groupes de travail : 1. Moteurs de classement de l'information et systèmes de recommandation ; 2. Apprentissage : robustesse aux biais des données et des algorithmes, reproductibilité, explication et intelligibilité ; 3. Protection des données et contrôle d'usage des données ; 4. Métrologie des réseaux de communication ; 5. Influence, désinformation, impersonification (photos, voix, agent conversationnel), nudging, fact-checking. Nous proposons dans cet article des éléments de réflexion et outils pour faire avancer le point 2 sur les risques de discrimination, ainsi que l’explicabilité, la répétabilité ou la quali- té des décisions algorithmiques ou automatiques. - Discrimination : La loi protège les individus contre des pratiques discriminatoires, mais comment peut-elle être opposée à des algorithmes ? Elle n’évoque pas la discri- mination de groupe mais le rapport Villani appelle de ses vœux, dans la section 5, la création d’un DIA (discrimination impact assessment) sans pour autant faire référence à une littérature américaine déjà abondante sur le sujet. Quels sont les outils dispo- nibles à ce propos ? - Explicabilité : L’analyse fine des textes juridiques montre que les obligations légales sont relativement peu contraignantes en matière de transparence des algorithmes. Néanmoins, l’acceptation de l’IA et de décisions automatiques impactant des per- sonnes, requiert impérativement des éléments de transparence ; c’est dans ce cas le droit à l’explication d’une décision algorithmique. Quels peuvent en être les termes ? - Qualité: la loi française, comme le RGPD, n’évoquent à aucun moment des notions de qualité ou risque d’erreur d’une décision automatique. Comme pour les sondages, il 4 serait pertinent que la loi oblige à informer l’usager des risques associés à l’exécution d’un algorithme d’apprentissage automatique. Quel en est le contexte ? Comme le rappelle le rapport Villani, les thèmes de l’éthique ont investi l’espace entre ce que permettent les nouvelles technologies issues de l’IA et ce qui est permis par la loi ; il insiste en notant que le « temps du droit est bien plus long que celui du code ». Aussi, en l’absence de textes législatifs plus précis, alors que la notion de loyauté d’une plateforme est présente dans la loi pour une République numérique, les principes de loyauté des algo- rithmes deviennent des questions éthiques et juridiques, pas simplement par altruisme de la part des entreprises commerciales, mais pour le développement d’une confiance indispensable du grand public envers le déploiement de ces technologies. Appréhender les problèmes soule- vés par la généralisation du compteur Linky, ceux liés à la mise en place de ParcoursSup ou encore les déboire en bourse de Facebook à la suite de l’affaire Cambridge Analytica en sont de bons exemples. Il importe, en premier lieu, de pouvoir mieux définir comment des notions d’éthique peuvent se traduire en termes techniques. La section 2 suivante décrit plus précisément les algorithmes d’apprentissage statis- tique, branche de l’IA, concernés par cet article. La section 3 décrit le contexte juridique et les moyens disponibles pour un individu ou un groupe de se protéger en basant la définition d’une mesure d’impact disproportionné (disparate impact) de discrimination sur celle de la littérature et ses récents développements, notamment pour corriger un biais d’apprentissage. La section 4 aborde le droit à l’explication au regard des capacités techniques des modèles statistiques et algorithmes d’apprentissage très généralement utilisés. La section 5 rappelle comment sont estimés et minimisés des risques d’erreur ; les conséquences d’une erreur de 30 % uploads/Management/ l-x27-ia-du-quotidien-peut-elle-etre-ethique-loyaute-des-algorithmes-d-x27-apprentissage-automatique.pdf

  • 35
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager
  • Détails
  • Publié le Jui 10, 2021
  • Catégorie Management
  • Langue French
  • Taille du fichier 0.4854MB