Évolution des données Cas d’utilisation BI ou Big Data Les métiers du big data
Évolution des données Cas d’utilisation BI ou Big Data Les métiers du big data Architectures - - NoSQL Conception d’un système d’information : BI vs Big Data, extraction/stockage/analyse Approche - données disponibles Approche – besoins Légal Solutions et outils Processus Big Data – Solutions composantes de la pile Hadoop Gouvernance Éthique Concepts Modèles d’affaires Examen Intra 1. Retour sur le cours précédent et divers sujets : TP2, Examen final, … 2. Cours de réflexion : 1. Démocratie et dangers 2. Biais humains 3. Divers 4. Gouvernance des données 3. Examen formatif Derniers cours déjà https:/ /www.agiledss.com/fr/blogue/culture-data-secret-succes-projets-big-data https://fr.wikipedia.org/wiki/Le_Voyageur_contemplant_une_mer_de_nuages C’est le Far-West However, recent advancements in analytics and big data technology has widened the gap between what is possible and what is legally allowed, changing the balance of power between individuals and the data collectors. https://www.ibmbigdatahub.com/sites/default/files/whitepapers_reports_file/TCG%20Study%20Report%20- %20Ethics%20for%20BD%26A.pdf Ce qui est permis par la loi Ce qui est possible Loi Éthique 3V du Big Data Intelligence artificielle Framework éthique pour le Big Data les outils d’IA amplifient le pouvoir de l’analyse prédictive qui permet de tirer profit de l’accès aux données massives et qui rend possibles de nouvelles formes d’atteintes à la vie privée L’IA doit une grande partie de son efficacité à la quantité de données Qc/Ca : Privé : LRPDE/PIPEDA et LPRP Europe : RGPD/GDPR GDPR : règlement européen concernant la protection des données personnelles LRPDE : Loi sur la protection des renseignements personnels et les documents électroniques LPRP : Loi sur la protection des renseignements personnels Nous avons beaucoup parlé de données personnelles : - leur collecte (voire leur vol), - leur stockage (voire leur suppression), - leur utilisation. Si la grande connectivité des données, leur quantité mettent une grande pression, leur influence grandit de manière significative avec la présence de l’Intelligence Artificielle les outils d’IA amplifient le pouvoir de l’analyse prédictive qui permet de tirer profit de l’accès aux données massives et qui rend possibles de nouvelles formes d’atteintes à la vie privée La nature des algorithmes est importante, mais son efficacité doit aussi à - La quantité (et relative qualité) des données dont il dispose - La puissance de calcul dont il dispose La surveillance, le stockage et le traitement de mégadonnées parfois collectées par une approche Big Brother sont autant d’éléments qui peuvent amplifier des abus. Nous aborderons ce point plus tard : menaces et moyen de s’en prévenir Nous avons surtout abordé la question de protection de la vie privée, en partant de la loi, la façon dont elle responsabilise les individus et les entreprises puis en montrant que le Big Data et l’IA mettent une pression nouvelle et forte. Nous étendrons notre réflexion : « vol » d’identité, « vol » de volonté, « vol » de liberté de penser : « vol » de notre humanité ? - Notre cerveau est manipulable. - Société démocratique : la surveillance, l’influence ciblée et à grande échelle (bulles informationnelles), les fausses nouvelles - Entreprise comme lieu de décision : Responsabilité décisionnelle versus les algorithmes : déshumanisation des décisions - Notre cerveau/notre entreprise/notre société peut-elle résister Nous porterons notre attention sur trois principaux risques pour la démocratie : 1. La surveillance et son impact sur les citoyens; 2. Les bulles informationnelles et le microciblage politique (à travers le scandale Cambridge Analytica); 3. Les fausses informations : les Deepfakes https://www.lumni.fr/video/les-reseaux-sociaux-un- danger-pour-la-democratie https:/ /nouvelles.umontreal.ca/article/2018/11/27/les-algorithmes-des-risques-pour-la-democratie/ Le panoptique est un type d'architecture carcérale imaginée par le philosophe utilitariste Jeremy Bentham et son frère, Samuel Bentham, à la fin du xviiie siècle. L'objectif de la structure panoptique est de permettre à un gardien, logé dans une tour centrale, d'observer tous les prisonniers, enfermés dans des cellules individuelles autour de la tour, sans que ceux-ci puissent savoir s'ils sont observés. https://fr.wikipedia.org/wiki Tout laisse une trace digitale, difficile à détruire complètement. Big Brother : roman de George Orwell, 1984 (écrit en 1949) Il décrit une Grande-Bretagne trente ans après une guerre nucléaire entre l'Est et l'Ouest censée avoir eu lieu dans les années 1950 et où s'est instauré un régime de type totalitaire fortement inspiré à la fois du stalinisme et de certains éléments du nazisme. La liberté d'expression n’existe plus. Toutes les pensées sont minutieusement surveillées, et d’immenses affiches sont placardées dans les rues, indiquant à tous que « Big Brother vous regarde » (Big Brother is watching you). Qu’est-ce qui a changé aujourd’hui si on reprend les images précédentes : - L’échelle : mondiale : Big Brother voit plus, plus - La portée : Big Brother voit plus profond (deep learning), dans le passé, le présent et l’avenir - Les acteurs : de surveillance ne sont plus uniquement les gouvernements et les agences - Les actions : surveiller pour régner par influence, mais plus fine et plus personnalisée - Notre propre … indifférence ? Croyance : je n’ai rien à cacher ? vidéo du documentaire franco-allemand Nothing to Hide (2017) [1 h. 26 min.] Le documentaire examine la question de la surveillance des citoyens et son degré d'acceptation par la population à travers l'argument « je n’ai rien à cacher ». Au moyen d’une expérience concrète, ce documentaire montre entre autres qu’il est possible d’en apprendre beaucoup sur une personne seulement à partir des métadonnées de son téléphone. https:/ /www.youtube.com/watch?v=djbwzEIv7gE Film intéressant : Snowden : un lanceur d’alerte https:/ /www.youtube.com/watch?v=QlSAiI3xMh4 Sa plus grande crainte : que rien ne change Le scandale Cambridge Analytica réfère au scandale qui a été mis à jour en 2015 par le journal The Guardian et confirmé par le lanceur d’alerte Christopher Wylie — ex-employé de Cambridge Analytica — en 2018. Le scandale consiste en l’utilisation frauduleuse des données personnelles d’environ 87 millionsd’utilisateurs Facebook à des fins politiques Voici cinq exemples de publicités adaptées selon le type de personnalité en vue d’influencer leurs intentions de vote. Profil de la personne « névrosée » : https:/ /youtu.be/luGIAaAv0lw Profil de la personne « agréable » : https:/ /youtu.be/s7XslMzYqiA Profil de la personne « ouverte » : https:/ /youtu.be/BkOCAWFUAyU Profil de la personne « extravertie » : https:/ /youtu.be/3d6azebNI7Q Profil de la personne « consciencieuse » : https:/ /youtu.be/fmLFJi2vaWw 30 secondes chaque vidéo Cambridge Analytica a utilisé pour sa part le profilage psychographique à des fins politiques, pour - identifier des « profils » d’électeurs - influencer leur vote par l’utilisation de publicités micro-ciblées. Cette firme a travaillé pour la campagne électorale du politicien Ted Cruz et de Donald Trump lors des élections présidentielles de 2016 en vue d’influencer les intentions de votes de plusieurs citoyens en plus d’avoir « joué un rôle crucial » dans le « Leave EU » lors du Brexit en 2016. De plus, selon Christopher Wylie, Cambridge Analytica aurait influencé le processus démocratique de plus de 200 élections au sein de pays en développement entre 2014-2016. Le modus operandi de la firme était de récolter le plus d’information possible sur les électeurs ciblés et ainsi créer des profils psychologiques à leur sujet. Cambridge Analytica prétendait détenir jusqu'à 5 000 points de données sur 220 millions d'Américains. Parmi les données récoltées, Cambridge Analytica a notamment obtenu les informations personnelles d’utilisateurs Facebook par l’entremise d’une application dénommée « This is your digital life ». Cette application a été développée par Aleksandr Kogan, jeune chercheur à l’Université de Cambridge. Bulle informationnelle (ou « bulle d’information numérique ») : situation dans laquelle se trouve une personne dont l’environnement numérique ne lui présente que certaines informations filtrées, généralement sur la base de ses préférences inférées à partir de son comportement en ligne et de ses interactions avec les autres utilisateurs. Ce sont les algorithmes qui agissent comme des « filtres » (filter buble) en sélectionnant l’information. Ce phénomène renforce les convictions et les biais des utilisateurs en ne les exposant pas à ce qui diffère de leurs orientations idéologiques. https://s3.amazonaws.com/libapps/accounts/305/images/1_BGDONVb9Ub- 9S9m78TWjzQ.jpeg Enjeux éthiques soulevés par les bulles informationnelles et le microciblage politique Les nouvelles réalités techniques appellent une question fondamentale: est-ce que le développement des outils de microciblage et la création de bulles informationnelles sont bénéfiques ou néfastes pour un système démocratique? D’une part, les techniques de microciblage permettent aux politiciens de mieux concevoir les réels besoins de leurs électorats en plus de leur fournir des canaux de communication idéaux en vue de les rejoindre. Ainsi, le microciblage pourrait être un outil fantastique en vue de mobiliser une base électorale sur des enjeux qui leur tiennent à cœur. De plus, les politiciens seraient en mesure de rejoindre directement des groupes minoritaires en vue de mieux comprendre leurs réalités. D’autre part, nous pouvons argumenter que les outils de microciblage vont à l’encontre des idéaux démocratiques. Notamment, les publicités ciblées permettent les bulles informationnelles qui polarisent les opinions. Un Deepfake est une vidéo ou un enregistrement audio produit ou altéré grâce à l’intelligence artificielle. Ils reposent sur la technique des GANs (Generative Adversarial Networks). Le terme désigne surtout le contenu ainsi généré. Il peut aussi référer aux technologies utilisées pour produire ce contenu. https:/ /www.lebigdata.fr/star-wars-machine-learning-solo : 2minutes https:/ /www.lebigdata.fr/ia-samsung-photo-portrait : 5 minutes Could deepfakes weaken democracy? | The Economist https:/ /www.youtube.com/watch?v=_m2dRDQEC1A 6 min Les uploads/Philosophie/ bd2-cours-12-13.pdf
Documents similaires










-
31
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Mai 09, 2021
- Catégorie Philosophy / Philo...
- Langue French
- Taille du fichier 7.4942MB