1 | 1 3 Questions de sciences religieuses . Questions d’éthiques LTECO1201 Doss

1 | 1 3 Questions de sciences religieuses . Questions d’éthiques LTECO1201 Dossier Bac 2 Sujet choisi : L’Intelligence Artificielle LESUISSE Pierre-Alexandre : Partie 2, Partie 3 MAINDIAUX François : Introduction, Partie 1, Synthèse LTECO1201 - Questions de sciences religieuses. Questions d'éthique François MAINDIAUX Pierre-Alexandre LESUISSE 2 L’Intelligence Artificielle : Apogée ou hécatombe du progrès technologique ? L’intelligence artificielle se définit comme l’intelligence attribuée aux machines, ordinateurs et autres robots. Selon Marvin Lee Minsky (co-fondateur du terme d’ « intelligence artificielle ») cela consiste en « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». Il est nécessaire de différencier intelligence artificielle forte et faible. L’I.A forte fait référence à une machine dotée d’un comportement intelligent, tout en étant capable d’éprouver des sentiments et d’avoir une conscience de soi et de ses raisonnements. Aujourd’hui, aucune machine n’as réussi à atteindre un tel stade, nous supposerons cependant pour notre étude qu’une telle intelligence artificielle peut ou pourra être possible. On peut distinguer l’intelligence artificielle faible de la forte par l’absence sentiments etc, qui lui sont propres. L’I.A faible consiste en un système informatique autonome qui semble intelligent par la résolution de certains problèmes. La machine en question ne fait que simuler l’intelligence qui lui a été attribuée et ne peut évoluer/apprendre en dehors de sa programmation. On retrouve cette intelligence dans les programmes conversationnels comme ELIZA. De nombreux films, séries télévisées et livres se penchent sur l’intelligence artificielle et leurs conséquences sur l’Homme. Ex Machina (2015) Chappie (2015) ou encore Her (2014) montrent chacun un aspect de l’intelligence artificielle forte dans un monde actuel (voire futur) en développant un rapport à l’Homme posant un certain nombre de question, idéal comme point de départ de notre étude. - Comment contrôler une intelligence artificielle capable de réfléchir ? - Comment considérer la création d’une intelligence supérieure et autonome ? - Ce progrès technologique est –il synonyme de sécurité autant physique que technologique ? - Quels problèmes éthiques les programmes informatiques militaires comme les drones autonomes posent-ils ? - Actuellement quels sont les risques et les dangers des machines et programmes doués d’intelligence artificielle ? - Le remplacement d’ouvriers par des machines de plus en plus intelligentes ne deviendra-t-il pas problématique dans les pays où le taux chômage ne fait qu’augmenter ? L’intelligence artificielle fait preuve d’une vulnérabilité par sa nature technologique. Que se passerait-il si une telle chose se retrouve entre de mauvaises mains ? Cependant, lorsqu’on pense à combien la technologie et l’informatique sont utilisées par les sciences actuelles, une intelligence artificielle pourrait permettre un bond concernant le progrès scientifique, par ses capacités de calculs. LTECO1201 - Questions de sciences religieuses. Questions d'éthique François MAINDIAUX Pierre-Alexandre LESUISSE 3  Partie 1 : Les « robots-tueurs » et armes autonomes. Le 27 juillet 2015, un millier de personnalités, dont la plupart chercheurs en intelligence artificielle, publie une lettre ouverte demandant l’interdiction des armes autonomes capables de « sélectionner et combattre des cibles sans l’intervention humaine ». Parmi eux on retrouve un certain Stephen Hawking et Elon Musk déclarant : “l’I.A. a atteint un point où le déploiement de tels systèmes sera (matériellement, si pas légalement) faisable d’ici quelques années, et non décennies. Et les enjeux sont importants : les armes autonomes ont été décrites comme la troisième révolution dans les techniques de guerre, après la poudre à canon et les armes nucléaires” en ajoutant “La suite est évidente : les armes autonomes (relativement peu coûteuses à fabriquer) deviendront les Kalachnikov de demain”. Cette lettre parmi d’autre révèle le sentiment d’insécurité présent actuellement. Les armes létales autonomes au jour d’aujourd’hui ciblent l’ennemi de façon autonome mais la décision létale revient à l’humain. Or le problème éthique est exactement le même que celui pointé par les débats concernant les drones militaires (une arme létale autonome). Bien que la décision de tuer revienne à l’Homme, ce dernier n’a en aucun cas une sensation « d’appuyer sur la gâchette ». La guerre qui opposait autrefois les Hommes oppose maintenant les machines. Ainsi l’être humain derrière ces meurtres n’a aucune prise de conscience de son acte. On retrouve ici un schéma de cause directe et indirecte. Appuyer sur un bouton à 20 000 km de la zone de frappe déresponsabilise la personne car aucune conséquence de ses actes n’est perçue par ses sens (L’Homme se considère comme une cause indirecte dans ce cas). De ce fait, l’individu n’a que très peu voire pas du tout de réflexions morales sur ses actes puisque il n’as pas de d’impression de meurtre. Cet état d’esprit peut mener à une banalisation des attaques menées par ce moyen. L’association « Human Rights Watch » estime en avril 2015 que « l’absence de responsabilité légale » dans l’utilisation des armes autonomes « équivaut à l’absence de condamnation par la société des utilisateurs de ces armes ». On peut aussi noter que l’arme autonome en question, bien qu’elle ne fait que cibler, n’en reste pas pour le moins une machine. Que penser d’un mode d’assassinat basé sur la confiance accordée à un logiciel ? Le détachement de l’Homme des conséquences de son geste ainsi que la confiance accordée à une machine ne font qu’empirer la banalisation mis en avant précédemment. On peut même y retrouver une nouvelle dimension : celle du meurtre par erreur, ici totalement déresponsabilisé. D’un point de vue moral, la personne derrière le bouton doit faire preuve d’une grande prudence ainsi que d’une bonne réflexion avant de prendre une décision. Si la décision de l’Homme est encore nécessaire, on peut se demander « jusqu’à quand ? ». Ces armes peuvent, dans le futur, devenir totalement autonomes. Cela signifierait donc que l’on donne à une machine la possibilité de tuer. La décision de tuer à toujours était une décision réservée à l’Homme. Ce cas d’armes autonomes modifierait donc complétement les règles morales inscrites. On peut citer un responsable de Human Rights Watch expliquant qu’ « il faut un homme pour décider d’arrêter le tir et faire des prisonniers, pour reconnaître un soldat portant un drapeau blanc, pour évaluer si la riposte est équilibrée ». Or les armes autonomes en cours de développement ne peuvent évaluer ce genre de circonstances. Le Monde dans son article précise aussi que cela pourrait violer deux principes du droit international humanitaire (DIH), qui régit les conflits armés depuis les LTECO1201 - Questions de sciences religieuses. Questions d'éthique François MAINDIAUX Pierre-Alexandre LESUISSE 4 conventions de Genève de 1949 et leurs protocoles additionnels ; d’une part, la règle cardinale de la « distinction » entre les civils et les militaires ; ensuite, la nécessité d’éviter des violences « disproportionnées » par rapport aux menaces, et donc de procéder à une évaluation. On peut soulever aussi une question de responsabilité pénale. L’usage d’armes autonomes fait preuve d’un « vide juridique » car aucune personne ne peut être retenue comme responsable d’une erreur (dommage collatéraux sur des civils par exemple) commise par l’arme en question.  Partie 2 : L’intelligence artificielle et le chômage. L’intelligence artificielle pose, de plus, un problème dans la société actuelle. Ce souci est déjà observable à l’heure actuelle et ne s’améliore pas au fil des jours. Créer une intelligence artificielle comme dit précédemment consiste à imaginer un programme se rapprochant des capacités de réflexion d’un cerveau humain. Or ce type de programme est de plus en plus recherché par les grandes compagnies employant beaucoup de personnes effectuant de petites taches sur la chaine de production. On peut citer de nombreuses firmes automobiles qui commencent à automatiser et robotiser leurs chaines de production. Dans un monde où le travail est le principal moyen de vivre, remplacer l’emploi d’une personne par une machine autonome (plus rentable dans la durée) pose beaucoup de questions sur l’avenir de la société. Nous pouvons donc nous poser notamment cette question. La théorie de la "destruction créatrice", datant de la moitié du 20ème siècle et développée par Joseph Schumpeter dans son livre ‘‘Capitalism, Socialism and Democracy’’, a- t-elle encore un sens au 21ème siècle, malgré l'accélération continue du rythme des cycles d'innovations technologiques ? Nous sommes dans une ère où il devient plus facile et rapide de supprimer des emplois que d'en recréer, ce qui impose de réfléchir aux conséquences sociales et aux moyens de soutenir à la fois le développement technologique et le développement humain. Prenons l’exemple de la société Uber qui développe et exploite des applications mobiles qui permettent de mettre le client en contact avec un conducteur réalisant des services de transport. Mais cette société ne s’arrête pas là, elle projette d’installer des robots comme conducteur. Il y a donc quelque chose de désespérant à voir les taxis, les VTC et les particuliers s'affronter tels des gladiateurs dans une arène pendant qu'Uber contemple le spectacle en sachant que ce divertissement prendra fin dans les uploads/Philosophie/ intelligence-artificielle2 1 .pdf

  • 12
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager