Éthique de l'intelligence artificielle - Ethics of artificial intelligence

L' éthique de l'intelligence artificielle est la branche de l' éthique de la technologie spécifique aux systèmes artificiellement intelligents . Il est parfois divisé en une préoccupation pour le comportement moral des humains lorsqu'ils conçoivent, fabriquent, utilisent et traitent des systèmes artificiellement intelligents, et une préoccupation pour le comportement des machines, dans l'éthique des machines . Il inclut également la question d'une éventuelle singularité due à une IA super-intelligente .

Approches des champs d'éthique

L'éthique des robots

Le terme « éthique des robots » (parfois « éthique des robots ») fait référence à la moralité de la façon dont les humains conçoivent, construisent, utilisent et traitent les robots. L'éthique des robots recoupe l'éthique de l'IA. Les robots sont des machines physiques alors que l'IA ne peut être qu'un logiciel. Tous les robots ne fonctionnent pas via des systèmes d'IA et tous les systèmes d'IA ne sont pas des robots. L'éthique des robots examine comment les machines peuvent être utilisées pour nuire ou profiter aux humains, leur impact sur l'autonomie individuelle et leurs effets sur la justice sociale.

Éthique des machines

L'éthique des machines (ou moralité des machines) est le domaine de recherche concerné par la conception d'agents moraux artificiels (AMA), de robots ou d'ordinateurs artificiellement intelligents qui se comportent moralement ou comme s'ils étaient moraux. Pour tenir compte de la nature de ces agents, il a été suggéré de considérer certaines idées philosophiques, comme les caractérisations standard de l' agence , de l'agence rationnelle , de l'agence morale et de l'agence artificielle, qui sont liées au concept d'AMA.

Isaac Asimov a examiné la question dans les années 1950 dans son I, Robot . Sur l'insistance de son éditeur John W. Campbell Jr. , il proposa les Trois Lois de la Robotique pour régir les systèmes artificiellement intelligents. Une grande partie de son travail a ensuite été consacrée à tester les limites de ses trois lois pour voir où elles s'effondreraient ou où elles créeraient un comportement paradoxal ou imprévu. Son travail suggère qu'aucun ensemble de lois fixes ne peut anticiper suffisamment toutes les circonstances possibles. Plus récemment, des universitaires et de nombreux gouvernements ont contesté l'idée que l'IA puisse elle-même être tenue pour responsable. Un groupe d'experts convoqué par le Royaume-Uni en 2010 a révisé les lois d'Asimov pour préciser que l'IA relève de la responsabilité soit de ses fabricants, soit de son propriétaire/exploitant.

En 2009, lors d'une expérimentation au Laboratoire des Systèmes Intelligents de l'Ecole Polytechnique Fédérale de Lausanne en Suisse , des robots programmés pour coopérer entre eux (en recherchant une ressource bénéfique et en évitant une ressource toxique) ont finalement appris à mentir à chacun. l'autre pour tenter d'accumuler la ressource bénéfique.

Certains experts et universitaires ont remis en question l'utilisation de robots pour le combat militaire, en particulier lorsque ces robots sont dotés d'un certain degré de fonctions autonomes. L'US Navy a financé un rapport qui indique qu'à mesure que les robots militaires deviennent plus complexes, il devrait y avoir une plus grande attention aux implications de leur capacité à prendre des décisions autonomes. Le président de l' Association pour l'avancement de l'intelligence artificielle a commandé une étude pour examiner cette question. Ils désignent des programmes comme le Language Acquisition Device qui peuvent émuler l'interaction humaine.

Vernor Vinge a suggéré qu'un moment pourrait venir où certains ordinateurs seraient plus intelligents que les humains. Il appelle cela " la Singularité ". Il suggère que cela peut être quelque peu ou peut-être très dangereux pour les humains. Ceci est discuté par une philosophie appelée Singularitarisme . Le Machine Intelligence Research Institute a suggéré la nécessité de construire une " IA conviviale ", ce qui signifie que les progrès qui se produisent déjà avec l'IA devraient également inclure un effort pour rendre l'IA intrinsèquement conviviale et humaine.

Il y a des discussions sur la création de tests pour voir si une IA est capable de prendre des décisions éthiques . Alan Winfield conclut que le test de Turing est défectueux et que l'exigence pour une IA de réussir le test est trop faible. Un test alternatif proposé est celui appelé le test de Turing éthique, qui améliorerait le test actuel en demandant à plusieurs juges de décider si la décision de l'IA est éthique ou contraire à l'éthique.

En 2009, des universitaires et des experts techniques ont assisté à une conférence organisée par l' Association pour l'avancement de l'intelligence artificielle pour discuter de l'impact potentiel des robots et des ordinateurs et de l'impact de la possibilité hypothétique qu'ils puissent devenir autonomes et capables de prendre leurs propres décisions. . Ils ont discuté de la possibilité et de la mesure dans laquelle les ordinateurs et les robots pourraient acquérir n'importe quel niveau d'autonomie, et dans quelle mesure ils pourraient utiliser ces capacités pour éventuellement constituer une menace ou un danger. Ils ont noté que certaines machines ont acquis diverses formes de semi-autonomie, notamment la possibilité de trouver des sources d'énergie par elles-mêmes et la possibilité de choisir indépendamment des cibles à attaquer avec des armes. Ils ont également noté que certains virus informatiques peuvent échapper à l'élimination et ont atteint "l'intelligence des cafards". Ils ont noté que la conscience de soi telle que décrite dans la science-fiction est probablement peu probable, mais qu'il y avait d'autres dangers et pièges potentiels.

Cependant, il existe une technologie en particulier qui pourrait vraiment concrétiser la possibilité de robots dotés de compétences morales. Dans un article sur l'acquisition de valeurs morales par les robots, Nayef Al-Rodhan évoque le cas des puces neuromorphiques , qui visent à traiter l'information de manière similaire à celle des humains, de manière non linéaire et avec des millions de neurones artificiels interconnectés. Les robots intégrés à la technologie neuromorphique pourraient apprendre et développer des connaissances d'une manière unique à l'humain. Inévitablement, cela soulève la question de l'environnement dans lequel de tels robots apprendraient le monde et dont ils hériteraient de la moralité - ou s'ils finissent par développer également des "faiblesses" humaines : égoïsme, attitude pro-survie, hésitation, etc.

Dans Moral Machines: Teaching Robots Right from Wrong , Wendell Wallach et Colin Allen concluent que les tentatives d'enseigner aux robots le bien du mal feront probablement progresser la compréhension de l'éthique humaine en motivant les humains à combler les lacunes de la théorie normative moderne et en fournissant une plate-forme pour l'investigation expérimentale. À titre d'exemple, il a introduit les éthiciens normatifs à la question controversée des algorithmes d'apprentissage spécifiques à utiliser dans les machines. Nick Bostrom et Eliezer Yudkowsky ont plaidé en faveur d' arbres de décision (tels que ID3 ) sur les réseaux de neurones et les algorithmes génétiques au motif que les arbres de décision obéissent aux normes sociales modernes de transparence et de prévisibilité (par exemple, stare decisis ), tandis que Chris Santos-Lang a soutenu le contraire direction au motif que les normes de tout âge doivent pouvoir changer et que l'échec naturel à satisfaire pleinement ces normes particulières a été essentiel pour rendre les humains moins vulnérables aux « pirates » criminels .

Selon un rapport de 2019 du Center for the Governance of AI de l'Université d'Oxford, 82% des Américains pensent que les robots et l'IA doivent être gérés avec soin. Les préoccupations citées allaient de la façon dont l'IA est utilisée dans la surveillance et la diffusion de faux contenus en ligne (connus sous le nom de contrefaçons profondes lorsqu'elles incluent des images vidéo et audio falsifiées générées avec l'aide de l'IA) aux cyberattaques, aux atteintes à la confidentialité des données, aux biais d'embauche, aux véhicules autonomes et drones qui ne nécessitent pas de contrôleur humain.

Principes éthiques de l'intelligence artificielle

Lors de l'examen de 84 lignes directrices éthiques pour l'IA, 11 groupes de principes ont été trouvés : transparence, justice et équité, non-malfaisance, responsabilité, vie privée, bienfaisance, liberté et autonomie, confiance, durabilité, dignité, solidarité.

Luciano Floridi et Josh Cowls ont créé un cadre éthique de principes d'IA défini par quatre principes de bioéthique ( bienfaisance , non-malfaisance , autonomie et justice ) et un principe supplémentaire d'IA : l'explicabilité.

Transparence, responsabilité et open source

Bill Hibbard soutient que parce que l'IA aura un effet si profond sur l'humanité, les développeurs d'IA sont des représentants de l'humanité future et ont donc l'obligation éthique d'être transparents dans leurs efforts. Ben Goertzel et David Hart ont créé OpenCog en tant que framework open source pour le développement de l'IA. OpenAI est une société de recherche en IA à but non lucratif créée par Elon Musk , Sam Altman et d'autres pour développer une IA open source bénéfique pour l'humanité. Il existe de nombreux autres développements d'IA open source.

Malheureusement, rendre le code open source ne le rend pas compréhensible, ce qui, par de nombreuses définitions, signifie que le code de l'IA n'est pas transparent. L' IEEE a un effort de normalisation sur la transparence de l'IA. L'effort de l'IEEE identifie plusieurs échelles de transparence pour différents utilisateurs. En outre, il est à craindre que la diffusion de la pleine capacité de l'IA contemporaine à certaines organisations ne soit un mal public, c'est-à-dire qu'elle fasse plus de mal que de bien. Par exemple, Microsoft s'est dit préoccupé par l'accès universel à son logiciel de reconnaissance faciale, même pour ceux qui peuvent le payer. Microsoft a publié un blog extraordinaire sur ce sujet, demandant une réglementation gouvernementale pour aider à déterminer la bonne chose à faire.

Non seulement les entreprises, mais de nombreux autres chercheurs et défenseurs des citoyens recommandent la réglementation gouvernementale comme moyen d'assurer la transparence et, à travers elle, la responsabilité humaine. Cette stratégie s'est avérée controversée, car certains craignent qu'elle ralentisse le rythme de l'innovation. D'autres soutiennent que la réglementation conduit à une stabilité systémique plus apte à soutenir l'innovation à long terme. L' OCDE , l' ONU , l' UE et de nombreux pays travaillent actuellement sur des stratégies pour réglementer l'IA et trouver des cadres juridiques appropriés.

Le 26 juin 2019, le groupe d'experts de haut niveau de la Commission européenne sur l'intelligence artificielle (IA HLEG) a publié ses « Recommandations de politique et d'investissement pour une intelligence artificielle digne de confiance ». Il s'agit du deuxième livrable de l'IA HLEG, après la publication en avril 2019 des « Directives éthiques pour une IA digne de confiance ». Les recommandations AI HLEG de juin couvrent quatre sujets principaux : les humains et la société dans son ensemble, la recherche et le monde universitaire, le secteur privé et le secteur public. La Commission européenne affirme que "les recommandations du HLEG reflètent une appréciation à la fois des opportunités pour les technologies de l'IA de stimuler la croissance économique, la prospérité et l'innovation, ainsi que des risques potentiels encourus" et déclare que l'UE vise à diriger l'élaboration des politiques régissant l'IA. internationalement.

Défis éthiques

Biais dans les systèmes d'IA

La sénatrice américaine Kamala Harris parle des préjugés raciaux dans l'intelligence artificielle en 2020

L'IA est devenue de plus en plus inhérente aux systèmes de reconnaissance faciale et vocale . Certains de ces systèmes ont de véritables applications métier et impactent directement les personnes. Ces systèmes sont vulnérables aux biais et aux erreurs introduits par ses créateurs humains. De plus, les données utilisées pour former ces systèmes d'IA elles-mêmes peuvent avoir des biais. Par exemple, les algorithmes de reconnaissance faciale créés par Microsoft, IBM et Face++ présentaient tous des biais lorsqu'il s'agissait de détecter le sexe des personnes ; Ces systèmes d'IA ont pu détecter le sexe des hommes blancs avec plus de précision que le sexe des hommes à la peau plus foncée. En outre, une étude de 2020 a examiné les systèmes de reconnaissance vocale d'Amazon, Apple, Google, IBM et Microsoft a révélé qu'ils ont des taux d'erreur plus élevés lors de la transcription des voix des Noirs que des Blancs. De plus, Amazon a mis fin à son utilisation de l' embauche et du recrutement par IA, car l'algorithme favorisait les candidats masculins par rapport aux femmes. En effet, le système d'Amazon a été formé avec des données collectées sur une période de 10 ans provenant principalement de candidats masculins.

Le biais peut se glisser dans les algorithmes de plusieurs manières. Par exemple, Friedman et Nissenbaum identifient trois catégories de biais dans les systèmes informatiques : les biais existants, les biais techniques et les biais émergents. Dans le traitement du langage naturel , des problèmes peuvent survenir à partir du corpus de texte - le matériel source que l'algorithme utilise pour en savoir plus sur les relations entre les différents mots.

De grandes entreprises telles qu'IBM, Google, etc. se sont efforcées de rechercher et de remédier à ces biais. Une solution pour lutter contre les biais consiste à créer une documentation pour les données utilisées pour former les systèmes d'IA.

Le problème de biais dans l'apprentissage automatique est susceptible de devenir plus important à mesure que la technologie se propage à des domaines critiques comme la médecine et le droit, et que de plus en plus de personnes sans connaissance technique approfondie sont chargées de la déployer. Certains experts avertissent que le biais algorithmique est déjà omniprésent dans de nombreuses industries et que presque personne ne fait d'effort pour l'identifier ou le corriger. Il existe des outils open source de la société civile qui cherchent à mieux faire connaître l'IA biaisée.

Droits des robots

Les « droits des robots » sont le concept selon lequel les gens devraient avoir des obligations morales envers leurs machines, semblables aux droits de l'homme ou aux droits des animaux . Il a été suggéré que les droits des robots (comme le droit d'exister et d'accomplir sa propre mission) pourraient être liés au devoir des robots de servir l'humanité, de manière analogue au lien entre les droits de l'homme et les devoirs de l'homme devant la société. Ceux-ci pourraient inclure le droit à la vie et à la liberté, la liberté de pensée et d'expression et l'égalité devant la loi. La question a été examinée par l' Institute for the Future et par le ministère britannique du Commerce et de l'Industrie .

Les experts ne sont pas d'accord sur le moment où des lois spécifiques et détaillées sur le sujet seront nécessaires. Glenn McGee a signalé que des robots suffisamment humanoïdes pourraient apparaître d'ici 2020, tandis que Ray Kurzweil fixe la date à 2029. Un autre groupe de scientifiques réunis en 2007 a supposé qu'au moins 50 ans devaient s'écouler avant qu'un système suffisamment avancé n'existe.

Les règles du concours du prix Loebner 2003 envisageaient la possibilité pour les robots d'avoir leurs propres droits :

61. Si, au cours d'une année donnée, une candidature open source accessible au public et saisie par l'Université de Surrey ou le Cambridge Center remporte la médaille d'argent ou la médaille d'or, alors la médaille et le prix en espèces seront décernés à l'organisme responsable de la développement de cette entrée. Si aucun organisme de ce type ne peut être identifié, ou s'il y a un désaccord entre deux ou plusieurs demandeurs, la Médaille et la Récompense en espèces seront détenues en fiducie jusqu'à ce que la Participation puisse légalement posséder, soit aux États-Unis d'Amérique, soit aux États-Unis. lieu du concours, le Cash Award et la Médaille d'or à part entière.

En octobre 2017, l'androïde Sophia a obtenu la citoyenneté « honoraire » en Arabie saoudite , bien que certains considéraient qu'il s'agissait davantage d'un coup publicitaire que d'une reconnaissance juridique significative. Certains ont vu ce geste comme un dénigrement ouvert des droits de l'homme et de la primauté du droit .

La philosophie du sentientisme accorde des degrés de considération morale à tous les êtres sensibles, principalement les humains et la plupart des animaux non humains. Si l'intelligence artificielle ou extraterrestre montre des preuves d'être sensible , cette philosophie soutient qu'ils devraient faire preuve de compassion et leur accorder des droits.

Joanna Bryson a fait valoir que créer une IA qui exige des droits est à la fois évitable et serait en soi contraire à l'éthique, à la fois en tant que fardeau pour les agents de l'IA et pour la société humaine.

Menace à la dignité humaine

Joseph Weizenbaum a fait valoir en 1976 que la technologie de l'IA ne devrait pas être utilisée pour remplacer des personnes à des postes qui nécessitent respect et attention, tels que :

  • Un représentant du service client (la technologie d'IA est déjà utilisée aujourd'hui pour les systèmes de réponse vocale interactive basés sur le téléphone )
  • Une nourrice pour les personnes âgées (comme l'a rapporté Pamela McCorduck dans son livre La cinquième génération )
  • Un soldat
  • Un juge
  • Un agent de police
  • Un thérapeute (comme le proposait Kenneth Colby dans les années 70)

Weizenbaum explique que nous exigeons des sentiments authentiques d' empathie de la part des personnes occupant ces postes. Si les machines les remplacent, nous nous retrouverons aliénés, dévalorisés et frustrés, car le système artificiellement intelligent ne saurait simuler l'empathie. L'intelligence artificielle, si elle est utilisée de cette manière, représente une menace pour la dignité humaine. Weizenbaum soutient que le fait que nous envisageons la possibilité de machines dans ces positions suggère que nous avons connu une "atrophie de l'esprit humain qui vient du fait de nous considérer comme des ordinateurs".

Pamela McCorduck rétorque , s'exprimant au nom des femmes et des minorités, "Je préfère tenter ma chance avec un ordinateur impartial", soulignant qu'il y a des conditions où nous préférerions avoir des juges et des policiers automatisés qui n'ont aucun agenda personnel. Cependant, Kaplan et Haenlein soulignent que les systèmes d'IA ne sont aussi intelligents que les données utilisées pour les entraîner, car ils ne sont, par essence, rien de plus que des machines sophistiquées d'ajustement de courbes ; L'utilisation de l'IA pour étayer une décision de justice peut être très problématique si les décisions passées montrent des préjugés envers certains groupes, car ces préjugés sont formalisés et enracinés, ce qui les rend encore plus difficiles à repérer et à combattre.

Weizenbaum était également dérangé par le fait que les chercheurs en IA (et certains philosophes) étaient disposés à considérer l'esprit humain comme rien de plus qu'un programme informatique (une position maintenant connue sous le nom de computationalisme ). Pour Weizenbaum, ces points suggèrent que la recherche sur l'IA dévalorise la vie humaine.

Le fondateur de l'IA, John McCarthy, s'oppose au ton moralisateur de la critique de Weizenbaum. "Quand la moralisation est à la fois véhémente et vague, elle invite aux abus autoritaires", écrit-il. Bill Hibbard écrit que "la dignité humaine exige que nous nous efforcions de supprimer notre ignorance de la nature de l'existence, et l'IA est nécessaire pour cet effort."

Responsabilité des voitures autonomes

Alors que l'utilisation généralisée des voitures autonomes devient de plus en plus imminente, les nouveaux défis posés par les véhicules entièrement autonomes doivent être relevés. Récemment, il y a eu un débat sur la responsabilité légale de la partie responsable si ces voitures sont accidentées. Dans un rapport où une voiture sans conducteur a heurté un piéton, le conducteur était à l'intérieur de la voiture mais les commandes étaient entièrement entre les mains d'ordinateurs. Cela a conduit à un dilemme sur qui était responsable de l'accident.

Lors d'un autre incident survenu le 19 mars 2018, une Elaine Herzberg a été heurtée et tuée par un Uber autonome en Arizona. Dans ce cas, la voiture automatisée était capable de détecter les voitures et certains obstacles afin de naviguer de manière autonome sur la chaussée, mais elle ne pouvait pas anticiper un piéton au milieu de la chaussée. Cela a soulevé la question de savoir si le conducteur, le piéton, la société automobile ou le gouvernement devaient être tenus responsables de sa mort.

Actuellement, les voitures autonomes sont considérées comme semi-autonomes, ce qui oblige le conducteur à faire attention et à être prêt à prendre le contrôle si nécessaire. Ainsi, il incombe aux gouvernements de réglementer le conducteur qui compte trop sur les fonctionnalités autonomes. aussi bien leur faire comprendre que ce ne sont que des technologies qui, bien que pratiques, ne sont pas un substitut complet. Avant que les voitures autonomes ne soient largement utilisées, ces problèmes doivent être traités par de nouvelles politiques.

Armement de l'intelligence artificielle

Certains experts et universitaires ont remis en question l'utilisation de robots pour le combat militaire, en particulier lorsque ces robots bénéficient d'un certain degré d'autonomie. Le 31 octobre 2019, le Defense Innovation Board du ministère de la Défense des États-Unis a publié le projet d'un rapport recommandant des principes pour l'utilisation éthique de l'intelligence artificielle par le ministère de la Défense qui garantirait qu'un opérateur humain serait toujours en mesure d'examiner le ' boîte noire' et comprendre le processus de la chaîne de destruction. Cependant, une préoccupation majeure est de savoir comment le rapport sera mis en œuvre. L'US Navy a financé un rapport qui indique qu'à mesure que les robots militaires deviennent plus complexes, une plus grande attention devrait être portée aux implications de leur capacité à prendre des décisions autonomes. Certains chercheurs affirment que les robots autonomes pourraient être plus humains, car ils pourraient prendre des décisions plus efficacement.

Au cours de cette dernière décennie, il y a eu des recherches intensives sur le pouvoir autonome avec la capacité d'apprendre en utilisant les responsabilités morales assignées. "Les résultats peuvent être utilisés lors de la conception de futurs robots militaires, pour contrôler les tendances indésirables à attribuer des responsabilités aux robots." D'un point de vue conséquentialiste , il y a une chance que les robots développent la capacité de prendre leurs propres décisions logiques sur qui tuer et c'est pourquoi il devrait y avoir un cadre moral défini que l'IA ne peut pas outrepasser.

Il y a eu un tollé récent concernant l'ingénierie des armes d'intelligence artificielle qui ont inclus des idées d'une prise de contrôle de l'humanité par un robot. Les armes d'IA présentent un type de danger différent de celui des armes contrôlées par l'homme. De nombreux gouvernements ont commencé à financer des programmes pour développer des armes d'IA. La marine américaine a récemment annoncé son intention de développer des armes de drones autonomes , parallèlement aux annonces similaires de la Russie et de la Corée respectivement. En raison du potentiel des armes d'IA devenant plus dangereuses que les armes à commande humaine, Stephen Hawking et Max Tegmark ont signé une pétition "Future of Life" pour interdire les armes d'IA. Le message publié par Hawking et Tegmark indique que les armes d'IA représentent un danger immédiat et qu'une action est nécessaire pour éviter des catastrophes catastrophiques dans un proche avenir.

« Si une grande puissance militaire poursuit le développement des armes d'IA, une course mondiale aux armements est pratiquement inévitable, et le point final de cette trajectoire technologique est évident : les armes autonomes deviendront les Kalachnikovs de demain », indique la pétition, qui inclut Skype co. -le fondateur Jaan Tallinn et le professeur de linguistique au MIT Noam Chomsky en tant que partisans supplémentaires contre les armes de l'IA.

Le physicien et astronome royal Sir Martin Rees a mis en garde contre des cas catastrophiques tels que "des robots stupides devenant voyous ou un réseau qui développe son propre esprit". Huw Price , un collègue de Rees à Cambridge, a lancé un avertissement similaire selon lequel les humains pourraient ne pas survivre lorsque l'intelligence « échappe aux contraintes de la biologie ». Ces deux professeurs ont créé le Center for the Study of Existential Risk à l'Université de Cambridge dans l'espoir d'éviter cette menace pour l'existence humaine.

Concernant le potentiel d'utilisation militaire de systèmes plus intelligents que l'humain, l' Open Philanthropy Project écrit que ces scénarios "semblent potentiellement aussi importants que les risques liés à la perte de contrôle", mais les recherches portant sur l'impact social à long terme de l'IA ont consacré relativement peu de temps sur cette préoccupation : « cette classe de scénarios n'a pas été au centre des préoccupations des organisations qui ont été les plus actives dans cet espace, comme le Machine Intelligence Research Institute (MIRI) et le Future of Humanity Institute (FHI), et il semble y avoir eu moins d'analyses et de débats à leur sujet".

Algorithmes opaques

Des approches telles que l'apprentissage automatique avec des réseaux de neurones peuvent amener les ordinateurs à prendre des décisions qu'eux-mêmes et les humains qui les ont programmés ne peuvent pas expliquer. Il est difficile pour les gens de déterminer si de telles décisions sont justes et dignes de confiance, ce qui peut entraîner des biais dans les systèmes d'IA non détectés, ou des personnes rejetant l'utilisation de tels systèmes. Cela a conduit à un plaidoyer et, dans certaines juridictions, à des exigences légales en matière d' intelligence artificielle explicable .

Singularité

De nombreux chercheurs ont fait valoir que, par le biais d'une « explosion de l'intelligence », une IA qui s'améliore d'elle-même pourrait devenir si puissante que les humains ne pourraient pas l'empêcher d'atteindre ses objectifs. Dans son article « Ethical Issues in Advanced Artificial Intelligence » et le livre qui a suivi Superintelligence : Paths, Dangers, Strategies , le philosophe Nick Bostrom soutient que l'intelligence artificielle a la capacité de provoquer l'extinction humaine. Il prétend que la superintelligence générale serait capable d'initiative indépendante et de faire ses propres plans, et peut donc être plus appropriée considérée comme un agent autonome. Puisque les intellects artificiels n'ont pas besoin de partager nos tendances motivationnelles humaines, il appartiendrait aux concepteurs de la superintelligence de spécifier ses motivations originales. Parce qu'une IA super-intelligente serait capable de provoquer presque n'importe quel résultat possible et de contrecarrer toute tentative d'empêcher la mise en œuvre de ses objectifs, de nombreuses conséquences imprévues incontrôlées pourraient survenir. Cela pourrait tuer tous les autres agents, les persuader de changer leur comportement ou bloquer leurs tentatives d'interférence.

Cependant, au lieu de submerger la race humaine et de conduire à notre destruction, Bostrom a également affirmé que la superintelligence peut nous aider à résoudre de nombreux problèmes difficiles tels que la maladie, la pauvreté et la destruction de l'environnement, et pourrait nous aider à nous « améliorer ».

La complexité des systèmes de valeurs humaines rend très difficile de rendre les motivations de l'IA conviviales. À moins que la philosophie morale ne nous fournisse une théorie éthique sans faille, la fonction d'utilité d'une IA pourrait permettre de nombreux scénarios potentiellement nocifs conformes à un cadre éthique donné mais pas au "bon sens". Selon Eliezer Yudkowsky , il y a peu de raisons de supposer qu'un esprit conçu artificiellement aurait une telle adaptation. Des chercheurs en IA tels que Stuart J. Russell , Bill Hibbard , Roman Yampolskiy , Shannon Vallor , Steven Umbrello et Luciano Floridi ont proposé des stratégies de conception pour développer des machines bénéfiques.

Acteurs de l'éthique de l'IA

Il existe de nombreuses organisations concernées par l'éthique et la politique de l'IA, tant publiques et gouvernementales que corporatives et sociétales.

Amazon , Google , Facebook , IBM et Microsoft ont créé un organisme à but non lucratif, The Partnership on AI to Benefit People and Society, pour formuler les meilleures pratiques sur les technologies d'intelligence artificielle, faire progresser la compréhension du public et servir de plate-forme sur l'intelligence artificielle. . Apple a rejoint le groupe en janvier 2017. Les membres corporatifs apporteront des contributions financières et de recherche au groupe, tout en s'engageant avec la communauté scientifique pour amener des universitaires au conseil d'administration.

L' IEEE a mis en place une initiative mondiale sur l'éthique des systèmes autonomes et intelligents qui a créé et révisé des directives avec l'aide de la contribution du public et accepte comme membres de nombreux professionnels de l'intérieur et de l'extérieur de son organisation.

Traditionnellement, le gouvernement a été utilisé par les sociétés pour s'assurer que l'éthique est respectée par le biais de la législation et de la police. De nombreux efforts sont maintenant déployés par les gouvernements nationaux, ainsi que par les organisations gouvernementales et non gouvernementales transnationales pour garantir que l'IA est appliquée de manière éthique.

Initiatives intergouvernementales :

  • La Commission européenne dispose d'un groupe d'experts de haut niveau sur l'intelligence artificielle. Le 8 avril 2019, celui-ci a publié ses « Directives éthiques pour une intelligence artificielle digne de confiance ». La Commission européenne dispose également d'une unité Innovation et excellence en robotique et intelligence artificielle, qui a publié le 19 février 2020 un livre blanc sur l'excellence et la confiance dans l'innovation en intelligence artificielle.
  • L' OCDE a créé un Observatoire des politiques d'IA de l'OCDE.

Initiatives gouvernementales :

  • Aux États-Unis, l' administration Obama a élaboré une feuille de route pour la politique de l'IA. L'administration Obama a publié deux livres blancs importants sur l'avenir et l'impact de l'IA. En 2019, la Maison Blanche, par le biais d'une note de service connue sous le nom d'"American AI Initiative", a demandé au NIST (National Institute of Standards and Technology) de commencer à travailler sur l'engagement fédéral des normes d'IA (février 2019).
  • En janvier 2020, aux États-Unis, l' administration Trump a publié un projet de décret émis par l'Office of Management and Budget (OMB) sur le « Guidance for Regulation of Artificial Intelligence Applications » (« OMB AI Memorandum »). besoin d'investir dans les applications d'IA, de renforcer la confiance du public dans l'IA, de réduire les obstacles à l'utilisation de l'IA et de maintenir la technologie américaine de l'IA compétitive sur un marché mondial. les avancées de la technologie américaine de l'IA semblent être l'objectif et la priorité.De plus, les entités fédérales sont même encouragées à utiliser l'ordre pour contourner les lois et réglementations d'un État qu'un marché pourrait considérer comme trop onéreuses à respecter.
  • Le Computing Community Consortium (CCC) a pesé avec un projet de rapport de plus de 100 pages - Une feuille de route communautaire de 20 ans pour la recherche en intelligence artificielle aux États-Unis
  • Le Center for Security and Emerging Technology conseille les décideurs américains sur les implications de sécurité des technologies émergentes telles que l'IA.
  • Le Parti non humain se présente aux élections en Nouvelle-Galles du Sud , avec des politiques concernant l'octroi de droits aux robots, aux animaux et, en général, aux entités non humaines dont l'intelligence a été négligée.

Initiatives académiques :

Le rôle et l'impact de la fiction dans l'éthique de l'IA

Le rôle de la fiction en ce qui concerne l'éthique de l'IA a été complexe. On peut distinguer trois niveaux auxquels la fiction a eu un impact sur le développement de l'intelligence artificielle et de la robotique : Historiquement, la fiction a préfiguré des tropes communs qui ont non seulement influencé les objectifs et les visions de l'IA, mais ont également souligné les questions éthiques et les peurs communes qui y sont associées. Au cours de la seconde moitié du XXe et des premières décennies du XXIe siècle, la culture populaire, en particulier les films, les séries télévisées et les jeux vidéo, ont fréquemment fait écho aux préoccupations et aux projections dystopiques autour des questions éthiques concernant l'IA et la robotique. Récemment, ces thèmes ont également été de plus en plus traités dans la littérature au-delà du domaine de la science-fiction. Et, comme le note Carme Torras, enseignant-chercheur à l' Institut de Robòtica i Informàtica Industrial (Institut de robotique et d'informatique industrielle) de l'Université technique de Catalogne, dans l'enseignement supérieur, la science-fiction est également de plus en plus utilisée pour enseigner les questions éthiques liées à la technologie dans diplômes technologiques.

Histoire

Historiquement parlant, l'investigation des implications morales et éthiques des « machines à penser » remonte au moins aux Lumières : Leibniz pose déjà la question de savoir si l'on pourrait attribuer l'intelligence à un mécanisme qui se comporte comme s'il s'agissait d'un être sensible, de même que Descartes. , qui décrit ce qui pourrait être considéré comme une première version du test de Turing.

La période romantique a plusieurs fois imaginé des créatures artificielles qui échappent au contrôle de leur créateur avec des conséquences désastreuses, notamment dans le Frankenstein de Mary Shelley . La préoccupation largement répandue pour l'industrialisation et la mécanisation au 19e et au début du 20e siècle, cependant, a amené les implications éthiques des développements techniques déséquilibrés au premier plan de la fiction : RUR - Rossum's Universal Robots , le jeu de Karel Čapek de robots sensibles dotés d'émotions utilisés comme travail d'esclave est non seulement crédité de l'invention du terme « robot » (dérivé du mot tchèque pour le travail forcé, robota ) mais a également été un succès international après sa création en 1921. La pièce de George Bernard Shaw Retour à Metuselah , publiée en 1921, interroge à un point la validité des machines pensantes qui agissent comme des humains ; Le film Metropolis de Fritz Lang de 1927 montre un androïde menant le soulèvement des masses exploitées contre le régime oppressif d'une société technocratique.

L'impact de la fiction sur le développement technologique

Si l'anticipation d'un avenir dominé par une technologie potentiellement indomptable a longtemps nourri l'imaginaire des écrivains et des cinéastes, une question a été moins fréquemment analysée, à savoir dans quelle mesure la fiction a joué un rôle d'inspiration pour le développement technologique. Il a été documenté, par exemple, que le jeune Alan Turing a vu et apprécié la pièce Back to Metuselah de GB Shaw en 1933 (juste 3 ans avant la publication de son premier article fondateur qui a jeté les bases de l'ordinateur numérique), et il aurait probablement ont au moins eu connaissance de pièces comme RUR , qui a connu un succès international et traduit dans de nombreuses langues.

On pourrait également se demander quel rôle la science-fiction a joué dans l'établissement des principes et des implications éthiques du développement de l'IA : Isaac Asimov a conceptualisé ses Trois lois de la robotique dans la nouvelle de 1942 « Runaround », qui fait partie de la collection de nouvelles I, Robot ; Le court métrage « The sentinel » d' Arthur C. Clarke , sur lequel est basé le film 2001 de Stanley Kubrick : A Space Odyssey , a été écrit en 1948 et publié en 1952. Un autre exemple (parmi beaucoup d'autres) serait les nombreuses nouvelles et romans de Philip K. Dicks. – en particulier les androïdes rêvent-ils de moutons électriques ? , publié en 1968, et présentant sa propre version d'un test de Turing, le test de Voight-Kampff , pour évaluer les réponses émotionnelles des androïdes impossibles à distinguer des humains. Le roman est devenu plus tard la base du film influent de 1982 Blade Runner de Ridley Scott.

La science-fiction est aux prises avec les implications éthiques des développements de l'IA depuis des décennies, et a ainsi fourni un modèle pour les problèmes éthiques qui pourraient émerger une fois que quelque chose s'apparentant à l'intelligence artificielle générale aura été atteint : le film de 2013 de Spike Jonze Her montre ce qui peut arriver si quand un utilisateur tombe amoureux de la voix séduisante de son système d'exploitation pour smartphone ; Ex Machina , en revanche, pose une question plus difficile : si nous étions confrontés à une machine clairement reconnaissable, faite uniquement d'humains par un visage et une voix empathique et sensuelle, serions-nous encore capables d'établir une connexion émotionnelle, encore être séduits par ce ? (Le film fait écho à un thème déjà présent deux siècles plus tôt, dans la nouvelle de 1817 « The Sandmann » d' ETA Hoffmann. )

Le thème de la coexistence avec des êtres sensibles artificiels est également le thème de deux romans récents : Machines like me de Ian McEwan , publié en 2019, implique (entre autres) un triangle amoureux impliquant une personne artificielle ainsi qu'un couple humain. Klara and the Sun de Kazuo Ishiguro , lauréat du prix Nobel , publié en 2021, est le récit à la première personne de Klara, une 'AF' (amie artificielle), qui essaie, à sa manière, d'aider la fille avec qui elle vit. , qui, après avoir été « soulevé » (c'est-à-dire avoir subi des améliorations génétiques), souffre d'une étrange maladie.

Séries télévisées

Alors que les questions éthiques liées à l'IA figurent dans la littérature de science-fiction et les longs métrages depuis des décennies, l'émergence de la série télévisée en tant que genre permettant des scénarios et le développement de personnages plus longs et plus complexes a conduit à des contributions importantes qui traitent des implications éthiques. de la technologie. La série suédoise Real Humans (2012-2013) a abordé les conséquences éthiques et sociales complexes liées à l'intégration des êtres sensibles artificiels dans la société. La série d'anthologies britanniques de science-fiction dystopique Black Mirror (2013-2019) était particulièrement remarquable pour avoir expérimenté des développements fictifs dystopiques liés à une grande variété de développements technologiques ressentis. La série française Osmosis (2020) et la série britannique The One traitent de la question de ce qui peut arriver si la technologie essaie de trouver le partenaire idéal pour une personne.

Visions futures dans la fiction et les jeux

Le film The Thirteenth Floor suggère un avenir où des mondes simulés avec des habitants sensibles sont créés par des consoles de jeux informatiques à des fins de divertissement. Le film The Matrix suggère un avenir où les espèces dominantes sur la planète Terre sont des machines sensibles et où l'humanité est traitée avec le plus grand spécisme . La nouvelle " The Planck Dive " suggère un avenir où l'humanité s'est transformée en un logiciel qui peut être dupliqué et optimisé et où la distinction pertinente entre les types de logiciels est sensible et non sensible. La même idée peut être trouvée dans l' hologramme médical d'urgence de Starship Voyager , qui est une copie apparemment sensible d'un sous-ensemble réduit de la conscience de son créateur, le Dr Zimmerman , qui, pour les meilleurs motifs, a créé le système pour donner des soins médicaux. assistance en cas d'urgence. Les films Bicentennial Man et AI traitent de la possibilité de robots sensibles qui pourraient aimer. Moi, Robot, j'ai exploré certains aspects des trois lois d'Asimov. Tous ces scénarios tentent de prévoir les conséquences potentiellement contraires à l'éthique de la création d'ordinateurs sensibles.

L'éthique de l'intelligence artificielle est l'un des thèmes principaux de la série de jeux Mass Effect de BioWare . Il explore le scénario d'une civilisation créant accidentellement une IA grâce à une augmentation rapide de la puissance de calcul via un réseau de neurones à l' échelle mondiale . Cet événement a provoqué un schisme éthique entre ceux qui pensaient qu'il était approprié d'accorder des droits organiques aux Geth nouvellement sensibles et ceux qui continuaient à les considérer comme des machines jetables et se battaient pour les détruire. Au-delà du conflit initial, la complexité de la relation entre les machines et leurs créateurs est un autre thème récurrent tout au long de l'histoire.

Au fil du temps, les débats ont eu tendance à se focaliser de moins en moins sur la possibilité et davantage sur la désirabilité , comme le soulignent les débats "Cosmist" et "Terran" initiés par Hugo de Garis et Kevin Warwick . Un cosmiste, selon Hugo de Garis, cherche en fait à construire des successeurs plus intelligents à l'espèce humaine.

Des experts de l'Université de Cambridge ont fait valoir que l'IA est dépeinte dans la fiction et la non-fiction en grande partie comme racialement blanche, d'une manière qui fausse la perception de ses risques et de ses avantages.

Voir également

Remarques

Liens externes