Eliezer Yudkowsky - Eliezer Yudkowsky

Eliezer Yudkowsky
Eliezer Yudkowsky, Stanford 2006 (recadrage carré).jpg
Yudkowsky à l'Université de Stanford en 2006
Née ( 1979-09-11 )11 septembre 1979 (42 ans)
Chicago , Illinois , États-Unis
Nationalité américain
Organisation Institut de recherche en intelligence artificielle
Connu pour Création du terme intelligence artificielle conviviale
Recherche sur la sécurité de l'IA Rédaction de
rationalité
Fondateur de LessWrong
Site Internet Yudkowsky .net

Eliezer Shlomo Yudkowsky (né le 11 septembre 1979) est un théoricien américain de la décision, théoricien de l'intelligence artificielle (IA) et écrivain surtout connu pour avoir popularisé l'idée d' une intelligence artificielle conviviale . Il est co-fondateur et chercheur au Machine Intelligence Research Institute (MIRI), un organisme de recherche privé à but non lucratif basé à Berkeley, en Californie . Ses travaux sur la perspective d'une fuite explosion de l' intelligence était une influence sur Nick Bostrom de superintelligence: Les chemins, les dangers, les stratégies .

Travailler dans la sécurité de l'intelligence artificielle

Apprentissage des objectifs et incitations dans les systèmes logiciels

Les vues de Yudkowsky sur les défis de sécurité posés par les générations futures des systèmes d' IA sont décrits dans le manuel de premier cycle en AI, Stuart Russell et Peter Norvig de l' intelligence artificielle: une approche moderne . Notant la difficulté de spécifier formellement des objectifs généraux à la main, Russell et Norvig citent la proposition de Yudkowsky selon laquelle les systèmes autonomes et adaptatifs doivent être conçus pour apprendre un comportement correct au fil du temps :

Yudkowsky (2008) explique plus en détail comment concevoir une IA conviviale . Il affirme que la convivialité (un désir de ne pas nuire aux humains) doit être conçue dès le départ, mais que les concepteurs doivent reconnaître à la fois que leurs propres conceptions peuvent être imparfaites et que le robot apprendra et évoluera avec le temps. Ainsi, le défi est celui de la conception du mécanisme - concevoir un mécanisme pour faire évoluer l'IA sous un système de freins et contrepoids, et donner aux systèmes des fonctions utilitaires qui resteront conviviales face à de tels changements.

En réponse à la préoccupation de convergence instrumentale , où les systèmes de prise de décision autonomes avec des objectifs mal conçus auraient des incitations par défaut à maltraiter les humains, Yudkowsky et d'autres chercheurs de MIRI ont recommandé que des travaux soient effectués pour spécifier des agents logiciels qui convergent vers des comportements par défaut sûrs même lorsque leur les objectifs sont mal spécifiés.

Prévision des capacités

Dans le scénario d' explosion de l' intelligence hypothétique par IJ Good , les systèmes d'IA à auto-amélioration récursive passent rapidement d'une intelligence générale sous-humaine à superintelligente . Le livre de 2014 de Nick Bostrom Superintelligence: Paths, Dangers, Strategies esquisse en détail l'argument de Good, tout en citant les écrits de Yudkowsky sur le risque que l'anthropomorphisation des systèmes d'IA avancés amène les gens à mal comprendre la nature d'une explosion du renseignement. "L'IA pourrait faire un saut apparemment brusque dans l'intelligence purement en raison de l'anthropomorphisme, de la tendance humaine à considérer "l'idiot du village" et "Einstein" comme les extrémités de l'échelle de l'intelligence, au lieu de points presque indiscernables sur l'échelle des esprits -en général."

Dans Artificial Intelligence: A Modern Approach , les auteurs Stuart Russell et Peter Norvig soulèvent l'objection qu'il existe des limites connues à la résolution intelligente de problèmes à partir de la théorie de la complexité computationnelle ; s'il existe de fortes limites à l'efficacité avec laquelle les algorithmes peuvent résoudre diverses tâches informatiques, alors l'explosion de l'intelligence peut ne pas être possible.

Écriture de rationalité

Entre 2006 et 2009, Yudkowsky et Robin Hanson ont été les principaux contributeurs à Overcoming Bias , un blog de sciences cognitives et sociales parrainé par le Future of Humanity Institute de l'Université d'Oxford. En février 2009, Yudkowsky a fondé LessWrong , un « blog communautaire consacré à affiner l'art de la rationalité humaine ». Overcoming Bias a depuis fonctionné comme le blog personnel de Hanson.

Plus de 300 articles de blog de Yudkowsky sur la philosophie et la science (écrits à l'origine sur LessWrong et Overcoming Bias ) ont été publiés sous forme de livre électronique intitulé Rationality: From AI to Zombies par le Machine Intelligence Research Institute (MIRI) en 2015. MIRI a également publié Inadequate Equilibria , Yudkowsky's Ebook 2017 sur le thème des inefficacités sociétales.

Yudkowsky a également écrit plusieurs œuvres de fiction. Son fanfiction roman, Harry Potter et les Méthodes de la Rationalité , utilise des éléments de l' intrigue de JK Rowling de Harry Potter série pour illustrer des sujets scientifiques. Le New Yorker a décrit Harry Potter et les méthodes de rationalité comme un récit de l'original de Rowling "dans une tentative d'expliquer la magie de Harry par la méthode scientifique".

Vie privée

Yudkowsky est un autodidacte et n'a pas fréquenté l'école secondaire ou l'université. Il a été élevé dans le judaïsme orthodoxe.

Publications académiques

  • Yudkowsky, Eliezer (2007). "Les niveaux d'organisation dans l'intelligence générale" (PDF) . Intelligence Artificielle Générale . Berlin : Springer.
  • Yudkowsky, Eliezer (2008). « Les biais cognitifs affectant potentiellement le jugement des risques mondiaux » (PDF) . A Bostrom, Nick ; Ćirković, Milan (éd.). Risques catastrophiques mondiaux . Presses de l'Université d'Oxford. ISBN 978-0199606504.
  • Yudkowsky, Eliezer (2008). "L'intelligence artificielle en tant que facteur positif et négatif dans le risque global" (PDF) . A Bostrom, Nick ; Ćirković, Milan (éd.). Risques catastrophiques mondiaux . Presses de l'Université d'Oxford. ISBN 978-0199606504.
  • Yudkowsky, Eliezer (2011). « Systèmes de valeur complexes dans une IA conviviale » (PDF) . Intelligence générale artificielle : 4e conférence internationale, AGI 2011, Mountain View, Californie, États-Unis, 3-6 août 2011 . Berlin : Springer.
  • Yudkowsky, Eliezer (2012). "Intelligence Artificielle Amicale". En Éden, Ammon ; Maure, Jacques ; Søraker, John ; et al. (éd.). Hypothèses de singularité : un bilan scientifique et philosophique . La Collection Frontières. Berlin : Springer. p.  181 –195. doi : 10.1007/978-3-642-32560-1_10 . ISBN 978-3-642-32559-5.
  • Bostrom, Nick ; Yudkowsky, Eliezer (2014). « L'éthique de l'intelligence artificielle » (PDF) . En francique, Keith ; Ramsey, William (éd.). Le Manuel d'Intelligence Artificielle de Cambridge . New York : Cambridge University Press. ISBN 978-0-521-87142-6.
  • LaVictoire, Patrick ; Fallenstein, Benja; Yudkowsky, Eliezer ; Bárász, Mihály; Christiano, Paul; Herreshoff, Marcello (2014). "L'équilibre du programme dans le dilemme du prisonnier via le théorème de Löb" . Interaction multi-agents sans coordination préalable : articles de l'atelier AAAI-14 . Publications de l'AAAI.
  • Soares, Nate ; Fallenstein, Benja; Yudkowsky, Eliezer (2015). "Corrigibilité" (PDF) . Ateliers AAAI : Ateliers à la vingt-neuvième conférence AAAI sur l'intelligence artificielle, Austin, Texas, 25-26 janvier 2015 . Publications de l'AAAI.

Voir également

Les références

Liens externes