Superintelligence : chemins, dangers, stratégies -Superintelligence: Paths, Dangers, Strategies

Superintelligence :
chemins, dangers, stratégies
Superintelligence.jpg
Première édition
Auteur Nick Bostrom
Pays Royaume-Uni
Langue Anglais
Sujet Intelligence artificielle
Genre Philosophie , vulgarisation scientifique
Éditeur Presse de l'Université d'Oxford
Date de publication
3 juillet 2014 (Royaume-Uni)
1er septembre 2014 (États-Unis)
Type de support Impression, e-book, livre audio
Pages 352 p.
ISBN 978-019678112
Précédé par Risques catastrophiques mondiaux 

Superintelligence: Paths, Dangers, Strategies est un livre de 2014 du philosophe suédois Nick Bostrom de l' Université d'Oxford . Il soutient que si les cerveaux des machines surpassent les cerveaux humains en intelligence générale, alors cette nouvelle superintelligence pourrait remplacer les humains en tant que forme de vie dominante sur Terre. Des machines suffisamment intelligentes pourraient améliorer leurs propres capacités plus rapidement que les informaticiens humains, et le résultat pourrait être une catastrophe existentielle pour les humains.

Le livre de Bostrom a été traduit dans de nombreuses langues.

Synopsis

On ne sait pas si l' intelligence artificielle au niveau humain arrivera dans quelques années, plus tard ce siècle, ou pas avant les siècles futurs. Quelle que soit l'échelle de temps initiale, une fois l'intelligence artificielle au niveau humain développée, un système « superintelligent » qui « dépasse largement les performances cognitives des humains dans pratiquement tous les domaines d'intérêt » suivrait, très probablement, étonnamment rapidement. Une telle superintelligence serait très difficile à contrôler ou à restreindre.

Alors que les objectifs ultimes des superintelligences peuvent varier considérablement, une superintelligence fonctionnelle générera spontanément, en tant que sous- objectifs naturels, des « objectifs instrumentaux » tels que l'auto-préservation et l'intégrité du contenu des objectifs, l'amélioration cognitive et l'acquisition de ressources. Par exemple, un agent dont le seul objectif final est de résoudre l' hypothèse de Riemann (une célèbre conjecture mathématique non résolue ) pourrait créer et agir sur un sous-objectif de transformer la Terre entière en une forme de computronium (matériau hypothétique optimisé pour le calcul) pour aider à le calcul. La superintelligence résisterait de manière proactive à toute tentative extérieure de désactiver la superintelligence ou d'empêcher l'achèvement de son sous-objectif. Afin d'éviter une telle catastrophe existentielle , il est nécessaire de résoudre avec succès le " problème de contrôle de l'IA " pour la première superintelligence. La solution pourrait consister à inculquer à la superintelligence des objectifs compatibles avec la survie et le bien-être humains. Résoudre le problème de contrôle est étonnamment difficile car la plupart des objectifs, lorsqu'ils sont traduits en code implémentable par machine, conduisent à des conséquences imprévues et indésirables.

Le hibou sur la couverture du livre fait allusion à une analogie que Bostrom appelle la « Fable inachevée des moineaux ». Un groupe de moineaux décide de trouver un poussin hibou et de l'élever comme serviteur. Ils imaginent avec impatience "à quel point la vie serait facile" s'ils avaient un hibou pour aider à construire leurs nids, défendre les moineaux et les libérer pour une vie de loisirs. Les moineaux commencent la difficile recherche d'un œuf de chouette ; seul "Scronkfinkle", un "moineau borgne au tempérament agité", suggère de réfléchir à la question compliquée de savoir comment apprivoiser la chouette avant de l'amener "au milieu de nous". Les autres moineaux hésitent ; la recherche d'un œuf de chouette sera déjà assez difficile en soi : « Pourquoi ne pas chercher la chouette d'abord et régler les détails plus tard ? Bostrom déclare que « On ne sait pas comment l'histoire se termine », mais il dédie son livre à Scronkfinkle.

Accueil

Le livre s'est classé 17e sur la liste du New York Times des livres scientifiques les plus vendus en août 2014. Le même mois, le magnat des affaires Elon Musk a fait la une des journaux en approuvant le livre selon lequel l'intelligence artificielle est potentiellement plus dangereuse que les armes nucléaires. Les travaux de Bostrom sur la superintelligence ont également influencé la préoccupation de Bill Gates pour les risques existentiels auxquels l'humanité est confrontée au cours du siècle à venir. Dans une interview accordée en mars 2015 au PDG de Baidu , Robin Li , Gates a déclaré qu'il "recommanderait fortement" Superintelligence . Selon le New Yorker , les philosophes Peter Singer et Derek Parfit l' ont « reçu comme une œuvre d'importance ».

Le rédacteur scientifique du Financial Times a découvert que les écrits de Bostrom « virent parfois à un langage opaque qui trahit son passé de professeur de philosophie », mais démontre de manière convaincante que le risque de la superintelligence est suffisamment important pour que la société commence à réfléchir dès maintenant aux moyens de doter l'avenir de l'intelligence artificielle. avec des valeurs positives. Une critique dans The Guardian a souligné que "même les machines les plus sophistiquées créées jusqu'à présent ne sont intelligentes que dans un sens limité" et que "les attentes que l'IA dépasserait bientôt l'intelligence humaine ont été anéanties pour la première fois dans les années 1960", mais trouve un terrain d'entente avec Bostrom en conseillant qu'« il serait mal avisé d'écarter complètement la possibilité ».

Certains collègues de Bostrom suggèrent que la guerre nucléaire présente une plus grande menace pour l'humanité que la superintelligence, tout comme la perspective future de la militarisation de la nanotechnologie et de la biotechnologie . The Economist a déclaré que « Bostrom est obligé de passer une grande partie du livre à discuter de spéculations fondées sur des conjectures plausibles... mais le livre est néanmoins précieux. Les implications de l'introduction d'une deuxième espèce intelligente sur Terre sont suffisamment importantes pour mériter une réflexion approfondie, même si la perspective de le faire semble lointaine." Ronald Bailey a écrit dans le libertarien Reason que Bostrom fait valoir que la résolution du problème de contrôle de l'IA est la « tâche essentielle de notre époque ». Selon Tom Chivers du Daily Telegraph , le livre est difficile à lire, mais néanmoins enrichissant. Un critique du Journal of Experimental & Theoretical Artificial Intelligence a rompu avec les autres en déclarant que le « style d'écriture du livre est clair », et a félicité le livre pour avoir évité « un jargon trop technique ». Un critique de Philosophie a jugé Superintelligence « plus réaliste » que The Singularity Is Near de Ray Kurzweil .

Voir également

Les références