Chronologie de l'intelligence artificielle - Timeline of artificial intelligence

Il s'agit d'une chronologie de l' intelligence artificielle , ou peut-être même de l'intelligence synthétique .

Pré-XXe siècle

Date Développement
Antiquité Les mythes grecs d' Héphaïstos et de Pygmalion incorporaient l'idée de robots intelligents (comme Talos ) et d'êtres artificiels (comme Galatée et Pandore ).
On croyait que les statues mécaniques sacrées construites en Égypte et en Grèce étaient capables de sagesse et d'émotion. Hermès Trismégiste écrira « ils ont du sensus et du spiritus ... en découvrant la vraie nature des dieux, l'homme a pu la reproduire ». La loi mosaïque interdit l'utilisation d' automates dans la religion.
10ème siècle avant JC Yan Shi a présenté au roi Mu de Zhou des hommes mécaniques.
384 av. J.-C.-322 av. J.-C. Aristote a décrit le syllogisme , une méthode de pensée formelle, mécanique et de théorie de la connaissance dans L'Organon .
1er siècle Héron d' Alexandrie créa des hommes mécaniques et d'autres automates .
260 Porphyre de Tyros a écrit Isagogê qui catégorise la connaissance et la logique.
~800 Geber a développé la théorie alchimique arabe de Takwin , la création artificielle de la vie en laboratoire, jusqu'à et y compris la vie humaine .
1206 Al-Jazari a créé un orchestre programmable d'êtres humains mécaniques.
1275 Ramon Llull , théologien espagnol , invente l' Ars Magna , un outil permettant de combiner mécaniquement des concepts, basé sur un outil astrologique arabe , le Zaïre . La méthode sera encore développée par Gottfried Leibniz au 17ème siècle.
~1500 Paracelse prétendait avoir créé un homme artificiel à partir de magnétisme, de sperme et d'alchimie.
~1580 On dit que le rabbin Judah Loew ben Bezalel de Prague a inventé le Golem , un homme d'argile qui prend vie.
Début XVIIe siècle René Descartes a proposé que les corps des animaux ne soient rien de plus que des machines complexes (mais que les phénomènes mentaux sont d'une "substance" différente).
1620 Sir Francis Bacon a développé la théorie empirique des connaissances et introduit la logique inductive dans son travail La nouvelle Organon , une pièce de théâtre sur Aristote le titre de l'Organon .
1623 Wilhelm Schickard a dessiné une horloge calculatrice sur une lettre à Kepler . Ce sera la première de cinq tentatives infructueuses de conception d'une horloge à calcul à entrée directe au 17ème siècle (y compris les conceptions de Tito Burattini , Samuel Morland et René Grillet ).
1641 Thomas Hobbes a publié Leviathan et a présenté une théorie mécanique et combinatoire de la cognition. Il a écrit "... car la raison n'est rien d'autre que le calcul".
1642 Blaise Pascal a inventé la calculatrice mécanique , la première machine à calculer numérique .
1672 Gottfried Leibniz a amélioré les machines antérieures, ce qui rend la Reckoner Stepped faire la multiplication et la division . Il a également inventé le système de numération binaire et envisagé un calcul universel de raisonnement ( alphabet de la pensée humaine ) par lequel les arguments pourraient être décidés mécaniquement. Leibniz a travaillé sur l'attribution d'un numéro spécifique à chaque objet du monde, comme prélude à une solution algébrique à tous les problèmes possibles.
1726 Jonathan Swift a publié Les Voyages de Gulliver , qui comprend cette description du Moteur , une machine sur l'île de Laputa : "un Projet d'amélioration des Connaissances spéculatives par des Opérations Pratiques et Mécaniques" en utilisant cet "Appareil", "la Personne la plus ignorante à un prix raisonnable". Charge, et avec un peu de travail corporel, peut écrire des livres de philosophie, de poésie, de politique, de droit, de mathématiques et de théologie, avec la moindre aide du génie ou de l'étude." La machine est une parodie d' Ars Magna , une des inspirations du mécanisme de Gottfried Leibniz .
1750 Julien Offray de La Mettrie a publié L'Homme Machine , qui soutenait que la pensée humaine est strictement mécanique.
1769 Wolfgang von Kempelen a construit et fait des tournées avec son automate jouant aux échecs , Le Turc . Le Turc s'est avéré plus tard être un canular , impliquant un joueur d'échecs humain.
1818 Mary Shelley a publié l'histoire de Frankenstein ; ou le Prométhée moderne , une considération fictive de l'éthique de la création d' êtres sensibles .
1822-1859 Charles Babbage & Ada Lovelace ont travaillé sur des machines à calculer mécaniques programmables .
1837 Le mathématicien Bernard Bolzano a fait la première tentative moderne de formaliser la sémantique .
1854 George Boole a entrepris d'« étudier les lois fondamentales de ces opérations de l'esprit par lesquelles le raisonnement est effectué, pour les exprimer dans le langage symbolique d'un calcul », en inventant l'algèbre booléenne .
1863 Samuel Butler a suggéré que l' évolution darwinienne s'applique également aux machines et spécule qu'elles deviendront un jour conscientes et finiront par supplanter l'humanité.

20ième siècle

1901-1950

Date Développement
1913 Bertrand Russell et Alfred North Whitehead ont publié Principia Mathematica , qui a révolutionné la logique formelle .
1915 Leonardo Torres y Quevedo a construit un automate d'échecs, El Ajedrecista , et a publié des spéculations sur la pensée et les automates.
1923 La pièce de théâtre RUR (Rossum's Universal Robots) de Karel Čapek a ouvert ses portes à Londres. C'est la première utilisation du mot « robot » en anglais.
Années 1920 et 1930 Ludwig Wittgenstein et Rudolf Carnap ont conduit la philosophie à l'analyse logique de la connaissance . Alonzo Church a développé le Lambda Calculus pour étudier la calculabilité en utilisant la notation fonctionnelle récursive.
1931 Kurt Gödel a montré que des systèmes formels suffisamment puissants , s'ils sont cohérents, permettent la formulation de vrais théorèmes qui ne peuvent être prouvés par aucune machine de démonstration de théorèmes dérivant tous les théorèmes possibles des axiomes. Pour ce faire, il a dû construire un langage de programmation universel basé sur des nombres entiers, raison pour laquelle il est parfois appelé le "père de l'informatique théorique ".
1935 Les premiers travaux substantiels dans le domaine de l'intelligence artificielle ont été réalisés au milieu du XXe siècle par le logicien et pionnier de l'informatique britannique Alan Mathison Turing.
1940 Edward Condon affiche Nimatron , un ordinateur numérique qui jouait parfaitement Nim .
1941 Konrad Zuse a construit les premiers ordinateurs fonctionnels contrôlés par programme.
1943 Warren Sturgis McCulloch et Walter Pitts publient « A Logical Calculus of the Ideas Immanent in Nervous Activity » (1943), jetant les bases des réseaux de neurones artificiels .
Arturo Rosenblueth , Norbert Wiener et Julian Bigelow inventent le terme « cybernétique ». Le livre populaire de Wiener du même nom publié en 1948.
1945 La théorie des jeux, qui s'avérerait inestimable dans les progrès de l'IA, a été introduite avec l'article de 1944, Theory of Games and Economic Behavior, par le mathématicien John von Neumann et l' économiste Oskar Morgenstern .
Vannevar Bush a publié As We May Think ( The Atlantic Monthly , juillet 1945) une vision prémonitoire de l'avenir dans laquelle les ordinateurs assistent les humains dans de nombreuses activités.
1948 John von Neumann (cité par ET Jaynes ) en réponse à un commentaire lors d'une conférence selon lequel il était impossible pour une machine (du moins celle créée par l'homme) de penser : "Vous insistez sur le fait qu'il y a quelque chose qu'une machine ne peut pas faire. Si vous me dira précisément ce qu'une machine ne peut pas faire, alors je pourrai toujours faire une machine qui fera exactement cela !". Von Neumann faisait vraisemblablement allusion à la thèse de Church-Turing qui affirme que toute procédure efficace peut être simulée par un ordinateur (généralisé).

années 1950

Date Développement
1950 Alan Turing propose le test de Turing comme mesure de l'intelligence des machines.
Claude Shannon a publié une analyse détaillée du jeu d' échecs comme recherche .
Isaac Asimov a publié ses Trois lois de la robotique .
1951 Les premiers programmes d'IA fonctionnels ont été écrits en 1951 pour fonctionner sur la machine Ferranti Mark 1 de l' Université de Manchester : un programme de jeu de dames écrit par Christopher Strachey et un programme de jeu d'échecs écrit par Dietrich Prinz .
1952-1962 Arthur Samuel ( IBM ) a écrit le premier programme de jeu, pour les dames ( dames ), pour atteindre une compétence suffisante pour défier un amateur respectable. Son premier programme de jeu de dames a été écrit en 1952, et en 1955, il a créé une version qui a appris à jouer.
1956 La conférence d'été sur l'IA du Dartmouth College est organisée par John McCarthy , Marvin Minsky , Nathan Rochester d' IBM et Claude Shannon . McCarthy invente le terme d'intelligence artificielle pour la conférence.
La première démonstration du Logic Theorist (LT) écrit par Allen Newell , JC Shaw et Herbert A. Simon ( Carnegie Institute of Technology , maintenant Carnegie Mellon University ou CMU). Ceci est souvent appelé le premier programme d'IA, bien que le programme de dames de Samuel ait également une forte revendication.
1958 John McCarthy ( Massachusetts Institute of Technology ou MIT) a inventé le langage de programmation Lisp .
Herbert Gelernter et Nathan Rochester (IBM) ont décrit un prouveur de théorème en géométrie qui exploite un modèle sémantique du domaine sous forme de diagrammes de cas "typiques".
Conférence Teddington sur les processus Mécanisation de la pensée a eu lieu au Royaume - Uni et parmi les documents présentés étaient de John McCarthy programmes avec Common Sense, Oliver Selfridge « s Pandemonium, et Marvin Minsky » s Certaines méthodes de Heuristique Programmation et de l' intelligence artificielle.
1959 Le General Problem Solver (GPS) a été créé par Newell, Shaw et Simon à la CMU.
John McCarthy et Marvin Minsky ont fondé le MIT AI Lab .
Fin des années 50, début des années 60 Margaret Masterman et ses collègues de l' Université de Cambridge conçoivent des réseaux sémantiques pour la traduction automatique .

années 1960

Date Développement
années 1960 Ray Solomonoff jette les bases d'une théorie mathématique de l'IA, en introduisant des méthodes bayésiennes universelles pour l'inférence et la prédiction inductives.
1960 Symbiose homme-ordinateur par JCR Licklider.
1961 James Slagle (thèse de doctorat, MIT) a écrit (en Lisp) le premier programme d' intégration symbolique , SAINT, qui résolvait des problèmes de calcul au niveau collégial.
Dans Minds, Machines and Gödel , John Lucas a nié la possibilité d'une intelligence artificielle pour des raisons logiques ou philosophiques . Il s'est référé au résultat de Kurt Gödel de 1931 : les systèmes formels suffisamment puissants sont soit incohérents, soit permettent de formuler de vrais théorèmes impossibles à prouver par n'importe quelle IA démontrant des théorèmes dérivant tous les théorèmes démontrables des axiomes. Puisque les humains sont capables de « voir » la vérité de tels théorèmes, les machines ont été jugées inférieures.
Le robot industriel d' Unimation , Unimate, a travaillé sur une chaîne de montage automobile de General Motors .
1963 Le programme de Thomas Evans, ANALOGY, écrit dans le cadre de ses travaux de doctorat au MIT, a démontré que les ordinateurs peuvent résoudre les mêmes problèmes d' analogie que ceux posés par les tests de QI .
Edward Feigenbaum et Julian Feldman ont publié Computers and Thought , le premier recueil d'articles sur l'intelligence artificielle.
Leonard Uhr et Charles Vossler ont publié « A Pattern Recognition Program That Generates, Evaluates, and Adjusts Its Own Operators », qui décrit l'un des premiers programmes d'apprentissage automatique capable d'acquérir et de modifier des fonctionnalités de manière adaptative et de surmonter ainsi les limitations des simples perceptrons de Rosenblatt .
1964 La thèse de Danny Bobrow au MIT (rapport technique n°1 du groupe d' intelligence artificielle du MIT, Project MAC ) montre que les ordinateurs peuvent comprendre suffisamment bien le langage naturel pour résoudre correctement les problèmes de mots algébriques .
La thèse du MIT de Bertram Raphael sur le programme SIR démontre la puissance d'une représentation logique des connaissances pour les systèmes de questions-réponses.
1965 Lotfi Zadeh de l'UC Berkeley publie son premier article présentant la logique floue « Ensembles flous » (Information and Control 8 : 338–353).
J. Alan Robinson a inventé une procédure de preuve mécanique , la méthode de résolution, qui a permis aux programmes de travailler efficacement avec la logique formelle comme langage de représentation.
Joseph Weizenbaum (MIT) a créé ELIZA , un programme interactif qui entretient un dialogue en anglais sur n'importe quel sujet. C'était un jouet populaire dans les centres d'IA sur ARPANET lorsqu'une version qui « simulait » le dialogue d'un psychothérapeute a été programmée.
Edward Feigenbaum a lancé Dendral , un effort de dix ans pour développer un logiciel permettant de déduire la structure moléculaire des composés organiques à l'aide de données d'instruments scientifiques. C'était le premier système expert .
1966 Ross Quillian (thèse de doctorat, Carnegie Inst. of Technology, maintenant CMU) a fait la démonstration des réseaux sémantiques .
Atelier Machine Intelligence à Édimbourg - le premier d'une série annuelle influente organisée par Donald Michie et d'autres.
Un rapport négatif sur la traduction automatique tue beaucoup de travail dans le traitement du langage naturel (PNL) pendant de nombreuses années.
Le programme Dendral (Edward Feigenbaum, Joshua Lederberg , Bruce Buchanan, Georgia Sutherland à l'Université de Stanford ) a démontré son interprétation des spectres de masse sur les composés chimiques organiques. Premier programme réussi basé sur la connaissance pour le raisonnement scientifique.
1968 Joel Moses (doctorat au MIT) a démontré la puissance du raisonnement symbolique pour les problèmes d'intégration dans le programme Macsyma . Premier programme de connaissances en mathématiques réussi .
Richard Greenblatt (programmeur) au MIT a construit un programme de jeu d'échecs basé sur la connaissance , MacHack , qui était assez bon pour obtenir une note de classe C dans les tournois.
Le programme de Wallace et Boulton, Snob (Comp.J. 11(2) 1968), pour la classification non supervisée (clustering) utilise le critère Bayesian Minimum Message Length , une réalisation mathématique du rasoir d'Occam .
1969 Stanford Research Institute (SRI) : Shakey the Robot , a démontré qu'il combinait la locomotion animale , la perception et la résolution de problèmes .
Roger Schank (Stanford) a défini un modèle de dépendance conceptuel pour la compréhension du langage naturel . Développé plus tard (dans des thèses de doctorat à l'Université de Yale ) pour une utilisation dans la compréhension de l'histoire par Robert Wilensky et Wendy Lehnert, et pour une utilisation dans la compréhension de la mémoire par Janet Kolodner.
Yorick Wilks (Stanford) a développé la vision de la cohérence sémantique du langage appelée Preference Semantics, incarnée dans le premier programme de traduction automatique basé sur la sémantique, et à la base de nombreuses thèses de doctorat depuis, telles que Bran Boguraev et David Carter à Cambridge.
Première conférence internationale conjointe sur l'intelligence artificielle ( IJCAI ) tenue à Stanford.
Marvin Minsky et Seymour Papert publient Perceptrons , démontrant les limites jusque-là non reconnues de cette structure à deux couches, et ce livre est considéré par certains comme marquant le début de l' hiver de l' IA des années 1970, un échec de la confiance et du financement de l'IA. Néanmoins, des progrès significatifs dans le domaine se sont poursuivis (voir ci-dessous).
McCarthy et Hayes ont commencé la discussion sur le problème du cadre avec leur essai, "Some Philosophical Problems from the Standpoint of Artificial Intelligence".

années 1970

Date Développement
Début des années 1970 Jane Robinson et Don Walker ont créé un groupe influent de traitement du langage naturel au SRI.
1970 Seppo Linnainmaa publie le mode inverse de différenciation automatique . Cette méthode est devenue plus tard connue sous le nom de rétropropagation et est largement utilisée pour former des réseaux de neurones artificiels .
Jaime Carbonell (Sr.) a développé SCHOLAR, un programme interactif d' enseignement assisté par ordinateur basé sur les réseaux sémantiques comme représentation des connaissances.
Bill Woods a décrit les réseaux de transition augmentés (ATN) comme une représentation de la compréhension du langage naturel.
Le programme de doctorat de Patrick Winston , ARCH, au MIT a appris des concepts à partir d'exemples dans le monde des blocs pour enfants.
1971 La thèse de doctorat de Terry Winograd ( MIT ) a démontré la capacité des ordinateurs à comprendre des phrases en anglais dans un monde restreint de blocs pour enfants, en couplant son programme de compréhension du langage, SHRDLU , avec un bras robotique qui exécutait des instructions tapées en anglais.
Les travaux sur le prouveur du théorème de Boyer-Moore ont commencé à Édimbourg.
1972 Langage de programmation Prolog développé par Alain Colmerauer .
Earl Sacerdoti a développé l'un des premiers programmes de planification hiérarchique, ABSTRIPS.
1973 Le Assembly Robotics Group de l' Université d'Édimbourg construit Freddy Robot, capable d'utiliser la perception visuelle pour localiser et assembler des modèles. (Voir Edinburgh Freddy Assembly Robot : un système d'assemblage polyvalent contrôlé par ordinateur.)
Le rapport Lighthill donne un verdict largement négatif sur la recherche en IA en Grande-Bretagne et constitue la base de la décision du gouvernement britannique de cesser de soutenir la recherche en IA dans toutes les universités sauf deux.
1974 La thèse de doctorat de Ted Shortliffe sur le programme MYCIN (Stanford) a démontré une approche très pratique basée sur des règles pour les diagnostics médicaux, même en présence d'incertitude. Bien qu'il ait emprunté à DENDRAL, ses propres contributions ont fortement influencé l'avenir du développement de systèmes experts , en particulier les systèmes commerciaux.
1975 Earl Sacerdoti a développé des techniques de planification d'ordre partiel dans son système NOAH, remplaçant le paradigme précédent de recherche parmi les descriptions d'espace d'état. NOAH a été appliqué à SRI International pour diagnostiquer et réparer de manière interactive les systèmes électromécaniques.
Austin Tate a développé le système de planification hiérarchique Nonlin capable de rechercher un espace de plans partiels caractérisés comme des approches alternatives à la structure d'objectifs sous-jacente du plan.
Marvin Minsky a publié son article très lu et influent sur les cadres en tant que représentation de la connaissance, dans lequel de nombreuses idées sur les schémas et les liens sémantiques sont rassemblées.
Le programme d'apprentissage Meta-Dendral a produit de nouveaux résultats en chimie (certaines règles de la spectrométrie de masse ), les premières découvertes scientifiques par ordinateur à être publiées dans une revue à comité de lecture.
Milieu des années 1970 Barbara Grosz (SRI) a établi des limites aux approches traditionnelles de l'IA pour la modélisation du discours. Des travaux ultérieurs de Grosz, Bonnie Webber et Candace Sidner ont développé la notion de « centrage », utilisée pour établir la focalisation du discours et des références anaphoriques dans le traitement du langage naturel .
David Marr et ses collègues du MIT décrivent le « principal sketch » et son rôle dans la perception visuelle .
1976 Douglas Lenat du programme AM (thèse de doctorat de Stanford) a démontré le modèle de découverte (recherche guidée vaguement pour intéressantes conjectures).
Randall Davis a démontré la puissance du raisonnement méta-niveau dans sa thèse de doctorat à Stanford.
1978 Tom Mitchell , à Stanford, a inventé le concept d' espaces de version pour décrire l' espace de recherche d'un programme de formation de concept.
Herbert A. Simon remporte le prix Nobel d'économie pour sa théorie de la rationalité limitée , l'une des pierres angulaires de l'IA dite « satisficing ».
Le programme MOLGEN, écrit à Stanford par Mark Stefik et Peter Friedland, a démontré qu'une représentation de la connaissance en programmation orientée objet peut être utilisée pour planifier des expériences de clonage de gènes .
1979 Bill thèse de doctorat de VanMelle à Stanford a démontré la généralité de MYCIN représentation de la connaissance et le style de raisonnement dans son EMYCIN programme, le modèle pour de nombreux systèmes d'experts commerciaux « coquilles ».
Jack Myers et Harry Pople de l' Université de Pittsburgh ont développé INTERNIST, un programme de diagnostic médical fondé sur les connaissances et les connaissances cliniques du Dr Myers .
Cordell Green , David Barstow, Elaine Kant et d'autres à Stanford ont fait la démonstration du système CHI pour la programmation automatique .
Le Stanford Cart, construit par Hans Moravec , devient le premier véhicule autonome contrôlé par ordinateur lorsqu'il traverse avec succès une pièce remplie de chaises et fait le tour du Stanford AI Lab .
BKG, un programme de backgammon écrit par Hans Berliner à la CMU , bat le champion du monde en titre (en partie par chance).
Drew McDermott et Jon Doyle au MIT , et John McCarthy à Stanford commencent à publier des travaux sur les logiques non monotones et les aspects formels du maintien de la vérité.
Fin des années 1970 La ressource SUMEX-AIM de Stanford, dirigée par Ed Feigenbaum et Joshua Lederberg, démontre la puissance de l'ARPAnet pour la collaboration scientifique.

années 1980

Date Développement
années 1980 Machines Lisp développées et commercialisées. Premiers shells de systèmes experts et applications commerciales.
1980 Première conférence nationale de l' Association américaine pour l'intelligence artificielle (AAAI) tenue à Stanford.
1981 Danny Hillis conçoit la machine de connexion, qui utilise l' informatique parallèle pour apporter une nouvelle puissance à l'IA et au calcul en général. (Fondation plus tard de Thinking Machines Corporation )
1982 Le projet de systèmes informatiques de cinquième génération (FGCS), une initiative du ministère japonais du Commerce international et de l'Industrie, lancé en 1982, pour créer un "ordinateur de cinquième génération" (voir l'histoire du matériel informatique) qui était censé effectuer de nombreux calculs en utilisant un parallélisme massif .
1983 John Laird et Paul Rosenbloom, en collaboration avec Allen Newell , complètent les mémoires de la CMU sur Soar (programme).
James F. Allen invente l'Interval Calculus, la première formalisation largement utilisée des événements temporels.
Milieu des années 80 Les réseaux de neurones sont largement utilisés avec l' algorithme de rétropropagation , également connu sous le nom de mode inverse de différenciation automatique publié par Seppo Linnainmaa en 1970 et appliqué aux réseaux de neurones par Paul Werbos .
1985 Le programme de dessin autonome, AARON , créé par Harold Cohen , est présenté à la conférence nationale de l'AAAI (basé sur plus d'une décennie de travail, et avec des travaux ultérieurs montrant des développements majeurs).
1986 L'équipe d' Ernst Dickmanns de l' Université Bundeswehr de Munich construit les premières voitures robotisées, roulant jusqu'à 55 mph dans des rues désertes.
Barbara Grosz et Candace Sidner créent le premier modèle informatique du discours , établissant le champ de recherche.
1987 Marvin Minsky a publié The Society of Mind , une description théorique de l'esprit en tant qu'ensemble d' agents coopérants . Il avait donné des conférences sur l'idée pendant des années avant la sortie du livre (cf Doyle 1983).
À peu près à la même époque, Rodney Brooks a présenté l' architecture de subsomption et la robotique basée sur le comportement en tant que modèle modulaire plus minimaliste d'intelligence naturelle ; Nouvelle IA .
Lancement commercial de la génération 2.0 d'Alacrity par Alacritous Inc./Allstar Advice Inc. Toronto, le premier système commercial de conseil stratégique et managérial. Le système était basé sur un système expert auto-développé à enchaînement avancé avec 3 000 règles sur l'évolution des marchés et des stratégies concurrentielles et co-écrit par Alistair Davidson et Mary Chung, fondateurs de la société avec le moteur sous-jacent développé par Paul Tarvydas. Le système Alacrity comprenait également un petit système d'experts financiers qui interprétait les états financiers et les modèles.
1989 Le développement de l' intégration métal-oxyde-semiconducteur (MOS) à très grande échelle (VLSI), sous la forme de la technologie MOS complémentaire (CMOS), a permis le développement de la technologie pratique des réseaux de neurones artificiels (ANN) dans les années 1980. Une publication historique dans le domaine était le livre de 1989 Analog VLSI Implementation of Neural Systems par Carver A. Mead et Mohammed Ismail.
Le doyen Pomerleau de la CMU crée ALVNN (An Autonomous Land Vehicle in a Neural Network).

années 90

Date Développement
années 90 Des avancées majeures dans tous les domaines de l'IA, avec des démonstrations significatives en apprentissage automatique, tutorat intelligent , raisonnement basé sur des cas, planification multi-agents, planification , raisonnement incertain, exploration de données , compréhension et traduction du langage naturel, vision, réalité virtuelle , jeux et d'autres sujets.
Début des années 90 TD-Gammon , un programme de backgammon écrit par Gerry Tesauro, démontre que le renforcement (apprentissage) est suffisamment puissant pour créer un programme de jeu de niveau championnat en rivalisant favorablement avec des joueurs de classe mondiale.
1991 L' application de planification DART déployée pendant la première guerre du Golfe a remboursé l' investissement de 30 ans de la DARPA dans la recherche sur l'IA.
1992 Carol Stoker et l'équipe de robotique Ames de la NASA explorent la vie marine en Antarctique avec un robot sous-marin téléprésence ROV exploité à partir de la glace près de McMurdo Bay, en Antarctique et à distance via une liaison satellite depuis Moffett Field, en Californie.
1993 Ian Horswill a étendu la robotique basée sur le comportement en créant Polly , le premier robot à naviguer en utilisant la vision et à fonctionner à des vitesses animales (1 mètre/seconde).
Rodney Brooks , Lynn Andrea Stein et Cynthia Breazeal ont lancé le projet MIT Cog largement médiatisé avec de nombreux collaborateurs, dans le but de construire un enfant robot humanoïde en seulement cinq ans.
La société ISX remporte le prix de l'"entrepreneur DARPA de l'année" pour l' outil d'analyse et de replanification dynamique (DART) qui aurait remboursé l'intégralité de l'investissement du gouvernement américain dans la recherche sur l'IA depuis les années 1950.
1994 Lotfi Zadeh de l'UC Berkeley crée une « informatique douce » et construit un réseau mondial de recherche avec une fusion de la science neuronale et des systèmes de réseaux neuronaux , de la théorie des ensembles flous et des systèmes flous , des algorithmes évolutionnaires, de la programmation génétique et de la théorie du chaos et des systèmes chaotiques (« Fuzzy Logic, Neural Networks, and Soft Computing," Communications of the ACM, mars 1994, Vol. 37 No. 3, pages 77-84).
Avec des passagers à bord, les voitures-robots jumelles VaMP et VITA-2 d' Ernst Dickmanns et de Daimler-Benz parcourent plus de mille kilomètres sur une autoroute parisienne à trois voies dans une circulation dense standard à des vitesses allant jusqu'à 130 km/h. Ils démontrent la conduite autonome dans les voies libres, la conduite en convoi et les changements de voie à gauche et à droite avec dépassement autonome d'autres voitures.
Projets anglais ( dames ) champion du monde Tinsley a démissionné d' un match contre le programme informatique Chinook . Chinook a battu le 2e joueur le mieux noté, Lafferty . Chinook a remporté le tournoi national des États-Unis avec la marge la plus large jamais enregistrée.
Cindy Mason de la NASA organise le premier atelier AAAI sur l'IA et l'environnement.
1995 Cindy Mason de la NASA organise le premier atelier international IJCAI sur l'IA et l'environnement.
"No Hands Across America": Une voiture semi-autonome a parcouru les États-Unis d'un océan à l'autre avec une direction contrôlée par ordinateur sur 4 501 km (2 797 miles) sur les 4 585 km (2 849 miles). L'accélérateur et les freins étaient contrôlés par un conducteur humain.
L'une des voitures-robots d' Ernst Dickmann (avec accélérateur et freins commandés par robot) a parcouru plus de 1 000 milles de Munich à Copenhague et vice -versa, dans la circulation, jusqu'à 120 mph, exécutant occasionnellement des manœuvres pour dépasser d'autres voitures (seulement dans quelques cas critiques situations prises en charge par un conducteur de sécurité). La vision active a été utilisée pour faire face à des scènes de rue en évolution rapide.
1996 Steve Grand , roboticien et informaticien, développe et publie Creatures , une simulation populaire de formes de vie artificielles avec biochimie simulée, neurologie avec algorithmes d'apprentissage et ADN numérique héritable.
1997 La machine d'échecs Deep Blue ( IBM ) bat le (alors) champion du monde d' échecs , Garry Kasparov .
Premier match officiel de football (soccer) RoboCup avec des matchs sur table avec 40 équipes de robots en interaction et plus de 5 000 spectateurs.
Programme informatique Othello Logistello a battu le champion du monde Takeshi Murakami avec un score de 6-0.
1998 Tiger Electronics ' Furby est publié et devient la première tentative réussie de produire un type d'IA pour atteindre un environnement domestique .
Tim Berners-Lee a publié son article sur la carte routière du Web sémantique .
Ulises Cortés et Miquel Sànchez-Marrè organisent le premier Workshop Environnement et IA en Europe ECAI , "Binding Environmental Sciences and Artificial Intelligence".
Leslie P. Kaelbling , Michael Littman et Anthony Cassandra présentent les POMDP et une méthode évolutive pour les résoudre à la communauté de l'IA, ce qui relance l'utilisation généralisée de la robotique et de la planification et de l'ordonnancement automatisés
1999 Sony présente un robot domestique amélioré similaire à un Furby, l' AIBO devient l'un des premiers "animaux de compagnie" artificiellement intelligents et autonomes .
Fin des années 90 Les robots d' exploration Web et autres programmes d' extraction d'informations basés sur l' IA deviennent essentiels dans l'utilisation généralisée du World Wide Web .
Démonstration d'une salle intelligente et d'agents émotionnels au AI Lab du MIT .
Initiation des travaux sur l' architecture Oxygen , qui relie les ordinateurs mobiles et fixes dans un réseau adaptatif .

21e siècle

années 2000

Date Développement
2000 Les robopets interactifs (" jouets intelligents ") deviennent disponibles dans le commerce, réalisant la vision des fabricants de jouets de fantaisie du 18ème siècle.
Cynthia Breazeal au MIT publie sa thèse sur les machines sociables, décrivant Kismet (robot) , avec un visage qui exprime des émotions .
Le robot Nomad explore les régions reculées de l'Antarctique à la recherche d'échantillons de météorites.
2002 iRobot de Roomba vacuums autonome au sol tout en naviguant et en évitant les obstacles.
2004 Recommandation W3C du langage d'ontologie Web OWL (10 février 2004).
La DARPA présente le DARPA Grand Challenge obligeant les concurrents à produire des véhicules autonomes pour un prix en argent.
Les robots d'exploration de la NASA Spirit et Opportunity naviguent de manière autonome à la surface de Mars .
2005 Le robot ASIMO de Honda , un robot humanoïde artificiellement intelligent, est capable de marcher aussi vite qu'un humain, livrant des plateaux aux clients dans les restaurants.
La technologie de recommandation basée sur le suivi de l'activité Web ou de l'utilisation des médias amène l'IA au marketing. Voir Suggestions TiVo .
Blue Brain est né, un projet pour simuler le cerveau au détail moléculaire.
2006 La conférence de Dartmouth sur l'intelligence artificielle : les 50 prochaines années (AI@50) AI@50 (14-16 juillet 2006)
2007 Philosophical Transactions of the Royal Society, B – Biology , l'une des plus anciennes revues scientifiques au monde, publie un numéro spécial sur l'utilisation de l'IA pour comprendre l'intelligence biologique, intitulé Models of Natural Action Selection
Checkers est résolu par une équipe de chercheurs de l' Université de l'Alberta .
La DARPA lance l' Urban Challenge pour que les voitures autonomes obéissent aux règles de circulation et fonctionnent en milieu urbain.
2008 Cynthia Mason à Stanford présente son idée sur l'intelligence artificielle de compassion, dans son article sur "Giving Robots Compassion" .
2009 Google construit une voiture autonome.

années 2010

Date Développement
2010 Microsoft a lancé Kinect pour Xbox 360, le premier appareil de jeu à suivre les mouvements du corps humain , en utilisant uniquement une caméra 3D et une détection infrarouge, permettant aux utilisateurs de jouer à leur Xbox 360 sans fil. L'apprentissage machine primé pour la technologie de capture de mouvement humain pour cet appareil a été développé par le groupe Computer Vision de Microsoft Research , Cambridge.
2011 Mary Lou Maher et Doug Fisher organisent le premier atelier AAAI sur l'IA et la durabilité.
IBM de Watson ordinateur défait la télévision jeu télévisé Jeopardy! champions Rutter et Jennings .
2011–2014 Apple 's Siri (2011), Google est Google Now (2012) et Microsoft de Cortana (2014) sont smartphones des applications qui utilisent le langage naturel aux questions de réponse, des recommandations de marque et d' effectuer des actions.
2013 Le robot HRP-2 construit par SCHAFT Inc du Japon , une filiale de Google , bat 15 équipes pour remporter les Robotics Challenge Trials de la DARPA . HRP-2 a obtenu 27 points sur 32 dans 8 tâches nécessaires à l'intervention en cas de catastrophe. Les tâches consistent à conduire un véhicule, marcher sur des débris, grimper sur une échelle, enlever les débris, franchir des portes, couper un mur, fermer des vannes et brancher un tuyau.
NEIL , le Never Ending Image Learner, est publié à l'Université Carnegie Mellon pour comparer et analyser en permanence les relations entre différentes images.
2015 Une lettre ouverte pour interdire le développement et l'utilisation d'armes autonomes signée par Hawking , Musk , Wozniak et 3000 chercheurs en IA et robotique.
Google DeepMind de AlphaGo (version: Fan) a battu 3 fois champion d' Europe Go 2 dan professionnel Fan Hui de 5 jeux à 0.
2016 Google DeepMind de AlphaGo (version: Lee) a battu Lee Sedol 4-1. Lee Sedol est un champion coréen de go professionnel de 9 dan qui a remporté 27 tournois majeurs de 2002 à 2016.
2017 La conférence Asilomar sur l'IA bénéfique s'est tenue pour discuter de l' éthique de l'IA et de la manière de générer une IA bénéfique tout en évitant le risque existentiel de l'intelligence artificielle générale .
Deepstack est le premier algorithme publié à battre les joueurs humains dans des jeux à informations imparfaites, comme le montre une signification statistique sur le poker heads-up sans limite . Peu de temps après, le poker AI Libratus par différents groupes de recherche a vaincu individuellement chacun de ses 4 adversaires humains - parmi les meilleurs joueurs du monde - à un taux de gains agrégé exceptionnellement élevé, sur un échantillon statistiquement significatif. Contrairement aux échecs et au go, le poker est un jeu d' information imparfait .
En mai 2017, Google DeepMind de AlphaGo (version: Master) a battu Ke Jie , qui à l'époque détenu de manière continue le n ° 1 mondial de classement pour deux ans, remportant chaque match dans un match de trois matchs au cours de l' avenir du Sommet Go .
Un solveur de problème de satisfiabilité booléenne de logique propositionnelle (SAT) prouve une conjecture mathématique de longue date sur les triplets de Pythagore sur l'ensemble des entiers. L'épreuve initiale, longue de 200 To, a été vérifiée par deux vérificateurs d'épreuves automatiques certifiés indépendants.
Un OpenAI -machined appris bot joué à The International 2017 Dota 2 tournois en Août 2017. Il a gagné lors d' un 1v1 jeu de démonstration contre professionnelle Dota 2 joueur Dendi .
Google DeepMind a révélé qu'AlphaGo Zero, une version améliorée d'AlphaGo, affichait des gains de performances significatifs tout en utilisant beaucoup moins d' unités de traitement de tenseur (par rapport à AlphaGo Lee ; il utilisait la même quantité de TPU qu'AlphaGo Master). Contrairement aux versions précédentes, qui apprenaient le jeu en observant des millions de mouvements humains, AlphaGo Zero a appris en jouant uniquement contre lui-même. Le système a ensuite battu AlphaGo Lee 100 à zéro et AlphaGo Master 89 à 11. Bien que l'apprentissage non supervisé soit un pas en avant, il reste encore beaucoup à apprendre sur l'intelligence générale. AlphaZero maîtrise les échecs en 4 heures, battant le meilleur moteur d'échecs, StockFish 8. AlphaZero a remporté 28 des 100 parties, et les 72 parties restantes se sont soldées par un match nul.
2018 L'IA de traitement du langage d'Alibaba surpasse les meilleurs humains lors d'un test de lecture et de compréhension de l'Université de Stanford, marquant 82,44 contre 82,304 sur un ensemble de 100 000 questions.
Le laboratoire européen pour l'apprentissage et les systèmes intelligents ( alias Ellis) a proposé comme concurrent paneuropéen aux efforts américains d'IA, dans le but d'éviter une fuite des cerveaux de talents, à l'instar du CERN après la Seconde Guerre mondiale.
Annonce de Google Duplex , un service permettant à un assistant IA de prendre des rendez-vous par téléphone. Le LA Times juge que la voix de l'IA est une imitation "presque parfaite" d'un discours à consonance humaine.
2019 AlphaStar de DeepMind atteint le niveau Grandmaster à StarCraft II, surpassant 99,8% des joueurs humains.

années 2020

Date Développement
2020 2020 DeepSpeed est la bibliothèque d'optimisation de l' apprentissage en profondeur de Microsoft pour PyTorch qui exécute T-NLG.
En février 2020, Microsoft a présenté son Turing Natural Language Generation (T-NLG), qui était alors le « plus grand modèle de langage jamais publié avec 17 milliards de paramètres ».
OpenAI de TPG-3 , un état de l'art modèle de langage autorégressif que les utilisations apprentissage en profondeur pour produire une variété de codes informatiques, la poésie et d' autres tâches linguistiques exceptionnellement semblables et presque impossibles à distinguer de celles écrites par les humains. Sa capacité était dix fois supérieure à celle du T-NLG. Il a été introduit en mai 2020 et était en test bêta en juin 2020.

Voir également

Remarques

Les références

Liens externes