Нью-Джерси, как «первые (и, может быть, последние) чипы нейронных сетей, способные делать что-то полезное». Годы спустя, когда его спросили об этих словах, он отмахнулся от них, указав на то, что он и его студенты вернулись к той же идее в конце десятилетия. Но та неуверенность, которую он ощущал, явно прослеживалась в его словах. Нейронные сети нуждались в большей мощности компьютеров, но никто не понимал, какой должна быть эта мощность. Как выразился позже Джефф Хинтон: «Никто даже не удосужился задать вопрос: “А если предположить, что нам нужно в миллион раз больше?”»
В то время как Ян Лекун занимался созданием банковского сканера в Нью-Джерси, Крис Брокетт преподавал японский язык на кафедре азиатских языков и литературы в Вашингтонском университете. Затем его пригласили в Microsoft заниматься разработками искусственного интеллекта. Это был 1996 год, и гигантская научно-исследовательская лаборатория, созданная Microsoft, была еще сравнительно молодой. Компания была нацелена на создание систем, способных понимать естественный язык – язык, на котором пишут и разговаривают люди. В то время это было больше работой лингвистов. Языковеды типа Брокетта, которые изучал лингвистику и литературу у себя на родине, в Новой Зеландии, а потом в Японии и США, целыми днями составляли подробные правила, предназначенные научить машину правильно, по-человечески, составлять слова. Они объясняли машине, почему «время летит», тщательно разделяли одинаково пишущиеся разные части речи, подробно объясняли странные и во многом неосознаваемые правила, по которым англоязычные люди выбирают порядок прилагательных и т. д. Это была работа, во многом напоминающая прежний проект Cyc, осуществлявшийся в Остине, или работу по созданию беспилотного автомобиля в Университете Карнеги – Меллона до того, как туда пришел Дин Померло. Фактически это была работа по моделированию человеческих знаний, которая могла продолжаться десятилетиями, скольких бы лингвистов компания Microsoft ни нанимала. В конце 1990-х, следом за такими выдающимися учеными, как Марвин Мински и Джон Маккарти, большинство университетов и IT-компаний именно таким образом разрабатывали технологии компьютерного зрения и распознавания речи, а также понимания естественного языка. Эксперты выстраивали эти технологии по кусочкам, одно правило за другим.
Сидя в своем офисе в штаб-квартире Microsoft неподалеку от Сиэтла, Брокетт потратил почти семь лет на составление правил естественного языка. И вот однажды в 2003 году в просторном конференц-зале, расположенном на том же этаже дальше по коридору, двое его коллег представили новый проект. Они создали систему машинного перевода между двумя языками с использованием техники, основанной на статистике: как часто каждое слово появляется в каждом языке. Если набор слов появлялся с одинаковой частотой и в одном и том же контексте в обоих языках, это был вероятный перевод. Эти двое исследователей приступили к работе всего шесть недель назад и уже достигли результатов, которые, по крайней мере, хоть немного напоминали реальный язык. Брокетт наблюдал за презентацией из глубины переполненного зала, где многие сидели на перевернутых мусорных баках, так как мест не хватало, и у него случился приступ паники – сам он решил, что это сердечный приступ, – и его срочно отвезли в больницу.
Позже он назвал это «моментом прихода к Иисусу», когда он понял, что потратил шесть лет на написание правил, которые в одночасье устарели. «У моего пятидесятидвухлетнего организма был один из тех моментов, когда он увидел будущее, в котором его самого не было», – говорит он.
Специалисты по естественным языкам во всем мире вскоре пересмотрели свои подходы в пользу статистических моделей, аналогичных той, что была представлена в тот день в предместье Сиэтла. Это был лишь один из множества математических методов, которые распространились в широком сообществе исследователей ИИ в 1990-х и в 2000-х годах под такими названиями, как «случайный лес» (random forests), «ускоренные деревья» и «метод опорных векторов». Одни из этих методов применялись к пониманию естественного языка, другие – к распознаванию речи и изображений. По мере того как прогресс в исследованиях нейронных сетей замедлялся, многие из этих альтернативных методов дозревали и улучшались и начали доминировать в отдельных аспектах разработок ИИ. Все они были очень далеки от совершенства. Хотя ранних успехов статистических методов машинного перевода хватило, чтобы отправить Криса Брокетта в больницу, они были эффективны только до определенной степени и только тогда, когда применялись к коротким фразам – кусочкам предложения. Как только фраза была переведена, требовался сложный набор правил, чтобы привести ее в нужное грамматическое время, добавить к словам правильные окончания слов и согласовать ее со всеми остальными частями предложения. И все равно перевод получался путаным, и смысл лишь смутно угадывался, как в той детской игре, где вы составляете рассказ из слов или словосочетаний, написанных на клочках бумаги. Но это в любом случае превосходило возможности любой нейронной сети. К 2004 году нейронные сети рассматривались как третьесортный способ решения задач – как устаревшая технология, лучшие дни которой остались позади. Как сказал один исследователь Алексу Грейвсу, тогда еще молодому аспиранту, изучавшему нейронные сети в Швейцарии, «нейронные сети предназначены для людей, которые не разбираются в статистике». Выбирая себе специализацию в Стэнфорде, девятнадцатилетний студент по имени Ян Гудфеллоу записался на курс так называемой когнитивистики – дисциплины, изучающей вопросы мышления и обучения, – и во время одной из лекций преподаватель пренебрежительно отозвался о нейронных сетях как о технологии, которая не может справиться с операцией «исключающее или». Этому упреку было сорок лет от роду, и он уже был двадцать лет как опровергнут.
В Соединенных Штатах коннекционистские исследования почти исчезли из ведущих университетов. Единственная серьезная лаборатория, продолжавшая ими заниматься, была в Нью-Йоркском университете, где Ян Лекун в 2003 году занял должность профессора. Главным пристанищем для тех, кто все еще верил в эти идеи, стала Канада. Хинтон работал в Торонто, а один из прежних коллег Лекуна по Bell Labs, Йошуа Бенжио – тоже родом из Парижа, – руководил научной лабораторией в Монреальском университете. Как раз в эти годы Ян Гудфеллоу подал заявки в аспирантуру по информатике в разные вузы, и некоторые предложили ему место, включая Стэнфорд, Беркли и Монреаль. Он выбрал Монреаль, но, когда он туда приехал на собеседование, один из тамошних студентов стал его отговаривать. Стэнфорд занимал третье место в рейтинге учебных программ по информатике в Северной Америке. Беркли был четвертым. И оба находились в солнечной Калифорнии. Монреальский университет занимал где-то сто пятидесятое место, и там было холодно.
– Стэнфорд! Один из самых престижных университетов в мире! – уговаривал его этот монреальский студент, с которым они гуляли по городу, все еще покрытому снегом, хотя дело было поздней