Тест Тьюринга предполагает, что человек садится перед терминалом и начинает взаимодействовать с неизвестной сущностью, вводя с клавиатуры вопросы и получая ответы. Если через какое-то время он не может определить, кто с ним общается – человек или машина, то машину считают «интеллектуальной». Хотя у теста несколько вариантов и его широко критикуют, с социологической точки зрения он ставит вопрос правильно. Другими словами, он уместен по отношению к человеку, а не к машине.
Осенью 1991 г. я освещал первый конкурс по тесту Тьюринга, спонсируемый филантропом из Нью-Йорка Хью Лёбнером. Это мероприятие состоялось в Компьютерном музее Бостона и привлекло толпу специалистов по вычислительной технике и кучку философов. В то время «боты» – программные роботы, предназначенные для участия в соревнованиях, – были ненамного сложнее легендарной программы Eliza, написанной ученым-компьютерщиком Джозефом Вейценбаумом в 1960-х гг. Эта программа имитировала роджерианский подход в психологии (сконцентрированный на личности человека метод, цель которого – помочь в понимании собственных чувств), и Вейценбаум пришел в ужас, увидев, как студенты начинают вести разговоры по душам с этим первым простым ботом.
Судьи первого конкурса Лёбнера в 1991 г. представляли две широкие категории людей: компьютерно грамотных и незнакомых с компьютером. С точки зрения судей, не имевших опыта работы с компьютером, в том году тест Тьюринга был пройден по всем пунктам. В своем репортаже я процитировал слова представительницы таких судей, которая объяснила, почему она обманулась: «Он печатал что-то, на мой взгляд, банальное, а когда я отвечала, реакция была очень убедительной»{6}. Это оказалось предвестником грядущего. Нынче мы повседневно взаимодействуем с машинами, имитирующими людей, и они все лучше убеждают нас в своей якобы человеческой природе.
Сегодня программы вроде Siri не только кажутся почти одушевленными, они начинают превращать взаимодействие человека с машиной на естественном языке в обыденное дело. Эволюции этих программных роботов, похоже, помогает наше желание верить, что мы взаимодействуем с людьми, даже когда говорим с машинами. Мы ориентированы на социальные взаимодействия. Если в физическом мире роботы помогают нам не так уж часто, то в киберпространстве они уже вокруг нас. Очевидно, что эти боты – искусственный интеллект, пусть даже с ограниченными возможностями, – будут все больше входить в нашу повседневную жизнь.
Интеллектуальные программные агенты, такие как Siri компании Apple, Cortana компании Microsoft и Google Now, взаимодействуют с сотнями миллионов людей и, таким образом, реализуют взаимосвязь робот – человек. Уже в начале своего существования приложение Siri отличалось явно человекоподобным стилем – первый шаг на пути к созданию поколения приятных и заслуживающих доверия советчиков. Не все ли равно, как мы будем взаимодействовать с этими системами – как с партнерами или как со слугами? Если отвлечься от все более оживленных дебатов о том, будут ли интеллектуальные агенты и роботы автономными и, если да, будут ли они обладать достаточным самосознанием, чтобы нам пришлось задуматься о «правах роботов», то нам ближе вопросы, как относиться к этим системам и как характер взаимодействий с ними будет определять смысл понятия «человек». До тех пор, пока мы относимся к таким системам как к партнерам, мы остаемся людьми. Как бы то ни было, вопрос о взаимоотношениях людей и машин игнорируется большой частью современного компьютерного мира.
Специалист по вычислительной технике из Microsoft Research Джонатан Грудин заметил, что такие области знания, как искусственный интеллект и человеко-машинное взаимодействие, редко пересекаются друг с другом{7}. Он ссылается на Джона Маккарти и его давнее объяснение направления исследований в области искусственного интеллекта: «[Цель] заключалась в том, чтобы уйти от изучения поведения человека и рассматривать компьютер как инструмент для решения определенного класса проблем. Таким образом, искусственный интеллект стал направлением компьютерной науки, а не психологии»{8}. Прагматичный подход Маккарти определенно можно оправдать успехами в этой области в последние пять лет. Исследователи искусственного интеллекта любят говорить, что самолету для полета не нужно махать крыльями, подчеркивая тем самым, что для воспроизведения мыслительного процесса или поведения человека не обязательно понимать их. Пропасть между искусственным интеллектом и усилением интеллекта, однако, лишь увеличивается по мере того, как системы искусственного интеллекта все успешнее берут на себя функции человека, будь то распознавание образов, поддержание разговора, перемещение ящиков, игра в шахматы, «Своя игра» или видеоигры Atari.
Терри Виноград одним из первых отчетливо увидел две крайности и задумался о последствиях. Его карьера – пример дрейфа от искусственного интеллекта к усилению интеллекта. Учась в аспирантуре Массачусетского технологического института в 1960-х гг., он сосредоточился на изучении естественного языка с целью создания программного эквивалента Shakey – программного робота, способного вести разговор с людьми. В 1980-е гг. в какой-то мере из-за изменившихся взглядов на пределы искусственного интеллекта он оставил эту область и постепенно стал заниматься усилением интеллекта. К отходу от сферы искусственного интеллекта Винограда подтолкнули споры с группой философов в Калифорнийском университете. В составе небольшой группы исследователей искусственного интеллекта он участвовал в еженедельных семинарах, где присутствовали философы из Беркли Хьюберт Дрейфус и Джон Сирл. Философы убедили его, что есть реальные пределы возможностей интеллектуальных машин. Обращение Винограда в другую веру совпало с коллапсом нарождающейся индустрии искусственного интеллекта, известным как «зима искусственного интеллекта». Спустя несколько десятилетий Виноград, который был куратором соучредителя Google Ларри Пейджа в Стэнфорде, посоветовал молодому аспиранту сосредоточиться на проблеме поиска в сети, а не на беспилотных автомобилях.
За прошедшие десятилетия Виноград ясно осознал важность точки зрения разработчика. Разделение областей искусственного интеллекта и человеко-машинного взаимодействия в определенной мере зависит от подхода, но это также и этическая позиция в вопросе о том, где должен находиться человек – в создаваемых нами системах или за их пределами. Не так давно Виноград помог создать в Стэнфорде академическую программу, ориентированную на «технологии освобождения», в рамках которой изучают конструирование компьютеризованных систем с учетом человеческих ценностей.
На протяжении всей истории человечества технологии замещали живой труд. Однако локомотивы и тракторы не принимают решений на уровне человека, а вот «думающие машины» делают это все чаще и чаще. Очевидно также, что технологии и человечество эволюционируют совместно, и это вновь ставит вопрос о том, кто будет стоять у руля. В Кремниевой долине стало модным прославлять возвышение машин – об этом ясно говорит появление организаций вроде Института сингулярности и книг типа «Чего хочет технология» (What Technology Wants) Кевина Келли (2010 г.). В более ранней книге 1994 г. «Неуправляемые» (Out of Control) Келли решительно встает на сторону машин. Он описывает встречу Марвина Мински и Дуга Энгельбарта:
Говорят, когда два гуру встретились в Массачусетском технологическом институте в 1950-е гг., между ними состоялся следующий диалог:
Мински: Мы собираемся наделить машины интеллектом. Мы собираемся дать им сознание!
Энгельбарт: Вы собираетесь сделать все это для машин? А что вы намерены сделать для людей?
Эту историю обычно рассказывают инженеры, работающие над тем, чтобы сделать компьютеры более дружественными, более человечными, более ориентированными на людей. Но я полностью на стороне Мински, на стороне дела. Люди выживут. Мы научим наши машины служить нам. Но что мы собираемся сделать для машин?{9}
Келли верно указывает, что есть «стороны» Мински и Энгельбарта. Но говорить, что люди «выживут», – значит недооценивать последствия. Он в основном вторит Мински, который, как известно, отвечал на вопрос о значении появления искусственного интеллекта так: «Если нам повезет, они будут держать нас как домашних животных».
Позиция Мински красноречиво демонстрирует пропасть между лагерями искусственного интеллекта и усиления интеллекта. Сообщество сторонников искусственного интеллекта до настоящего времени по большей части игнорирует последствия появления интеллектуальных систем, которые рассматриваются просто как мощные инструменты без дискуссий о морали. Как сказал мне один из разработчиков роботов следующего поколения в ответ на вопрос о влиянии автоматизации на людей: «Об этом не надо думать, нужно только решить, что ты хочешь сделать, и приложить все силы для улучшения мира людей в целом».