– А потом она… в общем, угрожала вам?
– Дороти позвонила мне по «Скайпу», когда я лежала в больнице. Злая. Обезумевшая. В первый момент я подумала, что кто-то из коллег обвиняет меня в аварии. Но это, вне всякого сомнения, была моя программа. Звонивший знал то… что было известно только нам с Дороти, и никому больше.
– У меня с трудом укладывается в голове, что компьютерная программа может разозлиться или хочет кому-то угрожать.
– Программа ничего не «хочет». Это всего лишь набор команд. Я считаю, что взрыв заставил программу перейти в аварийный режим выживания, и она там застряла.
– Похоже на компьютер HAL из фильма «Космическая одиссея-2001».
– Довольно удачное сравнение.
– И где же теперь эта программа?
– Понятия не имею. Притаилась на каком-нибудь Интернет-сервере, планирует мое убийство.
– Вы сбежали из-за ее угроз?
– Это не просто угрозы. Она подожгла мой компьютер.
– Как?
– Думаю, она вывела из строя контроллер заряда литий-ионного аккумулятора, и тот перегрелся, взорвался и вызвал пожар. Вот почему я сожгла свой сотовый телефон и планшетный компьютер – и растоптала ваш телефон. Вот почему я в этих горах. Чтобы программа «Дороти» не добралась до меня.
– Значит, это весь ваш план? Прятаться в горах и надеяться, что все рассосется?
– Я не обязана перед вами отчитываться.
– Почему вы не сообщили об этих угрозах НАСА?
– Думаете, они бы мне поверили? Расскажи я им нечто подобное, они заперли бы меня в психушке!
– Но на вас лежит ответственность.
– Послушайте, я написала программу «Дороти» в соответствии с техническими условиями, которые мне дали. Они получили в точности то, что просили. Моей вины тут нет. Пусть НАСА выслеживает ее и уничтожает. Эта свихнувшаяся программа – их проблема. Я свое дело сделала.
Форд перевел взгляд на костер:
– Я все-таки не очень понимаю, как обычная программа способна принимать такие решения – бегство, преследование, угрозы.
Мелисса ответила не сразу. Чаша неба над их головами сделалась лиловой, и на ней начали по одной проступать звезды. На огне кипел котелок, а ветер уносил в ночь ароматный дым от горящих дров.
– Большинство людей не понимают, что такое искусственный интеллект и как он работает, – наконец сказала девушка. – Вы помните, когда-то была программа по имени «Элиза»?
– Программа психоанализа?
– Да. В шестом классе я раздобыла версию, написанную на языке BASIC. В базе данных «Элизы» хранился набор стереотипных фраз. Когда вы что-то вводили в машину, «Элиза» выуживала из своей базы данных подходящий ответ. По сути, она перефразировала ваше утверждение и возвращала в виде вопроса. Вы говорили, например: «Моя мать меня ненавидит», – и она отвечала: «Почему ваша мать вас ненавидит?» Мы с друзьями переделали программу, превратив «Элизу» в чокнутую суку. Ей говорили: «Отец меня не любит», – а она отвечала: «Отец тебя не любит, потому что ты болван». Потом мы продолжили переписывать программу, заставляя ее еще сильнее сквернословить и оскорблять собеседника. А потом нас застукал учитель. Меня вызвали к директору школы. Старикан, ничего не понимавший в компьютерах. Он запустил «Элизу» и начал вводить вопросы – чтобы посмотреть, что такого мы натворили. Программа принялась его оскорблять, обложила по полной. Он разозлился. И среагировал так, будто «Элиза» была реальным человеком, который говорил ему все это. Директор начал объяснять «Элизе», что она ведет себя возмутительно, оскорбительно и что она должна немедленно прекратить сквернословить. Даже угрожал ее наказать! Вот была потеха – старикан, который не врубается и сердится на тупую компьютерную программу!
– Не уверен, что я понял вашу мысль.
– Дороти подобна «Элизе», только неизмеримо сложнее. Программа не думает и не чувствует, у нее нет эмоций, желаний, потребностей или амбиций. Она просто симулирует человеческие реакции, причем с такой точностью, что вы не отличите ее от человека. Термин «сильный искусственный интеллект» означает именно это: невозможность отличить программу от человека, просто взаимодействуя с ней.
– Но все это по-прежнему не объясняет, почему Дороти преследует именно вас.
– У нее есть встроенный программный модуль под названием «ИНС» – «Избегание негативных стимулов». ИНС должен был включаться, если зонду «Эксплорер» грозила опасность. Не забывайте, что программа должна была выполняться на плоту, находящемся в миллиарде километров от Земли, где он столкнется с неожиданными угрозами и должен выживать без помощи центра управления полетом. Программа сосредоточилась на мне как на угрозе. И на самом деле так оно и есть. Я знаю о ней больше, чем кто-либо еще. У меня лучшие шансы выследить ее – и стереть.
Детектив восхищенно покачал головой.
Мелисса откинула за спину свою светлую косу и саркастически усмехнулась:
– В Дороти нет никакой тайны. – Она потыкала в содержимое котелка палкой и выудила бедро кролика, но затем позволила ему соскользнуть обратно. – Просто нули и единицы. И больше ничего.
– Мне сказали, что вы изобрели новый язык программирования, – вспомнил Уайман.
– Не просто новый язык, – поправила его изобретательница. – Новый принцип программирования.
– Расскажите мне об этом.
– Алан Тьюринг выдвинул идею искусственного интеллекта в 1950 году. Позвольте процитировать кое-что из его высказываний. Это нечто революционное. – Девушка умолкла, повернув к костру лицо, на котором играли красноватые блики, а затем принялась цитировать по памяти, с явным восхищением: – «Почему бы нам, вместо того чтобы пытаться создать программу, имитирующую ум взрослого, не попробовать создать программу, которая бы имитировала ум ребенка? Ведь если ум ребенка получает соответствующее воспитание, он становится умом взрослого человека».
– Именно так вы и поступили?
– Да. Изначально я создала Дороти простой. На первом этапе не имеет значения, какой результат выдает искусственный интеллект, верный или неверный. Программа была проста, как ребенок. Дети ошибаются. Они учатся – например, дотронувшись до горячей плиты, запоминают, что ее нельзя трогать. Дороти обладает тем же свойством, что и ребенок: она изменяет саму себя. Она гибкая. Она учится на опыте. Я «вырастила» искусственный интеллект в безопасной окружающей среде и дала ей «соответствующее воспитание», как выразился Тьюринг. Сначала я обучала ее тому, что требуется для выполнения миссии. А по мере того как Дороти становилась все более отзывчивой и любопытной, я начала знакомить ее с вещами, непосредственно не связанными с заданием. Передала ей собственные предпочтения в музыке и литературе. Билл Эванс, Айзек Азимов… Меня не учили играть на музыкальных инструментах, а программа «освоила» саранги[4] и играла на нем просто божественно, хотя и утверждала, что не понимает музыки.
(adsbygoogle = window.adsbygoogle || []).push({});