Нао не просто обладает собственной личностью, у него их несколько. Он учится в процессе взаимодействия с людьми, а каждый контакт уникален, поэтому со временем у Нао начинают проявляться несколько разных характеров. Один из них, к примеру, независимый и самостоятельный и не нуждается в особом руководстве со стороны человека. Другой — робкий и пугливый, пугается любого предмета в комнате и требует постоянного внимания к себе.
Руководит проектом Нао доктор Лола Каньямеро — специалист по информатике из Хартфордширского университета. Прежде чем начать работу над этим амбициозным проектом, она проанализировала поведение шимпанзе в стае. Ее целью было воспроизвести как можно точнее эмоциональное поведение годовалого шимпанзе.
Уже сегодня, по ее мнению, для подобных эмоциональных роботов найдется применение. Как и доктор Бризель, она хочет использовать их для облегчения психологического состояния маленьких детей, вынужденных находиться в больнице. Она говорит: «Мы хотим, чтобы они играли несколько ролей — роботы помогут детям разобраться в плане лечения, объяснят, что надо делать. Мы хотим помочь детям справиться с тревогой».
Еще одна возможность: такие роботы могут стать компаньонами пациентов домов престарелых. Нао мог бы стать ценным дополнением к штату любой больницы. А когда-нибудь такие роботы, как он, станут для детей товарищами по играм и членами семей.
«Трудно предсказывать будущее, но пройдет не так много времени, и ваш компьютер превратится в социального робота. Вы сможете разговаривать с ним, флиртовать, даже сердиться и кричать на него, а он будет понимать вас и ваши эмоции», — говорит доктор Терренс Сейновски из Института Солка возле Сан-Диего. Само по себе это несложно. Сложно откалибровать реакцию робота — ведь если хозяин сердит или недоволен, робот должен как-то учитывать это.
Эмоции: выделить важное
Но этого мало. Исследователи искусственного интеллекта начали понимать, что эмоции могут оказаться ключом к сознанию. Нейробиологи, такие как доктор Антонио Дамасио, обнаружили, что, когда связь между префронтальной долей (которая заведует рациональными мыслями) и эмоциональными центрами (т.е. лимбической системой) повреждена, пациенты не могут ничего оценивать. Они не в состоянии принять простейшее решение (что купить, на какое время назначить встречу, какого цвета ручку взять), потому что все вокруг, как им кажется, имеет одинаковую ценность. Так что эмоции — это не роскошь; они абсолютно необходимы, и без них роботу трудно определить, что важно, а что нет. Эмоции, которые прежде виделись где-то на периферии искусственного интеллекта, сегодня выходят на первый план.
Из огня пожара робот, возможно, сначала будет спасать не людей, а компьютерные файлы, поскольку программа говорит ему, что ценные документы заменить невозможно, а вот работникам всегда можно найти замену. Принципиально важно, чтобы программы роботов позволяли им отличать важное от неважного, и эмоции — кратчайший путь, которым пользуется мозг для оперативной оценки информации. Таким образом, роботам придется дать систему ценностей: что человеческая жизнь важнее материальных объектов, что детей в случае опасности следует спасать первыми, что дорогие вещи ценнее дешевых и т.п. Сами по себе роботы не появляются на свет с готовой системой ценностей, поэтому в каждого из них придется загрузить длиннющий список готовых оценок.
Однако проблема с эмоциями состоит в том, что иногда они бывают совершенно иррациональными, тогда как роботы устроены математически строго. Поэтому кремниевое сознание, возможно, будет ключевым образом отличаться от человеческого. Так, человек слабо контролирует свои эмоции: с одной стороны, потому, что они возникают стремительно, а с другой — потому, что возникают они в лимбической системе, а не в префронтальной коре мозга. Более того, наши эмоции, как правило, далеко не нейтральны. Многочисленные тесты показывают, что мы склонны переоценивать способности красивых людей. Вообще, симпатичные люди, как правило, выше поднимаются по социальной лестнице и получают лучшую работу, даже если они менее талантливы, чем другие. Как говорится, у красоты есть свои преимущества.
Вряд ли «кремниевое сознание» будет принимать во внимание тончайшие нюансы, которые учитываем при встрече мы, люди (к примеру, язык тела). Входя в комнату, молодой человек обычно уступает старшим, а простой клерк проявляет вежливость по отношению к старшим начальникам. Мы демонстрируем уважение и позой, и телодвижениями, и выбором слов, и жестами. Язык тела старше обычного языка, он буквально вшит в мозг. Роботам, если они собираются вращаться в одном обществе с людьми, придется освоить это искусство и выучить все детали поведения, воспринимаемые нами на подсознательном уровне.
Человеческое сознание отражает особенности нашего эволюционного прошлого, которого у роботов нет, так что у кремниевого сознания, может быть, не будет наших лакун и вывертов.
Набор эмоций
Поскольку эмоции в роботов придется записывать извне, не исключено, что производители предложат клиентам на выбор целое меню эмоций, тщательно подобранных исходя из того, являются ли они необходимыми, полезными или усиливают эмоциональную связь с владельцем.
По всей видимости, в роботов будут закладывать лишь по несколько человеческих эмоций, в зависимости от ситуации. Возможно, владельцы больше всего будут ценить верность. Конечно, каждому хочется иметь робота, который честно и без жалоб выполнял бы любые команды, понимал бы нужды хозяина и умел бы угадывать его желания. С другой стороны, последнее, что нужно владельцу, — это робот с собственным отношением к жизни, который будет огрызаться, критиковать всех вокруг или ныть. Критика, может быть, и нужна, но она должна быть конструктивной и тактичной. А если люди начнут давать роботу противоречивые команды, он должен уметь их игнорировать — все, кроме тех, что исходят от хозяина.
Эмпатия — еще одна эмоция, которую обязательно оценят владельцы роботов. Роботы, снабженные эмпатией, будут понимать проблемы других и приходить на помощь. Читая движения лицевых мускулов и прислушиваясь к тону голоса, такой робот сможет определить, расстроен ли человек, и предложить помощь, если это возможно.
Как ни странно, страх — тоже очень желательная эмоция. Эволюция не просто так снабдила нас чувством страха; страх помогает избегать опасностей. Роботам, хотя они и стальные, тоже нужно будет бояться некоторых потенциально опасных вещей, таких как падение с высоты или сильный огонь. Совершенно бесстрашный робот будет бесполезен, если при первом же случае загубит себя.
Но некоторые эмоции, возможно, придется уничтожить, запретить или по крайней мере строго регулировать. Речь идет прежде всего о гневе. Так как роботы в массе своей, скорее всего, будут обладать большой физической силой, разгневанный робот может создать проблемы и в доме, и на рабочем месте. Гнев может затмить в его сознании долг, и тогда горе имуществу. (Первоначальной эволюционной задачей гнева было продемонстрировать недовольство. Это, кстати говоря, можно сделать разумно, без грубости и злости.)
Еще одна эмоция, которую нужно будет исключить, — это желание командовать. Властный робот всегда будет создавать проблемы; кроме того, он может поставить под сомнение авторитет и желания владельца. (Этот пункт очень важен и в вопросе о том, возьмут ли когда-нибудь роботы верх над людьми.) Значит, робот всегда должен будет уступать желаниям хозяина, даже если это будет не лучшее решение.
Но сложнее всего, возможно, будет реализовать чувство юмора, способное, подобно клею, мгновенно объединить совершенно чужих людей. Простая шутка зачастую может разрядить или, наоборот, взорвать ситуацию. Базовый механизм юмора прост: в нем всегда присутствует главная, совершенно неожиданная фраза. Но тонкостей в этом деле хватает. Фактически мы часто оцениваем окружающих по тому, как они реагируют на определенные шутки. Если человек использует юмор как меру оценки других, то можно себе представить, насколько сложно создать робота, который мог бы определить, смешна шутка или нет. Президент Рональд Рейган, к примеру, был знаменит тем, что самые сложные вопросы умел парировать шуткой. Более того, он собрал огромную коллекцию шуток, колкостей и острот, потому что понимал важность и мощь юмора (некоторые эксперты считают, что он выиграл президентские дебаты у Уолтера Мондейла, когда на вопрос, не слишком ли он стар, чтобы быть президентом, ответил, что не будет ставить молодость своего оппонента ему в вину). С другой стороны, неуместный смех может вызвать катастрофические последствия (и иногда является признаком болезни психики). Робот должен знать разницу между смехом вместе с кем-то и смехом над кем-то. (Актеры прекрасно знают, что смех может быть очень разным. Смехом они способны выразить ужас, цинизм, радость, гнев, грусть и т.п.) Так что роботам, по крайней мере пока теория искусственного интеллекта развита недостаточно, лучше держаться подальше от юмора и смеха.