Респонденты, сидевшие в комнатах с мобильными телефонами, дали более низкие оценки по всем пунктам, включая новые пункты о степени доверия и эмпатии. При этом эффект был сильнее выражен в парах, обсуждавших значимую, а не случайную тему.
Исследователи заключили, что простое наличие в комнате мобильного телефона мешает установлению новых отношений, при этом негативный эффект сильнее в случае серьезных разговоров.
Установление рабочих отношений
Приведенные выше результаты исследований не имеют непосредственного отношения к вашим реализуемым проектам, но их следует иметь в виду при встречах с клиентами, акционерами, пользователями и членами вашей собственной рабочей группы. Вспомните все собрания, на которых вы присутствовали. Иногда людей просят отключать сотовые телефоны, чтобы избежать отвлекающих моментов. Возможно, имеет смысл просить не только отключить телефоны, но и отложить их в сторону. Это облегчит и/или углубит отношения между участниками проекта, а также укрепит доверие.
Выводы• В процессе установления отношений с новым человеком никогда не выкладывайте на видное место мобильный телефон.
• Если вы пытаетесь углубить персональные отношения или вызвать у оппонента доверие к вам, никогда не выкладывайте на видное место мобильный телефон.
• Если вы находитесь на собрании, не просто отключайте телефон, но и убирайте его подальше.
• Проводя собрание, просите всех не просто отключить телефоны, но и убрать их подальше.
45
Люди верят машинам, которые похожи на людей
Если вы еще никогда не занимались проектами, связанными с роботами, роботехникой и автономными транспортными средствами, просто наберитесь терпения. Вряд ли вы собираетесь уходить на пенсию прямо сейчас, поэтому вам так или иначе придется столкнуться со всеми этими приметами нашего времени.
Как спроектировать взаимодействие человека и машины, которая делает то, что раньше делали люди? Чего люди ждут от таких машин и как воспримут их дизайн?
Когда я писала эту книгу, уже проводилось тестирование беспилотного автомобиля от Google. При этом в газете Washington Post появилась статья, напоминающая о том, что мы давным-давно пользуемся автоматическими тракторами от компании John Deere (http://www.washingtonpost.com/blogs/ the-switch/wp/2015/06/22/google-didnt-lead-the-self-driving-vehicle-revolution-john-deere-did/?tid=magnet).
В любой форме – трактора, автомобиля, пылесоса, умеющего разговаривать робота – механизмы, с которыми приходится взаимодействовать людям (даже в большей степени, чем с компьютерами и смартфонами), уже существуют. И перед дизайнерами встает задача создания интерфейсов для этого общения.
Антропоморфизм и доверие
У автомобиля от Google отсутствуют педали газа и тормоза. Человеку не нужно вести самому. Ему остается только запустить автомобиль (и остановить его в случае опасности). Адам Вайтц, Джой Хефнер и Николас Эпли (Waytz, Heafner & Epley, 2014) решили выяснить, повлияет ли придание машине человеческих черт на степень доверия пользователей. Они протестировали связь антропоморфизма и доверия. Антропоморфизму было дано следующее определение:
процесс логического умозаключения, при котором люди приписывают негуманоидным формам явно человеческие характеристики, в частности способность к рациональному мышлению (способность выбора) и осознанные чувства (опыт).
Идея исследователей состояла в том, что напоминающая человека машина должна восприниматься как более мыслящая и более внимательная. Ведь если люди верят своим более рассудительным собратьям, возможно, они начнут больше доверять машине, которая кажется рассудительной. Умение рассуждать считается чисто человеческим качеством. У людей не вызывает доверия «безмозглая» машина, какой может показаться и беспилотный автомобиль, и читающий рентгеновские лучи робот. Верно и обратное. Если кажется, что машина «думает» как человек, люди сочтут, что она может лучше, чем другой человек, контролировать свои действия.
В эксперименте использовался симулятор вождения, причем была смоделирована ситуация, в которой участники попадали в аварию, сталкиваясь со встречным автомобилем. Сомнений не возникало, что причиной аварии являлся человек за рулем этого встречного автомобиля.
Участников эксперимента разделили на три группы:
• В первой группе водитель не пользовался автоматическими функциями автомобиля.
• Представители второй группы вели автомобиль, который самостоятельно контролировал повороты и скоростной режим. Участникам эксперимента сообщали, что именно будет происходить, то есть как и когда будет задействовано автономное функционирование.
• В третьей группе участники снова оказывались за рулем беспилотного автомобиля и в процессе движения информировали о происходящем, но на этот раз экспериментатор называл автомобиль именем Айрис и употреблял местоимение «она». Человеческий голос был одной из характеристик этого автомобиля. Он возникал в определенные моменты симуляции и давал инструкции.
Участники из двух последних групп сначала прошли небольшой курс вождения, чтобы познакомиться с автономными функциями. После чего все проезжали заданную траекторию.
Представители третьей группы обвиняли свою машину в аварии в меньшей степени, чем респонденты из первых двух групп. В третьей группе умственные способности автомобиля оценили выше, чем во второй. Участники из этой группы больше доверяли автомобилю и меньше волновались в момент аварии.
Остерегайтесь Зловещей долины
Придание машине человеческих качеств повышает степень доверия к ней, но до какого предела?
Приближение к человеку требует, чтобы машина действовала как человек, но при этом она вовсе не обязана выглядеть как человек.
Люди, занимающиеся разработкой роботов, должны знать о так называемой «зловещей долине».
Идея состоит в том, что по мере того как вещи, особенно роботы и анимированные персонажи, становятся более реалистичными, в какой-то момент люди начинают испытывать к ним отвращение. Это обусловлено мелкими несоответствиями, например текстурой кожи или немного смещенными бликами на поверхности глазных яблок. Эти особенности отмечаются бессознательно, так как люди привыкли к ним в процессе ежедневного общения друг с другом.
Теорию зловещей долины выдвинул Масахиро Мори, в 1970-х работавший в области роботехники. Его написанная в те годы статья в 2012 году была переведена на английский язык (Mori, 2012).
Теория Мори состоит в том, что роботы вызывают у людей разные реакции: от недостаточного доверия до симпатии, а затем и отвращения, в зависимости от степени похожести. Если робот в чем-то напоминает человека, он вызывает позитивную эмоциональную реакцию. Но практически напоминающие людей роботы, в которых все-таки остается «что-то не совсем человеческое», начинают вызывать страх и отвращение. Кривая, демонстрирующая уровень комфорта человека в зависимости от человекоподобия робота, дана на рис. 45.1. Место резкого уменьшения уровня комфорта и называется зловещей долиной.
Рис. 45.1. Зловещая долина
Исследования Кристин Лузер (Looser, 2010) показали, что робота от человека отличает мертвенность взгляда. Именно этот фактор вызывает чувство страха и отвращения.
Зловещая долина существует для роботов, механизмов и анимированных персонажей.
Примечание. В Национальном музее передовой науки и технологии в Японии была проведена выставка «Андроид: что такое человек?», исследующая феномен зловещей долины. На выставке демонстрировались роботы с человеческими лицами, умеющие выполнять работу дикторов. Вот статья и видео, посвященные данной выставке:
http://robotics.ua/news/cyborg/3566-new_female_humanoids_kodomoroid_and_otonaroid_of_hiroshi_ishiguro
https://www.youtube.com/watch?v=Q18PXQs376A
Выводы• Разрабатывая интерфейс для машины, предназначенной для выполнения типично человеческих задач, добавьте ей антропоморфные черты.
• Не стоит проектировать механизмы или анимацию, которые слишком сильно напоминают людей и действуют как они, если нет возможности выполнить доскональную имитацию.
46
Люди могут сочувствовать машинам
Доверие к беспилотному автомобилю или трактору вовсе не означает, что человек вступает с механизмом в социальные отношения или заботится о нем.
Взаимодействия людей с механизмами выходят за рамки таких понятий, как антропоморфизм и доверие. Мы уже сталкиваемся с ситуациями, когда приходится налаживать социальные взаимодействия с роботами.