Искусственная личность – робототехническая система. Искусственная личность – это робот, наделенный квазисознанием и благодаря этому реализующий некоторые персонологические способности и качества человеческой личности. Показательна дискуссия по поводу книги Селмера Брингсйорда «Чем могут и не могут быть роботы» (1992, 1994)[241]. В работе позитивные утверждения относительно проекта ИЛ сопровождаются обстоятельной критикой. Основной девиз работы звучит так: «В будущем робот будет делать все то, что делаем мы, но не будет одним из нас», т. е. он не будет сознательным.
С. Брингсйорд доказывает, что: а) когнитивно-компьютерная технология будет производить машины со способностями проходить все более и более сильные версии ТТ, однако: б) проект ИЛ по созданию машины-личности будет неминуемо проваливаться. В защиту (а) предлагается индуктивный вывод при построении версий тестов: тьюринговая игра в имитацию → наблюдение внешнего вида игроков → изучение их сенсомоторного поведения → сканирование мозга и пр. (т. е., по сути, прохождение рассмотренной выше иерархии тестов Харнада). В основе доказательства (б) – несостоятельности проекта ИЛ – лежит modus tollens из суждений: (1) «Проект ИЛ» → «Личность – это автомат»; → (2) – «Личность – это автомат»; (3) – «Проект ИЛ». Посылка (2) интуитивно апеллирует к наличию у человека и отсутствию у автомата ряда машинно не воспроизводимых персонологических параметров F, к которым относятся свободная воля, способность к интроспекции, внутренний проективный опыт «каково быть» («what it's like to be») и пр. К F относится и возможность компьютерного воспроизводства творческих способностей, которую автор подробно анализирует в ряде предыдущих работ на основе рассмотрения программ генерации художественных и философских произведений. Убедительно доказывается: «компьютер творить не может!»[242] Общее заключение следующее: (4) «Личность обладает F»; (5) «Автомат не обладает F»; → (6) «Личность не может быть автоматом». С. Брингсйорд достаточно подробно обосновывает невычислимость F, апеллируя к аргументу Гёделя, «Китайской комнате» Дж. Сёрля, аргументу произвольной множественной реализации Н. Блока и др. Итог таков: «Роботы будут многое делать, однако они не будут личностями».
В полемике по поводу работы С. Брингсйорда, продолженной на страницах сайта http://psycprints.ecs.soton.ac.uk (рубрика «Сознание робота»), наблюдается четыре направления критики и поддержки.
I. Проект ИЛ абсурден, так как: 1) метафизические понятия «личность», «свобода воли», «интроспекция» не могут быть предметом эмпирического анализа; 2) нечеткое определение понятия личности, образная иррациональность проекта ИЛ – все это не заслуживает научного внимания; 3) персонологические параметры логически невыразимы – попытки их логической экспликации непременно сопровождаются ошибками.
II. Проект ИЛ неточен, так как: 1) апелляция к интуитивным аргументам разрушает логическую строгость дедуктивных аргументов; 2) нецелесообразно применять дедуктивные умозаключения в качестве метода аргументации (дедукция – не метод, а схема суждений); 3) необходимо четко формулировать конкретную разновидность функционализма как методологического базиса проекта ИЛ – нет функционализма «вообще», а есть, к примеру, низкоуровневый функционализм, биологический функционализм и пр.
III. Проект ИЛ реализуем, так как: 1) человеческая личность – это тоже компьютер, но неклассического типа, т. е. представимый не машиной Тьюринга, а иными, квазиалгоритмическими правилами обработки вычислительных элементов (мы предложили использовать машину Корсакова – Тьюринга); 2) компьютер вовсе не автомат, и кто придерживается противоположного мнения – тому не место в проблематике компьютерного «сознания»; 3) компьютерная система должна тестироваться природой, а не человеком.
IV. Проект ИЛ значим вне зависимости от возможностей его реализации: 1) будет ли создана ИЛ либо не будет создана – не принципиально, главное, что проекты ИЛ выявляют механистические аспекты человеческого сознания; 2) проектирование ИЛ проясняет роль и функции сознания в жизни человека путем постановки вопроса о зомби – о созданиях, не обладающих сознанием, но имеющих все поведенческие способности человека.
Добавим еще один пункт.
V. Исследования естественной личности нерепрезентативны, если они не учитывают исследования проекта искусственной личности. Человек оказался «заброшенным» в компьютеризованный мир, поэтому каноны и стереотипы компьютинговой рациональности более прочно и оперативно, нежели в традиционной культуре, фиксируют и закрепляют у него «искусственное». Для выявления «человеческого собственно человеческого» и предназначен проект искусственной личности – кем он, естественный человек, не должен быть.
Имитация и моделирование естественной личности должны быть соразмерными способами реализации проекта ИЛ. Не надо бросать все силы на построение совершенной имитации, проходящей комплексный тест Тьюринга (как это принято на лойбнеровских состязаниях компьютеров и людей). Но так же не надо доверять онтологической полноте построенной компьютерной модели некоторого частного персонологического аспекта. И совершенно не следует навязывать результаты моделирования личности – пусть очень полного и обоснованного – оригиналу этой модели.
Что касается значимости параметра антропоморфности робота – здесь нет жестких ограничений. Зачем роботу, работающему в космосе или в глубине океана, иметь человеческий облик? Однако роботу, который, скажем, подстригает волосы и бороду (такие роботы уже работают в экспериментальных парикмахерских), предпочтительно все же иметь приятное дружелюбное лицо.
Искусственная личность – экспертная система
Примерно в те же годы, когда проходила обозначенная выше дискуссия, т. е. в середине 1990-х годов, в нашей стране совершенно независимо от зарубежной науки возникла иная идея проекта искусственной личности. Автор данной работы был в эпицентре инициации работ по этому проекту[243]. По заказу Министерства обороны РФ в 27 ЦНИИ МО под руководством проф. В. В. Деева были организованы исследования по программированию и внедрению в системы принятия решений так называемых «нетрадиционных информационных технологий». Необычность этих технологий – в изучении и применении неординарных способностей экстрасенсов для эффективного управления войсками. Проект искусственной личности был призван интегрировать «знания», которыми владели как экстрасенсы (сенситивы), так и традиционные специалисты. Семантическая неопределенность и концептуальный разброс для решения ряда задач отличают данный проект от модных на сегодняшний день проектов «коллективного принятия решений» в системах «управления знаниями».
Исследования базировались на концепции моделирования «смысла». Проект ИЛ рассматривался как этап эволюции интеллектуальных систем. Если традиционная компьютерная технология характеризуется формулой «данные+алгоритм», технология искусственного интеллекта – «знания+эвристика», то проект ИЛ задается формулой «смысл+понимание». Учитывая крупные наработки отечественных специалистов в области построения экспертных систем, в частности в семиотическом моделировании способов представления «знаний», в основу рассматриваемого проекта ИЛ была положена экспертная методология. Специальные программы моделировали процессы «понимания», обеспечивали условия экспликации «смысла», «сущностных» оснований принимаемых решений. Модель «смысла» фиксировала эти «траектории» в определенным образом кодифицированных массивах информации.
Проблеме моделирования «смысла» посвящено много работ. Среди них в отечественной литературе «дисциплинарно» выделяются следующие модели: культурологическая, психологическая, лингвистическая, герменевтическая, риторическая, дискурсивная, семиотическая, поэтическая, иконографическая, эзотерическая, математическая, инженерная, синергетическая, неклассическая и пр.[244] Наиболее продуктивным для компьютерной реализации представляется контекстуальный подход, согласно которому «смысл» – это обладающий параметрами системного единства контекст формализованных «знаний» экспертов. Общетеоретической основой этого подхода являются классические модели «смысла» Г. Фреге (смысл – это выражаемый знаком способ означивания значения) и модификации этой модели Б. Расселом и Л. Витгенштейном. Наряду с этим использовались идеи теории репрезентации М. Вартовского, которая в систематическом единстве рассматривает модель, способ ее построения и способ ее интерпретации. Такие связи обеспечивают динамику наполнения «смыслового объема» возможными «смысловыми траекториями» в ходе согласования метода и предмета репрезентации. Эксперт как бы «погружается» в квазиалгоритм построения «модели модели», создает «репрезентацию репрезентации».