Существуют два способа логического мышления, утверждал Аристотель в своей книге под названием «Топика» (то есть «Общие принципы»). Первый способ мышления Аристотель назвал аподиктическим. Он основан на формальных законах логики и приводит к однозначным выводам, имеющим полную достоверность.
Второй способ Аристотель назвал диалектическим. При таком способе мышления все выводы имеют предположительный характер и потому часто противоречат друг другу.
Именно так и случилось через много веков после Аристотеля. Я имею в виду квантовую физику. Выводы ее имеют вероятностный характер и потому диалектически противоречат друг другу: одни рассуждения приводят физика к заключению, что электрон — частица, другие же не менее убедительно показывают, что электрон — это волна.
Диалектические свойства вероятностных методов проявились особенно ярко с появлением электронно-вычислительных машин. Вначале в этих машинах использовались только основанные на двузначной («черно-белой») логике детерминированные программы. И очень скоро ученые и инженеры пришли к выводу об ограниченных возможностях машин. Они способны с огромной скоростью решить великое множество уравнений. Но при этом должно непременно соблюдаться одно условие: число определяемых с помощью электронных машин неизвестных параметров не может превышать числа уравнений, заложенных в программы. Появилось одно «лишнее» неизвестное, и машина заходит в безысходный тупик. То ли дело свободное творчество человека! Нет точных решений — человек строит гипотезу или делает приблизительную прикидку. Или находит другой путь решения, какой-нибудь обходной маневр. Короче, человек может предполагать и проверять предположения, а построенная на двузначной логике машина способна лишь педантично и тупо следовать указаниям заложенных в нее детерминированных программ.
«Элементы современных электронных машин идиотски логичны»,— сказал по этому поводу на одной из первых конференций кибернетик Шмидт.
Ученые стали искать пути приближения принципов «мышления» электронной машины к творческому, эвристическому мышлению человека (от известного восклицания «Эврика!», которым, согласно преданию, возвестил миру о своем новом открытии Архимед).
Средством, позволившим расширить «интеллектуальные возможности» электронной машины, оказался... шум. Да, представьте себе: самый обыкновенный шум. Впрочем, пожалуй, не очень обыкновенный: частоты, содержащиеся в используемых в ЭВМ шумовых сигналах, превышают наивысшую частоту слышимых звуков в тысячи раз. Так что ЭВМ питаются «неслышимым» шумом. Но суть не в частотах шума, а в том, для чего понадобился электронным машинам хаотический шумоподобный сигнал. Он обладает очень большой энтропией! Вот ее-то и не хватало машине, чтобы воскликнуть «Эврика!» и начать мыслить, как Архимед. То есть не по заложенным в программу канонам, а творчески, эвристически самостоятельно, «от себя».
Чтобы найти какое-то нестандартное, неожиданное, не предусмотренное изначальной программой решение, машине приходится в определенный момент нарушить железную логику своих рассуждений и начать действовать «наугад».
Например, электронной машине очень часто приходится решать такую задачу: надо обойти N беспорядочно разбросанных на плоскости точек самым коротким путем. Математики назвали эту проблему задачей коммивояжера: ему ведь всю жизнь приходится думать над тем, как с минимальной затратой времени и средств объехать намеченные города.
В технике подобных задач возникает великое множество. Чтобы повысить производительность и сократить расход материалов, приходится искать самый короткий путь соединения множества точек на электрических схемах. Чтобы сократить транспортные расходы, надо сократить путь доставки промышленных грузов. Чтобы сократить время механической обработки деталей, надо искать самый короткий путь перемещений сверла, фрезы или резца.
Для решения подобных задач обратились к помощи электронной машины. Оказалось, что такие задачи целесообразно решать методом Монте Карло, получившим свое название по имени местечка в княжестве Монако, известного в мире благодаря обилию в нем игорных домов. ЭВМ уподобилась шаловливому школьнику: вместо того чтобы решать занудные уравнения, она стала «играть в рулетку», превращать шумовой сигнал в случайную последовательность чисел, затем подставлять их в уравнения вместо неизвестных х, у, г и оценивать полученный результат. При каких-то случайных числах результат улучшается (например, укорачивается путь, который должен совершить коммивояжер). При других — результат становится хуже. Бракуя числа, ухудшающие решения, и запоминая числа, приближающие к желанному результату, ЭВМ шаг за шагом «нащупывает» правильный путь.
С помощью детерминированных математических уравнений те же задачи или пришлось бы решать слишком долго (когда число неизвестных и соответственно число уравнений исчисляется десятками) или не удалось бы решить никогда (если число неизвестных превышает число уравнений).
Содержащаяся в шуме энтропия позволила усовершенствовать искусственный интеллект. Она вывела его за пределы узких формальных рамок и наделила способностью творческого решения нестандартных задач.
В который раз нам приходится отмечать созидательную роль энтропии! Не будь энтропии в машине, она была бы обречена решать только нетворческие задачи. Не будь энтропии в тексте, все книги превратились бы в надоедливое повторение азбучных истин. Не будь энтропии (мутаций) в генетическом коде, невозможна была бы эволюция животных и растительных видов. Не будь энтропии в природе, нас с вами угнетал бы своей неизменностью фатально подчиняющийся предначертанию неумолимого рока детерминированный лапласовский мир.
А впрочем, ничто бы нас тогда не угнетало! По той простой причине, что нас с вами тогда попросту не было бы. В «безэнтропийном» лапласовском мире никаких сложных систем (а ведь мы с вами довольно-таки сложные системы!) не могло бы ни возникнуть, ни существовать. Ибо, как доказано кибернетикой, случайный, стохастичный энтропийный характер внутрисистемных связей — необходимое условие надежности сложных систем.
Вот что пишет Клод Шеннон о надежности мозга:
«Мозг человека или животного может служить примером очень большой и относительно надежной системы, построенной из индивидуальных компонент (нейронов), которые ненадежны не только в выполнении операций, но и в тонких деталях взаимосвязи. Более того, хорошо известно, что при повреждении, несчастном случае или болезни мозг продолжает функционировать замечательно правильно, даже если поражены его большие области. Эти факты представляют сильный контраст по сравнению с поведением и организацией современных вычислительных машин. Индивидуальные элементы этих машин должны быть выполнены с чрезвычайной надежностью, каждый провод должен быть соединен нужным образом, и каждая команда в программе должна быть правильной».
Такова уж судьба любой детерминированной системы: вышел из строя один маленький винтик, и сложная большая машина превращается в мертвую груду неподвижных деталей или более крупных, но не менее мертвых частей. Известный американский кибернетик У. Р. Эшби высказал по этому поводу весьма меткое замечание: в жестко детерминированных системах каждый из элементов обладает «правом вето» по отношению ко всем остальным.
Что же спасает мозг, когда болезнь или несчастный случай привели к поражению целых больших областей? Что помогает ему перестроиться, найти обходные пути, если порвался «провод», поправить любую ошибочную команду целой серией корректирующих команд? В чем секрет надежности этой ни с чем не сравнимой по своей сложности и совершенству системы, построенной из огромного множества (миллиарды!) нейронов, каждый из которых в любую секунду может дать «сбой»?
Секрет опять-таки в энтропии. Это она помогает мозгу и при нормальном режиме и в аварийной ситуации методом проб и ошибок найти правильное решение и получить оптимальный при сложившихся обстоятельствах результат.
Только при наличии гибких, недетерминированных (вероятностных) связей между элементами система приобретает возможность перестроить взаимодействие своих элементов, перераспределить их функции, если вышел из строя какой-нибудь элемент. Благодаря этому свойству существуют не только сложные организмы, но и вообще все живое.
Энтропийность — неотъемлемое качество всех живых организмов, проявляющееся и на уровне генов (в виде мутаций), и на уровне межклеточных связей, взаимодействия различных органов и т. д. Так же, как и в языке, количество существующих внутри организма детерминированных информационных связей существенно превышает количество связей случайных. Но наличие случайных связей принципиально необходимо: без стохастичности межклеточных связей организм лишился бы возможности адаптации к меняющимся внешним условиям, без стохастических мутаций генов прекратился бы созидательный эволюционный процесс. В этом аспекте становится особенно очевидной ошибочность основных установок противников генетической теории, по инициативе которых проходила дискуссия на сессии Всесоюзной академии сельскохозяйственных наук им. В. И. Ленина (ВАСХНИЛ) в 1948 году.