Конечно же, вторжение математики в области, до последнего времени ей неподвластные не решает всех существующих там проблем. Однако многие закономерности, которые еще недавно описывались в науке расплывчато и туманно, начинают постепенно приобретать строгость математических теорем. Можно теперь говорить об информационно-энтропийных законах жизни и эволюции, двух феноменах, связанных неразрывно.
Рассуждая о разных аспектах этой сложнейшей проблемы, мы с вами на протяжении всей книги пользовались одним и тем же приемом: делали разные предположения об изменениях распределения вероятностей каких-то событий и смотрели, что будет происходить с величиной функции
Прием, казалось бы, чисто формальный. Но как ни удивительно, получаемые таким формальным способом выводы всегда совпадали со свойствами не придуманных умозрительно, а существующих и развивающихся реальных систем.
В чем причина совпадений? В том, что эта функция не просто удачно придуманное сочетание математических символов, а глубокое отражение некой общей закономерности, характерной для всей природы, некой единой сущности всех процессов развития, раскрываемой через информационно-энтропийную связь. И не случайно к пониманию смысла и сущности функциинаука шла таким мучительно долгим путем.
Затраченные на постижение сущности энтропии усилия не пропали даром: установление взаимосвязи между энтропией и информацией позволило найти соотношение запрограммированных и непредсказуемых связей между элементами различных систем.
Начатый мудрецами Древней Греции и длящийся более двух тысячелетий научный диспут о соотношении необходимого и случайного в окружающем мире разрешается диалектически: в мире почти нет явлений, жестко детерминированных или чисто случайных; мир гармоничен именно потому, что развивающиеся системы сами находят те соотношения необходимого и случайного, которые обеспечивают им, с одной стороны, структурную целостность, а с другой — ту изменчивость, которая необходима для гибкого взаимодействия с переменчивой внешней средой.
Мой друг гуманитарий опасался, что, используя формулу энтропии для анализа творчества, ученые пытаются «поверить алгеброй гармонию», что подобно тому, как Моцарта убил завистник его искрометного таланта Сальери, скрупулезный подсчет информации, содержащейся в произведениях живописи, поэзии или музыки, омертвит, схематизирует трепетные чувства их авторов и их ищущую беспокойную мысль.
Напрасные опасения! Ведь сама эта формула тоже живая! За символами вероятностей в ней скрываются разнообразные непредвиденные события, а из совокупности множества событий складывается наш не подвластный никаким однозначным формулам диалектический мир.
Единственно, что можно безошибочно предвидеть с помощью формул в отношении нашего мира,— это вечное его стремление к усложнению и совершенствованию форм.
Достигнутая миром гармония хранится в накопленной им информации. За вечную молодость, изменчивость, непредсказуемость нашего мира мы должны быть признательны энтропии. Согласитесь, скучно было бы жить в мире (если даже забыть на минуту о том, что жизнь в таком мире вообще не могла возникнуть), в котором все заранее предначертано и ничего нельзя изменить.
УВАЖАЕМЫЙ ЧИТАТЕЛЬ!
Литература по вопросам, затронутым в книге, настолько обширна, что привести ее всю нет возможности. Правда, это главным образом научные публикации Тем, кто захочет продолжить знакомство с темой книги, я могу порекомендовать несколько работ, включая ряд вполне доступных для многих научных монографий:
Алексеев Г Н Энергия и энтропия. М , «Знание», 1978.
Бирюков Б. В., Геллер Е. С. Кибернетика в гуманитарных науках. М., Наука, 1973.
Данин Д. Вероятностный мир. М, Знание, 1981.
Дюк рок А. Физика кибернетики. В сб.: Кибернетика ожидаемая и кибернетика неожиданная. М., Наука, 1968.
Налимов В. В. Вероятностная модель языка: о соотношении естественного и искусственного языка. Изд. 2־е. М., Наука, 1979.
Сачков Ю. В. Введение в вероятностный мир. М., Наука, 1971
Седов Е. А. Репортаж с ничейной земли. М., Молодая гвардия, 1966.
Седов Е. А. Эволюция и информация. М, Наука, 1976
Урсул А. Д. Информация. Методологические аспекты М , Наука 1971.
Шамбадаль П. Развитие и приложения понятия энтропии. М., Наука, 1967.
Я г л о м А. М., Я г л о м И М. Вероятность и информация. М.Наука, 1973.
ПРОБЛЕМА ЭНТРОПИИ В СОВРЕМЕННОЙ науке
(ПОСЛЕСЛОВИЕ)
Проблема энтропии — пожалуй, одна из самых «горячих» точек современной науки. Гносеологический интерес к ней стимулируется нарастающим давлением практики, новыми научными и техническими достижениями. Немалое значение имеют возобновившиеся дискуссии относительно возможности понижения энтропии вследствие самоорганизации и предполагаемых ограничений в действии второго начала термодинамики. В последнее время эти дискуссии приобретают порой драматический характер, хотя ведутся не столько на страницах научных изданий, сколько в популярных журналах и брошюрах, нередко на безответственном уровне и в запальчивой форме.
Поэтому объективное, научное и вместе с тем доступное широкому кругу читателей изложение современного состояния проблемы заслуживает безусловного одобрения.
Понятие энтропии введено в науку Клаузиусом в 1865 году как логическое развитие термодинамики Карно, сформулированной еще до открытия закона сохранения энергии и основанной на теплородной гипотезе. Энтропия характеризовала свойства макроскопической системы в условиях покоя или равновесия применительно к обратимым (идеальным) процессам.
Распространение концепции Клаузиуса на необратимые процессы привело к заключению, что в необратимых взаимодействиях (свойственных макросистемам) энтропия возрастает.
Дальнейшее развитие физики обусловило появление статистической термодинамики, в основу которой легла формула Больцмана, связывающая энтропию с логарифмом вероятности состояний системы (энтропия Планка). Здесь проявляется на макроуровне необратимость времени: со временем энтропия растет, хотя на микроуровне все процессы обратимы и направления времени «вперед» и «назад» симметричны.
Шеннон ввел понятие энтропии в качестве меры неопределенности знания о чем-либо, а сообщение как средство увеличения знания. Соответственно сообщение, переданное по каналу, связи, уменьшает первоначальную энтропию, а шум в канале увеличивает энтропию сообщения. Отсюда родилось понятие информации как меры уменьшения энтропии. Энтропия Шеннона есть сумма произведений вероятности состояния системы на двоичный логарифм этой вероятности, взятая с обратным знаком. Для вычисления энтропии, следовательно, требуется знать распределение вероятностей. Концепция Шеннона позволила ему построить фундаментальную теорию, которая получила широкое признание, большое практическое применение и продолжает интенсивно развиваться.
Аналогия между термодинамической энтропией (энтропией Клаузиуса), энтропией вероятности состояний (энтропией Планка) и информационной энтропией (энтропией Шеннона) сыграла определенную положительную роль в формировании концепции организации, упорядочения и случайности.
И. Пригожин показал, что нелинейные неравновесные процессы способны порождать макроорганизацию, для которой можно сформулировать условия устойчивости. Если эти условия не выполняются, могут возникнуть новые упорядоченные структуры, и т. д. Современные математические методы позволяют описывать такие процессы, но не позволяют определять, по какому из возможных путей пойдет развитие от неустойчивых точек. Система как бы «выбирает» свое дальнейшее поведение, и то, что аппарат описания процесса допускает возможность такого выбора, свидетельствует о несовершенстве наших физических знаний, в частности знаний об энтропии как «меры организации».
Представление об энтропии эволюционировало вместе с представлением об энергии — основной категории естествознания.
Под энергией понимается общая мера различных процессов и видов взаимодействия. Энергия позволяет измерять различные физические формы движения и взаимодействия единой мерой. Энергия есть первичная категория, количественно характеризующая фундаментальные свойства материального мира. Отсюда — по аналогии — возникло определение энтропии как меры «беспорядка», «дезорганизации» физической системы, а негэнтропии как меры организации.
Категории движения и покоя вполне обоснованы физически, но понятие организации физического обоснования и объяснения не имеет. Когда говорят о мере, прежде всего предполагается возможность измерения («физика — это отклонение стрелок»). Энтропия — единственная физическая величина, которая не измеряется, а вычисляется.