представляют собой естественный класс пар событий. Классические события, связанные причинно-следственными связями, образуют каузальные цепочки. Очевидно, что это цепочки, состоящие из узлов в рамках времениподобных интервалов. Если мы рассматриваем эти же события в срезе пространственноподобных интервалов, то в ситуации отсутствия сил природы их взаимосвязь носит информационный характер. В совокупности эти события представляют собой информацию, так как связь между ними более слабая, например, случайная. И эта информация может выступать для классических событий в качестве источника, тупикового или фантомного события.
Здесь мы говорим об известных вещах на неизвестном языке. Например, один из отцов кибернетики Н. Винер говорил об этом так: «Метафора, о которой пойдёт речь в этой главе, образована при помощи такого образа, где организм рассматривается в качестве сигнала. Организм противоположен хаосу, разрушению и смерти, как сигнал противоположен шуму. <…> Жизнь – это разбросанные там и сям островки в умирающем мире» [Винер Н., 2002, с. 88]. Он также указывает, что «именно форма строения, сохраняемая этим гомеостазисом, представляет собой пробный камень нашей личной индивидуальности» [там же, с. 89].
Фактически это означает, во-первых, что связь, объединяющая организм в единое целое, есть информационная связь и, во-вторых, что эта связь имеет характер пространственной формы строения. То есть информационная и пространственная связь по сути одно и то же. Хотя будет точнее сказать – связь в рамках пространственноподобных интервалов.
Действительно, всякая информационная система подразумевает пространственную конфигурацию. Буква, слово, текст есть пространственное расположение. Нотная запись, расположение нейронов и их связей в мозге, ДНК, расстановка мебели в комнате, расположение планет в Солнечной системе – всё это пространственные структуры. Они могут передаваться в рамках коммуникации, становясь временными последовательностями (речь, музыка, эмоция и т. д.), но во времени они сохраняют тот же пространственный порядок, являясь фактически проекциями на каузально-времениподобную шкалу. Иными словами, информационные последовательности становятся коммуникационными лишь на время, чтобы затем снова вернуться к своей информационно-пространственной форме.
По Винеру – Гиббсу, информационные совокупности слабы и уязвимы, так как возникают в противовес второму началу термодинамики. И Винер объясняет их существование асимметрией во Вселенной. Где-то побеждают энтропия и хаос, но существуют и локальные области порядка. Винер пишет: «Гиббс выдвигал теорию, что эта вероятность, по мере того как стареет Вселенная, естественно стремится к увеличению. Мера этой вероятности называется энтропией, характерная тенденция энтропии заключается в её возрастании. …Во Вселенной Гиббса порядок наименее вероятен, а хаос наиболее вероятен. …Жизнь находит себе приют в некоторых из этих миров. Именно исходя из этих позиций начала своё развитие наука кибернетика» [Винер Н., 2002, с. 24].
То, чего не замечает Винер и что мы можем обнаружить сегодня благодаря актуальным идеям универсализации, приведённым выше, – это то, что информация порождает информацию, так как случайные события исчерпывают выбор. Мы указали, что пространственноподобные информационные связи есть результат случайных событий (в пространственном отношении). И, следовательно, чем больше случайных событий происходит, тем больше имеет место информация в мире. Но информация для нас противоположна хаосу. Следовательно, чем больше случайных событий имеет место, тем меньше места остается для хаоса. С точки зрения наблюдателя, который является частью этой системы, это парадоксально на первый взгляд.
Если порядок возникает благодаря случайным событиям, возникает идея о том, что случайность есть некий исчерпаемый ресурс, который расходуется, когда свершается, и, расходуясь, приводит к порядку. Хаос как бы исчерпывает сам себя, или, как мы назвали это выше, происходит насыщение выбора. Количество свободных мест «за столом» становится всё меньше.
В пределе рост плотности информации должен приводить к тому, что имеет место локальный порядок. Это сочетается с выводами в области нейрофизиологии сознания. Например, с современным панпсихизмом Дж. Тонони или теорией Б. Баарса, где ключевым в возникновении сознания является фактор роста плотности информации. Здесь мы можем обнаружить сближение физики и нейропсихологии. Но то, что не объясняет ни Тонони, ни Баарс, и то, что должна объяснить, по всей видимости, наука ближайшего будущего, – это почему и как информация формирует ментальную пространственно-временную систему.
Теперь мы могли бы предположить, что время и пространство имеют вероятностный характер, или характер необходимости в разных масштабах и отношениях. Поэтому можно говорить о вероятности возникновения той или иной пространственно-временной системы и обсуждать условия, влияющие на эту вероятность. Но как это сделать? Как говорить о ментальном пространстве и времени? Как их изучать? Вероятно, ответ на этот вопрос будет получен в рамках исследований сильного ИИ, или искусственного сознания.
Сознание и искусственное сознание
Нельзя не согласиться с одним из наиболее последовательных аналитиков сознания Д. Чалмерсом, который в книге «Характеристика сознания» [Chalmers D., 2010, p. 103] замечает: «Сознание непросто встроить в натуралистическую концепцию мира… кажется, чтобы найти для сознания место в рамках натуралистических представлений, мы должны либо пересмотреть свою концепцию сознания, либо пересмотреть свою концепцию природы». Сам Чалмерс, к сожалению, приходит к дуалистической картине мира, лишая вопрос о природе сознания смысла. Ведь если сознание имеет иную природу, отличную от материальной, то нет никакой возможности говорить о воссоздании сознания в искусственных условиях. Остается только искать «источник» этой иной природы.
Мы согласны с Д. Чалмерсом, Т. Нагелем, Ф. Джексоном и многими другими авторами, указывающими на особое положение сознания в картине мира, но придерживаемся позиции, что это «особое» рано или поздно должно стать частью единых представлений. Возможно, что эти гипотетические представления будут построены в терминах вероятностных пространственно-временных систем.
В этом отношении можно было бы перефразировать следующую идею А. Эйнштейна. Он писал: «…мы могли бы сказать: вещество там, где концентрация энергии велика, поле там, где концентрация энергии мала. Но если это так, то различие между веществом и полем скорее количественное, чем качественное <…> Не можем ли мы отказаться от понятия вещества и построить чистую физику поля?» [Эйнштейн А., Инфельд Л., 2015, с. 233].
Сегодня эту идею можно было бы экстраполировать на саму каузальность. То, что носит преимущественно случайный характер, представляет собой пространственную связь, то, что представляет собой скорее необходимость, – временную. Но если это так, то различие между случайностью и необходимостью скорее количественное, чем качественное. Не можем ли мы отказаться от понятий «случайность» и «необходимость» и построить общую теорию вероятности?
Так, например, электрон находится в определённом времени, но везде в рамках масштаба своей орбитали и в каждой из точек орбитали с определённой вероятностью. При этом взаимное расположение водорода и кислорода определяется конкретным валентным углом. То есть на квантовом уровне пространство вероятностно, а на молекулярном, например, имеют место элементы необходимости. Время аналогично и вероятностно, и необходимо. При бросании кубика будущий результат имеет характер