СИНЕРГЕТИКА И ИНФОРМАЦИЯ
Д.С.Чернавский
Издательство "Наука", 2001

 

Чернавский Дмитрий Сергеевич родился 24 февраля 1926 г. в г. Москве. Окончил инженерно-физический факультет Московского механического института (1949). Кандидат физико-математических наук (1955), доктор физико-математических наук (1964). Профессор (1966). Профессор кафедры биофизики биологического факультета (1976). Действительный член РАЕН (1991). Член Научных советов РАН по биофизике (1980) и влиянию физических полей на человека (1991). Тема кандидатской диссертации: «Изучение взаимодействия нейтрона и протона при малых энергиях вариационным методом». Тема докторской диссертации: «Периферическое взаимодействие частиц высокой энергии». Подготовил свыше 15 кандидатов и 5 докторов наук. Опубликовал более 150 научных работ.

 

 

 

 

 

 

 

 

 

 

 

Глава 1.
ОСНОВНЫЕ ПОНЯТИЯ ДИНАМИЧЕСКОЙ ТЕОРИИ ИНФОРМАЦИИ

Сейчас имеется несколько (даже много) определений понятия "информация" и ни одно из них не является общепринятым. Это естественно, поскольку общепризнанные определения появляются в науке, когда она становится классической и перестает развиваться. О науке об информации этого, к счастью, сказать нельзя.
Нужно ли вообще определять это понятие? Вопрос не праздный, поскольку многие ученые придерживаются мнения о том, что "информация есть информация и ничто другое и этого достаточно". Действительно, до недавнего времени слово "информация" использовалось в обыденной жизни и в практических задачах (шифровка, связь и т.д.). Там было достаточно понимание о чем идет речь на интуитивном или сугубо прикладном уровне.
В последнее время стало ясно, что информация играет в науке фундаментальную роль. Возникла потребность понять, что же это такое? Попытки связать информацию с привычными понятиями материя или энергия успехом не увенчались. Стало ясно, "информация есть информация, а не материя и не энергия". (Н.Винер [1]). Отрицание не может претендовать на роль определения, вместе с тем в данном случае оно существенно, ибо указывает на отсутствие вещественного (и/или полевого) происхождения информации. Попытки связать информацию с энтропией тоже оказались безуспешными, хотя они продолжаются до сих пор (подробнее мы это вопрос обсудим позже). Поэтому вопрос об определении понятия "информация" остается открытым.
В книге И.В. Мелик-Гайказян [2] собрана коллекция определений слова "информация", которая обсуждалась в [3], ниже мы будем следовать этим работам.

 

1.1 Определения понятия "информация

 

· "информация есть знания, переданные кем-то другим или приобретенные путем собственного исследования или изучения" [4];
· "информация - это сведения, содержащиеся в данном сообщении и рассматриваемые как объект передачи, хранения и обработки" [5];
· "информация в обыденном смысле - это сведения, известия, в научно-технических приложениях - то, что имеет на себе сигнал" [6].
Наряду с этими и подобными им определениями заметна тенденция связывать информацию со степенью упорядоченности той системы, которая получает информацию:
· "информация означает порядок, коммуникация есть создание порядка из беспорядка или по крайней мере увеличение степени той упорядоченности, которая существовала до получения сообщения" [7].
Приводимые ниже определения в известной мере повторяются.
· "информация - это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств" [8];
· "информация...- одно из свойств предметов, явлений, процессов объективной действительности, созданных человеком управляющих машин, заключающееся в способности воспринимать внутреннее состояние и воздействие окружающей среды и сохранять определенное время результаты его; передавать сведения о внутреннем состоянии и накопленные данные другим предметам, явлениям и процессам" [9];
· "информация - объективное содержание связи между взаимодействующими материальными объектами, проявляющееся в изменении состояний этих объектов" [10];
· "информация есть текущие данные о переменных величинах в некоей области деятельности, систематизированные сведения относительно основных причинных связей, которые содержатся в знании как понятии более общего класса, по отношению к которому информация является подчиненной" [4];
· "информация есть знание о каком-то особом событии, случае или о чем-либо подобном" [4];
· "информацией являются все те данные о внешнем мире, которые мы получаем как путем непосредственного воздействия на наши органы чувств окружающих предметов и явлений, так и опосредованным путем через книги, газеты, рассказы других людей" [11];
· "информацией называется всякое сообщение или передача сведений о чем-либо, что заранее не было известно" [12].
Среди философов популярны дефиниции, содержащие термин "отражение":
· "информация в самом общем случае - это разнообразие, которое один объект содержит о другом, это взаимное, относительное разнообразие. С позиций теории отражения информация может быть представлена как отраженное разнообразие, как разнообразие, которое отражающий объект содержит об отраженном" [13];
· "информация есть отражение в сознании людей объективных причинно-следственных связей в окружающем нас реальном мире" [14];
· "информация - это содержание процессов отражения" [15];
· "информация не тождественна отражению, а есть лишь его инвариантная часть, поддающаяся определению, объективированию, передаче" [16].
· "информация - это философская категория, рассматриваемая наряду с такими, как пространство, время, материя. В самом общем виде информацию можно представить как сообщение, т.е. форму связи между источником, передающим сообщение и приемником, его принимающим" [17].
Определения такого типа можно суммировать в виде утверждения:
· "информация есть отражение отображения наших соображений".
Такого определения в литературе нет. По стилю оно соответствует творениям Кузьмы Пруткова (например, его миниатюре "Спор древне-греческих ученых о прекрасном"). Тем не менее, по глубине и смыслу (если кто либо попытается его в нем найти), оно не уступает приведенным выше.
В философском энциклопедическом словаре (1983 г.) приведено: "Информация (от лат. informatio - ознакомление, разъяснение, представление, понятие) 1) сообщение, осведомление о положении дел, сведения о чем-либо, передаваемые людьми; 2) уменьшаемая, снимаемая неопределенность в результате получения сообщений; 3) сообщение, неразрывно связанное с управлением, сигналы в единстве синтаксических, семантических и прагматических характеристик; 4) передача, отражение разнообразия в любых объектах и процессах (неживой и живой природы)" [18].
В "Философской энциклопедии (1970 г.) во втором томе читаем: "Информация (от латинского informatio - осведомление) - см. Теория информации [19]. А в пятом томе в статье "Теория информации" вместо дефиниций приводятся различные представления о количественной оценке информации. Дефиниции того, что собственно значит термин "информация" просто не дается. Аналогичная ситуация с перекрестными ссылками в энциклопедии описана польским сатириком Станиславом Леммом по поводу определения понятия "сепульки".
В связи с трудностями философского определения понятия "информация" возникло убеждение в том, что оно не может быть отнесено к разряду философских категорий с заменой ею отражения (П. Копнин [20].
Особое место в коллекции определений занимают утверждения о том, что информация - это алгоритм:
· "информация... есть план строения клетки и, следовательно, всего организма" [21]. Модификация этого определения содержится в работе Э. Янча, трактовавшего информацию как "инструкцию" к самоорганизации в процессе эволюции биологических структур [22].
В работе В. Корогодина [23] приводятся определения:
· "информация есть некий алгоритм"
"совокупность приемов, правил или сведений, необходимых для построения оператора, будем называть информацией". Под словом "оператор" здесь понимается некое стороннее воздействие на систему, изменяющее спонтанный ход событий.
Большое число похожих и непохожих друг на друга определений понятия "информация" означает, что общепринятого определения ещё нет. Более того, нет даже четкого понимания сути этого явления, хотя потребность в нем уже назрела.
Сейчас область применимости информационного подхода существенно расширилась. Понятие "информация" используется при исследовании практически всех процессов самоорганизации (в частности биологической эволюции). При этом актуальным становится вопрос о возниковении информации и эволюции её ценности. Здесь без определения понятий уже не обойтись.
Выбор определения зависит от аппарата исследования, иными словами, определение должно быть конструктивным, то есть пригодным для использования в рамках аппарата. Мы будем использовать аппарат теории динамических систем, поскольку именно он лежит в основе науки о самоорганизации (то есть синергетики).
Этим условиям в наибольшей степени удовлетворяет определение информации, предложенное Генри Кастлером [24].
· Информация есть случайный и запомненный выбор одного варианта из нескольких возможных и равноправных.
Здесь слово "случайный" выделено, поскольку оно относится к процессу (способу) выбора и потому сужает область применимости определения. Вообще говоря. выбор может быть и не случайным (подсказанным), в этом случае говорят о рецепции информации. Случайный выбор соответствует генерации (то есть спонтанному возникновению) информации.
Поэтому слово "случайный" мы в определении информации опустим, но учтем его при обсуждении процессов генерации и рецепции.
Слово "запомненный" тоже выделено, поскольку в дальнейшем будет играть очень важную роль. Оно относится к фиксации информации. Вообще говоря выбор может и не запоминаться (то есть тут же забываться). Такой выбор будем называть микроинформацией. Запомненный выбор (в отличие от незапоминаемого) будем называть макроинформацией .
Во всех информационных процессах используется макроинформация (запоминаемая). Микроинформация используется главным образом в теор-физических спекуляциях по поводу "демона Максвелла" (о чем пойдет речь позже).
Поэтому далее под информацией мы будем понимать только запоминаемую информацию и приставку "макро" опустим.
Слова "возможных и равноправных" означают, что варианты выбора принадлежат одному множеству и априорные различия между ними не велики. В идеале варианты могут быть полностью равноправны и равновероятны, но могут и отличаться. В этом случае слово "равноправные" означает, что априорные вероятности различных выборов - величины одного порядка.
С учетом сказанного примем определение информации в виде:
· Информация есть запомненный выбор одного
варианта из нескольких возможных и равноправных. (Q)
Далее мы будем использовать это определение и ссылаться на него как на дефиницию (Q). Мы не настаиваем на оригинальности этого определения, более того, считаем, что по духу и смыслу оно принадлежит Г. Кастлеру (откуда и обозначение: Q - Quastler)
Определение (Q) отличается от предыдущих в следующем.
Во-первых оно четко, понятно и широко используется в естественных науках. Конструктивность его проверена на многих примерах [25-28]. Это определение не противоречит предыдущим, когда речь идет о реальных задачах. Так, определение информации как инструкции или оператора в конкретных случаях сводится к указанию, какой именно выбор следует сделать в том или ином случае.
Во-вторых согласно этому определению информация предстаёт как нечто конкретное и "приземленное", ощущение чего-то "сверхестественного и романтического в нем отсутствует, исчезает ореол "божественного". Можно считать это недостатком определения, поскольку именно это ощущение привлекает многих людей и вдохновляет их на подвиги (научные, не научные и лже-научные).
Тем не менее, мы надеемся показать, что именно это определение позволяет понять такие тонкие явления как возникновение жизни и механизмы мышления с естественно-научной точки зрения. Иными словами - построить мост между естественными науками и гуманитарными.
В-третьих определение (Q) допускает введение меры - количества информации ( о чем пойдет речь позже).
Подчеркнем еще одну особенность определения (Q).
Слово "выбор" - отглагольное существительное. Его можно понимать в двух смыслах: как процесс и как результат процесса. Разница примерно такая же, как между судопроизводством и приговором суда. В определении Кастлера выбор понимается, как результат процесса, но не как сам процесс. Именно в этом смысле (то есть как "приговор") оно конструктивно и именно в этом смысле оно используется в реальных задачах.
Слово "процесс" в естественных науках прочно занято, оно означает изменение системы во времени (то есть "движение" её), которое в общем случае ещё не известно чем кончится и кончится ли вообще. Согласно определению (Q) при этом информация еще отсутствует. Однако, информация как результат выбора не мыслима без прцесса выбора, как приговор не мыслим без суда. Отнюдь не любой процесс заканчивается выбором, Последнее возможно лишь в процессах определенного класса. Поэтому целесообразно ввести понятие "Информационный процесс", свойства которого мы обсудим позже.
В заключение этого раздела отметим, что в реальных задачах, как правило фигурирует не просто информация, а ценная или осмысленная информация (пока мы употребляем эти термины, апеллируя к интуиции читателя, определим их позже). Часто это упускают из внимания, полагая, что не ценная информация - вообще не информация. Последнее ведет к недоразумениям.

1.1.1. Количество информации

Эта величина была введена в 1948 году Клодом Шенноном [29] на примере текстового сообщения. Количество информации в сообщении, содержащем N символов IN, по Шеннону равно;

(1.1)

где M - число букв в алфавите, pi - частота встречаемости i-ой буквы в языке, на котором написано сообщение, знак " - " перед всей правой частью формулы (1.2) поставлен для того, чтобы Ii была положительной, несмотря на то, что logq pi < 0 ( pi < 1) . Двоичные логарифмы выбраны для удобства. При однократном бросании монеты М=2 ("орел" или "решка"), N = 1 и pi =1/2. При этом получаем минимальное количеств информации (I=1), которое называется "бит". Иногда в (1.1) используются натуральные логарифмы. Тогда единица информации называется "нат" и связана с битом соотношением: 1 бит = 1,44 ната.
Приведенные формулы позволили определять пропускную способность каналов связи, что послужило основанием для улучшения методов кодирования и декодирования сообщений, выбора помехоустойчивых кодов, словом, для разработки основ теории связи.
В этом примере текст можно рассматривать как результат выбора определенного варианта расстановки букв.
В общем случае, когда делается выбор одного варианта из n возможных (реализующихся с априорной вероятностью pi i=1,2,...n), количество информации выражается формулой:

; i=1,2, ... n.

(1.2)

Если все варианты равновероятны, то есть pi =1/n , то:
I= log2 n (1,3)
В частном случае сообщения из N букв из бинарного алфавита (М=2) число вариантов равно: n = 2N , количество информации I= N, что совпадает с формулой (1.1).
На этом примере удобно пояснить, что означает слово "равноправные" в определении (Q). Представим, что в тексте имеются символы, которые в алфавите вообще не содержатся (не "буквы"). Априорная вероятность такового считается очень малой ( pn+1 << 1/n) и в сумме (1,2) не учитывается, поскольку он выпадает из рассматриваемого множества.
Отметим, что формула (1,2) отражает количество информации, но не ценность её.
Поясним это на примере. Количество информации в сообщении, определяемое формулой Шеннона, не зависит от того или иного сочетания букв: можно сделать сообщение бессмысленным, переставив буквы. В этом случае ценность информации исчезнет, а количество информации останется прежним. Из этого примера следует, что подменять определение информации (с учетом всех её качеств) определением количества информации нельзя.
Исторически сложилось так, что определение количества информации бвло предложено раньше, чем определение самой информации. Для решения ряда практических задач это было полезно. Однако, в дальнейшем подмена понятий часто приводила к недоразумениям.
Обсудим в связи с количеством информации ещё два понятия: "Информационная тара" (термин введен В.И. Корогодиным [23]) и "Информационная ёмкость". Первый связан с мощностью множества, из которого выбираются варианты. Второй используется для физических систем, способных хранить информацию. По смыслу они близки друг другу.
Поясним смысл их на примере текста. Если любое сочетание букв в тексте является ценным, то количество ценной информации совпадает с полным количеством, но не может превышать его. Это значит, что любая передача сигналов и/или запоминающее устройство может содержать какое то количество ценной (или осмысленной) информации (не больше, чем (1,2) но может содержать и меньшее или не содержать вовсе. В этой связи количество информации в (1,2) можно назвать информационной тарой. Это понятие играет существенную роль при рецепции информации и/или при обработке её (в частности при перекодировке).
Приведем пример. Имеется текст на русском языке, содержащий Nr букв кирилицы (алфавит содержит 32 буквы). Перевод его на английский содержит Na букв латинского алфавита (26 букв). Русский текст - результат выбора определенного варианта из nr возможных (число вариантов порядка 32 в степени Nr ). Английский перевод - выбор определенного расположения латинских букв, который предопределен русским текстом (рецепция информации). Число вариантрв в английском текста порядка 26 в степени Na Количество ценной информации одинаково (если смысл не искажен), а количество информации различно.
Ниже, на примерах мы увидим, что процессы генерации, рецепции и обработки ценной информации сопровождаются "переливанием" информации из одной тары в другую. При этом, как правило. количество информации уменьшается, но количество ценной информации сохраняется. Иногда "информационные тары" столь различны. что можно говорить об информациях разного типа. Этот термин мы также будем применять к информациям, имеющим одинаковый смысл и ценность, но сильно различающихся количественно, то есть помещенных в разные тары.
В заключение раздела отметим, что сам Шеннон не разделял понятия информация и количество информации, хотя и чувствовал. что это к добру не приведет.
"Очень редко, - писал Шеннон, - удается открыть одновременно несколько тайн природы одним и тем же ключом. Здание нашего несколько искусственно созданного благополучия слишком легко может рухнуть, как только в один прекрасный день окажется, что при помощи нескольких магических слов, таких как информация, энтропия, избыточность... нельзя решить всех нерешенных проблем"[29].

1.1.2 Ценность информации.

Ранее эпитеты "ценная", "осмысленная" употреблялись без определения, в расчете на интуицию. В действительности эти понятия являются центральными в современной информатике. Уместно сделать ряд замечаний.
i) Ценность информации зависит от цели, которую преследует рецептор.
Известны несколько способов количественного определения ценности. Все они основаны на представлении о цели, достижению которой способствует полученная информация. Чем в большей мере информация помогает достижению цели, тем более ценной она считается.
1. Если цель наверняка достижима и притом несколькими путями, то возможно определение ценности (V) по уменьшению материальных или временных затрат, благодаря использованию информации. Так, например, сочетание хороших предметного и алфавитного каталогов библиотеки, наличие библиографических справочников сокращают время на составление списка литературы по конкретному интересующему нас вопросу.
Этот метод определения ценности предложен Стратоновичем [30].
2. Если достижение цели не обязательно, но вероятно, то используется один из следующих критериев:
а) мерой ценности, предложенной М.М.Бонгартом [31] и А.А.Харкевичем [32], является:

V = log2 (P/p),

(1.3)

где p - вероятность достижения цели до получения информации, а P - после.
Априорная вероятность p зависит от информационной тары или. что то-же, полного количества информации I в (1,2): p = 2-I . Так, если до получения информации все варианты равновероятны, то p = 1/n (где: n - число вариантов, а I = log2 n).
Апостериорная вероятность Р может быть как больше, так и меньше р. В последнем случае ценность отрицательна и такая информация называется дезинформацией. Примером последней может служить указатель на разветвлении дорог, который по каким то причинам повернут в другую сторону. Таким образом вероятность Р находится в пределах 0 < Р <1, и, соответственно, - <V< Vmax
б) мерой ценности, предложенной В.И.Корогодиным [23], является величина

V = (P-p) / (1-p)

(1.4)

Она обладает теми же свойствами, что ценность (1,3), но изменяется от 0 до 1.
Мы далее будем использовать ценность, определенную в (1,4) поскольку оно удобнее и более популярно.
ii) Согласно (1.3) ценность информации зависит от величины p - вероятности достижения цели до получения информации, то есть, от того, какой предварительной (априорной) информацией он уже располагает рецептор. Предварительная осведомленность называется тезаурусом. Если таковая отсутствует, то априорная вероятность во всех вариантах одинакова и равна p=1/n (где n - число вариантов). В этом случае величина p играет роль нормировочного множителя. Если при этом, после получения информации цель достигается наверняка (P=1), то ценность этой информации максимальна и равна V= Vmax =log2 n, т.е. совпадает с максимальным количеством информации в данном множестве (в данной таре). Это совпадение не случайно, именно для этого была выбрана форма (1.3), при этом ценность информации можно понимать как количество ценной информации.
iii) Количество информации, имеющий нулевую ценность, как правило, не мало по сравнению с количеством информации, имеющих хоть какую-то ценность (положительную или отрицательную). Например: пусть цель - узнать прогноз погоды, а по радио (или телевизору) передают : кто выиграл в футбол, кто в теннис, что случилось в Санта-Барбаре и т.д. Для Вас все это имеет нулевую ценность, хотя для другого, возможно, ценна наоборот именно эта информация.
Отсюда следует, что ценность информации субъективна.
Существует информация которая , на первый взгляд, ни для кого и никогда не может стать ценной. Пример: в тексте наборщик переставил буквы так, что текст потерял всякий смысл. Количество информации сохранилось, но ценность его для кого бы то ни было, стала равна нулю.
Так появляется понятие "осмысленность". В отличие от "ценности" это понятие претендует на объективность, что основано на следующем положении: в информационной таре, куда вмещена данная информация, можно выделить определенное количество информации, которая никогда ни для кого ни для какой -либо цели не понадобится. Тогда эту информацию называют лишенной смысла. Объективность критерия основана на утверждениях : "ни для кого, никогда, ни для какой цели".
Утверждение сильное, абсолютное и, как таковое, конечно, не верное. Так, в приведенном примере можно сказать, что абракадабра, которую сотворил наборщик содержит ценную информацию для психиатора, цель которого - поставить наборщику диагноз. Поэтому утверждение "ни для кого" следует принимать: ни для кого среди людей, которых интересует смысл текста и ничего более. Однако, и в этом случае осмысленность текста зависит от тезауруса. Так, например, наборщик набрал слова "трах-тибидох-тах-тах". На первый взгляд это бессмыслица, однако, люди сведующие знают, что смысл в этих словах есть, поскольку именно с их помощью старик Хаттабыч творил чудеса.
Мы остановились на этом вопросе столь подробно по следующим причинам.
Во-первых в традиционной информатике, основанной на математической теории связи, не существует и не обсуждаются вопросы о возникновении ценной информации и ее эволюции. Ценность информации обсуждается в предположении о том, что цель задана извне. Вопрос о спонтанном возникновении цели внутри самой системы там не ставится.
Сейчас в связи с развитием науки о самоорганизации (синергетики) именно эти вопросы стали актуальными, особенно в проблеме биологической эволюции. Именно они являются предметом динамической теории информации.
При этом, как будет показано позже, ценность информации эволюционирует: не ценная информация становится ценной, бессмысленная - осмысленной и наоборот.
Во-вторых, люди невольно отождествляют просто информацию с ценной и (или осмысленной), что приводит к недоразумениям. Эта тенденция проявляется в коллекции определений информации.
Действительно, если отождествить понятия информация и ценная информация, то дать объективное и конструктивное определение такому феномену, в принципе невозможно. Напротив, разделив эти понятия, можно дать конструктивное определение каждому из них, оговорив меру условности и субъективности.

1.2. Рецепция и генерация информации.

Рецепция информации - выбор, продиктованный свыше, т.е. по указанию кого- либо или чего - либо. Иными словами, речь идет о выборе, сделанном на основании информации, которую данный человек (или система) принимает (название происходит от recept - принимать).
На языке теории динамических систем рецепция информации означает перевод системы в одно определенное состояние независимо от того, в каком состоянии она находилась раньше. В современных технических устройствах рецепция, как правило, осуществляется с помощью электрического или светового импульсов. Во всех случаях энергия импульса должна быть больше барьера между состояниями.
В теории динамических систем такое переключение за счет сторонних сил называется силовым. Наряду с ним существует и используется другой способ переключения - параметрический. Суть последнего в том, что на некоторое (конечное) время параметры системы изменяются настолько, что она становится моностабильной (то есть одно из состояний становится неустойчивым, а затем исчезает). Независимо от того, в каком состоянии находилась система, она попадает в оставшееся устойчивое состояние. После этого параметрам возвращают их прежние значения, система становится бистабильной, но остается в новом состоянии.
Параметрическое переключение, как и силовое, является рецепцией информации; отличаются лишь механизмы переключения, то есть рецепции. В современной электронике применяется преимущественно рецепция информации за счет силового переключения. В биологических системах, напротив, преимущественно используется параметрическое переключение. Последнее может быть достигнуто неспецифическими факторами (изменением температуры, рН и др.). Иными словами, неспецифические факторы могут играть роль переключателей - носителей рецептируемой информации.
Генерация информации - выбор. сделанный случайно, без подсказки извне.
В обоих случаях, как рецепции, так и генерации, способность воспринимать или генерировать зависит от информации, которую уже содержит рецептор или генератор.
В связи с этим уместно обсудить иерархию уровней информации в развивающихся системах.

1.2.1. Иерархия информационных уровней

Сперва приведем пример. Учась говорить, ребенок рецептирует информацию об языке от своего окружения, преимущественно от родителей. Овладев языком и грамотностью молодой человек оказывается перед выбором свой будущей специальности. Сделав свой выбор и овладев специальностью, человек в дальнейшем может неоднократно выбирать, в каком направлении приложить усилия. При этом новые выборы возможны только на основе прежних, более ранних, так как делаются человеком, владеющим не только языком, но и специальностью. Каждый выбор делается либо случайно, либо под влиянием внешних событий, которые часто, на первый взгляд, не относятся к делу.
Ценная информация, которой мы пользуемся повседневно и которую порой генерируем, принадлежит верхнему уровню. Для ее восприятия или генерации необходимо владеть языком (хотя бы одним) и знаниями (например, математикой, информатикой и т.д., в зависимости от профессии), т.е. обладать тезаурусом.
Каждый раз выбор делается с целью, которая ставится в данный момент, она и определяет ценность информации. Однако, все промежуточные, сиюминутные цели подчинены одной главной цели.
Какова она? Иными словами, какова цель жизни и в чем счастье?
Этим вопросам посвящены тома художественной и философской литературы. Мы тоже обсудим их, но позже, когда речь пойдет о возникновении жизни и появлению у живых существ способности к целеполаганию.
Возвращаясь к вопросу об иерархии информаций, отметим , что тезаурус - информация, содержащаяся в системе на данном уровне, необходимая для рецепции (или генерации) информации на следующем уровне.
Поясним сказанное на языке теории динамических систем. При этом придется использовать понятия и термины, смысл которых будет пояснен в следующей главе. Тем не менее. считаем это целесообразным ради слитности изложения.
В развивающейся системе необходимость выбора возникает, когда она приходит в неустойчивое состояние, т.е. находится в точке бифуркации (для определенности будем считать эту бифуркацию I-ым уровнем). Выбор делается из множества различных вариантов, мощность и характер которого определяется типом бифуркации. В простейшем случае выбор делается из двух вариантов.
После сделанного выбора система развивается устойчиво вплоть до следующей бифуркации. Здесь снова делается выбор, но уже из другого множества вариантов (II-ой уровень). Это множество зависит от результата первого выбора. Если система в своем развитии ещё не дошла до первого этапа. то вопрос о выборе варианта на втором этапе вообще теряет смысл. Иными словами, информация первого уровня является тезаурусом для второго и всех последующих уровней.
Отсюда ясно, какую роль играет тезаурус в процессе генерации ценной информации. Без него отсутствует множество, из которого надлежит сделать выбор. Выбор из любого другого множества будет иметь нулевую ценность.
Несколько сложнее обстоит дело в случае рецепции информации. В простейшем случае информация, поступающая извне, определена на том же множестве вариантов, из которого делается выбор. Именно так обстоит дело в упомянутом выше примере рецепции языка от родителей. Необходимый для этого тезаурус у ребенка присутствует от рождения.
На более высоких уровнях информация, поступающая со стороны, имеет отношение ко всем уровням, а не к данному. Тезаурус необходим для того, чтобы выделить из неё ценную информацию, относящуюся к данному уровню. Для иллюстрации этого приведем пример, (заимствован у Ю.М. Шрейдера, цитируется по [31]).
"Имеется второй том "Курса высшей математики" В.И.Смирнова. Эта книга содержит богатую информацию. Какова ее ценность? В ответ приходится спросить - для кого? Для дошкольника ценность этой информации нулевая, так как он не обладает достаточной подготовкой, достаточным уровнем рецепции и не в состоянии эту информацию воспринять. Для профессора математики ценность тоже нулевая, так как он все это хорошо знает. Максимальной ценностью эта информация обладает для студентов того курса, которым книга предназначена, - поскольку речь идет об очень хорошем учебнике".
В этом примере множество, на котором сформулирован курс высшей математики, , к уровню дошкольника не относится, поскольку он ещё не дорос до этого. Что касается профессора, то в примере Шрейдера он знает всё, и никаких целей перед собой уже не ставит. Поэтому любая информация, в том числе и учебник Смирнова, имеет для него нулевую ценность.
Особого внимания заслуживает ситуация, когда множество вариантов на следующем уровне ещё не сформировано, хотя цель уже поставлена. Именно так обстоит дело, когда речь идет об исследовании и описании нового явления. Тогда поступающая извне информация не помогает сделать выбор (поскольку выбирать ещё не из чего), но может помочь сформировать нужное множество. В упомянутом примере этому соответствует четвертый участник - ученый. В отличие от первых трех (дошкольник, студент, профессор), он не только знает учебник, но и может ставить вопросы, ответы на которые в учебниках отсутствуют. Из разговоров с коллегами и чтения книг ученый получает большое количество посторонней информации, которая относится к другим задачам. При достаточном тезаурусе ученый может рецептировать эту информацию, переработать её и сформулировать нужное множество, содержащее всего два варианта, таких, что выбор одного из них приближает к достижению цели. В науке это называется постановкой вопроса. Когда вопрос поставлен (множество сформулировано), та же посторонняя информация может помочь выбрать вариант, то есть генерировать ценную информацию. Из этого примера видно, что рецепция и генерация информации тесно связаны друг с другом. Позже мы рассмотрим этот вопрос детальнее на примере игры в рулетку.

1.2.2. Условная и безусловная информация

Объект, зафиксировавший ту или иную информацию, является ее носителем. Информация, не будучи "ни материей, ни энергией", может существовать только в зафиксированном состоянии. При этом способы фиксации (записи) могут быть условными, не имеющими отношения к семантике. Отсюда возникает необходимость деления информации на условную и безусловную. Пример условной информации - код, которым пользуются, чтобы зашифровать сообщение. Кодом называется соответствие между условными символами и реальными предметами (и/или действиями). Выбор варианта кода производится случайно и запоминается как передающей, так и принимающей стороной. Ценной кодовая информация может быть только если ею владеет несколько объектов (человек), то есть эта информация связана с коллективным поведением (общественной деятельностью).
Условной является также информация, содержащаяся в алфавите и словарном запасе языка.
Кодовой является и условная генетическая информация, о которой речь пойдет в 4-ой главе. Генетику удается свести к формальному описанию явлений в терминах языка, причем весьма жесткого и закрытого. В словаре этого языка не происходит изменений, ибо любые изменения словаря приводят к летальному исходу для носителя информации. Замечательно, что в отличие от обычных языков (специалисты насчитывают 3000 различных разговорных языков!) генетический код един. Его структура одинакова как для человека, так и для растений.
Безусловной является информация о реально происходящих событиях. Она не нуждается в согласовании и может рецептироваться информационной системой даже без участия человека. Эта информация не возникает случайно, ибо она рецептируется из окружающей действительности.
Например, утверждение о том, что в такое-то время в таком-то месте произошло землетрясение является безусловной информацией. В основе самого события - случайность, выбор, но зафиксировано оно с помощью сейсмографов многими сейсмостанциями Земли вполне закономерно (приборы настроены на запись колебаний почвы). Наблюдатели узнают о событии из сейсмограмм. Рецепция события таким образом не содержит элемента случайности.
Для пояснения сказанного приведем еще один пример. Допустим, что один астроном открыл, наблюдая, новую звезду - это безусловная информация. Другой астроном ничего не открывал, но придумал для нее название - это генерация условной информации. Часто бывает так, что второй оказывается более популярен и именно ему приписывается честь открытия.
Сообщения могут содержать как условную, так и безусловную информацию, разделить их не всегда просто. Здесь играют роль следующие обстоятельства.
Первое. Условная информация имеет тенденцию к унификации, что естественно, поскольку при этом возрастают ее ценность и эффективность. Эта тенденция более выражена на нижних уровнях как эволюционно более древних. Так, например, математический формализм унифицирован на нижних уровнях иерархической информационной лестницы.
Второе. Унифицированная условная информация часто воспринимается как безусловная. Так, унифицированная на нижнем уровне математика, включающая арифметику, создает мнение о том, что "иначе не может быть". Однако унификация математического аппарата произошла в результате эволюции. При этом были в употреблении варианты, отличающиеся от современного.
На более высоких уровнях существует несколько различных вариантов описания одних и тех же объектов: континуальное описание, динамические уравнения, вероятностные модели, клеточные автоматы и т.д. Во многих случаях вопрос о предпочтении того или иного варианта остается открытым. Поэтому выбор математического аппарата - акт генерации ценной условной информации.
В принципе математика - аксиоматизированная область знаний, что делает ее единой наукой, имеющей свою логическую структуру. Идеал языка такой науки - это система правил оперирования со значками. Чтобы задать "исчисление", необходимо составить алфавит первичных элементов - знаков, задать начальные слова исчисления, построить правила получения новых слов. Математическая мысль и система кодов неразделимы. Символы имеют для математика принципиальное значение. Так, методологические установки Гильберта согласно Клини основаны на том, что символы сами по себе являются окончательными предметами и не должны использоваться для обозначения чего-либо, отличного от них самих.
Математическое знание содержится в кратких высказываниях - математических структурах. Возникает вопрос: содержат ли новую информацию доказательства теорем? Вопрос не тривиален. С одной стороны, доказательство теорем приводится как классический пример творчества (то есть генерации информации). С другой стороны, теорема - следствие аксиом и, следовательно, не содержит новой (по сравнению с аксиомами) информации. Доказательство теоремы есть извлечение ценной информации из аксиом, то есть рецепция. Тем не менее, творческий элемент при доказательстве теорем, конечно, присутствует. Он связан с выбором пути доказательства. Как правило теорема может быть доказана несколькими способами. Выбор наиболее простого и доступного пути - генерация ценной информации.
Третье. Наиболее интересным и острым остается вопрос об условности (или безусловности) информации в естественных науках. Принято думать, что, изучая природу, мы рецептируем безусловную, вполне объективную информацию. Это действительно так, если речь идет об экспериментальных качественных результатах.
Например, информация о том, что одноименные заряды отталкиваются, а разноименные притягиваются, является безусловной. Математическое описание этого явления в виде закона Кулона было сформулировано на определенном языке (векторной алгебре). Выбор языка (кода) всегда условен. Можно было бы описать это явление на языке дискретных множеств или игр автоматов. Поэтому выбор математического языка - пример генерации условной информации.
Научное творчество в области естественных наук содержит два необходимых элемента: рецепцию безусловной информации от природы и генерацию условной (теоретической) информации. Успех зависит от того, в какой мере выбранный алгоритм описания уже принят в научном сообществе, то есть от тезауруса этого сообщества.

1.3 Макро и микроинформация, ошибочность термодинамической трактовки информации.

Начиная с работ по классической теории информации, установилась традиция связывать информацию с термодинамической величиной - энтропией. Начало этой традиции было положено Н. Винером, увидевшем действительно бросающееся в глаза сходство формул Шеннона для количества информации I и формулы Больцмана для энтропии S. Различие в размерности устранялось выбором единиц измерения I, которое можно измерять и в энтропийных единицах.
В дальнейшем появилось слово "негоэнтропия" и утверждение: "информация есть негоэнтропия" Эти слова многократно повторялись в научных статьях, книгах и даже в учебниках. У людей, занимающихся конкретными проблемами информатики эти слова вызывали (и продолжают вызывать) недоумение и раздражение (внутренний дискомфорт), потому, что "что-то в здесь не так".
В этом разделе мы обсудим что именно "не так" и почему.
Согласно определению (Q) информация есть запомненный выбор (т.е. макроинформация).
На физическом языке "запомнить", то есть зафиксировать информацию, означает привести систему в определенное устойчивое состояние. Ясно, что таких состояний должно быть не меньше двух. Каждое из них должно быть достаточно устойчивым, в противном случае система может самопроизвольно выйти из того или иного состояния, что равносильно исчезновению информации.
Простейшая запоминающая система содержит всего два устойчивых состояния и называется триггер (переключатель). Этот элемент играет важную роль во всех информационных системах.
В электронике в качестве запоминающего триггера используют магнитные домены (размеры порядка микрон), а также электрические и светочувствительные ячейки (тоже микронных размеров).
Свойством запоминания могут обладать только макроскопические системы, состоящие из многих атомов. Запомнить что-либо, располагая одним атомом, невозможно, поскольку атом может находиться лишь в одном устойчивом (основном) состоянии. То же относится и к простейшим молекулам. Наименьшая по своим размерам самая простая система, которая может запомнить один вариант из двух возможных, это молекула, способная находиться в двух различных изомерных состояниях при условии, что спонтанный переход из одной формы в другую может происходить так редко, что его вероятностью практически можно пренебречь. Примером таких молекул могут служить оптические изомеры, обладающие "левой" или "правой" киральностью, различающейся по способности содержащих их растворов вращать вправо или влево плоскость поляризации света, пропускаемого через растворы. К таким оптическим изомерам относятся сахара и аминокислоты, содержащие десять-двадцать атомов.
Молекулярными триггерами могут служить макромолекулы (в частности, белковые молекулы), способные существовать в нескольких (по крайней мере двух) конформационных состояниях.
Системы более высокого иерархического уровня, такие как клетка, популяция, организм, мозг, разумеется, тоже могут быть запоминающими. Механизм запоминания при этом не всегда сводится к генетическому (то есть макромолекулярному). Например, клетка (в частности, нервная), способная функционировать в двух и более устойчивых состояниях, уже является запоминающим устройством. Тоже можно сказать о популяции и организме. Механизм запоминания в нервных сетях (в частности, в мозге) имеет свои особенности, которые мы обсудим позже.
Важную роль играет время запоминания. В устойчивых динамических системах оно формально бесконечно. Переключить триггер из одного состояния в другое можно лишь за счет стороннего сигнала, что равносильно рецепции (см. выше). В реальности возможно спонтанное переключение (т.е. забывание исходного состояния) за счет случайных флюктуаций. Вероятность спонтанного переключения в единицу времени зависит от величины флюктуаций и высоты барьера F# между состояниями. В термодинамически равновесных (по микроскопическим степеням свободы) условиях эта вероятность равна:

Где: 1013 сек-1 - частота тепловых флюктуаций. Время запоминания Т= 1/W. При F# порядка 1.5 эВ время Т= 3·105 лет, что практически можно считать бесконечным.
Мы остановились на этом столь подробно, чтобы продемонстрировать:
Во-первых, макроинформация может содержаться только в макрообъектах.
Во-вторых, граница между макро и микро объектами проходит на уровне макомолекул, размеры которых порядка нанометров (10-9 метра или 10-7 сантиметра). Современная наноэлектроника подбирается к этой границе.
Наряду с макроинформацией выше упоминалось о микроинформации, которой соответствует выбор принципиально не запоминаемой. Примером последнего может служить выбор одного микросостояния идеального газа в состоянии термодинамического равновесия. Выбор микросостояния означает, что нам удалось в определенный момент времени t изменить координаты и скорости всех молекул с определенной точностью. Разумеется, это возможно лишь умозрительно, но и в этом случае выбранное состояние тут же (за время t~10-13 сек) , будет забыто, то есть сменится другим микросостоянием, выбранным по закону случая. Это свойство - забывать предыдущее микросостояние - является фундаментальным для эргодических систем. в которых средние по времени совпадают со средними по ансамблю. Именно оно понимается под словами "молекулярный хаос" и именно оно лежит в основе термодинамики.
Количество микроинформации в данном примере велико, согласно (1.3) оно равно:

Imicro=log2n=-log2W,

(1.5)

где, nmicro число микросостояний , W=1/nmicro - вероятность случайно выбрать какое-либо одно из них. Количество макроинформации в том же примере, напротив мало; именно Imаcro= log2 nmаcro = 0, поскольку макросостояние равновесного газа единственно, то есть nmаcro = 1.
Разумеется, макроинформация не может быть ни ценной ни смысловой и вообще не может использоваться, как информация в реальной жизни. Тем не менее она широко обсуждается и является источником многих недоразумений.
Причину тому следующий:
Во-первых, формула (1.5) следующая из формулы Шеннона, очень похожа на формулу Больцмана для энтропии
.

(1, 6)

Где k=1,38 10-23 Дж/град. - постоянная Больцмана.
Поэтому микроинформация и энтропия пропорциональны друг другу:

(1.7)

В действительности формула (1.7) представляет собой связь между энтропией и микроинформационной емкостью (или "тарой"), поскольку сравниваются энтропия до измерения (S(t)) и количество микроинформации после измерения I(t+t).
Можно , (только умозрительно) оценить энтропию сразу после измерения, то есть до того как наблюденное состояние разрушится (т.е. в течение t @ 10-13 сек). С точки зрения термодинамики нахождение макросистемы в одном микросостоянии - колоссальная флюктуация. Энтропия ее много меньше равновесной энтропии S (до измерения). Именно:

S(t+t)=k ln W(t1t+t)

(1.8)

где W(t1t+t) - условная вероятность того, что в момент t+t будет наблюдено то же макросостояние, которое реализовалась в момент t. Ясно, что W(t1t+t)=1 и S(t+t)=0.
Отсюда следует, что в результате измерения энергия уменьшалась на величину
DS=S(t+t)-S(t)=-S(t)
Количество информации до измерения, когда выбор еще не сделан Imicro(t)=0 , поэтому прирост количества макроинформации D Imicro=+ Imicro
Отсюда делается вывод:

(1.9)

Интерпретация выражения (1.9) такова: при увеличении информации о системе ее энтропия уменьшается. Отсюда же происходит крылатое выражение "информация есть негоэнтропия".
Во-вторых микроинформацию и энтропию связывает еще "демон" Максвелла.
Демон впервые появился более ста лет тому назад (в 1871 г.) в книге К. Максвелла "Теория теплоты", как парадокс, демонстрирующий возможность арушения второго начала термодинамики.
Напомним суть дела. Имеются два сосуда с газом при исходно одинаковой абсолютной температуре Т. Они разделены перегородкой, в которой имеется отверстие с заслонкой. Заслонкой управляет "демон", он фиксирует скорости и в одну сторону пропускает только быстрые молекулы, а в другую - только медленные. В результате через некоторое время в одном сосуде температура повышается, а в другом - понижается. Таким образом, тепло переходит от холодного тела к более теплому без совершения работы (на первый взгляд) - второе начало нарушается и энтропия уменьшается.
Разрешение парадокса было предложено известным физиком, много сделавшем дл развития теории конденсированных сред, Леоном Бриллюеном . Он показал, что даже демон бесплатно ничего не делает (так уж устроен наш мир). Для фиксации скорости молекулы, т.е. получению информации, демону нужно заплатить энергией, не меньшей, чем энергия теплового кванта kT (при комнатной температуре Т=300оК, kT= 0,025 эВ). Энергия kT/1,44 - минимальная цена одного бита микроинформации (1,44 - коэффициент перехода от натуральных логарифмов к двоичным). После этого стало ясно, что демон совершает работу и как раз такую, которая необходима для охлаждения одого тела и нагревания другого. По существу любой домашний холодильник работает как демон и за это тоже нужно платить.
При этом демон получает информацию равную уменьшению энтропии. Так возникло утверждение: "информация есть негоэнтропия". Приставку "микро" при этом по недосмотру опустили, а зря, поскольку именно это привело к серьезным недоразумениям.
Разрешение парадокса всегда вдохновляет. Поэтому среди физиков - последователей Бриллюена - демон и слово "негоэнтропия", как синоним информации, стали часто употребляться - возник миф о негоэнтропии.
Справедливости ради, следует заметить, что Бриллюэн различал свободную информацию (не давая ей, к сожалению, четкого определения) и связанную информацию, возникающую, когда возможные случаи "могут быть представлены как микросостояния физической системы". И далее: "Только связанная информация будет представляться связанной с энтропией". Отсюда ясно, что, во-первых, на деле Бриллюэн не приписывал любой информации свойства негэнтропии, а во-вторых, ограничивал свое рассмотрение только той частью информации, которая связана с микросостояниями. Так что к недоразумению привели не сам Бриллюен, а его эпигоны.
После этих разъяснений формализм Бриллюэна выглядит очень просто и результаты расчетов соответствуют (1,9).
Реально ни физического, ни информационного содержания термин "негэнтропия" не имеет (он от "демона"). Что же касается той информации, которой занимался Бриллюэн, то сам он называл ее "связанной"; в отечественной литературе принят термин "микроинформация".
Микроинформация существенно отличается от макроинформации, поскольку она не имеет важного для информации свойства фиксируемости, ибо незапоминаема.
Макроинформация существенно отличается от микроинформации не только качественно, но и количественно. Это ясно, если вернуться от энтропийных к обычным единицам измерения информации - битам.

Iмикро = - (DS/k)log2e = - 1,44 DS/k

(1.12)

Iмикро - огромное число, ибо k = 1,38 Ч10-23 Дж/К (DS < 0) ,
Iмaкро << - (DS/k)log2e
Причина этого неравенства в том, что запоминание - процесс макроскопический и диссипативный, он сопровождается большим изменением энтропии.
Количественное различие ясно из следующих соображений.
Формула (1.3) справедлива как для микро-, так и для макроинформации, но существенно различны числа возможных вариантов n . В случае макроинформации n - число устойчивых состояний системы, оно, как правило, невелико. В случае микроинформации n - полное число микросостояний, (неустойчивых, то есть микроскопических) - оно огромно.
Яркий пример тому приведен в книге Блюменфельда "проблемы Биофизики" [25]. Показано, что вся информация, заключенная в человеке (включая ДНК, белки, а также мысли, как тайные, так и явные), будучи выраженной в энтропийных единицах, соответствует энтропии испарения одного пол-литра кипяченой воды (на самом деле, не так уж важно, чего именно)
Всякий раз, когда в акте творчества создается новая ценная информация, мы имеем дело с макроинформацией. Из книг, лекций, природы мы рецептируем макроинформацию. Вообще в реальной жизни, в частности, в биологии всегда используется макроинформация, которую мы в предыдущих и в последующих разделах называем просто информацией.
Любое изменение макроинформации, увеличение или уменьшение, сопровождается ростом энтропии, что естественно, поскольку эти процессы необратимы. Количественной связи между изменениями макроинформации и физической энтропии не существует. Энергетическая цена макроинформации, конечно, существует, она определяется энергией, диссипирующей в процессе запоминания и зависит от конкретных условий, в частности от времени на которое информацию нужно запомнить, то есть от свойств ячейки памяти. Эта энергия, приходящаяся на один бит информации, заведомо (и много) больше кТ/1,44 - энергии одного бита микроинформации.
Таким образом, слово негоэнтропия - появилось в результате непониманя роли условия запоминания информации. Слово негоэнтропия - пример условной информации, которая в действительности не ускорила, а, напротив, затруднило исследование информационных процессов, то есть оказалась на деле дезинформацией. Именно от этого предостерегал Шеннон, слова которого мы уже приводили выше.
В заключение раздела обсудим ещё одно недоразумение, связанное с понятием "порядок". Часто можно встретить утверждение о том. что информация - мера упорядоченности, оно фигурирует даже в коллекции определений.
Это утверждение воспринимается как объективное (безусловное). На самом деле требуется уточнить. какая именно информация (ценная или нет, условная или безусловная) имеется в виду. Надо уточнить также, что понимается под словом "порядок". Без этих уточнений утверждение теряет смысл.
В действительности в приведенном утверждении неявно предполагается, что информация ценная, но в этом случае она наверняка условная, ибо зависит от цели.
Понятие "порядок" тоже целесообразно. Так, если цель - прогноз, то упорядоченными следует считать системы, развивающиеся устойчиво и допускающие предсказание результатов. Именно в этом смысле в физике хаотические системы считаются беспорядочными и энтропия здесь выступает как мера беспорядка.
В более общем случае, когда преследуются иные цели, меняется и смысл слова "порядок".
Для иллюстрации приведем пример из жизни.
Пусть некто (писатель или ученый) пишет книгу. Для этой цели он расположил материалы в определенном порядке: рукопись - на столе, черновики - под столом, статьи и книги - на стуле и диване. В кабинет входит жена и приходит в ужас, поскольку у неё другие цели и другое представление о порядке. Представьте, что ученый отлучился на время, а когда вернулся жена встретила его радостными словами: "я, наконец-то навела порядок в твоем кабинете". Представить состояние ученого в этот момент уже не трудно.
Из этого примера следует, что порядок - понятие условное в той же мере, как и ценная информация.
Утверждение: "Ценная информация есть мера условного порядка" имеет четкий смысл, оно правильно и. более того, банально. Отсюда ясно, что искать объективную меру объективного порядка бессмысленно, ни того, ни другого просто не существует.
В действительности проблема порядка и хаоса имеет много аспектов и к ней мы ещё вернемся в гл. 7.
В заключение главы отметим, что:
Все (или почти все) определения, приведенные в "коллекции" имеют смысл и относятся к разным сторонам информационного процесса.
Объединить эти определения, увидеть общую картину информационного процесса и понять суть феномена информации позволяет теория динамических систем, или, что то же, синергетика.
Это не случайно, развивающиеся сложные системы имеют много аспектов. В гуманитарных науках это свойство предстоит как многоликий образ - термин яркий эмоциональный, метафорический, но не четкий. В синергетике то же предстоит вполне конкретно, как мультистационарность [27] или, что то же, многовариантность [34], многомодальность [35], В синергетике эти понятия формулируются четко и конструктивно, так, что с ними можно работать

Глава 2. УСТОЙЧИВОСТЬ ДИНАМИЧЕСКИХ СИСТЕМ И ПРОБЛЕМА НЕОБРАТИМОСТИ.

Одна из особенностей нелинейной динамики открытых неравновесных систем (синергетики) состоит в том, что она имеет дело с неожиданными событиями. Эти события проявляют себя как качественные скачкообразные изменения состояния системы или режима ее развития в ответ на монотонное и медленное изменение параметров. При анализе всякий раз выясняется, что причиной неожиданности оказывается неустойчивость.

2.1. Динамические уравнения и фазовые портреты нелинейных систем:

В этом разделе мы приведем основные сведения и поясним понятия теории динамических систем (или, что то же , качественной теории дифференциальных уравнений). Полное изложение можно найти в соответствующих математических учебниках [1-5]. Популярное изложение содержится в книгах [6 - 9]
Теория динамических систем, основана на дифференциальных уравнениях вида:
dui/dt = (1/ti) Fi(u1 , u2, ...un) , (2.1)
где ui - динамические переменные, например, концентрации реагирующих веществ, Fi(ui) - нелинейные функции, описывающие их взаимодействие. ti - характерные времена изменения переменных ui , i = 1, 2, ... n.
Уравнения (2.1) являются динамическими, то есть при задании конкретного вида функции Fi их решения, вообще говоря, однозначно определяются начальными условиями Казалось бы в такой ситуации ничего неожиданного быть не должно. Тем не менее характерные для синергетики неожиданности здесь возникают, когда решения динамических уравнений теряют устойчивость.
Анализ устойчивости уравнений движения (изменения), а также устойчивости стационарных состояний основан на исследовании поведения малых отклонений от соответствующего решения . Покажем это на примере стационарных состояний системы частиц (точек).
Стационарными называются состояния, соответствующие таким значениям переменных u1 , u2, ...un , при которых все функции Fi(u1 , u2, ... un) равны нулю. При этом значения ui не меняются со временем, так как все производные (см. 2.1) также равны нулю. Однако малые отклонения от стационарных значений dui изменяются со временем, и их изменение можно описать системой линейных дифференциальных уравнений:

(2.2)

 

где:

при uj = `uj , `uj - стационарные значения переменных.

Решения системы (2.2) имеют вид:

(2.3)

Здесь коэффициенты ei i определяются из условий:

(2.4)

Откуда следует, что они пропорциональные начальным отклонениям, (e ~ du(0)) и малы в меру малости последних. Величины li - числа, которые являются решениями алгебраического уравнения: det| ai,j - dij li| = 0, где dij - символ Кронекера такой, что dij = 0 , если i № j и dij = 1 при i = j. Величины li играют важную роль в теории устойчивости, их называют числами Ляпунова.
Если числа Ляпунова отрицательны, то все dui(t) убывают со временем, поэтому состояние устойчиво. В этом случае система стремится обратно к стационарному состоянию, даже, если ее немного отклонить от него. Если хотя бы одно из чисел Ляпунова положительно, то состояние неустойчиво.
В общем случае числа Ляпунова могут быть комплексными. Устойчивость определяется тогда знаком действительной части. Если среди чисел Ляпунова имеются равные нулю или чисто мнимые, то стационарное состояние называется нейтральным; при отклонении от него не появляются ни возвращающие, ни отклоняющие силы.
Анализ неустойчивых движений основан на том же принципе: определяется временнaя зависимость малых отклонений от заданной траектории. Используются линейные по отклонениям уравнения (высшими степенями dui(t) пренебрегают), решения которых имеют вид:

(2.5)

Числа Ляпунова при этом уже не постоянны, а зависят от времени. Траектория является неустойчивой, если среди чисел li(t) имеются такие, вещественные части которых положительны в достаточно большом интервале времени Dt, таком. что Dt l(t) >> 1.
Подчеркнем важное свойство: числа Ляпунова являются характеристическими (или собственными) числами системы; они не зависят от начальных условий. Таким образом, устойчивость (или неустойчивость) - внутреннее свойство исследуемой системы, а не результат внешнего воздействия. Особенность его в том, что проявляется оно только при наличии малых внешних воздействий.
Эта особенность привела к важным методологическим последствиям. Сейчас приходится пересматривать и подвергать ревизии некоторые, казалось бы установившиеся в физике понятия. Обсудим три примера.
Рассмотрим понятие абсолютно изолированной системы. Сейчас ясно, что его можно (и то не всегда) ввести лишь как предел неизолированной системы при стремлении к нулю величины внешнего воздействия. Для устойчивых систем такой предел существует и, следовательно, понятие остается в силе. В неустойчивых системах такой предел, вообще говоря, не существует. Действительно, предел величины du(t) = eЧ еlt (где l > 0) при e ® 0 и t ® µ зависит от порядка стремления аргументов к своим пределам. Формально величину e (которая отражает меру внешних воздействий) и время t можно считать независимыми. Однако, как мы убедились на конкретном примере, уже при сравнительно небольших временах фактор еlt возрастает столь сильно, что компенсировать его уменьшением e - задача абсурдная. Суть дела здесь в том, что экспоненциальная зависимость (explt) очень сильна, конкурировать с ней практически невозможно. Поэтому для неустойчивых систем понятие "абсолютно изолированная система" теряет смысл; можно говорить об относительно изолированной системе.
В связи с явлением неустойчивости возникает необходимость пересмотреть такие понятия как "бесконечно малое" и "бесконечно большое". Ясно, что при небольших временах (таких, что t"1/Rel ) и Dx<<1, то есть отклонения малы, и возмущением можно пренебречь. При этом динамическим расчетам можно доверять даже в случае их неустойчивости. Время t"1/Rel называется интервалом предсказуемости (или горизонтом прогнозирования).
Ясно также, что при больших временах (таких, что Rel·t =100 - 1000) отклонение Dx(t) станет большим при любых реальных возмущениях Действительно, для того, чтобы пренебречь возмущениями в этом случае необходимо изолировать систему с точностью до , что невозможно.
Здесь не обсуждалось, какую размерность имеют величины Dx(t) и Dx0 и в каких единицах они измерены. В данном случае это и не важно. Дело в том, что любые физические величины (длины, массы, временные интервалы, числа частиц и т. д.) в нашем мире ограничены, то есть выражаются числами в интервале от 10-100 до 10+100 . Большие (или меньшие) числа могут появиться лишь как результат расчета, в котором фигурирует экспоненциальная (или более мощная ) функция. В связи с этим Эдваром Каснером было введено новое понятие "гугол" - столь большое число (больше 10+100 ), которое не может соответствовать никакой физической величине (см. [10])
Возмущение является физической величиной. Отсюда следует, что начальное отклонение не может быть меньше 10-100 , в то время как величина Rel·t вполне может стать больше 100. Обратный "гугол" , хотя формально является конечной величиной, реально должна рассматриваться как бесконечно малая. В частности, вопрос: как ведет себя функция внутри интервала порядка обратный гугол, лишен смысла. Функцию на таком интервале следует заменить числом (средним по интервалу), поскольку более детальное её поведение принципиально не наблюдаемо. Это утверждение. хотя и негативно, играет важную практическую роль. что мы продемонстрируем позже.
Требует ревизии и понятие "причины" [11,12]. Обычно под причиной понимают начальные условия (или импульсные внешние воздействия), которые в соответствии с динамикой системы приводят к определенному результату, т.е. - следствию. На этом языке слово "вскрыть причинно-следственные связи" означают "понять динамику промежуточных процессов". При этом негласно предполагают, что причины и следствия соизмеримы. Для устойчивых (или нейтральных) процессов это всегда имеет место. В неустойчивых процессах ситуация иная: очень малая величина приводит к следствию, которое по масштабам с причиной не соизмеримо. Обычно в таких случаях говорят, что причиной явилась неустойчивость, а не малое начальное воздействие. При этом, однако, происходит весьма существенный сдвиг понятий: в качестве причины фигурирует внутреннее свойство системы, а не внешнее воздействие.
Поясним сказанное на житейском примере. Рассмотрим два случая. В первом хрустальная ваза стоит на середине стола (состояние устойчиво). Прошел некто и неловким движением столкнул вазу со стола - она разбилась. В чем причина столь печального события, или, другими словами, кто виноват? Ясно, что виноват "некто" а причина - его неловкое движение.
Рассмотрим другой случай: ваза стоит на краю стола так, что чуть не падает (состояние, близкое к неустойчивому). Пролетела муха - ваза разбилась. В этом случае муху не обвиняют, а говорят, что причина события в неустойчивом положении вазы. Виноват тот, кто ее поставил (так, чтобы никто не был виноват, в жизни обычно не бывает). Забегая несколько вперед, отметим, что в основе утверждения "событие произошло случайно" (то есть без видимой причины) также лежит неустойчивость динамических процессов.
В общем случае выход из неустойчивого состояния возможен в разные стороны. Так, шарик, движущийся по водоразделу, может свалиться как вправо, так и влево. Направление зависит от начального возмущения.
В отсутствии выделенного направления принимается, что малые возмущения равновероятны. Здесь мы впервые употребляем слово "вероятность". В устойчивых динамических системах оно не употребляется и, более того, не имеет смысла. В неустойчивых системах, напротив, достоверные предсказания не имеют смысла, и можно говорить лишь о вероятности того или иного результата. Таким образом, неустойчивость является тем свойством, которое позволяет ввести в динамическую теорию понятие "вероятность".
Из изложенного следует, что устойчивость (неустойчивость) - не просто одно из свойств динамической системы. Это свойство существенно расширяет и изменяет аксиоматику динамических систем и позволяет взглянуть на мир с иной точки зрения. Ярким следствием неустойчивости является "динамический хаос".
Вернемся к системе уравнений (2.1).
При исследовании открытых систем, способных к самоорганизации, в качестве динамических переменных ui выступают самые различные величины: потенциалы и токи в физике, концентрации различных веществ в химии, численности организмов разных видов в биологии и экологии. Число переменных в реальных системах достаточно велико. Исследовать свойства многомерных систем сложно.
На помощь приходят методы редукции, т. е. сведения системы уравнений, содержащих большое число дифференциальных уравнений (и, следовательно, переменных) к более простой системе из меньшего числа уравнений. Редуцированную систему уравнений называют базовой. От неё требуется:
Во-первых, чтобы она описывала основные черты рассматриваемого явления.
Во- вторых, чтобы она содержала минимальное число переменных и параметров.
В-третьих, чтобы она была "грубой" в смысле Андронова. Последнее означает, что при малом изменении параметров и слабом расширении базовой системы (то есть добавлении высших производных и/или новых членов с малыми коэфициентами), решения должны меняться мало.
В химической кинетике редукция кинетических уравнений использовалась давно и известна как метод стационарных концентраций. Он основан на временной иерархии процессов. Последнее означает, что характерные времена ti в (2.1) существенно различны и их можно разделить на три группы. К первой относятся процессы, времена которых совпадают с характерными временами интересующего нас явления. Ко второй относятся медленные (по сравнению с первыми) процессы и к третьей - быстрые.
Например, если нас интересуют изменения системы, происходящие за 1-10 минут, то процессы, протекающие за секунды и доли секунд считаются быстрыми, а процессы, для которых требуются часы и сутки - медленными. Иная градация возникает, если нас интересуют секундные изменения; тогда минутные процессы мы уже отнесем к медленным. Разбив реакции на такие группы, мы можем заметить следующее:
1. Все медленно и очень медленно изменяющиеся концентрации мы просто можем считать постоянными и равными их начальным значениям.
2. В быстрых и очень быстрых реакциях успевают установиться стационарные концентрации. Другими словами, между соответствующими концентрациями быстро установятся определенные соотношения и при изменении одной из них другие почти мгновенно к ней подстроятся. В этом случае часть дифференциальных уравнений можно заменить алгебраическими соотношениями и система упростится.
В результате останутся лишь процессы, имеющие примерно одинаковые скорости; их, как правило, не много. Замену дифференциальных уравнений алгебраическими называют иногда принципом стационарных концентраций.
Строгое математическое обоснование такой процедуры было дано А.Н.Тихоновым [13] . Мы не будем здесь приводить доказательство этой теоремы, ограничимся лишь примером.
Пусть среди n компонентов процесса имеется такой (концентрацию его обозначим u1), который очень быстро образуется, но очень быстро расходуется. Тогда уравнение для него можно записать в виде:

где А = 1/ t1 >>1

(2.6)

Учитывая, что за времена порядка t1 все концентрации, кроме u1, изменяются слабо и считая их постоянными, можно найти стационарную концентрацию `u1 из условия:

(2.7)

Используя (2.7) можно выразить `u1 через другие переменные и таким образом сократить число дифференциальных уравнений.
На первый взгляд это может показаться парадоксальным. Действительно, приравнивая нулю функцию F(ui,) мы как бы считаем, что скорость изменения u1 равна нулю, хотя с другой стороны именно она пропорциональна большой величина А.
Не трудно убедиться, однако, что парадокса тут нет, если стационарное состояние уравнения (2.6) устойчиво. Последнее является необходимым условием теоремы Тихонова, если оно не соблюдается, то использовать метод стационарных концентраций нельзя.
Для демонстрации этого рассмотрим решение уравнения (2.6), в случае малых отклонений u1 от стационарного значения. В данном случае выражение (2.3) принимает вид:

где ;

(2.8)

Устойчивость решения уравнения (2.6) означает, что частная производная в (2.8) отрицательна. Число Ляпунова при этом тоже отрицательно и очень велико (поскольку А>>1). Это обстоятельство обеспечивает быстрое установление стационарного значения концентрации u1 , что и является основным утверждением теоремы Тихонова.
При моделировании конкретных сложных систем (например, экологических) сначала исследуют базовую модель и затем её расширяют до полной, которая называется имитационной. Последняя дает те же результаты, что и базовая, но кроме того позволяет описать поведение "деталей", то есть тех быстрых переменных, которые в базовой модели не фигурируют.
Во многих и очень важных случаях базовая модель содержит всего два уравнения. Для исследования их используется наглядный метод построения так называемого фазового портрета.
Поясним его смысл на примере двух уравнений для переменных x и y.

(2.9)

P(x,y) и Q(x,y) известные и в общем случае нелинейные функции своих переменных.
На рисунке 2.1 приведена плоскость (x,y). Каждая точка на этой плоскости дает информацию о состоянии системы (2.9) и потому называется изображающей точкой.
Пусть в начальный момент t=0 переменные x и y равны x=x1 ; y=y1 . Вычислим их приращения за малый интервал времени Dt. Эти приращения отложены на рисунке (2.1). Там же приведен вектор смещения изображающей точки. Аналогично можно вычислить смещение в следующий интервал времени. Повторяя процедуру можно получить ломаную линию, которая при Dt®0 переходит в плавную кривую, именуемую траекторией системы. Движение изображающей точки по траектории дает представление о развитии процесса во времени, даже если точное решение системы (2.9) не известно или не может быть выражено в аналитической форме. Именно в этом заключается ценность фазового портрета.
Для упрощения расчетов удобно провести две линии P(x,y)=0 и Q(x,y)=0. На первой приращение Dx=0, то есть траектории на ней вертикальны. На второй приращения Dy =0, то есть траектории на ней горизонтальны. Эти линии называются главными изоклинами. Точки их пересечения соответствуют стационарны состояниям, поскольку при этом оба приращения равны нулю.
На этом примере удобно проиллюстрировать теорему Тихонова и прояснить некоторые математические тонкости. Последние заключаются в следующем:
i) Полная система уравнений содержит n переменных и требует задания стольких же начальных условий. В редуцированной системе число переменных и начальных условий меньше, то есть часть условий оказываются лишними.
ii) При редукции нарушаются аналитические свойства решения полной системы.
Поясним это на примере редукции системы (2.9) в случае когда tx >> ty . Cогласно теореме Тихонова систему (2.9) можно редуцировать до одного уравнения:

(2. 10)

где зависимость y(x) - решение алгебраического уравнения Q(x,y) =0.
На рисунке 2.1, б приведен фазовый портрет системы (2.9) при tx >> ty. Видно, что траектории во всех точках, кроме лежащих на изоклине горизонталей, практически вертикальны, поскольку Dy >> Dx. Поэтому изображающая точка очень быстро, за время ty, попадает на изоклину горизонталей и затем медленно движется к стационарному состоянию согласно (2.10). Формально траектория плавная, но на ней имеется очень крутой поворот в точке(x1 , y2). Уравнение (2.10) этот крутой поворот не описывает, с чем и связано нарушение аналитических свойств решения полной системы (2.9).
Начальное значение переменной y1 в уравнении (2.10) не фигурирует, важно лишь значение x1 . Любое другое значение y, лежащее на вертикали x=x1 приводит к тому же результату. Иными словами, редуцированная система забывает о начальном значении y.
Таким образом редуцированная система правильно описывает процесс на
ограниченном, но наиболее важном для данной задачи, временном интервале.
Информационные аспекты редукции (и теоремы Тихонова) в следующем. При редукции сложной системы количество информации сокращается, сохраняется только ценная информация, а не ценная забывается.
Мы остановились на этом примере столь детально, поскольку редукция сложных систем играет очень важную роль при описании и исследовании процессов самоорганизации.
Как упоминалось, редукция основана на временной иерархии. Возникает вопрос: в каких случаях она имеет место и почему. В неживой природе она имеет место далеко не всегда. Так, например, при горении водорода образуется много промежуточных продуктов и времена их взаимопревращений примерно одного порядка. В процессах самоорганизации в живой природе, напротив, временная организация наблюдается практически всегда. Тому есть причины. Дело в том, что задачи моделирования и самоуправления во многом сходны и временная иерархия необходима и для того и для другого.
Отсюда следует на первый взгляд парадоксальный вывод: построение математических моделей живых самоорганизующихся систем - задача более простая, чем моделирование процессов в неживой природе, хотя и последнее интересно и важно. Возможно, именно с этим связаны успехи синергетики в биологии, экологии и социальных науках.
Стационарные состояния динамической системы могут быть разного типа. Их классификацию удобно привести на примере системы (2.9),
1. Устойчивый узел - так называется стационарное состояние в случае, если траектории упираются в точку, то есть приближаются к ней апериодически. При этом в линейном приближении вблизи точки все числа Ляпунова вещественны и отрицательны.
2. Устойчивый фокус - в этом случае траектории имеют вид свертывающихся спиралей и изображающая точка приближается к стационару, совершая затухающие колебания. При этом числа Ляпунова комплексны; реальная часть их отрицательна, а мнимая равна частоте колебаний.
3. Центр - в этом случае траектория представляет собой замкнутые кривые. Числа Ляпунова при этом чисто мнимые. В системе происходят незатухающие колебания амплитуда которых зависит от начальных условий (но не от параметров системы). Частота (т.е. мнимая часть числа Ляпунова) напротив, определяется внутренними свойствами системы.
Состояние "центр" нейтрально, то есть ни устойчиво, ни неустойчиво.
4. Неустойчивый фокус - в этом случае траектории - раскручивающиеся спирали. Числа Ляпунова определенные в линейном приближении комплексны, и реальная часть их положительна.
В реальных системах, как правило, раскручивание спирали ограничивается нелинейными членами. Тогда раскручивающаяся спираль навивается на замкнутую траекторию изнутри. Другие траектории, стремящиеся к неустойчивому фокусу из одаленных областей фазового пространства, навиваются на замкнутую траекторию снаружи. Эта замкнутая траектория называется предельным циклом (или циклом Пуанкаре). Движение точки по предельному циклу описывает периодический процесс. В отличие от центра, в данном случае амплитуда и период определенный внутренними свойствами системы и не зависит от начальных условий.
5. Седло - неустойчивое состояние в котором, хотя бы одно из чисел Ляпунова положительно. На фазовом портрете системы типа 2.2 через седло проходит только две особых линии. Одна из них такова, что изображающие точки движутся по ней к седлу и упираются в него. Эта линия называется сепаратрисой. Другая такова, что точки движутся от седла в разные стороны. Остальные траектории "обтекают" седло (в ту или иную сторону) и не попадают в него. Примером может служить движение шарика в потенциальном поле имеющем форму седла ( или перевала) - отсюда и происхождение названия - седло.
Точки типы "седла" с необходимостью возникают в бистабильных системах, где имеется два разных центра притяжения (типа устойчивого узла или фокуса). Линия, проходящая через седло разделяет области притяжения устойчивых точек - отсюда ясно и ее название - сепаритриса, то есть разделяющая.
Конкретные примеры таких систем мы приведем ниже. Отметим, что в гамильтоновых системах могут существовать только особые точки типа седла и центра. Другие стационарные состояния в них невозможны.
Продемонстрируем метод построения фазового портрета на ряде конкретных примеров.
Рассмотрим бистабильную колебательную систему вида:

(2.11)

Она описывает движение шарика массы m в потенциальном поле V(x) при наличии трения (коэфициент трения - g)

(2.12)

Первый член левой части (2.11) - сила инерции, второй - сила трения, пропорциональная скорости.
Потенциал V(x) представлен на рисунке 2.2.
Видно, что имеются две лунки, в которых может находиться шарик и барьер между ними. Если кинетическая энергия шарика достаточно велика, то он может колебаться между лунками.
Для построения фазового портрета системы (2.11) удобно её представить в виде двух уравнений для координаты x и импульса р.

(2.13)

 

где обозначено:

Фазовый портрет системы (2.13) приведен на рисунке 2.3.
Пересечение изоклин - стационарные состояния - расположены в точках: x=1 , x=-1 и x=0. Средняя из них - седловая. Таким образом, система бистабильна и выбор конечного состояния зависит от начального положения изображающей точки. Траектории - спирали. Сепаратрисы, будучи сами траекториями, тоже имеют спиральную форму, они изображены на рисунке жирными линиями. Слои между сепаратрисами - области притяжения устойчивых состояний. Толщина слоев зависит от коэффициента трения g, спирали сгущаются при уменьшении последнего.
Уравнение (2.11) качественно описывает игру в "орлянку", то есть вращение подброшенной в воздух монеты и последующее падение её. Два стационарных состояния соответствуют "орлу" или "решке". Трение монеты о воздух очень мало и сепаратрисы плотно заполняют фазовое пространство. Малое, но конечное изменение начального условия или малое внешнее воздействие может перебросить точку в соседний слой, что приводит к изменению выбора системой конечного состояния, то есть к генерации информации.
Физический смысл описанного прост: если шарик имеет вначале достаточно большую кинетическую энергию, то до остановки он совершит так много колебаний, что предугадать результат очень сложно. Если начальные условия заданы на сепаратрисе, то это вообще невозможно.
В отсутствии трения (g=0), спирали замыкаются и устойчивые фокусы превращаются в центры, то есть нейтральные состояния (числа Ляпунова при этом чисто мнимые). Уравнения (2.13) при этом описывают незатухающие колебаня. При малых амплитудах - колебания вокруг стационарной точки (либо x = +1, либо x=-1). При больших амплитудах - это колебания вокруг обеих точек.
Положение изображающей точки на плоскости (x,p) определяет как координату(x), так и импульс (р). Угол между линией, направленной из начала координат к изображающей точке, и абсциссой представляет собой фазу колебаний. Отсюда происходит название - фазовая плоскость.
В отсутствии трения (g=0) решение уравнения ((2.11) существенно упрощается. Тому есть причина, причем фундаментальная - закон сохранения энергии. Полная энергия, то есть сумма кинетической и потенциальной энерги

(2. 14)

не изменяется со временем. Величина Н называется гамильтонианом, а соответствуюшие системы - гамильтоновыми. Используется и другое название - консервативные системы. Этим подчеркивается, что некая величина, в данном случае энергия, сохраняется.
В общем случае, при наличии трения энергия (2.14) не сохраняется, точнее, она рассеивается, диссипирует, переходит в тепло. Такие системы называются диссипативными, происхождение термина очевидно.
При очень сильной диссипации ( ) в уравнении (2.11) можно пренебречь силой инерции и представить его в виде:

(2.15)

Оно описывает движение легкого шарика в потенциальном поле V(x) в очень вязкой жидкости. Оно же описывает простейшую запоминающую ячейку - триггерный элемент.
В настоящее время термин "диссипативные системы" очень популярен поэтому его уместно обсудить более детально.
Существующая в теории динамических систем терминология заимствована из механики, где такие понятия как энергия, импульс, диссипация имеют четкий смысл. Там же, в механике, квантовой механике, теории поля и т. п. ( то есть в "фундаментальных" науках) рассматриваются преимущественно гамильтоновы системы. Тому есть причины:
Во-первых, закон сохранения энергии действительно фундаментальный. Он действительно соблюдается в каждом отдельном акте взаимодействия элементарных частиц и физических полей. В более сложных процессах происходит диссипация энергии и эту проблему мы рассмотрим позже.
Во-вторых, методы исследования гамильтоновых систем детально разработаны.
В реальной жизни, и в частности, в процессах, связанных с информацией, приходится иметь дело с диссипативными системами. Таким образом, область применимости гамильтоновых систем в реальной жизни крайне узка.
Мы остановились на этом вопросе, поскольку до сих пор не прекращаются попытки построить "фундаментальную биологию" или "фундаментальную информатику" по образу и подобию гамильтоновой механики. Из изложенного следует, что попытки уложить реальную жизнь в прокрустово ложе гамильтоновых систем обречены на неудачу.
Рассмотрим фазовый портрет еще одной системы, имеющей отношение к информации и, в частности, к процессу генерации информации в биологических системах (возникновению единого генетического кода) [7,8,14]. Система состоит из двух уравнений

du1 /dt = u1 - u1 u2 - а1 u12

du2 /dt = u2 - u1 u2 - а2 u22

(2.16)

Обсудим сперва свойства системы (2.16) в симметричном случае. когда а1 =а2=а. Фазовый портрет её представлен на рисунке 2.4.
Изоклины вертикалей (Du1 = 0) определяются из условия F1( u1, u2 ) = u1 - u1 u2 - а u12 = 0 и соответствуют линиям u1 = 0 и u2 = 1 - а u1 . Изоклины горизонталей (Du2 = 0) определяются из условия u2 - u1 u2 - а u22 = 0 и соответствуют линиям u2 = 0 и u1= 1 - аu2.
(см.рис.2.4). Система имеет четыре стационарных состояния. Первое расположено при u1 = u2 = 0 и неустойчиво. Оба числа Ляпунова положительны и равны l1,2 =+1. Такая точка называется неустойчивым узлом.
Второе расположено на биссектрисе u1 = u2 = (1 + а)-1 и тоже неустойчиво (типа седла). Имеются два устойчивых состояния (типа узла): при u1 = 1/а (u2 = 0) и при u2 = 1/а ( u1 =0); в них оба числа Ляпунова отрицательны. Вся плоскость разделяется сепаратрисой на две области; в каждой из них траектории стремятся к соответствующему устойчивому состоянию. В нашем случае в силу симметрии системы она совпадает с биссектрисой.
Эта модель позволяет проследить процесс рецепции информации и возникновение (генерацию) ее. Так, если в силу внешних причин начальные условия не симметричны, то система приходит к определенному стационарному состоянию - это рецепция информации.
Если заранее выбор не предопределен, то есть начальные условия симметричны и заданы на сепаратрисе, то система сама, по воле случая, выбирает одно из стационарных состояний - это генерация информации. Ниже мы вернемся к этой системе и обсудим ее более детально.
В случае, когда коэффициенты а1 и а2 не одинаковы (например, 1> а2 >а1 ) симметрия нарушается, но качественные свойства системы сохраняются: имеются две области притяжения, они различны, но сопоставимы. Фазовый портрет представлен на рисунке 2.5.

2.2. Хаотические состояния, необратимость и рост энтропии.

Мы уже обсуждали вопрос о связи информации и необратимости, имеющий принципиальное значение. В идеально обратимом мире информация не может возникнуть, поскольку любой выбор не может быть запомнен, ( запоминание возможно лишь в диссипативных системах). Поэтому необратимость в нашем мире играет существенную конструктивную роль. Однако, в фундаментальных законах классической и квантовой физики время входит обратимо, так, что замена скоростей частиц на обратные эквивалентна повороту стрелы времени (т.е. замене t ® - t). Иными словами, в гамильтоновых системах явление необратимости не может иметь места.
В науке этот вопрос возник в очень острой форме на рубеже XIX и XX столетий. История вопроса поучительна и трагична. Людвиг Больцман был первым, кто попытался решить эту проблему. Он поставил цель: "вывести" законы термодинамики из уравнений Ньютона. Для этого рассмотрел систему из многих шаров, движущихся по ограниченной плоскости (биллиард Больцмана) и упруго соударяющихся друг с другом. Проведя, казалось бы, естественное усреднение, Больцман получил результаты, носящие его имя:
(1) закон возрастания энтропии (так называемая Н-теорема Больцмана),
(2) соотношение между энтропией и вероятностью:

S = k ln W,

(2.17)

где k = 1.38*10-16 эрг/град. - постоянная Больцмана и W - вероятность застать систему в определенном состоянии, где скорости и координаты шаров имеют определенное значение,
Эти результаты вошли в "золотой фонд" современной физики. Вместе с тем корректность расчетов Больцмана вызвала сомнение. Друг и постоянный оппонент Больцмана - математик Цермелло - возразил: изначальные уравнения симметричны во времени, а результат (возрастание энтропии) явно не симметричен. Такого не может быть, если все промежуточные вычисления математически корректны; следовательно, где-то допущена ошибка.
Больцман не смог ответить и застрелился.
Следующим был замечательный физик Эренфест. Он сформулировал проблему максимально четко, но ответа дать не смог и застрелился.
Идея ответа была найдена молодым физиком Н.С. Крыловым в 1948 г [15]; он вскоре умер.
В нашем изложении эта история выглядит трагикомически. В действительности решение покончить с жизнью человек принимает в состоянии эмоциональной неуравновешенности и неустойчивости. Искать непосредственную причину такого выбора бессмысленно. Важен другой вопрос: какие обстоятельства привели человека в неустойчивое состояние?
Что касается Людвига Больцмана ответ ясен. В научной среде его результаты встретили серьезное сопротивление. Попросту. он был подвергнут травле. В этом принимали участие не только друг Больцмана Цермелло (со стороны друзей это, как раз, часто случается), но и крупные, казалось бы объективные, ученые. Так, Пуанкаре "открыто рекомендовал не изучать труды Больцмана. поскольку они противоречили его, Пуанкаре, выводам" (цитируется по [9]). Удивительно и поучительно почему Пуанкаре, один из основоположников теории устойчивости, не смог понять результатов Больцмана и связать их с неустойчивостью (что впоследствии сделал Н.С. Крылов). Дело в том. что для Пуанкаре (как и для многих представителей французской школы математиков) принцип детерминизма был святыней. Он не мог даже допустить мысли о возможной ревизии понятий "причина" и "следствие". Этот эпизод - пример тому, как даже великий ум, будучи в плену сложившихся представлений, не может оценить значение своих же собственных результатов.
Что касается Эренфеста, то здесь дело в другом. Главной причиной самоубийства, повидимому, послужили трагические обстоятельства семейного плана. Хотя. и в этом случае сознание неспособности решить поставленную задачу, возможно, играло важную роль.
Что касается Н.С. Крылова, то его ранняя кончина казалась естественной: слабое здоровье, усугубленное тяготами военных лет. Однако. и его научный путь не был усеян розами. Коллеги Н.С. Крылова отнеслись к его идее с настороженностью и поставили вопрос: Откуда берутся малые случайные возмущения? По отношению к неустойчивым процессам такой вопрос, как мы теперь знаем, не корректен и лишен смысла, однако, тогда он казался естественным. Ими же (коллегами) был подсказан ответ: случайные возмущения следуют из соотношения неопределенности (т.е. из квантовой механики). Крылов, под давление общественности. согласился с этим ответом (хотя. внутренне, повидимому, был не удовлетворен им). Вскоре выяснилось. что такой ответ не верен. поскольку в квантовой механике проблема необратимости времени стоит не менее остро. чем в классической (подробнее мы обсудим её позже). В результате в памяти физиков Н.С. Крылов остался, как человек, который пытался проблему необратимости в классике решить за счет квантовой механики, в чем был не прав. Повлияли-ли научные дискуссии на судьбу Н.С. Крылова - судить не будем, важно. что его идеи не были забыты.
Далее события развивались менее драматично. В работах Колмогорова [16], Синая и Амосова [17,18,19] идеи Крылова были оформлены математически корректно. Сейчас результаты известны как теорема Синая . Изложим суть дела.
В механике обратимость во времени означает следующее.
Пусть тело (например, шар в биллиарде Больцмана) в начальный момент (t=0) имеет координаты x0 и скорость v0 и далее движется в соответствии с законами механики. Если в момент времени t1 изменить знак скорости, то по прошествии того же времени t1 тело вернется в точку x0 и будет иметь скорость, равную - v0. (далее такой процесс будем называть обратимым). Этот результат связан с инвариантностью уравнений по отношению к инверсии времени (о чем уже шла речь выше). Это же свойство обеспечивает сохранение энергии в классической механике.
Если такую процедуру провести со всеми шарами биллиарда Больцмана, то все они вернутся на исходные места (хотя и будут иметь противоположные скорости).
В частности, если вначале (t=0) все шары были сконцентрированы в малой части доступного пространства, то после описанной процедуры они должны собраться там же.
Этот результат означает, что энтропии начального и конечного состояний должны быть одинаковы и, следовательно, энтропия в динамических процессах не может возрастать (что и составляло суть возражений Цермелло).
Ясно, с другой стороны, что молекулы газа ведут себя иначе и никогда не собираются обратно. При расширении газа энтропия возрастает и не может затем уменьшиться, даже если изменить знаки скоростей.
В чем здесь дело? Утверждать, что уравнения движения механики не применимы к шарам нельзя; траектории шаров должны им подчиняться (и реально подчиняются).
Для решения парадокса было привлечено понятие устойчивости; в этом и заключалась идея Крылова.
В задаче Больцмана, следует задаться вопросом: устойчиво ли движение шаров в биллиарде? Если оно устойчиво, то Цермелло и Пуанкаре правы , и результаты Больцмана не корректны. Если оно неустойчиво, то это обстоятельство и является "причиной" необратимости процесса. Тогда строгие математические расчеты механических траекторий не могут описать реальный процесс; необходим другой подход, другой метод расчета, который позволил бы получить устойчивые результаты. Метод усреднения, который использовал Больцман, позволяет получить устойчивые результаты для средних величин и потому является конструктивным и в этом смысле корректным. Он вполне оправдан в случае, когда траектории шаров неустойчивы.
Рассмотрим, устойчивы ли траектории шаров в биллиарде Больцмана. Движения шаров между соударениями нейтральны, поэтому неустойчивость может возникнуть лишь при соударении шаров. Задачу можно упростить и рассмотреть многократное отражение материальной точки от выпуклой поверхности кривизны R (R=2r, где r - радиус шара). Для этого представим, что точка находится в ограниченном пространстве, в котором хотя бы одна из отражающих поверхностей выпукла (схема процесса приведена на рис. 2.6). Эта задача была поставлена и решена Л.Г. Синаем, и рисунок 2.6 носит название "биллиард Синая".
Не будем детально излагать теорему Синая, лишь на примере поясним суть дела. Рассмотрим угловые отклонения возмущенной траектории от исходной до и после соударения.
Траектория шара представляет собой ломаную линию. Точки излома соответствуют отражениям шара от стенки, плоской или выпуклой. В обоих случаях угол падения bi равен углу отражения.
Зададимся вопросом: устойчиво ли это движение и каковы числа Ляпунова траектории . Для этой цели проанализируем угловые отклонения. Рассмотрим два прямолинейных участка до и после отражения от выпуклой стенки (i-ый и i+1-ый).
Сравним две траектории, одна из которых на i-ом участке отклонена от другой на малый угол ai <<1, и вычислим угол отклонения ai+1 на следующем участке. Он равен:

(2.18)

где: li -длина пробега.
Вывод рекуррентного соотношения (2.18) легко провести, используя рис. 2.6 и сведения из школьного курса геометрии.
Из (2.18) следует, что угловое отклонение возрастает при каждом отражении от выпуклой стенки. Используя соотношение (2.18), можно угловое отклонение am после m-ого соударения выразить через начальное угловое отклонение a0

(2.19)

где: a0 -начальное отклонение (при t=0); n- число соударений за единицу времени ( m=nt); черта над логарифмом означает усреднение по числу соударений Из (2.19) следует, что движение шара в биллиарде Синая неустойчиво, числа Ляпунова положительны и равны


(2.20)

Этот вывод справедлив по отношению к любой траектории, в которой имеет место соударение с выпуклой поверхностью. Более того, этот вывод сохраняется и для обратного процесса, поэтому систему можно считать глобально неустойчивой.
Рассмотрим структуру фазового пространства системы. Имеется четыре динамических переменных: две координаты x и y и два импульса px и py . Закон сохранения энергии накладывает ограничение:

(2.21)

где p0 - абсолютная величина начального импульса. Поэтому изображающая точка движется в трехмерном пространстве, включающем координатную плоскость и, например, импульс px .
Стационарные состояния располагаются на плоскости (x,y), px =0, py =0 (и, следовательно, p0 =0) и соответствуют исходно покоящемуся шару. При ненулевом значении p0 стационарные состояния недостижимы, так что изображающая точка движется в слое трехмерного пространства, ограниченном значениями px =±p0 . При отражении от плоской границы "с" импульс px сохраняется, при отражениях от "а" и "b" меняется его знак, но не величина. При отражении от выпуклой поверхности "d" изменяется величина px . Проекция траектории на плоскость (x,y) представляется ломаной линией, равномерно заполняющей все координатное пространство. Проекция траектории на ось px представляет собой скачкообразный дрейф, также равномерно заполняющий весь доступный интервал (-p0,+p0).
Рассмотрим ансамбль аналогичных систем, в которых начальные условия отличаются, но слабо. В фазовом пространстве он представляется группой изображающих точек, которые в начале находятся в малой области e ( e - мера различия начальных условий). Окружим область всюду выпуклой поверхностью (как это показано на рис 2.7а). С течением времени в силу глобальной неустойчивости точки будут разбегаться друг от друга и в конце концов равномерно и случайно заполнят все доступное пространство. Выберем промежуточный момент времени и снова окружим все точки всюду выпуклой поверхностью. Объм окруженной области Г(t) будет больше начального Г(0) и с течением времени будет возрастать, пока не охватит все пространство. Величина S , равная:

/Г0

(2.22)

называется энтропией Синая. (Здесь: Г0 - элементарная ячейка фазового пространства, в классической физике эта величина условна, в квантовой механике она ограничена соотношением неопределенности и равна Г0 = h3n , где h - постоянная Планка и n - число частиц) Рост энтропии связан просто с увеличением фазового объема Г(t), обусловленного глобальной неустойчивостью.
Системы с такими свойствами называются эргодическими. Свойство эргодичности лежит в основе современной термодинамики. Ранее оно вводилось постулативно и называлось эргодической гипотезой (или гипотезой о микрохаосе ), которую теперь можно считать не гипотезой, а следствием теоремы Синая.
В случае, когда выпуклая поверхность заменена плоской (т.е. R®Ґ), число Ляпунова согласно (6) равно нулю, то есть система устойчива. Абсолютная величина импульса px сохраняется при любом соударении. Изображающая точка движется только в двух плоскостях: px = +px(0) и px =-px(0), и перескакивает с одной на другую при отражениях от стенок "а" и"b". Плоскость (x,y) заполняется траекторией равномерно, но не хаотично.
Ансамбль изображающих точек не расплывается, так что энтропия Синая со временем не возрастает. Такая система не является эргодической.
В связи с этим уместно упомянуть еще об одном парадоксе классической механики.
Согласно теореме Лиувилля объем области, занятой ансамблем в динамических гамильтоновых системах не может изменяться со временем. Это утверждение справедливо по отношению к устойчивым системам, где изображающие точки не разбегаются.
При глобальной неустойчивости возникает вопрос , что понимать под "объемом области". Например, можно окружить ансамбль точек не всюду выпуклой поверхностью так, что объем внутренней области будет сохраняться даже в случае разбегания точек, так, как это показано на рис. 2.7б При этом теорема Лиувилля формально соблюдается, однако вычислить вероятность нахождения системы в данной точке фазового пространства невозможно. При построении лиувиллевского объема фазовое пространство оказывается сильно расслоенным, так, что толщина слоёв меньше. чем обратный гугол Введение всюду выпуклой поверхности равносильно сглаживанию, то есть замене изрезанной функции её средним значением. При этом вероятности нахождения системы в любой точке, окруженной выпуклой оболочкой, одинаковы. Это позволяет перейти от динамического описания эргодических систем к статистическому.
Таким образом, подход Синая можно рассматривать как пример конструктивного использования понятия "обратный гугол".
Можно показать, что в случае термодинамически равновесного идеального газа (содержащего много частиц (т.е. "шаров")) энтропия Синая совпадает с энтропией Больцмана, то есть с физической энтропией. Действительно, термодинамически равновесное состояние представляет собой совокупность микросостояний, каждое из которых неустойчиво и через короткое время заменяется другим. При этом величина Г(t) в (2.22) равна Гmax т.е. максимально доступному фазовому объему. Вероятность обнаружить систему в каком либо одном микросостоянии (т.е. величина W в (2.17)) равна отношению: Гmax / Г0 . Откуда следует, что выражения (2.17) и (2.22) в этом случае совпадают.
С механической точки зрения равновесное макросостояние вообще не является состоянием, и описывать его в терминах механики бессмысленно. Однако, средние характеристики его со временем не изменяются, то есть стационарны и устойчивы. К таковым относятся: средняя кинетическая энергия частиц (температура), средний импульс, передаваемый в единицу времени единице поверхности при соударениях со стенкой (давление) и усредненное по ансамблю распределение частиц по энергиям. Это распределение было получено Больцманом. Вывод его можно найти во многих руководствах (см. например, [20]).
Энтропия в свете изложенного представляет собой не более чем удобную, хотя и условную, меру вероятности. В принципе можно было бы вообще обойтись без этого понятия и оперировать вероятностями. Однако это неудобно, поскольку вероятности, как правило, очень малы (меньше чем обратный "гугол" , а энтропия (в силу логарифмической зависимости ) выражается разумным числом). Утверждение о том, что энтропия может только увеличиваться, означает, что в глобально неустойчивых процессах изображающие точки разбегаются друг от друга независимо от того, рассматриваем ли мы процесс в прямом или обратном направлении времени.
В заключение уместно сделать ряд замечаний.
i) Эргодичность является следствием глобальной неустойчивости, возникающей при взаимодействии частиц, но не связана с числом частиц.
Действительно, в биллиарде Синая имеется только одна частица, и ее траектория с течением времени равномерно заполняет все доступное фазовое пространство (т.е. система эргодична). В биллиарде Больцмана достаточно нескольких шаров для того, чтобы (в силу неустойчивости их соударений) заполнить все доступное фазовое пространство. При этом распределение их по энергиям подчиняется закону Больцмана.
С другой стороны, в системах, содержащих много частиц, но движущихся устойчиво, эргодичность не имеет места. Примером может служить солнечная система, в которой имеются десятки тел (планет, спутников и т.д.), поведение которых отнюдь не хаотично.
Мы остановились на этом, поскольку во многих руководствах утверждается, что большое число частиц является необходимым и достаточным условием эргодичности, что в свете изложенного, неверно.
ii) В задачах Больцмана и Синая рассмотрены взаимодействия с так называемым "жестким кором". Принято, что взаимодействие отсутствует, если расстояние между шарами больше двух радиусов шаров. Сближение шаров на расстояние, меньшее удвоенного радиуса, исключается. Такому взаимодействию соответствует потенциал в виде бесконечной стенки на расстоянии двух радиусов. При этом параметр - радиус взаимодействия - имеет четкий смысл. При взаимодействии реальных частиц (атомов и/или молекул) ситуация иная. На малых расстояниях преобладают силы отталкивания, на больших - притяжения. Если потенциал отталкивающих сил U(r) зависит от расстояния r достаточно резко (например, U(r)"1/rn , n >2), то можно ввести "эффективный радиус", и в этом случае результаты Синая сохраняются.
Если же имеет место дальнодействие (то есть потенциал U(r)"1/r), то эффективный радиус становится бесконечным (R®Ґ). Тогда, согласно (6), число l стремится к нулю , то есть движение частиц устойчиво по Ляпунову .
Гравитационные силы являются дальнодействующими, что и объясняет отсутствие хаоса в планетарной системе. Электрические силы также являются дальнодействующими. Поэтому электронно-ионная плазма, строго говоря, не является эргодической системой. Она не является и динамической, поскольку при взаимодействии ионов присутствуют помимо электростатических другие, короткодействующие силы. Поэтому электронно-ионня плазма, практически, не бывает термодинамически равновесной.
Столь подробное рассмотрение сделано с целью подчеркнуть, что термодинамическое равновесие реализуется отнюдь не всегда, а только в глобально неустойчивых системах (или подсистемах).
iii) Устойчивость макроскопических состояний и неустойчивость микроскопических связаны друг с другом. Действительно, условием устойчивости макросостояний является затухание флуктуаций. С другой стороны, любое микросостояние - это флуктуация на фоне макросостояния. Затухание флуктуации означает разрушение микросостояния, что происходит за счет его неустойчивости.
Таким образом, глобальная неустойчивость микросостояний (микроскопический хаос) оказывается необходимым условием макропорядка.
iv) В эргодических системах неустойчивы движения как в прямом, так и в обратном направлении. Это значит, что при обращении знака времени изображающая точка не вернется в исходное положение, а будет "дрейфовать" в фазовом пространстве так, как, если бы знак времени не был изменен. Иными словами, повернуть процесс вспять (или, что то же, изменить знак времени) в глобально неустойчивых системах невозможно.
Это замечание связано с проблемой "стрелы времени". Суть проблемы в следующем. В физике, благодаря успехам теории относительности, принято думать, что пространственные координаты и время в значительной мере равноправны .
С другой стороны, обратимость в пространстве возможна (всегда можно вернуться в исходную точку пространства), но обратимость во времени невозможна (помолодеть нельзя).
Отличие связано со свойством неустойчивости, которое характеризует нарастание отклонений со временем.
v) В рассмотренных системах (задача Больцмана, биллиард Синая) все числа Ляпунова одинаковы (точнее одного порядка). В реальных (в частности, открытых ) системах это не так.
Число показателей Ляпунова равно числу динамических переменных и очень велико. Среди них имеются как положительные, так и отрицательные. Можно преобразовать динамические переменные (ввести так называемое конфигурационное фазовое пространство) так, что в определенной части нового фазового пространства движения будут устойчивы, а в другой части - глобально неустойчивы. Точнее: изображающая точка в многомерном фазовом пространстве всегда движется по одной траектории. Речь идет о том, что проекция этой траектории на первое подпространство устойчива, а проекция на второе - неустойчива. Тогда в первом подпространстве можно (и нужно) использовать законы механики, а во втором - термодинамики.
В макроскопических машинах (например, паровых) разделение фазового пространства на динамическую и статистическую части очевидно: в котле - термодинамика, в механической части (поршень, рычаги и т.п.) - механика. Поэтому вопрос о критериях разделения был не актуален и долгое время вообще не обсуждался. В молекулярных конструкциях (т.е. в биологических "машинах") такое разделение не тривиально и вопрос о критериях актуален [12]. Из изложенного следует, что таким критерием должно служить наличие (или отсутствие) глобальной неустойчивости.
В связи с развитием вычислительной техники появилось новое направление - молекуулярная динамика [21,22]. Цель его - описание поведения ансамбля частиц, исходя из первых принципов, то есть законов Ньютона. Взаимодействие частиц описывается потенциалом (как правило - Ленарда-Джонса). Практически этот метод используется при теоретическом исследовании поведения сложных молекул (в частности биологических). Однако, его можно использовать и для решения вопроса о росте энтропии в биллиарде Больцмана. Для этого достаточно выбрать форму потенциала, соответствующую упругому соударению жестких шаров. Такие расчеты проводились неоднократно [23]. Число частиц в ансамбле выбиралось порядка 100, что, правда, не существенно. Расчеты проводились в ограниченном пространстве с отражающими стенками. Начальные условия задаювались в виде набора координат и импульсов частиц, далее компьютер вычислял их траектории. Результаты таковы:
Траектории шаров не воспроизводимы, то есть имеет место глобальная неустойчивость - хаос. Средние значения, напротив, устойчивы. Обратимость в механическом смысле не имеет места, то есть при обращении знака времени (инверсии скоростей) частицы не движутся по прежним траекториям и не собираются в исходном месте.
Распределение частиц по скоростям устанавливается достаточно быстро (через 10 соударений) и соответствует максвелловскому не зависимо от начальных условий.
Таким образом, основные результаты термодинамики можно получить без использования второго начала, как дополнителного постулата. Понятие энтропия при этом можно ввести, но можно и не вводить и вообще не упоминать о нем.
Разумеется, точность машинного расчета не абсолютна и ошибки заведомо больше, чем обратный гугол. В частности, инверсию скоростей компьютер тоже делает с ошибкой. Однако, именно такой "неточный" расчет приводит к правильным результатам, адекватно описывающим действительность. В этой связи второе начало можно сформулировать в следующем, несколько парадоксальном, виде:
В расчетах динамических систем необходимо делать ошибки, в этом (и только в этом) случае мы получим результат, правильно описывающий реальные процессы (в том числе необратимые).
При численных расчетах это условие соблюдается автоматически. Абсолютно точные теоремы (типа теорем об обратимости и теоремы Лиувилля) в случае неустойчивых систем приводят к результатам, не соответствующим действительности. В устойчивых системах малые ошибки роли не играют и оба подхода приводят к одинаковым результатам.
В принципе численные расчеты можно проводить и в системах, содержащих большое число частиц (порядка числа Авогадро), но практически это невозможно, да и не нужно. Проще использовать аппарат термодинамики.
Расчеты в рамках молекулярной динамики - пример редукции необратимых явлений к набору элементарных актов, описываемых фундаментальными законами физики.
В связи с этим уместно обсудить вопрос о тождественности частиц, который является одним из фундаментальных, как в квантовой, так и классической физике.
В квантовой механике тождественность понимается как абсолютная и фактически это свойство постулируется. При отказе от абсолютной тождественности нарушается принцип симметрии (в частности, принцип Паули) со всеми вытекающими последствиями.
В классике, напротив, абсолютная тождественность появляется как нечто выходящее за рамки общих случаев (событие меры ноль). Любое свойство объекта (его масса, размеры и т.д.) в общем случае может изменяться непрерывно. В классической макро-физике ни среди природных объектов, ни среди предметов, созданных человеком, не может быть двух абсолютно одинаковых, даже если эти объекты созданы в одинаковых условиях. Они отличаются хотя бы тем, что на каждый предмет можно поставить инвентарный номер и эти номера будут различными. Одинаковыми (или тождественными) можно считать объекты, если в данном процессе (или в имитации этого процесса, проводимых с определенной целью) малые различия роли не играют и на результатах не сказываются.
Иными словами, тождественность в классической физике понятие условное и не абсолютное.
С другой стороны, в учебниках по статистической физике при выводе распределения Больцмана используется утверждение о том, что состояния, полученных перестановкой одинаковых частиц следует считать одним состоянием [20]. При этом "одинаковость" частиц понимается как абсолютная тождественность.
Это же утверждение лежит в основе парадокса Гиббса. Напомним кратко в чем его суть.
Рассмотрим два одинаковых сосуда, разделенных перегородкой, в каждом из которых имеется газ с одинаковыми объемом V, давлением Р, температурой Т и энтропией S .
Молекулы газа в них могут быть либо абсолютно одинаковыми (тождественными), либо отличаться (но очень мало, например, иметь разные массы, отличающиеся на величину, меньшую точности эксперимента).
При удалении перегородки молекулы газа перемешиваются.
Если молекулы тождественны, то смешение в рамках термодинамического подхода не приведет к изменению состояния и полная энтропия S = 2S не изменится.
Если молекулы различаются сколь угодно мало, то в результате смешения энтропия каждого газа увеличивается вдвое и полный прирост энтропии равен: DS = 2S.
Этот прирост не зависит от меры различия начальных газов и остается даже если различие стремится к нулю; в чем и состоит парадокс Гиббса.
В качестве "разрешения" парадокса Гиббса приводят следующий аргумент: молекулы (или атомы) - объекты квантовые и, следовательно, являются либо абсолютно тождественными, либо отличаются на конечную величину. Примером могут служить изотопы одного и того же элемента.
Эта аргументация удовлетворяет отнюдь не всех, поэтому обсуждение парадокса Гиббса продолжается.
Причина здесь в следующем.
Можно представить себе ансамбль из классических объектов ("частиц", например бильярдных шаров), которые наверняка не будут тождественными. Для определенности можно эти объекты пронумеровать или покрасить в разные цвета (например "красный" и "черный").
В принципе можно даже реализовать такой ансамбль в натуре и уж наверняка можно провести расчет его поведения на компьютере в рамках "молекулярной динамики".
Возникает вопрос: будет ли в таком ансамбле заведомо не тождественных частиц устанавливаться распределение Больцмана и будет ли иметь место парадокс Гиббса.
В работе [24] был проведен численный эксперимент в рамках молекулярной динамики. Целью эксперимента было установить, насколько распределение частиц по скоростям соответствует распределению Максвелла-Больцмана. Этот эксперимент показал, что достаточно быстро в ансамбле заведомо не тождественных частиц устанавливается распределение практически неотличимое от больцмановского.
Это значит, что распределение Больцмана устанавливается вне зависимости от того, тождественны частицы или нет.
Численный эксперимент по смешению газов не проводился, однако его результаты очевидны.
Разумеется, при удалении стенки частицы начнут перемешиваться - это объективный факт, не зависящий от того, тождественные частицы или нет. Число возможных микросостояний системы при этом тоже увеличится. Например, состояние в котором левая половина почти пуста, а все частицы сосредоточены в правой до удаления заслонки невозможен по условиям задачи. После удаления перегородки оно в принципе возможно, но крайне маловероятно.
Перед подсчетом энтропии исходного (до удаления заслонки) и конечного (после удаления и перемешивания) состояний уместно сделать ряд замечаний.
1) В классической формальной термодинамике энтропия как функция состояния выражается через макроскопические переменные, такие как: давление, температура, объем и концентрации компонентов (если их несколько).
2) В статистической физике энтропия определяется как логарифм числа возможных микросостояний. В равновесных эргодических системах это определение приводит к тем же результатам, что и формальная термодинамика.
Рассмотрим парадокс Гиббса с формально термодинамической точки зрения. При этом необходимо ввести понятие "концентрация". В нашем случае, когда свойства всех частиц различны, ввести это понятие можно лишь условно.
Обсудим несколько вариантов.
1) Будем считать, что, не смотря на малые различия, все частицы одинаковы. Тогда концентрация С - число частиц в единице объема. Эта концентрация, равно как и другие макрохарактеристики не изменяется при удалении заслонки. Энтропия как функция состояния тоже не изменяется.
2) Разделим все частицы на два сорта: "легкие" (масса которых меньше некоторой средней величины "m") и "тяжелые". Разумеется, такое разделение, равно как и выбор массы m условен, поскольку различия очень малы.
Тогда необходимо ввести две концентрации "легких" частиц (С1) и "тяжелых" (С2).
В случае, если в начале в разных отсеках частицы смешаны равномерно и концентрации их одинаковы, то после удаления заслонки концентрации не изменятся (хотя сам процесс перемешивания конечно произойдет). Энтропия системы в этом случае не изменится.
Пусть в начале "легкие" и "тяжелые" разделены так, что концентрации их в левом ящике С1=0; С2 =С и в правом С1 =С; С2= 0.. Тогда после удаления заслонки концентрации легких и тяжелых частиц будет вдвое меньше. (а занимаемые ими объемы - вдвое больше).
Энтропия системы увеличивается на величину DS = 2 k ln n , (где n - число молекул газа), которая и является энтропией смешения.
Отсюда следует, что энтропия смешения - понятие условное (равно как и энтропия в целом).
Условность всегда субъективна и всегда дискретна. Вопрос о том, где поставить условную границу в случае, когда реальные различия стремятся к нулю лишен смысла. Условную границу можно либо ставить, либо не ставить и решение в этом случае дискретно по постановке задачи.
Критерием условного разделения является его конструктивность или, что то же, целесообразность.
Каждое понятие (тождественность, энтропия и т.д.) вводятся для того, чтобы описывать реальные процессы - в этом и состоит цель их введения. В зависимости от этой цели можно в наборе объектов, свойства которых меняются непрерывно, ввести границу и считать объекты слева и справа от нее одинаковыми. При этом единственным условием является физически реализуемая возможность отнести каждый объект к одному из условно выделяемых классов.
Поясним сказанное на примерах.
1. Рассмотрим процесс разделения изотопов урана (U235 U238). В диффузионном методе разделения используются летучее соединение UF6 При этом изотопы рассматриваются как различные атомы. Критерий различия в данном случае прост и вполне физически реализуем: кусок чистого U235 критической массы (порядка 1 кг) взрывается; такой же кусок U238 - не взрывается. Это связано с различием свойств ядер изотопов, которые не малы.
В разделительных машинах энтропия смешения изотопов обязательно учитывается. Более того, принцип минимума энтропии смешения лежит в основе конструкции этой машины.
2. Рассмотрим теперь процесс восстановления урана из UF6 . В данном случае цель - получение металлического урана. В этом процессе химическое различие изотопов урана пренебрежимо мало. При расчете оптимальных параметров химического процесса эти различия не учитываются, то есть различные изотопы считаются тождественными, учитывать эти различия в данном случае не целесообразно.
3. Рассмотрим ансамбль классических нелинейных автоколебательных систем - генераторов, связанных друг с другом. Параметры их (и собственные частоты) в общем случае различаются, хотя и слабо.
Пусть наша цель - создать систему, в которой генераторы работают синхронно. Тогда параметры генераторов подбираются так, чтобы произошел захват частот. После этого, генераторы, попавшие в полосу захвата, работают на одной общей частоте и в этом смысле ведут себя как тождественные объекты. Генераторы, не попавшие в полосу захвата, работают на другой частоте и рассматриваются как "другие" (не тождественные первым) объекты.
Критерием разделения в данном случае служит полоса захвата частот. Если цель - испытывать каждый генератор в отдельности (вне связи с другими), разделять их на группы бессмысленно. В этом случае они все рассматриваются как одинаковые (стандартные или тождественные, если, конечно, их параметры не выходят за рамки допустимых по стандарту).
4. Рассмотрим в качестве примера игру в биллиард.
Согласно одним из правил, выигрывает тот, кто закатил большее количество шаров в лузы, неважно каких именно в какие именно. При этом все шары считаются одинаковыми (тождественными).
Существуют другие правила, согласно которым выигрывает тот, кто забил определенные шары в определенные лузы. В этом случае шары (и лунки) уже не тождественны. Отличия их должны быть физически детектируемы так, чтобы каждый игрок мог объективно оценить какой именно шар попал в данную лузу (для чего шары нумеруются, раскрашиваются в разные цвета и т.д.). С другой стороны, эти отличия не должны влиять на основные (с точки зрения игры) свойства шаров: их размеры, массу, упругость. В этом смысле они должны быть одинаковыми.
Таким образом, понятие тождественности объектов в классической физике условно. То же относится и к понятию "энтропия", в частности, энтропии смешения.
В свете этого, парадокс Гиббса - результат недоразумений, связанный с попыткой придать условному понятию безусловный (объективный) смысл.
В квантовой механике согласно [25], критерием тождественности двух объектов (состояний) является способность их к резонансному взаимодействию. Так, объекты можно считать одинаковыми (тождественными), если собственные функции системы являются симметричная и антисимметричня суперпозиции функций отдельных объектов. Последнее зависит не только от свойств самих объектов, но и от взаимодействия между ними. такая ситуация очень близка к случаю синхронизации классических осцилляторов, рассмотренному выше. (см. пример 3). В целом ситуация в квантовой механике заслуживает специального и более подробного рассмотрения. Здесь мы этого касаться не будем. .
Рассмотрим парадокс Гиббса с позиции теории глобально неустойчивых (эргодических) динамических систем. Здесь энтропия определена как логарифм фазового объема внутри всюду выпуклой области, охватывающей изображения точек ансамбля системы. Возникает вопрос, насколько условно это определение и как проявляется эта условность в парадоксе Гиббса.
Примем, что все частицы в левом отсеке имеют отрицательные значения пространственной координаты Х, а в правом - положительные.
Рассмотрим вариант (i), в котором все частицы считаются одинаковыми. Тогда в фазовом пространстве всей системы изображающие ансамбль точки распределены равномерно. Всюду выпуклая огибающая охватывает все пространство. Объем внутри нее максимален и при удалении заслонки не увеличивается. Перемешивание сводится к тому, что внутри этого объема изображающие точки перемешиваются и заполняют имеющиеся там пустоты. На величине объема выпуклой оболочки это не сказывается, поскольку исходное состояние является равновесным.
Рассмотрим вариант (ii), в котором частицы считаются различными. Здесь возможны два случая:
В первом различные частицы в начале присутствуют как в левом. так и в правом отсеках. Тогда после удаления заслонки происходит то же самое, что и в предыдущем варианте. Энтропия при этом не возрастает.
Во втором в исходном состоянии одни частицы находятся только в левом отсеке, а другие - только в правом. Это значит, что часть фазового пространства (именно та, где координата Х "легких" частиц положительна, а "тяжелых" - отрицательна) пуста.
При построении оболочки эта часть должна быть исключена. После удаления заслонки эта часть фазового пространства заполняется, оболочка "раздувается" и объем внутри нее увеличивается. Прирост логарифма объема соответствует энтропии смешения.
Отсюда видно, что условность разделения частиц на "легкие" и "тяжелые" проявляется в условности процедуры построения всюду выпуклой оболочки. Речь идет о том, должна ли эта оболочка охватывать область, заведомо пустую в рамках варианта (ii) во стором случае, или заведомо заполненную в рамках варианта (i).
Отметим, что при построении всюду выпуклой оболочки всегда приходиться охватывать пустые области и именно этим обеспечивается рост энтропии в неравновесных процессах. Поэтому некоторая условность этой процедуры имеет место всегда, а не только в случае парадокса Гиббса.
Оправданием и критерием целесообразности этой условности служит конструктивность использования условного понятия в конкретных процессах.
В заключение раздела подчеркнем главные выводы.
Неустойчивость - явление. которое возникает в рамках динамических уравнений, но приводит к тому, что они перестают быть полными. Неустойчивость можно констатировать (то есть вычислить числа Ляпунова) в рамках динамики, но предсказать результат процесса при этом невозможно.
Перед нами пример того, что в рамках любого алгоритма, включающего хотя бы арифметику, можно сформулировать задачу. которая не будет иметь решения. Это - парафраз теоремы Гёйделя, о которой все слышали, но мало кто думал, что она может иметь практическое применение.
Дополнительное утверждение, которое нужно сделать по отношению к глобально неустойчивым (хаотическим) системам, хорошо известно; оно состоит в следующем: по неустойчивым состояниям (микросостояниям) необходимо усреднить и далее работать со средними характеристиками. Последние, как упоминалось, устойчивы в ту же меру, в какую микросостояния неустойчивы. По существу это дополнение является основой второго начала термодинамики.
Дополнительная аксиома нуждается во введении дополнительного понятия. Это понятие - энтропия, как мера множества микросостояний - было введено и сейчас описать явления в неживой природе минуя это понятие, невозможно.
В действительности энтропия была введена много раньше (в начале прошлого века), просто как величина, удобная для расчетов паровых машин. Физический смысл её тогда был не ясен и поэтому энтропия воспринималась как нечто не от мира сего (некий фетиш). Склонность фетишизировать это понятие сохранилась и до сих пор, хотя сейчас ситуация существенно прояснилась.
Теория динамического хаоса не исчерпывается задачей о бильярде. Хаос может возникать и в диссипативных (не гамильтоновых) динамических системах и там он имеет свои особенности [26]. Сейчас найден целый класс динамических систем, в которых хаотический режим возникает лишь в некоторых областях фазового пространства. Такие области называют странными аттракторами [27]. Фазовые траектории входят в эти области (откуда и термин "аттрактор"), но не выходят из них, а запутываются внутри (откуда и эпитет "странный"). Одним из первых обнаружил странный аттрактор Эдвард Лоренц в 1961 г. (см. [27], стр. 88).
Странные аттракторы можно рассматривать как стационарные состояния, но не стянутые к одной точке, а размазанные по области фазового пространства. В природе такие системы распространены гораздо шире, чем это можно было бы предположить.

2. 3 Проблема необратимости в квантовой механике.

Квантовая механика основана на двух постулатах. Первым постулатом является уравнение Шредингера:

(2,23)

где h - постоянная Планка, H - оператор Гамильтона, Y - волновая функция системы.
Второй постулат представляет собой плотность вероятности обнаружить частицу в заданной точке х. (или частицы в точках x1 , x2 , ... xn , здесь и далее х - многомерный вектор).

(2.24)

где тильда означает комплексное сопряжение.
Известно, что эти постулаты в рамках современной квантовой механики не совместимы [28,29]. Дело в том, что при фиксации частицы волновая функция стягивается в точку, то есть плотность вероятности превращается в d(x) - функцию:

(2,25)

Этот процесс называется редукцией пакета.
Известно, что редукция пакета не может быть описана в рамках уравнения Шредингера, даже если в гамильтониан включить всю систему вместе с измерительным прибором. Эта проблема известна как "парадокс измерения". Суть дела в том, что редукция пакета - процесс необратимый во времени. Энтропия в течение этого процесса возрастает, что, согласно теореме фон Нёймана [29] невозможно.
При изложении основ квантовой механики обычно говорят, что из- мерительный прибор - система классичеcкая. Встаёт вопрос: при каких условиях и почему квантово-механическое описание теряет силу и должно быть заменено классическим. Одним из главных этапов этой проблемы является вопрос о росте энтропии в гамильтоновых квантово-механических системах.
В классической физике, как было показано выше, причиной необратимости является глобальная неустойчивость динамических процессов, то есть возникновения динамического хаоса. Попытки осуществить аналогичную программу в квантовой механике натолкнулись на трудности. Выяснилось, что замкнутые квантово-механические системы динамически устойчивы. Это значит, что при малом изменении начальных условий эти девиации со временем не нарастают. Интегральная мера начальных отклонений остается постоянной и не увеличивается со временем. Это утверждение известно как теорема Вигнера [28].
Численные методы исследования хаотизации некоторых квантово-механических систем [30] не дали определенного ответа и вопрос остается открытым.
В этом разделе мы проведем анализ параметрической устойчивости квантово-механических систем. Мы покажем, что при определенных условиях квантово-механическая система становится параметрически неустойчивой, что приводит к возрастанию наблюдаемой энтропии. Систему, удовлетворяющую этим условиям можо назвать классическим прибором.

2.3.1. Динамическая и параметрическая устойчивость квантово-механических систем.

Рассмотрим финитную систему. Оператор Гамильтона обозначим , где индекс n соответствует определенному набору параметров. Далее будем считать, что при изменении индекса n параметры гамильтониана меняются мало, так, что они близки друг к другу при всех значениях индекса n. Меру близости мы обсудим позже.
Собственные функции удовлетворяют уравнению:

(2.26)

Здесь и далее индекс "i" нумеруется в порядке возрастания энергии. Развитие во времени любого состояния y(x,t) , не являющегося собственным, описывается уравнением:

где

(2,27)

 

 

 

 

(здесь и далее положено )
Матрица плотности в энергетическом представлении равна произ- ведению амплитуд плотности

вероятности застать систему в i -ом состоянии.

(2,28)

 

отсюда:

(2,29)

Диагональные элементы матрицы плотности представляют собой вероятность застать систему в состоянии с энергией , то есть они связаны с энергетическим спектром нестационарного состояния Y(x,t). Последний характеризуется средней энергией `Е и полушириной (то есть дисперсией) DЕ.
В структурно неустойчивых системах энергетический спектр сильно изрезан (то есть при изменении индекса i на единицу величина меняется в меру самой себя), но, будучи усреднен по индексу n, становится плавной. Величины Е и DЕ, будучи усредненными по i, от индекса n не зависят.
В этом представлении энтропия равна:

(2,30)

где k - постоянная Больцмана.
Это выражение является обобщением классического представления энтропии как

S = k

(2,31)

где wi - априорная вероятность застать систему в i-ом микроскопическом состоянии.
Выражение (2,30) переходит в (2,31), если сумма недиагональных членов равна нулю. Поэтому задача сводится к выяснению поведения недиагональных элементов матрицы плотности со временем.
Рассмотрим специальный класс систем, удовлетворяющих следующим условиям.
(1) Энергетический спектр системы достаточно плотен, то есть расстояния между соседними уровнями малы:

(2.32)

Величины масштаба e0 = <<1 будем считать малыми

(2)При изменении параметров энергетические уровни сдвигаются мало, то есть:

(2.33)

Величины масштаба того же порядка, что и e0 Это означает, что в ансамбле похожих, но не тождественных систем, отличающихся параметрами, сами параметры отличны лишь в меру e1. Отсюда следует, что и энергетическое воздействие на систему, связанное с изменением параметров, мало в ту же меру.
(3) Собственные функции при изменении параметров изменяются сильно, так, что при :

(2.34)

При этом и коэффициенты разложения любой функции Y (х,0) по собственным функциям n - ого и m -ого гамильтонианов также отличаются сильно.

(2.35)

Отсюда следует, что близкие по значению коэффициенты такие, что:

(2.36)

соответствуют разным значениям энергии, таким, что:

(2.37)

Системы, удовлетворяющие перечисленным свойствам, будем называть параметрически (или структурно) неустойчивыми. Термин оправдан тем, что при малом ( в меру e) и случайном изменении параметров, коэффициенты разложения меняются тоже случайно, но сильно.
Примером таких систем могут служить спиновое стекло. Оно состоит из n атомов, каждый из которых может находиться в двух состояниях ("спин вверх" и "спин вниз"). Число возможных различных состояний системы равно: N = 2n , таково же и число уровней системы. Взаимодействие между атомами снимает вырождение и образуется зона ширины D. Далее будем считать, что , то есть нестационарная функция Y(x,t) может быть разложена по собственным функциям гамильтониана спинового стекла. Расстояние между уровнями в зоне порядка:

и, следовательно:

(2.38)

При n > 1000 величина e0 настолько мала, что ее мы будем считать аналогом бесконечно малого (то есть величиной типа "обратный гугол"). То же можно сказать и о возмущениях масштаба e1.
Обсудим вопрос о динамической устойчивости.
Рассмотрим ансамбль тождественных систем, параметры которых одинаковы. При этом индекс n можно опустить. Сравним развитие во времени двух нестационарных функций, которые вначале отличаются слабо, так, что:

(2.39)

Изменение функций Y1(х,t) и Y2(x,t) во времени описывается выражениями (2.27), где коэффициенты и различны. Из (2.38) и (2.27) следует, что разности коэффициентов подчиняются условию:

(2.40)

где: N - эффективное число уровней.
Интегральная мера девиации в момент времени t равна:

(2.41)

Она не зависит от времени и всегда мала.
Таким образом, по интегральным критериям квантово-механические системы динамически устойчивы. Приведенные расчеты можно рассматривать как иллюстрацию теоремы Вигнера [28]. Причина устойчивости в том, что фазовое пространство квантово-механических систем разделено на слои, соответствующие энергетическим уровням. При развитии системы во времени эти слои не перемешиваются.
Рассмотрим теперь ансамбль сходных, но не тождественных систем, параметры которых отличаются в меру e1 " e0 так, что энергетические уровни в них перемешиваются. Сравним, как развивается во времени изначально одинаковая волновая функция Y(х,0) в двух системах (n=1,2).

(2.42)

Их разность, то есть девиация функции в момент t, равна:

(2.43)

Здесь мы учли, что согласно свойству (2) и условию (2.33), собственные значения Еi ,соответствующие разным значениям индекса n различны лишь в меру e1 (в то время как коэффициенты Сi различаются сильно), Малым различием собственных энергий мы пренебрегли.
При t = 0 Y(1) = Y(2) = Y(x,t=0). Отсюда:

(2.44)

хотя сами функции и коэффициенты Сi , согласно (3), отличаются сильно.
Интегральная мера девиации равна:

 

(2.45)

Здесь обозначено и учтено, что при t = 0 согласно (2.44):

(2.46)

Из (2.44) и (2.46) следует, что при t " (DE)-1 каждый член суммы в (2.45) не мал. Компенсация членов в сумме (2.45) также невозможна, поскольку временной фактор не зависит от индекса n (n=1,2), а остальные величины зависят от параметров гамильтониана и меняются при их изменении согласно условию (3) достаточно сильно.
Таким образом, интегральная девиация растет со временем и за конечное время (порядка обратной дисперсии спектра исходного состояния DE) достигает значения порядка единицы. Полуширину спектра DE можно считать аналогом числа Ляпунова.
Важно, что здесь, как и в классической физике, развитие системы во времени и сам факт неустойчивости определяется внутренними свойствами системы, а не внешними воздействиями.

2.3.3. Наблюдаемые величины в структурно неустойчивых квантово-механических системах (см. [31]).

Обычно под наблюдаемым значением оператора понимают его среднее по ансамблю. При этом не оговаривают в какой мере системы ансамбля одинаковы. В случае структурно устойчивых систем этот вопрос и не встаёт; системы можно считать тождественными. Однако, если системы структурно неустойчивы, то есть обладают свойствами (1), (2), (3), , необходимо дополнить эту процедуру условием усреднения по ансамблю одинаковых, но не абсолютно тождественных систем. Тогда неблюдаемое значение какого либо оператора следует представить в виде:

(2.47)

Такая процедура уже предлагалась и обсуждалась ранее в [32].
Если оператор не зависит от времени явно, то его наблюдаемое значение будет зависеть от времени в силу изменения во времени нестационарной функции Y (x,t). Тогда:

(2.48)

где:

Представим (2.48) в виде:

(2.49)

Первый член - сумма диагональных элементов, она не зависит от времени. Второй член - сумма недиагональных членов, которая зависит от времени. Рассмотрим оба члена отдельно в случае, когда система структурно неустойчива.
В первом члене обе величины: и - сильно изрезанные функции как индекса n так и i. Однако, после усреднения по n в соответствии с (2.47) они стеновятся гладкими функциями индекса i.
Примем, что при усреднении по n величины и статистически независимы. Смысл и роль этого, как увидим важного, положения мы обсудим позже. Тогда:

(2.50)

где: и - усредненные по n , уже гладкие функции индекса i. После этого первый член в (2 .49) можно представить в виде интеграла:

(2.51)

где W(E) - энергетический спектр системы и O(E) - наблюдаемое значение оператора О в состоянии с энергией Е.
Действуя аналогично, представим второй член в (2.49) в виде:

(2.52)

,

 


где: и Оi,j - усредненные по n значения недиагональных членов и

Интеграл (2.51) представляет собой вклад в наблюдаемую величину диагональных членов, который мы обозначим: ; от времени он не зависит.
Интеграл (2.52) - вклад недиагональных членов, который мы обозначим как: ; он обладает следующими свойствами:
1). убывает со временем (с характерным временем порядка: Dt "(DE)-1 ). Действительно, подынтегральная величина - плавная функция энергий Еi и Ej , которая велика в интервале и мала вне его. Экспоненциальный фактор с ростом времени t (при t>DE) становится сильно изрезанным и знакопеременным, что и приводит к убыванию интеграла..
2). Величина исчезает при DЕ®0. Действительно, при DЕ=0 исходное состояние является собственным и недиагональные члены отсутствуют.
3). В случае, когда коэффициенты С(Е) имеют полюсной характер, то есть:

(2.53)

итеграл в (2.52) убывает со временем экспоненциально:

=

(2.54)

В целом наблюдаемое значение оператора равно:

(2.55)

где последний член убывает со временем. В частном, но распространенном случае (2.53):

(2.56)

Эти соображения можно применить к энтропии в формуле (2.30), считая, что оператор О = -k{ rlnr}i,j .
Используя (2.56) можно записать энтропию S в виде:

(2.57)

или, в случае (2.53) в виде:

(2.58)

В данном случае при t=0 энтропия равна нулю, поскольку исходное состояние является чистым. Это означает, что:

(2.59)

C учетом (2.59) выражение (2.58) можно представить в виде:

(2.60)

Уместно сделать ряд замечаний.
(i). Величина Sdiag , представленная в виде суммы, равна:

(2.61)

Она представляет собой классическое выражение для энтропии в термодинамически равновесной системе. Второй член в (2.58) соответствует сумме недиагональных членов. По знаку он противоположен первому. Таким образом, (2.60) описывает процесс возрастания наблюдаемой энтропии при развитии исходно чистого состояния.
Тот же результат можно получить используя вместо процедуры (2.30) другой метод сглаживания.
Разобьем все величины, имеющие индекс i или j на группы по n членов. Выберем числа n большими по сравнению с единицей, но малыми по сравнению с полным числом членов в сумме (n << N= 1/ e ). При этом величины энергий в группе маняются слабо, так, что их можно внутри группы считать одинаковыми. Проведем усреднение внутри группы, то есть представим, например:

(2.64)

Здесь большие индексы нумеруют группы; их число меньше чем число индексов i, но все же больше, чем "гугол". В (2.64) уже учтено, что в пределах группы корреляции отсутствуют, поскольку они появляются на более высоком порядке (большем, чем "гугол"). После этого можно провести все вычисления, заменяя малые индексы бльшими, и получить тот же результат.
(ii). Согласно теореме фон Неймана [29] в квантово-механических системах энтропия не может изменяться со временем. Если исходное состояние чистое, то энтропия всегда равна нулю. Это значит, что при любом конкретном наборе параметров (то есть при заданном значении n) второй член всегда компенсирует первый. Это значит также, что если при вычислении энтропии провести сперва суммирование по i и j, то, согласно теореме фон Нёймана, мы должны получить ноль и последующее усреднение по n не должно изменить этого результата. Это значит, что предположение о статистической независимости величин и в (2.30) формально не корректно. Возникает парадокс, аналогичный тому, который мы обсуждали выше: формально корректные вычисления приводят к неверному (не соответствующему действительности) результату, а приближенные - к правильному.
Разрешение парадокса. как и ранее, связано с использованием понятия "гугол". В структурно неустойчивых системах величины и представляют собой весьма нерегулярные функции дискретных индексов. Эти функции случайны, поскольку случайны изменения параметров при сдвиге n на единицу. При усреднении по n, в предположении (2.52), эти функции не только сглаживаются, но и исчезают дальние корреляции между ними. Именно это позволяет получить результат (2.60).
Теорема фон Немана в квантовой механике - аналог теоремы Лиувилля в классике. Сглаживание сильно изрезанных функции в (2.52) - аналог введения синаевского фазового объема. В обоих случаях речь идет о пренебрежениями корреляциями высокого порядка (именно, порядка "гугол"). Обе процедуры формально не корректны (то есть не соответствуют современной математической аксиоматике), но правильны (то есть соответствует реальной действительности). В то же время теоремы Лиувилля и фон Неймана формально корректны, но не правильны, в том смысле, что не описывают наблюдаемого роста энтропии.
(iii). В простейших квантово-механических системах (атомы, простые молекулы и т.д.) разность уровней не мала. При этом малые изменения параметров не ведут к перемешиванию уровней. Свойства (1) - (3) в них не имеют места, то есть, они структурно устойчивы. Операция усреднения по n в этом случае равносильна умножению на единицу. Энергетический спектр остается дискретным и корреляции величин и сохраняются. Энтропия при этом не растет, что соответствует действительности.
То же относится и к коллективным регулярным системам (например, кристаллам), в которых энергетический спектр хотя и плотный, но условия (1) - (3) не выполняются. Однако, и в этих случаях используют термодинамический подход. При этом полагают, что образец помещен в "термостат". О последнем по умолчанию предполагают, что в нем соблюдены условия, необходимые и достаточные для роста энтропии.
(iv). В практических задачах часто используется предположение о том, что недиагональные элементы матрицы плотности исчезают со временем порядка времени расплывания пакета t (t " DЕ-1 ). Из изложенного выше следует, что это оправдано, но лишь при соблюдении условий (1) - (3), их и следует рассматривать, как условия применимости термодинамического подхода к квантово-механическим системам.
В заключение этого раздела уместно сделать ряд замечаний.
I. Физической причиной возрастания энтропии и необратимости процессов во времени является неустойчивость динамических систем (как классических, так и квантовых). Однако, для корректного математического описания неустойчивых процессов необходимо дополнить математическую аксиоматику утверждением:
Корреляции высокого порядка между случайными величинами (именно: порядка "гугол", то есть 10100 и выше) должны быть признаны отсутствующими, даже если они возникают в аналитических расчетах.
Основанием для этого можно считать следующее:
Во-первых такие корреляции физически не реализуемы, то есть их в принципе невозможно ни наблюдать ни проверить.
Во-вторых в этом и только в этом случае расчеты ведут к наблюдаемым результатам, то есть описывают необратимые во времени процессы. Отметим, что при этом формализм гамильтоновых систем уже не обеспечивает автоматического сохранения энергии (поскольку энергия и время - сопряженные переменные). Этот закон необходимо учитывать как дополнительное условие с помощью метода множителей Лагранжа (что, собственно и делается во всех учебниках по статистической физике).
В-третьих это правило уже давно используется на интуитивном уровне при решении конкретных задач.
1. Отметим, что возрастание энтропии - одна из проблем парадокса измерения. Другая проблема заключается в описании редукции пакета, то есть автолокализации волновой функции частицы в малой пространственной области. Для этого регистрирующий прибор должен обладать дополнительными свойствами: энергия локализованного состояния должна быть ниже энергии исходного, а процесс локализации - сопровождаться выделением продуктов, уносящих избыток энергии (фотонов, фононов и т.п.). Для регистрации необходимо, чтобы эти продукты не возвращались обратно. Именно на этом этапе важен вопрос о возрастании энтропии, вопрос о "стреле времени" и переходе свободной энергии в связанную.
Сам процесс автолокализации требует специального рассмотрения.

2.4. Распределенные динамические системы

В разделе 2.1 были изложены элементы теории так называемых "точечных" динамических систем, состоящих из обыкновенных дифференциальных уравнений типа (2.1). Они описывают развитие процессов во времена, но не в пространстве. Вместе с тем, в синергетике многие явления развиваются как во времени так и в пространстве. Речь идет о таких, популярных ныне, явлениях, как: образование диссипативных структур, границ между доменами, автоволнах и т.п. В этих процессах динамические переменные, будь то заряды, концентрации или численности живых организмов, могут перемещаться в пространстве за счет диффузии и миграции. Для описания их развиты специальные методы. Знакомство с ними полезно (и даже необходимо) для понимания сути явлений. В этом разделе мы изложим эти методы, по возможности просто и доступно. Иными словами, этот раздел (так же как и 2.1) адресуется людям. не имеющим специального математического образования, но владеющим элементами математики.
В простейшем, но достаточно общем случае поток (частиц, организмов и т.д.) j пропорционален градиенту переменных, а изменение их в данной точке пространства пропорционально дивергенции потока. Поэтому изменение DUi за интервал времени Dt за счет пространственных эффектов равно:

(2. 65)

Уравнение (2.1) с учетом пространственных эффектов принимает вид

 

(2.66)

Здесь величины Di называют коэффициентами диффузии, хотя (2.66) справедливо и в случае миграции и других процессов распространения в пространстве без выделенного направления. Величина - оператор Лапласа.
Уравнение (2.66) называется уравнением реакции с диффузией, поскольку впервые они появились в химической кинетике. В этом случае функции F1(u1, u2 ... un) описывают химические реакции в данной точке х, а переменные ui - концентрации веществ, участвующих в реакции, величины ti - характерные времена реакций.
В случае, когда реакция происходит в ограниченном пространстве размеров L, то кроме начальных условий необходимо задать граничные.
Если все компоненты быстро перемешиваются, концентрации ui(x,t) одинаковы внутри реактора, то есть не зависит от пространственных координат (x, y, z). Тогда Dui=0 и (2.66) переходит в (2.1). В этом случае говорят, что реакции в пространстве протекает так же как в любой течке, и системы типа (2.1) называют точечными или системами с полным перемешиванием. То же имеет место и в случае, когда коэффициенты диффузии велики, так что длины диффузии li больше или порядка размеров реактора L:

При этом перемешивание осуществляется автоматически.
В общем случая когда li<L системы (2.6) называются распределенными.
Уравнения (2.66) описывают многие важные явления самоорганизации: образование фронтов, бегущих импульсов (в частности нервных), спиральных волн (в частности в реакторах Белаусова -Жабатинского), диситативных структур и другие процессы в активных средах. Мы приведем два примера: образование фронта и дисипативных структур и на них поясним методы исследования распределенных систем типа (2.66).

2.4.1. Образование фронта:

Рассмотрим уравнение, в которых нелинейный член соответствует бистабильной системе (2.15); а все состояния развиваются в одном направлении x (т.е. )

(2.67)

Здесь уже выбраны соответствующие масштабы u и x, при которых коэффициенты и D=1. Уравнение (2.67) исследовалось в работе Колмлглрова и Пискунова еще в 1937г. [33] и считается одним из первых примеров пространственно временной самоорганизации. Оно описывает распространение пожара в степени, горения бикфордова шнура, волны возбуждения в активной среде, волны перекристаллизации, а также образование границ между двумя фазами..
Введем атомодельную переменную:
h= x ± Vt
где V - скорость движения фронта.
Тогда (2.67) можно представить в форме:

(2.68)

По форме (2.68) совпадает с (2.15), если положить hєt и считать V=g коэффициентом трения, который в данном случае может принимать как положительные значения (нормальное трение, ведущее к затуханию), так и отрицательные ("трение", ведущее к раскачке).
Однако формальное сходство не позволяет автоматически перенести результаты параграфа (2.1) на данный случай.
Имеется принципиальные различия, смысл которых сводится к формулировке начальных и граничных условий. Так, если переменную h отождествить со временем t (h=t), то уравнение (2.68) можно записать в виде

(2.69)

 

По виду (2.69) аналогично системе (2.13), но отличается от нее знаком правой части. В системе (2.69) имеется три стационарных точки: Фокус при u=V , p=0, (устойчивый или неустойчивый в зависимости от знака V). Два седла при р=0 и u=±1.
При V=0 фокус превращается в центр, а сепаратрисы седел замыкаются: выходящая из точки u=-1 входит в точку u=+1 и наоборот. Такие сепаратрисы называются гетероклиническими траекториями. Этот случай представлен на фазовом портрете рисунка 2.8.
Для выбора траектории необходимо задать начальные условия, то есть значения u(t=0) и р(t=0). В частности можно выбрать условия, лежащие на гетероклинике.
Такая постановка называется задачей Коши.
С другой стороны, если h отождествить с пространственной переменной x (что имеет место при V =0), то необходимо поставить два граничных условия при x=+Ґ и x=-Ґ. Такая постановка называется задачей Дирихле. В реальных приложениях эти условия соответствуют разным стационарным значениям на разных сторонах пространства, например: U(x®-Ґ)=-1, U(x®+Ґ)=+1. Именно при таких условиях образуется фронт.
При V=0 уравнение:

(2.70)

решается точно и решение имеет вид:

(2.71)

Выражение (2.71) описывает переходную область, т. е. профиль фронта. Так, при переменная U практически постоянна и равна u =1 при и u=+1 при . Это решение соответствует гетероклинической траектории (т.е. сепаратрисе) на фазовом портрете 2.8.
На этом примере видно принципиальное отличие задачи Коши от задачи Дирихле.
Основная цель задачи Коши - предсказать будущее, если известно настоящее (т.е. начальное условие). Именно поэтому аргументом в задачах Коши является время t, поскольку в противном случае понятие "будущее" и "настоящее" теряет смысл.
Понятие устойчивости также имеет смысл только в задачах Коши, но не Дирихле. Движение по неустойчивым траекториям (в частности по сепартрисе, т.е. гетероклинике) в задачах Коши не реализуется.
В задачах Дирихле аргументом является пространственная переменная и это тоже принципиально. Основная цель задач Дирихле не предсказать будущее, а вичислить распределение переменных ui в пространстве, если известно, что на границах эти переменные (или их пространственные производные) зафиксированы и не зависят от времени. Иными словами, задача Дирихле - вычислить стационарное распределение в пространстве. Анализ устойчивости этого распределения выходит за рамки задач Дирихле. Само понятие устойчивости в задачах Дирихле теряет смысл, поскольку оба направления в пространстве (х®-Ґ и х®+Ґ) равноправны. Неустойчивые (с точки зрения Коши) траектории, в задаче Дирихле соответствуют вполне реальному распределению, как это и имеет место в нашем случае.
Для пояснения посмотрим на задачу Дирихле с точки зрения задачи Коши (т.е. заменим х®t, но условия оставим в виде U(t®-Ґ)=-1; U(t®+Ґ). Первое значит, что когда-то давным давно величина U была равна минус единице. Второе значит, что в отдаленном будущем мы твердо знаем, и абсолютно уверены, что U будет равно единице. Это условие носит теленомический характер, поскольку опирается на точное знание будущего. При такой постановке мы можем смело двигаться по траектории, удовлетворяющей этим условиям, не заботясь о том устойчива ли она.
В распределенных системах (2.65) мы имеем дело со смешанной постановкой, где участвуют и условия типа Коши, и условия типа Дирихле. Как они сочетаются мы покажем на втором примере.

2.4.2. Диссипативные структуры.

Образование диссипативных структур было замечено уже давно на примере так называемых ячеек Бенара [34]. Оно заключается в следующем. На плоской сковороде подогревается масло. Казалось бы все условия постоянны и слой масла должен нагреваться равномерно. Однако, при достаточно интенсивном подогреве в масле появляется пространственная структура из чередующихся потоков, направленных врех и вниз.
Аналогичное явление наблюдается в биологии при морфогенезе. В среде, изначально равномерной, "вдруг" возникает периодические структуры. Они играют очень важную роль, дают разметку пространственного расположения будущих органов. В простейшем, но не самом важном, примере диссипативные структуры различают положение полос на теле зебры и тигра.
Суть процесса была выяснена в работе Тюринга в 1952 г. [35]. Там же была предложена математическая модель, ставшая базовой для последующих исследований.
Темин - диссипативные структуры - был предложен Пригожиным [36], который использовал модификацию модели Тюринга, известную сейчас как "Брюсселятор" [36]. Модель имеет вид:

(2.72)

 

Соответствующая "Брюсселятору" точечная (не распределительная) система имеет вид:

 

(2.73)

Уравнения (2.73) соответствуют некоторой гипотетической химической реакции. Компонента u1 образуется за счет автокатализа (член ) и способствует образованию u2 (член Bu1). Компонента u2 подавляет образование как u1 (член - (В+1) u1) так и само себя (член - u12 u2), она называется ингибитор.
Диссипативные структуры образуются в случае если длина диффузия ингибитера больше чем активатора, то есть при D2>D1.
Фазовый портрет системы (2.73) приведен на рисунке (2.9).
Видно, что имеется единственное стационарное состояние при u1=А и u2 = В/А. При В >А. это состояние - устойчивый фокус. Как увидим ниже, это свойство точечной системы (2.73) является необходимым условием (вместе с условием D2 >D1 ) образования диссипативных структур в распределенной системе (2.82).
Рассмотрим поведение системы (2.72) на конечном отрезке длины L. Примем, что границы отрезка не проницаемы, чему соответствуют граничные условия вида:

; при x=0 и x=L

(2.74)

(что соответствует постановке задачи Дирихле). Начальные условия, то есть функции u1(x,t=0) и u2 (x,t=0) будем считать произвольными.
Метод автомодельной переменной в данном случае не эффективен, поскольку пространство ограничено.
Здесь используется другой метод -разложение переменных u1 и u2 по пространственным гармоникам. Продемонстрируем его на примере, когда функции u1 и u2 мало отличаются от стационарных значений.
Обозначим
:
x= u1(x,t)-A; h= u2 (x,t)- A/B ; x,h<<1.
В линейном по x и h приближении (2.72) имеет вид:

 

(2.75)

Решения x(х1t), h(x1t) будем искать в виде, удовлетворяющем граничным условиям (2.74):

 

(2.76)

, где (n=0,1,2 ...) волновое число, оно связано с длиной стоячей волны n -ой гармоники: lт соотношением: . Целочисленность n означает, что на отрезке L укладывается целое число полуволн.
Функции xn(t) и hn(t) (так называемые гармоники) удовлетворяют дифференциальным уравнениям:

 

(2.77)

Эти уравнения уже не содержат производных по пространственныой координате x и по форме являются точечными.
Исследование их на устойчивость можно провести стандартными методами и найти числа Ляпунова lт , которые зависят от параметров А, В, D1, D2 и волнового числа kn2. На рисунке 2.10 представлена зависимость вещественной части чисел Ляпунова от kn2. Эта зависимость называется дисперсионной диаграммой. При k2=0 числа Ляпунова l0 совпадают с таковыми для точечонй системы (2.73). Как упоминалось, стационарное состояние это системы - устойчива фокус. Это значит, что числа Ляпунова комплексны и сопряжены, то есть реальные части их одинаковы и отрицательны, что и представлено на рисунке 2.10. С увеличением kn2 фокус переходит в устойчивый узел, при этом числа Ляпунова становятся вещественными и отрицательными.
При некотрых, (бифуракционных) значениях параметров А, В, , D1, D2 верхняя ветвь параболы Rel(k2) касается абсциссы, и даже слегка выходит в верхнюю полуплоскость. При этом в интервале (kmin2, kmax2) одно из чисел Ляпунова становится положительным, а стационарное состояние - седлом.
Если в этот интервал попадает одно из дискретных, разрешенных граничными условиями значений kn2, амплитуда соответсвующей моды начинает расти со временем. Это явление называется неустойчивостью Тюринга (или бифуркацией Тюринга).
Подчеркнем особенности этой бифуркации.
Во-первых она имеет место только в распределенных в пространстве системах. При этом нарушается исходная однородность и сама собой возникает структура.
Во-вторых, образуется вполне определения структура (т.е. предопределено значение kn2 и, следовательно пространственный период. Последний зависит от параметров системы(включая размеры), но не зависит от начальных условий.
В-третьих, вблизи бифуркации Тюринга учет нелинейных членов приводит к стабилизации структуры. При этом структура остается плавной (гармонической), со вполне определенной амплитудой, зависящей от тех же параметров.
Таким образом, в системе имеется только одно устойчивое стационарное состояние (один аттрактор) свойства которого предопределены параметрами, но не начальными условиями.
Подчеркнем: выбор диссипативной структуры (либо случайный, либо за счет начальных условий) в системах типа (2.72) невозможен, поскольку она единственна.
Мы остановимся на этом столь детально, поскольку слова "диссипативные структуры" сейчас употребляются очень часто, как к месту так и всуе. В действительности область применимости гармоничных диссипативных структур ограничена. Так при D2>>D1 образуются так называемые контрастные структуры, которые иногда также называются диссипативными, хотя и условно, поскольку по свойствам и методам исследования они сильно отличаются от описанных выше.
В этом случае сперва исследуются стационарные распределения (при ). При этом (2.72) переходит в систему обыкновенных дифференциальных уравнений (по координате x), которое решается в рамках задачи Дирихле. Затем исследуется устойчивость найденных решений в рамках задачи Коши Свойства контрастных структур принципиально отличается от описанных выше.
Так могут образовываться ступенчатые и пичковые структуры и даже уединенные пички. Положение пичка уже не определяется параметрами, а зависит от начальных условий. Если последние задаются в виде малых случайных отклонений от однородных распределений, то выбор положения пичка происходит случайно. Если начальное возмущение не мало, то расположение пичков им и определяется. Так, например, если начальное возмущение локализовано на одном из концов отрезка, то возбуждается волна перестройки, которая оставляет за собой регулярную пичковую структуру [37].
Подробное описание этих явлений можно найти в [8].
Очень интересные явления происходят в системах с режимом обостренияни [38]. При этом в определенный точке сама собой собирается (кумулируется) почти вся энергия изначально распределенная в широком интервале пространства. Это явление уже никак не относится к диссипативным структурам.
Другой круг явлений тоже очень важных, связан с образованием автоволн в активной среде. Под автовненами понимается не только "волны" но и отдельные импульсы, которые распространяются без затухания (за счет подпитки из среды). К таковым относятся нервные импульсы. Они описываются распределенными моделями Хочкина-Хаксли, или более простой (базовой) моделью Физхью-Наумо [39].
В двумерной среде образуются спиральные волны. Из них наиболее исследованы нелинейные волны в реакторе Белаусова-Жаботиского [40].
Все упомянутые явления описываются моделями типа (2.65). Методы исследования их также сходны и совпадают с изложенными выше.. Разным явлениям соответствуют разные виды нелинейных функций Fi(u1,u2...) и разное число переменных ui (и уравнений). Впрочем, в большинстве случаев оказывается достаточным всего два базовых уравнения.
Перечисленные выше модели используются для описания широкого круга явлений в различных областях естествознания: биологии, физике, химии и смешанных науках. Можно сказать, что эти модели являются математической основой описания процессов самоорганизации в природе.
Это не значит, что другие математические методы (как то "игры автоматов" или "математические грамматики") не используются для тех же целей. Они используются и иногда с успехом. Однако, при этом оказывается, что они представляютс собой частые (предельные) случаи теории динамических систем.

 

2.5 Что такое самоорганизация, синергетика и кибернетика.

До сих пор слово "самоорганизация" мы употребляли на интуитивном уровне. Сейчас уместно обсудить, что оно означает, как произошло, и какую роль сыграло в науке.
По звучанию и смыслу самоорганизация - процесс, в котором происходит нечто не тривиальное, причем происходит само собой, без видимых причин и внешнего вмешательства.
Предметом науки о самоорганизации является перечисленные выше явления, включая автоколебания, динамический хаос и процессы в распределенных системах.
Из изложенного выше следует, что содержательная работа в этом направлении проводилась и раньше, задолго до появления слова, то есть в данном случае "слово" было не "вначале", а "после".
Выше мы уже приводили пример: один астроном открыл звезду, другой - предложил название, при этом честь открытия приписали второму. На самом деле это не так глупо, как кажется.
Поясним это на нашем примере. Слово "самоорганизация" объединило ученых разных специальностей.. Если это считать цельно, то слово "самоорганизация" (как условная информация), как оказалось, имеет высокую ценность. Без этого "слова" междисциплинарное направление не было бы поддержано (в частности финансами), не собирались бы конференции и в целом процесс интеграции наук был бы замедлен.
Эта история - пример того, сколь важную роль играет условная информация в науке и жизни.
Наряду с "самоорганизацией" сейчас популярны слова "кибернетика" и "синергетика". Возникает вопрос: чем они отличаются друг от друга и от "самоорганизации".
В действительности эти направления в большой степени пересекаются. Тем не менее есть отличия.
Кибернетика - наука об управлении - появилась как обобщение опыта управления в технике. Отсюда были заимствованы такие понятия, как положительная и отрицательная обратная связь. Благодаря усилиям доктора Эшби (медика по образованию) эти понятия были внедрены в медицину и на их основе создана концепция гомеостаза. Явления, составляющие суть самоорганизации естественно вписывались в эту концепцию и были восприняты с энтузиазмом. Примерно тогда же доктор Эшби выдвинул лозунг (или парадигму): в кибернетике математический аппарат вторичен. Иными словами, кибернетиком может считаться человек, не владеющий математикой.
На первых порах эта идея сильно расширила круг кибернетиков и способствовала ее популярности. Однако, вскоре выяснилось, что доктор Эшби оказал науке медвежью услугу. В кибернетику ринулись толпы людей, которые не владели не только математикой, но и никакой другой наукой. Был утерян критерий уровня науки кибернетики, ее рейтинг и популярность понизились.
На смену ей пришла синергетика. По существу предметом синергетики служат те же явления, что и в самоорганизации и кибернетике. Главное отличие в том, что в синергетике владение математическим аппаратом (теорией динамических систем, математическим моделированием) считается необходимым условием.
Слово - "синергетика" в переводе с греческого означает "совместное действие". Предложил этот термин профессор Штудгартского университета Герман Хакен в 1978г. По существу синергетика состоит из математических моделей явлений самоорганизации. Таким образом история повторилась: сама наука появилась раньше чем "слово" ее обозначающее. Тем не менее это "слово" тоже сыграло положительную роль в интеграции наук (как ценная условная информация).
В данном случае интеграция произошла на более высоком профессиональном уровне, поскольку человек, не владеющий математикой, синергетиком считаться не может. Сейчас слова "синергетика" и "самоорганизация" часто выступают как синонимы.
В заключении этого раздела уместно обсудить вопрос: почему математическое моделирование (или, что тоже, теория динамических систем) является необходимым элементом таких междисциплинарных наук как синергетика и самоорганизация. Этот вопрос важен поскольку имеет методологическое значение.
Причин тому несколько:
Во-первых, многие из явлений, происходящих в различных областях (физики, химии, биологии) описываются одинаковыми базовыми моделями. Их фазовые портреты тоже одинаковы, что позволяет увидеть общие во множестве, казалось бы различных, явлений. Более того удается уловить общее даже в случае, когда явления с внешнего взгляда различны, как например, ход часов и колебания численности популяций в экологии. При вербальном описании явлений тоже можно уловить некоторую аналогию, но увидеть столь глубоко они простираются уже нельзя.
Во-вторых, в математике разработаны методы упрощения систем уравнений. Они позволяют описать суть явления максимально просто, отделив его от второстепенных и несущественных подробностей. Такие модели называются базовыми. Сформулированы требования, которым должны удовлетворять базовые модели. Главные из них - грубость (термин предложен Андроновым) или, что то же, структурная устойчивость (термин предложен французским математиком Рене Томом).
Понятие "грубить модели" (не смотря на внешнюю непривлекательность) играет существенную роль. Означает оно следующее: любые малые искажение грубой модели не могут существенно изменить и результаты. Под малыми искажениями понимаются:
1) увеличение числа динамичных переменных или, что тоже, добавление производных более высокого порядка, но с малым коэффициентом.
2) добавление членов более высокой степени, но с малым коэффициентом.
При моделировании реальных процессов всегда встает вопрос: все ли учтено, не упущен ли какой-нибудь малый фактор. Заранее ясно, что упущен, поскольку жизнь разнообразна, и всего учесть невозможно. Но если так, то почему простые уравнения описывают действительность.
Этот вопрос задавал себе Эйнштейн и даже он, великий ученый, не мог дать на него ответы. Тем не менее ответ прост: если модель достаточно груба то малые факторы не искажают ее результатов. Такой модели можно доверить в том, что она будет описывать реальность. Справедливо и обратное: если модель негруба, то она не может описать действительность.
Синергетик должен уметь оценивать грубость модели.
В сущности то же относится и к вербальным моделям, они тоже могут быть грубыми и не грубыми. Однако, оценить это свойство на вербальном уровне практически невозможно. Отсюда ясна причина, по которой мы уделили столько места описанию математических методов. С нашей точки зрения это тот минимум, который необходим и доступен для понимания сути процессов самоорганизации и синергетики. Мы постарались изложить этот минимум в достаточно простой форме, доступной для понимания даже современным школьникам.
Кроме того по нашему мнению математические методы теории динамических систем сами по себе достаточно красивы и могут доставить чисто эстетическое удовольствие.
Отсюда следует также, что универсальный язык ученых (естественников и гумманитариев) обязательно будет включать язык теории динамических систем.
Синергетика, как наука, имеет еще одну особенность.
В точных науках формулируются аксиомы и доказываются теоремы. В физике аксиомы - базовые уравнения движения, такие, как: уравнения Ньютона, Максвелла, Эйнштейна, квантовая механика и т.д. Считается, что формулировка аксиом - удел гениев; удел других ("обычных" учёных - решение уравнений применительно к конкретным задачам. Для большинства физиков основная задача - решать уже известные уравнения, а не создавать новые.
В синергетике часто приходится создавать модели явлений заново, "вывести" их из первых принципов практически невозможно Иными словами, синергетика - наука о том, как создавать модели, а не только их исследовать и решать. Этому же посвящена и теория катастроф [41], которую можно считать разделом синергетики.

 

 

 

 

 

 

 

Конец формы

 

 

 

 

 

 

 

 

Глава 7.     Методологические аспекты синергетики.

7.1. Введение.

Методология - раздел философии. Автор не считает себя профессиональным философом и действительно таковым не является. Поэтому настоящая глава не претендует на детальный анализ философских представлений, в том числе и современных. Кроме того, автор не владеет языком профессиональных философов и потому стиль изложения может у них вызвать ироническую улыбку. В этой связи уместно напомнить указ Петра Первого:

“Пехотному офицеру, проезжающему мимо кавалерийской части, надлежит спешиться и провести коня под узци, дабы видом своим не вызывать насмешки настоящих кавалеристов”. Прошу читателей считать, что в этой главе автор спешился.

Тем не менее, автор решился поделиться с читателем некоторыми соображениями, вытекающими из синергетического подхода к науке и жизни. На этот шаг автора вдохновили книги И. Пригожина, и И Стенгерс [1], С.П. Курдюмова и Е.Н. Князевой, [2] Б.Б. Кадомцева, [3] работы Н.Н. Моисеева [4] и ряда других представителей точных наук.. Из этих работ следует, что настало время  философского осмысления достижений современной науки[1][1]. Тому же посвящено фундаментальное исследование В.С. Стёпина [5]. В нем подчеркнуто и другое: не только достижения естественных наук влияли на мировоззрение, но и философия, как наука универсальная, способствовала развитию точных наук. Разумеется, формулировка каждой новой модели (или теории) - акт творчества (генерации ценной информации) и потому не предсказуем. Однако, именно философия создавала эвристическую базу (или тезаурус, или  объем рецептируемой информации, сь. гл. 3), которая необходима для творчества. В [5] на примере физических теорий показано, что во всех творческих актах методологические идеи (осознанно или не осознанно) играли большую эвристическую роль.

Многих ученых, в том числе и упомянутых выше, объединяет также стремление познать мир в его развитии как единое целое. Это стремление выражается словами: “всеединство” (термин предложен Флоренским), “универсальный эволюционизм” (термин предложен В.С. Стёпиным) и “редукционизм” (последний популярен преимущественно среди физиков). Смысл этих слов мы детальнее обсудим в следующем разделе.

Из предыдущих глав следует, что автора волнуют те же проблемы, что и в     , чем и объясняется появление предлагаемой главы.

В главе практически отсутствуют ссылки (исключение представляют введение и раздел 7,4, в котором речь идет о конкретных вариантах логических схем). Причин тому несколько.

Во-первых, объем литературы (от Платона и Аристотеля до наших дней) таков, что автор не в силах её обозреть.

Во-вторых, образованный читатель (ученый) в первую очередь смотрит на список литературы. Если там нет ссылок на его работы, то отношение ко всему последующему в некотором смысле предопределено. Если ссылки вообще отсутствуют, то это уже не обидно и последующее воспринимается более объективно.

В третьих, философия - наука гуманитарная и мысли там выражаются словами. Слова можно трактовать расширенно и тогда выясняется, что Платоном и Аристотелем  (а ещё раньше в Библии) уже всё сказано и говорить больше не о чем.

Цель главы - обсудить некоторые проблемы философии в свете достижений синергетики, а также роль философии в становлении синергетики.

Естественные науки всегда оказывали серьезное влияние на мировоззрение отдельных  людей и на общество в целом. Это относится не только к гносеологии, но и этике, идеологии и даже религии. Приведем исторические примеры

В античной Греции были созданы основы геометрии и введено понятие доказательства. Потребность в этом диктовалась необходимостью делить земельные участки и доказывать, что они действительно равны. Отсюда и название - геометрия, то есть землемерие.

Задолго до этого в древнем Египте люди тоже умели делить участки и на интуитивном уровне использовали геометрию. Делали это жрецы и вместо доказательства ссылались на волю богов. В Греции боги и жрецы тоже были, но отношение к ним после создания геометрии, как науки, было уже другое.

Аксиомы Эвклида и геометрия в целом оказали очень большое влияние на развитие греческой культуры. Роль последней в античном мире общеизвестна.

То же можно сказать и о достижениях математики и механики в новой истории. Роль работ Декарта, Ньютона, Лейбница и их последователей в точных науках тоже известна.  Однако, успехи математики и механики оказали влияние и на другие стороны общественной жизни, в частности на этику.

В двадцатом веке был сделан ряд крупных открытий в физике: теория относительности и квантовая механика. Значение их для физики и техники очевидно. Однако, эти открытия повлияли и на этику и на мировоззрение людей в целом, о чем речь пойдет позже.

В конце двадцатого века возникла синергетика и в её рамках было сделано открытие - теория динамического хаоса.

Это открытие по своему значению не уступает первым двум, а, возможно, и превосходит их. Роль динамического хаоса и неустойчивости в естественных науках уже обсуждалась выше. По существу вся книга посвящена именно этому вопросу. Напомним кратко основные выводы.

Появилась возможность (и даже необходимость) по новому взглянуть на. казалось бы, установившиеся понятия, такие как: причина, следствие, абсолютно замкнутая система, бесконечно большое (малое).

Появился новый объект - странный аттрактор, который, как выяснилось, имеет самое непосредственное отношение к реальной жизни.

Появилось новое понятие - перемешивающий слой, который является необходимым этапом развития живых систем. Выше показано, какую роль он играет при генерации ценной информации, в биологической эволюции, в творчестве и мышлении.

Уже из этого следует, что динамический хаос заслуживает статус великого открытия. Сейчас с этим согласятся отнюдь не все ученые. Это естественно, более того, именно так было и с теорией относительности и с квантовой механикой. Каждый ученый (и, тем более, коллектив ученых) защищает свою информацию, т.е. ту систему аксиом, которую он воспринял и которой владеет. Новая прогностическая информация воспринимается как негативная (ересь, посягательство на и т.п.). Такое поведение естественно для любого носителя информации и ученые не являются исключением. Примеры тому обсуждались выше (см. гл 4).

Однако, роль динамического хаоса не ограничивается только естественными науками, в гуманитарных науках его роль не менее важна. Более того, именно динамический хаос может сыграть роль моста между науками, т.е. служить основой для их интеграции. Открытие динамического хаоса может (и должно) повлиять и на мировоззрение в целом, включая философию и этику. Об этом и пойдет речь ниже.

7.2.Методология интеграции наук, “всеединство”, “универсальный эволюционизм” и “физический редукционизм”

. По смыслу эти термины близки, но употребляются в разных научных социях.

Всеединство - стремление понять и представить в рамках единого подхода все явления природы. Речь идет об объединении наук точных (физика, химия), естественных (биология) и гуманитарных. В этом смысле “всеединство - синоним “интеграции”.  На языке теории распознавания (см. гл. 6) для интеграции нужно составить множество решающих правил и построить в нем решающее супер-правило. Для этого необходимо использовать код (т.е. язык), на котором, формулируются решающие правила.

В точных науках такой язык уже существует, это современная математика Этот язык сейчас  в человеческом обществе уже универсален  (т.е. общепринят). Разумеется. он является условной информацией, хотя часто воспринимается как объективная реальность, что иногда приводит к недоразумениям (примеры обсудим ниже). Вопрос: достаточен ли язык современной математики для описания всех явлений природы, является спорным и подлежит обсуждению.

В естественных и гуманитарных науках используется язык слов (вербальный код). В точных науках этот язык тоже, конечно, используется наряду с математическим. Вербальный язык более адекватен интуитивному мышлению, но для точных наук явно недостаточен.

Универсальный эволюционизм преследует туже цель - познать мир, как целое. При этом внимание акцентируется на том, что мир в целом, равно, как и наука о нем, не статичен, но развивается. В биологии и социальных науках это осознано давно. В физике - сравнительно недавно, в связи с исследованиями эволюции Вселенной. В синергетике развитие лежит в основе науки и потому её иногда отождествляют с теорией развивающихся систем.

Законы развития различных систем (Вселенной, биосферы, организма и общества) имеют много общего Эта общность связана с тем, что во всех случаях речь идет о возникновении информации и эволюции её ценности. (чему и посвящены главы 3,4,5). Поэтому формулировка общих законов развития (т.е. универсальный эволюционизм) становится актуальным направлением.

В среде физиков стремление описать все на свете в рамках единой теории (т.е. из “первых принципов”) получило название “физический редукционизм” Оно появилось сравнительно давно. В основе его лежит уверенность в том, что сложные явления природы можно свести к совокупности простых, подчиняющихся фундаментальным законам физики. Подчеркнем, речь идет именно о физике, а не о какой либо другой науке. В этом проявляется известный “физический снобизм” (Здесь следует напомнить о том, что автор сам физик и ничто физической ему не чуждо).

 Уравнения Ньютона, Максвелла, Шредингера действительно фундаментальны - в этом уверены все. Достаточны ли они для описания всех явлений природы, начиная от сотворения нашего мира и до появления живых и мыслящих существ - в этом уверены не все. Именно в этом и состоит проблема физического редукционизма.

По этому поводу существуют следующие мнения:

Первая точка зрения состоит в том, что фундаментальные законы физики необходимы и достаточны для описания любого явления природы. Другие естественные науки ( химия, биология)  основываются на законах физики и используют их в специальных для данной науки условиях.

Из изложенного в гл. 2 следует, что такой банальный редукционизм действительно не состоятелен. Более того, даже для “вывода” законов термодинамики уже необходима ревизия ряда понятий физики. На эту тему недавно высказались два весьма авторитетных в физике ученых: З.Б. Лафлин и Д. Пайнс. Они опубликовали статью под названием “Теория всего на свете” (“Theory of Everythink”, [6]). В ней показано, что ряд важных явлений (даже в неживой природе) невозможно описать исходя из “первых принципов”. Предложен ряд рецептов того, как обходить трудности. Предложено и новое название этих рецептов - “квантовый протекторат”. На мой взгляд авторам [6] тоже следовало бы “спешиться” и ознакомиться с тем, что уже известно в синергетике и философии. Поэтому, конструктивность рецептов работы [6] может быть подвергнута критике, но критическая часть работы сомнений  не вызывает.

Вторая точка зрения в том, что фундаментальные законы физики действительно необходимы, но недостаточны для описания, например, живой природы и их необходимо дополнить. На первый взгляд это мнение противоречиво. Действительно, законы физики формулируются как полная (в математическом смысле) система аксиом. Дополнительные аксиомы приводят к переполнению системы и вступают в противоречие с основными постулатами.

Тем не менее, как показано в главах 3 и 4, именно этот вариант редукционизма может претендовать на описание явлений природы, включая живую. При этом приходится вводить новые понятия,  которые в исходной аксиоматике не содержатся. Такое понимание редукционизма далее будем называть “правильным” (термин, разумеется, условен)

Существует мнение, согласно которому сложные явления (например, в живой природе и обществе) вообще не подвластны точным наукам. Это мнение противоречит стремлению познать мир в целом и на мой взгляд оно не верно по существу. Тем не менее, это мнение На первый взгляд кажется правдоподобным.. Действительно, для живых существ такие понятия как: желание, удовольствие, цель (в том числе цель жизни) естественны и осмысленны. С другой стороны точные науки (в том числе физика) до недавнего времени с этими понятиями вообще не имели дела. Однако, как показано в гл.3 и 4, и эти понятия можно сформулировать на языке физики и химии. При этом особенно важную роль начинает  играть понятие ценная информация.

Упомянутые три подхода: “всеединство”, “универсальный эволюционизм” и “редукционизм” составляют основу научного мировоззрения.

Кому нужно научное мировоззрение?  

Большинство ученых тратят основную часть времени и сил на решение практических задач. Для этой деятельности никакое мировоззрение не нужно.

Однако, часто встают проблемы, которые на первый взгляд кажутся неразрешимыми, обычно они называются парадоксами. Для их решения уверенность в правильности фундаментальных законов физики необходима. Отсутствие её порождает либо гиперскептицизм и робость, либо отсутствие само критицизма. Последнее ведет к фантазиям, не имеющим отношения к науке. Во избежание этого необходимо понимание фундаментальных законов физики и области их применимости, т.е. физический редукционизм в его правильном понимании. Оно же необходим для преподавателей физики. Задача педагога не только в обучении физическим методам, но и в формировании научного мировоззрения. В последнем редукционизм играет одну из главных ролей.

Наконец, научное мировоззрение нужно для всех людей (не только физиков), которые хотят видеть мир как целое, а не как набор отдельных (и часто противоречивых) явлений.

В методологическом плане главный итог книги в следующем.

Интеграция наук на основе научного мировоззрения возможна. Можно построить единую и непротиворечивую картину мира. Однако. для этого необходимо подвергнуть ревизии ряд фундаментальных понятий современной физики и математики и ввести относительно новое и не менее фундаментальное понятие - информация (точнее. ценная информация).

Можно задать вопрос: какое явление природы лежит в основе возникновения информации, что заставило ученых взволноваться?  Ответ тоже прост: это явление - неустойчивость. Читатель, прочитавший книгу (а не только введение и заключение),  понимает, сколь прочно информация связана с явлением неустойчивости.

На интуитивном и вербальном уровне значение неустойчивости понималось уже давно. В качестве примера часто приводят “Буриданова осла” (его приписывают средневековому философу Жану Буридану (XIV век), хотя в дошедших до нас сочинениях Буридана этот пример отсутствует). Не менее яркие примеры приводились и позже.

Однако, теория устойчивости была заложена лишь в конце прошлого века в работах А.М. Ляпунова, который ввел меру устойчивости - “число Ляпунова” Сперва это теория воспринималась как прикладная инженерная дисциплина. Её фундаментальное (методологическое) значение было осознано значительно позже и, возможно еще не полностью, поскольку дискуссии по этому поводу продолжаются.

Напомним наиболее важные следствия этого явления.

i) Ревизия понятия причины. Именно благодаря неустойчивости “причиной” может стать Его Величество  Случай.  Тому пример - история о том, как муха разбила хрустальную вазу (гл. 2). Случай выступает здесь не как результат незнания предыстории процесса, а как символ истинного незнания, то есть принципиальной невозможности учесть исчезающе малые влияния.

Ревизии подлежит и понятие “абсолютно замкнутой системы”. Оно понималось как предел незамкнутой системы, когда внешние воздействия исчезающе малы. В устойчивых системах такое понимание оправдано. В неустойчивых системах оно теряет смысл, поскольку возмущения нарастают со временем. При этом сама неустойчивость является внутренним свойством системы, но не внешних возмущений.

Напомним, что он же - случай - лежит в основе генерации новой ценной информации (гл. 3).

ii) Необратимость процессов во времени, или, иными словами, направление “стрелы времени”.

В современной физике фундаментальные законы сохранения связаны с симметрией. Так, сохранение импульса - следствие симметрии пространства, сохранение энергии - симметрии обращения времени.  Именно поэтому фундаментальные законы физики формулируются в виде гамильтоновых систем, где обратимость  времени гарантирована.

Необратимость времени  влечет за собой не сохранение энергии. Последнее противоречит всему тому, что мы знаем о нашем мире.    

С другой стороны, необратимость процессов во времени тоже явление фундаментальное и от него тоже нельзя отказаться.

Неустойчивость позволяет разрешить это противоречие, поскольку именно она является “причиной” такого нарушения симметрии времени, которое не нарушает закона сохранения энергии и, вместе с тем позволяет описать диссипативные процессы. При этом энергия разделяется на две части: свободную и связанную. Первая может переходить во вторую и при этом рассеивается (диссипирует), но не исчезает. Связанная энергия может переходить в свободную лишь частично, что и составляет суть второго начала термодинамики.

iii) Ревизия понятия бесконечно большого  (и бесконечно малого)  и введение понятия “гугол”. (числа порядка 10100  и большие). Последнее тоже чисто практическое утверждение о том, что физически реализуемые (наблюдаемые) величины такими числами выражаться не могут. Это утверждение, как практическое, сомнений не вызывало.

Фундаментальное значение его было осознано  позже,  и опять же оказалось, что оно связано с неустойчивостью. Именно, в неустойчивых процессах малые начальные отклонения (меньшие, чем “обратный гугол”) приводят к большим последствиям. Пренебрежение этим фактам ведет к тому, что ряд математически строгих теорем оказывается в  противоречии с не менее фундаментальными законами физики (в частности, с вторым началом термодинамики).

iv) Неустойчивость является непременным условием генерации новой ценной информации. Воспринимать, хранить и передавать информацию можно и в устойчивых процессах. Более того, неустойчивость в этих процессах является только помехой. Однако, создавать ценную информацию можно только в условиях неустойчивости.

Представьте теперь, чего бы стоила теория информации и само понятие “информация”, если бы природа (живая или не живая) не могла создавать новую ценную информацию.

Из изложенного следует, что неустойчивость существенно расширяет наши представления о мире и должно играть фундаментальную роль в том. что мы называем миропониманием или научном мировоззрением. В науке 21-ого века неустойчивость будет играть роль одного из краеугольных камней. Сейчас такая наука зарождается. Название её ещё не устоялось, поэтому используют: “нелинейная динамика”, “нелинейная термодинамика” и “синергетика”. На наш взгляд последнее наиболее удачно, поскольку наименее понятно.

7.3. Синергетика и логика.

Ревизия понятий в физике и математике влечет за собой и ревизию формальной (математической) логики, поскольку именно она лежит в основе современной математики.

Логику можно рассматривать как алгоритм построения сложного суждения на основе более простых утверждений. Последние считаются заданными и играют роль начальных условий [7,8]. Сейчас предложено несколько вариантов логики, обсудим некоторые из них.

1.Классическая (формальная) логика наиболее популярна. Долгое время она развивалась как наука абстрактная, самодостаточная и прямо не связанная с проблемами насущной жизни. Основные положения её (аксиомы или алгоритмы) были сформулированы ещё в античные времена и с тех пор почти не изменились. Эти алгоритмы возникли как обобщение повседневного опыта, но на этом связь логики с реальной жизнью заканчивалась. Кратко, они сводятся к следующему.

            I) Все суждения (или сообщения) разделяются на две группы: “истинные” (в математической логике им ставится в соответствие индекс “1”) и “ложные” (им соответствует индекс “0”). Алгоритм построения сложного суждения формулируется с использованием логических связок “и”, “или” и “не”. Требуется, чтобы сложное суждение тоже было либо “истинным”, либо “ложным” (верным - не верным). Иными словами, на каждый вопрос, сформулированный в рамках аксиоматики (или алгоритма) должен быть получен ответ, причем только один: “да” или “нет” (истинно -ложно, верно - не верно) Это положение известно как аксиома исключенного третьего (tertium non datur). Этим достигается однозначность суждений.

Отсюда следует, что формальная логика имеет дело с дискретным множеством объектов, о которых ставятся вопросы и выносятся суждения. Множество суждений тоже дискретно.

ii) Каждое из суждений является абсолютным, т.е. не зависящим от цели, с которой оно делается, и должно быть доказано, либо опровергнуто. Такой подход носит в себе отзвук божественного происхождения законов природы. Это значит, что на множестве объектов A,B,C, ...на вопросы типа: А или не - А, А равно В (или не равно) A>B, A<B и т.п. ответ должен быть однозначным не зависимо от меры сходства или различия. Вообще понятие меры в формальной логике отсутствует.

iii) Все элементы множества равноправны, что в частности относится и к множеству чисел.

В математике наряду с дискретными, рассматриваются и метрические континуальные множества, где вводится понятие меры. Тем не менее, равноправие чисел сохраняется. Например, если два отрезка длинами x1 и x2 отличаются на малую конечную величину Dx << x1,x2, то отрезок Dx можно “растянуть” (т.е. измерить в другом масштабе) и рассматривать как достаточно протяженный. На этом основано утверждение о бесконечной делимости отрезка. Последнее в современной математике играет существенную роль.

Успех формальной логики и построенной на её основе математики в 18-ом веке породил уверенность в том, что иначе и быть не может. В 19-ом и 20-ом столетиях эта уверенность была поколеблена. Более того, выяснилось, что система формальной логики не является полной.

Примеры неоднозначности внутри формальной логики отмечались и ранее и формулировались в виде парадоксов, таких как: парадокс лжеца и проблема буриданова осла. В строгом математическом виде неполнота системы формальной логики была доказана Гёделем.

Далее логика развивалась под давлением двух обстоятельств.

Во-первых делались (и делаются) попытки сформулировать аксиомы логики, лишенной внутренних противоречий. Эти попытки прямо не связаны с проблемами естественных наук, но могут повлиять на них косвенно.

Во-вторых, развитие естественных наук требовало уточнения ряда положений логики. Так, В 19-ом столетии  выяснилось, что каждое утверждение не может быть абсолютным, но может быть сделано с определенной точностью. Последняя зависит от способа измерения, а в более общем случае, от возможности наблюдения.

Роль, которую сыграли принципы измеримости и наблюдаемости в естественных науках, общеизвестна. Они приблизили логику к реальной жизни, но разрыв ещё остался.

2. В конструктивной логике (см. [9,10] в отличие от классической, каждое утверждение подвергается конструктивной проверке путем измерения или, в более общем случае, наблюдения. Так, в классической логике на вопрос: “А или не - А” всегда должен быть получен однозначный ответ: “да” или “нет”. В конструктивной логике допускается отказ от ответа, если истинность суждения невозможно проверить.

 В естественных науках такая ситуация встречается довольно часто. Если утверждение в принципе не наблюдаемо, то оно относится к категории бессодержательных.

            3. В последнее время предложена релевантная (уместная) логика [11]. Она отличается от классической тем, что формально правильные, но “неуместные” логические построения в ней “отбраковываются” Благодаря этому удается избежать парадоксов, ведущих к заведомо неверным выводам.

4. В рамках многозначных логик [12] все суждения разделяются не на две, а на большее число групп. В трехзначной  логике допустимы три типа ответов: “да”, “нет” и “может быть”. Последний ответ также может быть выражен словами: “не известно”, “утверждение бессмысленно” [13] или “бессодержательно”. Эти варианты отличаются в основном эмоциональной окраской. Так, ответы “не известно” или “может быть” носят субъективный характер (мне не известно, но кому то другому, возможно, известно). Слова “бессмысленно” или “бессодержательно” означают, что это утверждение не может быть доказано (или опровергнуто) в рамках всего человечества (и, возможно, в рамках Вселенной).

Соответственно увеличивается и число символов Далее, устанавливаются правила (алгоритмы) определения символа сложного суждения, если известны символы, входящих в него простых (исходных) суждений

5. Так называемая нечеткая логика (фальш-логика, fuzzy logic, [14,15]) отличается от предыдущих существенно. Каждый объект (или каждое суждение) рассматривается в ней не как эталон, а как ансамбль сходных объектов. Вместо однозначных ответов (“да” - “нет”) используются вероятностные суждения типа: с вероятностью  Р - “да” и с вероятностью 1-Р - “нет”. Разумеется при этом вводится мера сходства (или различия) объектов. Привлекательность этой логики в том, что она часто (но не всегда) близка к реальности. Недостаток её в том, что соответствующий ей математический аппарат, развит ещё недостаточно. Точнее, существуют попытки создать аппарат на основе нечетких множеств, но применение его ограничено. Это не удивительно, поскольку современная математика - язык универсальный, люди им овладели и широко используют. Заменить её другой математикой равносильно предложению перейти всем на язык эсперанто.

По поводу всех упомянутых вариантов логики можно сделать ряд замечаний.

i) Понятие цели, с которой ставится задача в них отсутствует. Неявно предполагается, что любая логическая задача когда ни будь, кому ни будь для чего ни будь пригодится. Это относится как к задачам, которые имеют однозначное логическое решение, так и к задачам, которые его не имеют.  Так, например, решение проблемы буриданова осла действительно необходимо для достижения конкретных целей. То же можно сказать и о других парадоксах формальной логики.

ii) Во всех упомянутых вариантах логики рассматривается постановка задачи и ответ (если он существует). В действительности построение суждения (или принятие решения) представляет собой процесс, организованный во времени. Он реализуется либо в мыслительном аппарате человека, либо в компьютере. В логике это обстоятельство ускользает от внимания. Поэтому вопрос об устойчивости логических алгоритмов до сих пор не ставился. Устойчивость процесса логического описания того или иного явления и устойчивость описываемого процесса связаны друг с другом. Поэтому устойчивость (или неустойчивость) является важным критерием любой логической задачи. На наш взгляд дефекты логических схем связаны именно с тем, что этот критерий в них не используется.

iii) В рассмотренных вариантах логики суждения считаются либо абсолютными, либо сильно размытыми (нечеткая логика). В реальности встречаются задачи обоих типов, как требующие точного ответа, так и вероятностного. Выбор какого либо одного варианта логики означает отказ от решения значительной части задач.

Из приведенных замечаний следует, что ни один из упомянутых вариантов логики не охватывает весь круг актуальных задач современного естествознания.

Возникает вопрос: как быть?

Можно в реальной жизни и в науке вообще обходиться без логики (как, собственно, и поступает большинство людей). Можно попытаться сделать следующий шаг и предложить логику более близкую к реальности. Такую логику можно условно назвать целесообразной. В её рамках любое утверждение может быть верным, не верным и бессмысленным в зависимости от условий задачи и целей её решения. Так, например, утверждение А=В верно или не верно в зависимости от того, сколь велика разница между А и В и препятствует ли это отличие достижению цели, с которой делается это утверждение. Справедливость утверждения определяется не возможностью измерить (наблюдать) отличие, а целесообразностью принимать (или не принимать) это отличие во внимание. Если отличие в принципе не измеримо, то принимать его во внимание заведомо не целесообразно.

Такое предложение может восприниматься негативно, по следующим причинам:

Во-первых, оно низводит логику  до уровня прикладных наук и лишают её ореола божественности и независимости от мирской суеты. Однако, именно это обстоятельство позволяет решить наболевшие вопросы и выйти из замкнутого круга бесплодной софистики.

Во-вторых, по звучанию “целесообразная логика” представляется как нонсенс. С первого взгляда кажется, что на любой вопрос можно ответить вопросом: -“чего изволите?”. Однако, в реальных задачах такой ответ не так уж глуп.             Приведем пример: В рамках формальной логики на вопрос: сколько будет 7´7 верен ответ: 7´7=49 и любой другой ответ не верен. В рамках целесообразной логики столь же верен ответ: 7´7=50. Именно этот ответ часто используют люди для прикидочных расчетов “в уме”, когда требуемая точность не велика.

В конкретных задачах целесообразная логика сводится к какому либо из известных уже вариантов логики. Так, например, если заменить понятия “истинно” и “ложно” (верно - не верно) словами “целесообразно” - “не целесообразно”, то мы вернемся к аксиоматике классической логики. При этом изменится не структура логики, а правила оценки суждения. Может оказаться, что “верный” (с точки зрения классической логики) вывод “не целесообразен” и наоборот. Примеры этого мы обсудим позже.

Таким образом, целесообразная логика не претендует на роль новой логической конструкции. Цель её введения иная, она в том, чтобы определить области применимости известных вариантов логики в естественных науках и сформулировать соответствующие критерии.

Для того, чтобы охватить в единой логической схеме весь круг задач, целесообразно указать меру размытости, обладающую следующими свойствами:

Во-первых, она должна быть конечной, но достаточно малой, такой, чтобы при решении устойчивы[AK1] [AK1]х задач ею всегда можно было бы пренебречь. Это позволяет использовать в таких случаях традиционную математику  без каких либо изменений.

Во-вторых, в неустойчивых процессах эта мера должна приводить к полной размытости результата. Это позволяет использовать в таких случаях традиционный вероятностный подход.

С учетом этих замечаний аксиоматику конструктивной логики можно сформулировать в следующем виде.

(1) В [AK2] [AK2]каждой задаче должна быть сформулирована цель. Бесцельные задачи квалифицируются как бессмысленные и рассмотрению не подлежат. В этом смысле целесообразная логика перекликается с релевантной[2][2]

(2). Любой расчет (или алгоритм) следует рассматривать как процесс, организованный во времени т.е. проводящийся поэтапно. (что справедливо по крайней мере по отношению к компьютерным расчетам). Это позволяет поставить и решить вопрос об устойчивости и/или сходимости в рамках классической математики.

(3) Как и в классической логике каждому суждению соответствует “0” или “1”, но они рассматриваются не как символы, а как числа, близкие либо к 0, либо к 1, например, 0,000...abc или 1,000...def, где a,b,c и d,e,f - -случайные числа от 0 до 9. Это положение напоминает “fuzzy logic”, но, в отличие от последней, требуется, чтобы “размытость” была мала, порядка “обратный гугол”.

(4). Если процесс устойчив и сходится к определенному результату, то автоматически сохраняется аксиоматика классической логики (и математики). В этом случае сложное суждение будет “размыто” в ту же меру, что и исходное, Наблюдать такую “размытость” в принципе невозможно.

(5) Если процесс неустойчив, то малая “размытость” исходных суждений приводит к большой (порядка единицы) размытости “сложного” суждения. В результате суждение, “истинное” или “ложное” в рамках классической логики, оказывается ни тем, ни другим, а просто “не целесообразным” (бессодержательным). В математике это ведет к серьёзным последствиям. поскольку ряд теорем (в частности теорема Лиувилля ) при этом теряют силу.

(6). Если процесс построения суждения не сходится, то его следует остановить на любой итерации порядка гугол.

(7). Целесообразными следует считать средние характеристики ансамбля результатов расчетов неустойчивых и/или не сходящихся процессов. Усреднение проводится по результатам расчетов, отличающихся выбором произвольного числа порядка гугол (или обратный гугол). Результаты расчета каждого отдельного процесса являются не целесообразными. Динамика средних характеристик устойчива по определению среднего и расчет её подпадает под п. (4)

Перечисленные положения представляют собой алгоритм расчета процессов, как устойчивых, так и неустойчивых.

В рамках этого алгоритма отсутствуют противоречия и неоднозначности характерные для классического подхода. Для иллюстрации приведем несколько примеров.

Первый относится к проблеме временной необратимости и роста энтропии в гамильтоновых системах типа биллиарда Больцмана. В них любая траектория изображающей точки в многомерном фазовом пространстве неустойчива.

Согласно п. (3) нужно начальные условия задавать не в точке, а в малой области , не меньшей, чем обратный гугол и рассматривать поведение ансамбля точек. Согласно п. (7) целесообразно рассматривать средние характеристики ансамбля. Одной из них является энтропия, определенная, согласно Синаю как логарифм объема фазового пространства внутри всюду выпуклой оболочки, охватывающей ансамбль точек. Эта величина растет со временем и стремится к определенному пределу. По всем свойствам она совпадает с физической энтропией. Этот результат следует считать целесообразным (если, считать целью использование его для расчета, например, тепловых машин) и в этом смысле “правильным”.

С другой стороны, если рассматривать поведение отдельной траектории (что равносильно заданию начальных условий с абсолютной точностью), то каждый процесс обратим во времени и энтропия расти не может (что и составляет суть теоремы Лиувилля). Этот результат является “верным” (или “истинным”) в рамках классической аксиоматики, но, согласно (5) не целесообразным и в этом смысле “не правильным”. Результат Синая в том же смысле является целесообразным и “правильным”, хотя и “не верным” с точки зрения классической логики.

На этом примере видна разница между понятиями “истинно” (“ложно”) и “целесообразно” (не целесообразно”). Напомним, что при рассмотрении устойчивых процессов этой разницы нет.

Проблема Буриданова осла в рамках целесообразной логики решается просто. Ясно, что положение осла не устойчиво. Согласно п. (3) надлежит рассмотреть ансамбль ослов, расположенных не точно между стогами сена, а в интервале порядка гугол. Согласно п. (7) целесообразным является вопрос: как распределятся ослы в пространстве. Ответ ясен: они разделятся на две равные группы и одни пойдут направо, а другие - налево. Такое поведение ослов целесообразно, если их цель - не умереть с голоду. Вопрос: куда пойдет каждый отдельный осел ставить не целесообразно. Напомним, в рамках классической математики при точно заданных начальных условиях, осел останется стоять на месте и умрет. Такое поведение не целесообразно даже с точки зрения осла.

Парадокс лжеца, напомним, состоит в следующем: привратник имеет приказ: правдивым людям рубить голову, а лжецов вешать. Предполагается, что правдивый всегда    говорит правду, а лжец всегда лжет.

К городу подходит путник. Привратник вопрошает: “кто ты, правдивый человек или лжец?”. Путник отвечает:: “я лжец”. Что должен сделать привратник?

В рамках классической логики задача решения не имеет, потому и отнесена к разряду парадоксов.

В рамках трехзначной логики любое решение лишено смысла.

В рамках релевантной логики сама задача относится к числу запрещенных.

В рамках целесообразной логики решение состоит в следующем.

В отличие от предыдущего случая промежуточное состояние исключено , а не просто не устойчиво. Каждое из разрешенных состояний (“правдивый” и “лжец”) не только не устойчиво, но и не стационарно. Процесс принятия решения состоит из последовательности итераций, каждая из которых приводит к противоположному результату. Этот процесс не является сходящимся. В рамках классической математики такой процесс представляет собой отображение предельного цикла Пуанкаре. Сам цикл устойчив, но фаза цикла не устойчива и может быть выбрана произвольно. В данном случае разрешенные состояния соответствуют противоположным фазам цикла. Таким образом, процесс не соответствует  п. (4), но подпадает под п. (6).

Согласно (7) следует усреднить результаты по ансамблю итераций. Усредненный результат можно сформулировать в виде: данный путник в меру лжив и в меру правдив (что, кстати, можно отнести ко всем нормальным людям).

Если цель - определить моральный облик путника, то такой ответ следует считать целесообразным. Напротив, результат любой конкретной итерации (путник либо лжив, либо правдив) следует считать не целесообразным и не применять по отношению к нему упомянутых санкций.

Для сравнения обсудим вариант, когда путник отвечает “я всегда говорю правду”. Этот случай подпадает под п.(4). Процесс принятия решения быстро сходится к результату: путнику надлежит отрубить голову. Такое решение логически безупречно. Кроме того, оно целесообразно, поскольку человек, который всегда  говорит правду, социально опасен.

На этих примерах видно, что в устойчивых ситуациях классическая и целесообразная логика не вступают в противоречие.

Обсудим ещё один пример, связанный с условностью математических понятий. Вопрос тоже актуален, поскольку в науке об информации условность играет важную роль, а в математике принято этого не замечать. В качестве примера уместно обсудить  проблему  “стрелы времени”.

В гамильтоновых системах выбор знака времени произволен. При описании устойчивых процессов этот произвол роли не играет, поскольку эти процессы обратимы. 

В глобально неустойчивых процессах будущее отличается от настоящего и  прошлого и это отличие реально, поскольку эти процессы необратимы. Однако, и в этих условиях выбор знака времени произволен и делается по общему согласию, т.е. условно.

Можно выбрать знак времени так, что в будущем оно будет более положительным, чем в настоящем (назовем таких людей оптимистами, тоже условно). Именно так считают все люди на нашей планете и потому эта условность воспринимается как объективная реальность.

Можно представить себе людей, столь же разумных, но  живущих на другой планете ( или на Земле, но в другом демографическом изоляте), которые выбрали противоположный знак времени. Иными словами, они сочли, что в будущем время будет более отрицательным, чем в настоящем ( в этом тоже есть свой резон, назовем таких людей пессимистами). В обоих социях люди наблюдают одинаковые явления и описывают  их одинаково, с точностью до знака времени.

Что происходит при обмене информацией между ними? Можно представить себе несколько вариантов.

i) Люди сообщают друг другу, что в будущем энтропия возрастает. Это объективная реальность и здесь вопросов не возникает.

ii) Люди посылают друг другу неравенство Больцмана, одни в форме: dS/dt >0 и другие - в форме: dS/dt <0 . Тут возникает вопрос: кто же прав?

iii) Люди посылают друг другу киноленты с изображением пожара и в сопроводительном письме указывают, где начало (настоящее) и где конец (будущее). Проблем не возникает, поскольку пожар везде протекает одинаково.

iv) Люди посылают друг другу киноленты и указывают, что кадры следует расположить в порядке возрастания (или убывания) времени, так, как это принято в каждой из соций. Тогда люди в другой соции с удивлением наблюдают, что у соседей пожар протекает не обычно: дым не расползается, а собирается, разгоревшийся пожар сам затухает, а дом сам собой восстанавливается в прежней красе. Иными словами, время у соседей течет в обратную сторону.

Здесь следует отметить, что изображение неустойчивого процесса на киноленте существенно отличается от самого процесса. Фиксация пожара в каждый момент времени на кинопленке - процесс устойчивый, это основное условие запоминания информации. Демонстрация фильма в любой последовательности кадров тоже процесс устойчивый - так устроен кинопроектор. Поэтому демонстрация фильма - процесс обратимый и этим часто пользуются кинорежиссеры.  Таким образом, свойства самого процесса (пожара) и его изображения на киноленте в этом смысле существенно отличаются.

Что произойдет, когда люди, обменявшись информацией и не поняв друг друга решат  встретиться? Произойдет то, что описано в гл. 3, т.е. борьба информаций, вплоть до ликвидации друг друга. В результате одна условная информация вытеснит другую и станет общепринятой. После этого все люди будут считать, что время в будущем возрастает (или убывает, в зависимости от того, кто оказался сильнее) и полагать, что это и есть истина.

В рамках формальной логики сделать выбор из равноправных вариантов (т.е. генерировать информацию) невозможно. Утверждение о том, что время в будущем возрастает (равно, как и противоположное) нельзя ни доказать, ни опровергнуть. В сущности. эта ситуация - один из примеров действия теоремы Гёделя.

В рамках целесообразной логики ценность выбора определяется тем, какая именно условная информация будет принята (или уже принята) в данном обществе. Иными словами, выбор знака времени - пример генерации условной информации, ценность которой возрастает (или убывает) со временем, в зависимости от того, какой вариант становится принятым в обществе.

Таким образом, проблема стрелы времени имеет два аспекта:

Во-первых, сама стрела связана с необратимостью процессов. Последнее имеет место в глобально неустойчивых системах, как в классических. так и в квантовых системах (см. гл. 3). Это утверждение содержит безусловную  информацию.

Во-вторых, направление стрелы, т.е. выбор знака времени содержит условную информацию. Процесс выбора знака времени не имеет отношения к физическим явлениям, а, скорее, относится к социальным.

Из этого примера видно. сколь важно отличать условную информацию от безусловной, особенно. когда речь идет о математическом описании реальных процессов.  

Всё сказанное выше можно изложить на языке теории распознавания.

Любая логика, точнее, алгоритм, построенный на её основе, представляет собой решающее правило, построенное на определенном обучающем множестве.  Любой алгоритм формулируется на определенном языке (коде) и в силу этого условен, в ту же меру условна и логика.

Формальная (математическая) логика - решающее правило, построенное на обучающем множестве устойчивых динамических процессов. Она сформулирована на языке современной математики. Цель распознавания - прогноз поведения объектов из экзаменуемого множества, что возможно, если последнее совпадает с обучающим.

Множество устойчивых динамических систем достаточно широко. Прогнозирование их поведения на основе формальной логики оказалось достаточно эффективным. Математический аппарат в течение последних столетий был унифицирован и сейчас все человечество использует единый код - современную математику. Это обстоятельство породило иллюзию о том, что формальная логика, как решающее правило, не зависит от целей распознавания, свойств обучающего множества и условностей кода. Это заблуждение и лежит в основе парадоксов формальной логики.

Принцип исключенного третьего означает, что отказ от  распознавания ни в каком случае невозможен. Это условие не может выполняться ни в каком реальном экзаменуемом множестве. В обучающем множестве оно может соблюдаться в исключительном случае, если последнее состоит только из эталонов. Однако, и в этом случае в экзаменуемом множестве обязательно найдутся объекты, которые не могут быть распознаны с помощью столь жесткого решающего правила. По существу, сказанное - парафраз теоремы Гёделя на языке теории распознавания. Так обстоит дело с “парадоксом лжеца”. Этот объект по предъявленным признакам находится между эталонами “лжец” и “правдивый” и в рамках формальной логики не может быть отнесен ни к одному из них.

Конструктивная логика - решающее правило, построенное на том же множестве устойчивых динамических систем. В отличие от формальной логики, в ней допускается отказ от распознавания.

 В рамках теории распознавания отказ от ответа означает, что необходимо расширить пространство признаков. Однако, это утверждение  относится, скорее, уже к целесообразной логике.

Множество неустойчивых динамических систем существенно отличается от множества устойчивых. В нём классификация может быть проведена в другом пространстве признаков и распознавание преследует иные цели. Основная цель - прогноз поведения ансамбля объектов, принадлежащих к одному классу, но не каждого объекта в отдельности. Поэтому в множестве неустойчивых систем классические логики, как решающие правила, вообще теряют силу.

Целесообразная логика в этом множестве не только констатирует бессмысленность утверждений формальной логики (что возможно и в рамках конструктивной логики), но и позволяет перейти к другому решающему правилу. Эту роль здесь играет термодинамика (точнее, статистическая физика). Важно, что язык, на котором формулируется это правило - математика - сохраняется. Изменяются лишь смысл символов, связь их с наблюдаемыми величинами и оценка значимости результатов. Иными словами, меняется физическая аксиоматика и постановка задачи,

Таким образом, целесообразную логику можно рассматривать как пример интеграции информаций, поступающих из разных обучающих множеств.    

В заключение обсудим, что нового содержит целесообразная логика по сравнению с другими.

Главное в ней - использование устойчивости как критерия областей применимости уже известных вариантов логики.

Целесообразная логика не требует изменения традиционной математики. Как правило. математические расчеты начинаются словами “пусть дано ...” и кончаются “утверждение доказано”. В промежутке между ними используется математика, основанная на формальной логике. В действительности слова “пусть дано” означают, что задача идеализирована и может соответствовать реальности лишь с какой-то точностью, которая определяется целью расчета. Кроме того, по ходу вычислений часто используются предположения типа: “величина e мала и в первом приближении положим e=0”. При расчете устойчивых процессов целесообразная логика может использоваться только для оценки исходных положений и результатов. В сам расчет она не привносит ничего нового по сравнению с классической, хотя и не противоречит ей. Отличия проявляются только при расчете неустойчивых процессов. Этим и определяется область конструктивной применимости целесообразной логики.

Положение (1) о необходимости постановки цели не ограничивает область применимости целесообразной логики. В действительности определенную цель, хотя бы фантастическую, можно домыслить в любой абстрактной задаче (см. примечание).

Положения (5),(6) и (7) фактически не новы. Более того, в естественных науках они давно и с успехом используются.

Приведем пример, где эти положения используются наиболее эффективно. На наш взгляд этот пример поучителен и актуален.

Сейчас в физике активно обсуждается вопрос о том, отличается ли динамический хаос от “истинного”. Что такое “истинный” хаос с физической точки зрения не ясно. Формально разница в том, что даже неустойчивый процесс “в принципе” обратим (хотя реально это сделать невозможно). В целом постановка вопроса напоминает религиозные диспуты о “вере истинной”. 

В рамках формальной логики хаотический процесс необходимо ввести, как самостоятельный, поскольку, ответ на вопрос: является ли данный процесс динамическим или хаотическим должен быть однозначным: “да” или “нет”.  Иными словами, “истинный” хаос в динамических системах вообще появиться не может и его необходимо постулировать, как самостоятельный объект. При таком подходе ни о какой интеграции наук даже в рамках самой физики и речи быть не может.

В рамках конструктивной  логики динамический хаос является истинным. Необходимость  дополнительных постулатов о наличии других хаосов сама собой отпадает.  Процесс образования хаоса необратим и энтропия при этом возрастает (теорема Синая). Слова “в принципе” здесь лишены смысла, поскольку реализовать (наблюдать) обратимость неустойчивого процесса невозможно.

В рамках целесообразной логики динамический хаос тоже является истинным, но кроме этого можно сделать и позитивное утверждение (что и было сделано). Согласно предложению Синая, энтропия исчисляется как логарифм фазового объёма внутри всюду выпуклой  оболочки, окружающей ансамбль изображающих точек (о чём уже шла речь выше). Эта процедура соответствует задаче и цели расчета. В данном случае эта цель - построить математический аппарат, позволяющий -  вычислять энтропию хаотических динамических систем,  не только равновесных, но и не равновесных, не разрушая математическую аксиоматику, но уточняя постановку задачи на основе целесообразности..

В квантовой механике аналогичная процедура сводится к сглаживанию сильно изрезанных подынтегральных функций. Это приводит к результату, который противоречит теореме фон-Нёймана, но позволяет описать рост энтропии в хаотических квантовых системах, что и наблюдается в реальности.  Цель расчета здесь такая же, как и в предыдущей задаче, но в рамках квантовой механики.

 Можно привести ещё много примеров, когда физик, не задумываясь над “основами” производит усреднение по ансамблю, потому, что это “разумно” и целесообразно. По существу именно так в свое время поступил Людвиг Больцман. Поэтому формулировку этих положений мы не рассматриваем как новое слово в науке, а скорее, как констатацию факта. Тем не менее, считаем формулировку целесообразной логики полезной. Возможно, она избавит человечество от схоластических споров и призывов “давайте рассуждать логически”. Как правило, эти слова произносят люди, с логикой не знакомые и как раз в тот момент, когда “логические рассуждения” заходят в тупик.

Современный ученый (философ) стоит перед выбором, какую логику предпочесть: формальную, конструктивную или целесообразную?  Ситуация такая же, как и при игре в рулетку. Выигрыш - возможность описывать  явления природы с единой  точки зрения. Проигрыш - опасность погрязнуть в софистических спорах. Крупье - общественное мнение ученого мира. Нужно сказать. что этот крупье на редкость инертен. Действительно в реальных задачах все ученые уже давно используют целесообразность как руководство к действию.  Так, что реально шарик уже давно в лунке, но крупье ещё не сказал своего решающего слова и в дискуссиях по фундаментальным вопросам ставки ещё продолжаются.

В этом разделе мы ни словом не обмолвились о диалектической логике. Этому посвящен следующий раздел.

7.4. Порядок и хаос, логика и диалектика.

В явлениях природы есть закономерность.  Это люди знали давно, и пытались  понять законы природы (и до сих пор пытаются).  Законы природы - это и есть порядок.

С другой стороны,  уже понятые и сформулированные законы природы часто нарушаются.  Многие явления происходят "случайно", то есть так,  что предвидеть их  невозможно.  Это и есть нарушение порядка,  то есть беспорядок, хаос. Такие явления играют большую роль  в  жизни,  а в физике малекулярный хаос даже служит основой второго начала термодинамики.

В каких  случаях  и  по каким причинам порядок уступает место хаосу? Каким образом из хаоса снова может возникнуть порядок?

Эти вопросы касаются не только бездушной природы. То же самое происходит и в живых системах (организмах, популяциях) и в человеческом обществе.  Более того,  в обществе проблемы порядка и хаоса даже более актуальны и стоят более остро,  чем в естественных науках.

Как человечество пыталось ответить на эти вопросы?

Этому посвящены тома литературы, как научной, так и художественной. Провести обзор всего сказанного в ней автор не в силах. Однако, для дальнейшего необходимо напомнить основные этапы развития мысли. При этом не удастся избежать упрощения и даже вульгаризации истории. Поэтому прошу считать, что в этом разделе автор уже совсем “спешился”.

В религии ответ на вопрос был прост: порядок создал Бог, а беспорядок - Диавол.  Этот ответ в свое время удовлетворял человечество. Действительно: посмотрите на небо:  стройной чередой движутся по нему планеты и этот порядок вечен,  поскольку на небе властвует Бог. На земле другое дело. Здесь "враг человеческий" силен, отсюда и беспорядок.

Однако, с развитием астрономии, физики и математики, небесный порядок был облечен в формулы и создана наука - классическая механика.

Эта наука и до сих пор является образцом порядка.  Предсказания в механике однозначны. Если известны начальные условия, и силы действующие  на тело, то траектория вычисляется однозначно. Успехи механики произвели большое впечатление на общество. Оказалось, что на основе законов механики можно вычислить не только движение  светил на небе,  но и траекторию снаряда, выпущенного из пушки и многое другое.

Широко распространилась иллюзия о том, что по аналогичным законам (столь же четким и однозначным) можно вычислить  вообще  все на свете.

Создатели современной механики и математики: Декарт, Ньютон, Лейбниц, Эйлер  -  были люди религиозные и не отказывались от роли Бога. Однако, их последователи,  в частности, французские просветители, уже попытались заменить культ Бога культом Разума. Под разумом  понималась способность на основании законов природы рассчитать (или предвидеть) последующие события,  как в науке так и в обществе.

Это было торжество порядка над хаосом, но временное.

"Критика чистого разума" Канта снова вернула общество к извечной проблеме. Под "чистым  разумом" Кант опять же понимал возможность однозначно предсказывать (вычислять, рассчитывать) явления природы. По существу Кант  обратил внимание на то, что однозначно предсказывать можно отнюдь не все явления природы, более того часто результат  оказывается  противоположным  предсказаниям "чистого разума". Впоследствии,  уже в двадцатом веке выяснилось,  что ни  один однозначный алгоритм (подобный механике) не может дать однозначный ответ  на вопрос,  поставленный в рамках того же  алгоритма.  Сейчас это утверждение известно как теорема Гейделя.

Кант указал на ограниченность “чистого разума”, но предложить ему логическую альтернативу в рамках естественных наук того времени не мог, хотя современной ему математикой владел профессионально. Будучи человеком религиозным (как и его современники), Кант, предложил естественный для того времени выход: управляет миром Бог, а  “чистый разум”, хотя и силен, но не всесилен.

Оппонентом Канта выступил Гегель.  Он предложил заменить формальную логику диалектической.

Диалектика, как особый вид логики, возникла ещё в античные времена и тогда существенно отличалась от формальной логики даже по названию. Под логикой понималось искусство убеждать словом (от греческого логос - слово). Под диалектикой понималось искусство побеждать в споре (в более общем случае - вести беседу). Убеждать и побеждать - цели разные и методы их достижения тоже различны (хотя для достижения первого часто используется второе). Поэтому совместить логику и диалектику очень не просто.

В рамках изложенного в книге можно интерпретировать диалектику Гегеля следующим образом.

Гегель обобщил опыт натуралистов, наблюдавших развивающиеся системы (в первую очередь живые) и сформулировал его в виде ряда правил. Которым был придан статус законов природы. Так появился тезис о борьбе противоположностей и тезис об их смене в известной триаде: “тезис - антитезис - синтез”. Гегель, в отличие от Канта, не владел математикой профессионально и поэтому сформулировал эти правила в вербальной, но не математической форме. Справедливости ради отметим, что если бы Гегель и попытался это сделать, то всё равно не смог бы, поскольку необходимый для этого математический аппарат тогда  ещё не был создан, да и сейчас он ещё только строится.

В результате область применимости диалектической логики не была четко очерчена. Вопрос о том где и какую логику следует применять оставался не решенным. Гегель понимал это и будучи, как и Кант,  человеком религиозным, предоставил решение этого вопроса на усмотрение Божие. В результате диалектика Гегеля была отнесена к разряду идеалистических философий. 

Научная общественность восприняла диалектику не однозначно.  По существу  и сейчас отношение к ней двояко.

Многие представители точных наук (физики и математики) отнеслись к ней негативно, полагая, что это не более чем слова. Тому есть причины. С точки зрения представителя точных наук слова “закон природы” подразумевают, что имеется математический аппарат,  позволяющий делать однозначные предсказания. В диалектике Гегеля такого аппарата не было. Поэтому на  вопрос:  можно  ли рассчитать и предсказать когда именно одна "противоположность" сменит другую  и  когда  возникает "синтез", ответ был расплывчатый:  "синтез" обязательно будет,  но когда - не знаем.  Разумеется,  такой ответ представителей  точных наук не удовлетворял.

Представители описательных  (естественных  и гуманитарных)   наук встретили диалектику с энтузиазмом. Тому тоже есть причина. Гегелю удалось сформулировать основные и действительные достаточно  общие свойства, характерные для открытых, развивающихся систем.

Здесь мы используем современный язык,  поскольку  во  времена Гегеля понятия  "открытая"  и  "развивающаяся" система были еще не сформулированы. Сейчас можно сказать, что триада Гегеля - образное описание процесса генерации ценной информации. Действительно, как было показано выше, при этом прежний динамический режим (“порядок”) становится неустойчивым и система входит в перемешивающий слой. Возникает “хаос” - антитеза “порядка”. Затем система выходит из перемешивающего слоя и входит в новый динамический режим. Возникает новый “порядок” - синтез, в котором система уже обладает новой ценной информацией. В новом режиме система развивается динамично, вплоть до следующей точки бифуркации. 

Живые и социальные системы относятся именно к  таковым, что  и обеспечило популярность диалектики в среде биологов и гуманитариев.

Сейчас, опираясь на синергетику, можно сказать, что областью применимости диалектической логики являются все развивающиеся системы в том числе и в особенности живые. Как видим, область применимости диалектики очень широка, но не безгранична.

В неживой природе устойчивые процессы подчиняются формальной логике. Неустойчивые процессы в неживой природе тоже бывают и играют большую роль. Именно для их описания была создана теория динамического хаоса. Фактически эта теория играет роль звена, соединяющего формальную логику с диалектической.

Таким образом, области применимости формальной и диалектической логики сейчас уже определены. Сейчас сторонник диалектического мышления может ответить любому математику на его каверзный вопрос о том когда наступит “синтез”. Ответ прост: постройте математическую модель процесса и сами увидите когда именно тезис перейдет в антитезис и когда наступит синтез. В развивающейся живой системе это обязательно произойдет и это качественное утверждение диалектики остается в силе. Отметим, что ссылка на Бога при этом вовсе не обязательна (и не желательна).

Приведенные выше соображения выглядят вполне материалистическими.  Поэтому,  можно сказать, что современная синергетика является математической основой диалектического материализма.

В дискуссиях между сторонниками формальной логики и диалектики играло роль и другое обстоятельство, тоже не маловажное. Основы диалектики были сформулированы на вербальном (словесном) уровне, для их восприятия  не нужно было знать математику. До Гегеля известные философы (включая Канта) знали математику,  более того, считать себя философом не будучи знакомым с математикой было просто неприлично.

После Гегеля в философии появилось много представителей  описательных наук, не знакомых с математикой, а в последнее время можно стать философом вообще не будучи специалистом ни в каких других науках.

Для людей достаточно ленивых ,  но склонных пофилософствовать (а таковы почти  все  люди), освобождение от необходимости учить математику было благом. Сейчас ситуация меняется, интеграция наук становится насущной потребностью  и здесь знание смежных  дисциплин (включая математику) необходимо.

Подведем итог: диалектика в лице синергетики обрела, наконец, математическую опору, что позволило очертить область её применимости. Отпала необходимость привлекать Бога для решения научных проблем (т.е. поминать Имя Его всуе). Диалектический материализм стал действительно научной системой, в том смысле, в каком это принято понимать в естественных и точных науках.

Пожалуй, это и есть самое главное, что хотел сказать автор в этом разделе.

Сопоставляя диалектический материализм с разными вариантами логических схем, можно сказать, что он ближе всего к целесообразной логике, именно в той её части, где последняя становится не тривиальной. Можно сказать, также, что синергетика, как математический аппарат, охватывает не только формальную логику, но и диалектику.

7.5.  Порядок и хаос в обществе (проблемы этики)

Жизнь общества и его развитие подчиняется своим законам.

Во-первых, в любом обществе есть свод законов. Это формализованные правила поведения, отступление от которых карается. В своде законов, оговаривается как мера отклонения  от  правил, так и мера наказания за это.

Однако, реальная жизнь - явление не алгоритмизируемое и  формализовать ее полностью невозможно.

Поэтому наряду с формальными законами в каждом  обществе  существуют законы совести,  то есть этика.  Эти законы, в отличие от юридических, формулируются в виде заповедей,  то есть без указания меры нарушения и меры наказания.

Заповеди бывают разные. Общеизвестны религиозные заповеди, они “от Бога” и поэтому в аргументации не нуждаются. По существу они возникают и получают признание в  результате обобщения опыта существования данной соции в течение тысяч лет.  Эти заповеди никто никогда строго на соблюдает, да этого и не требуется.  Тем не менее,  они играют большую роль в обществе, поскольку определяют некий средний (базовый) уровень этики. Заповеди следует соблюдать при прочих равных условиях, или, другими словами, их не следует нарушать без крайней на то необходимости. Это важно, поскольку в противном случае зло творилось бы на каждом шагу без всякой нужды. Религиозные заповеди слабо зависят от  достижений науки и в этом смысле устойчивы.

В  каждом обществе, кроме религиозных, существуют заповеди другого типа, они чаще называются “принципами”, они уже не “от Бога”, а от “чистого разума” и поэтому нуждаются в обосновании. Таковое, как правило. приводится и часто со ссылкой на достижения науки.  Речь идет о таких принципах, как:  свобода или, напротив, иерархическое подчинение, равенство или, напротив, превосходство (национальное, расовое, идеологическое), превосходство закона или, напротив, справедливости. Отметим, кстати, что слова “закон” и “справедливость” в разных странах имеют разный смысл: в западных странах это почти синонимы, а в России, скорее, антонимы. 

По существу  “принципы” тоже играют роль заповедей, поскольку они формулируются как абсолютные и меры нарушения и меры наказания четко не оговариваются. Ниже речь пойдет именно о “принципах”.

Какова при этом роль проблемы  причинно-следственных  связей, проблемы предсказуемости и вообще проблемы порядка и хаоса?

Влияют ли эти,  казалось бы чисто научные,  проблемы на этику общества? Эти вопросы мы и обсудим.

Каково влияние "чистого разума"?

В науке  "чистый  разум" - полностью детерминистическая теория, где каждое событие является  однозначным  следствием  определенной причины и само служит причиной последующего события.

Если перенести эту логику на поведение человека  в  обществе, то придем к следующим выводам:

Во-первых, поведение человека полностью  детерминировано;  он идет по заранее определенной траектории и свернуть с нее не может, даже если захочет.  Иными словами,  у человека нет права выбора  и  нет возможности проявить свободу воли.

Во-вторых, человек не несет ответственности за содеянное. Действительно, само  понятие  "ответственность" предполагает, что человек, совершивший поступок (или проступок) имел возможность поступить по другому, то есть имел право выбора и возможность проявить волю.

В-третьих, исчезает само понятие "совесть",  поскольку оно не мыслимо без ответственности.  По существу "совесть" - понятие этическое, и является аналогом юридического понятия "ответственность".

Таким образом, приходим, казалось бы, к парадоксальному выводу: "чистый  разум"  в  человеческом  поведении ведет к разрушению этики, то есть к безнравственности.

Эта проблема  не нова.  В религиозном аспекте она обсуждалась издревле: если поведение человека определяет Бог,  то на нем и ответственность за  поступки человека.  С помощью многочисленных софизмов (со ссылками на искушения Диавола) удавалось все-таки этику сохранить.

В аспекте "чистого разума" поведение человека  предопределено "законами природы" (подобно поведению камня, брошенного из пращи).

Они - законы природы - и несут  ответственность  за  поступки человека. Здесь также с помощью софизмов (тоже не без Диавола, о уже без упоминания его) было решено, что переносить научные концепции на общество нельзя. Правда, почему нельзя, когда нельзя, а когда, все-таки, можно - эти вопросы оставались без ответа.

Тем не менее, влияние детерминистических концепций на этические нормы было значительным.  Люди часто  отступали  от  этических норм, грабили и убивали друг друга и делалось это либо во имя Бога (во время религиозных войн),  либо во  имя  "Разума" (например,  во время французской революции).

Каково влияние концепции "хаоса"?

В  науке хаос означает,  что каждое событие - результат случая и не может быть причиной последующего,  поскольку оно тоже случайно. Если перенести эти положения на поведение человека в обществе, то придем к следующим выводам:

Во-первых, поведение человека в данный момент полностью зависит от множества не учитываемых условий,  в частности, его настроения, желания и т.п.  Предсказать его невозможно и поэтому оно случайно. Иными словами, у человека есть право выбора и свобода воли  (желаний).

Во-вторых, предвидеть как повлияет данный  поступок  человека на последующие события (особенно отдаленные) тоже невозможно, поскольку и они случайны. Поэтому понятие ответственности за поступки тоже теряет смысл.

Вместе с ним размывается и теряется представление  о  "совести". В оправдание любого решения можно сказать: "хотели как лучше, а получилось как всегда".

Таким образом, концепция "полного хаоса" так же аморальна, как и концепция полного детерминизма (т.е. "чистого разума").

Тем не  менее и эта концепция влияла и влияет на общественные процессы. Например,  во времена  общественных  катаклизмов  (войн, смут, революций) даже образованные люди в свое оправдание произносят: "От меня ничего не зависит; я - лишь одна молекула в сосуде с газом и ответственности за происходящее не несу".

Какова роль теории динамического хаоса?

Как упоминалось,  в этой теории наряду с "хаотическими" понятиями (случай,  вероятность и т.п.) сохраняются и динамические понятия (предсказуемость ближайших последствий, горизонт прогнозирования и т.п.).

Вспомним биллиард  Больцмана.  Траектория  каждого шара между соударениями вполне детерминирована и не случайна.  В момент отражения от  выпуклой  поверхности у шара,  благодаря неустойчивости, появляется "свобода выбора".  Последующее событие зависит от того, насколько шар этой свободой воспользовался;  в частности, он может пролететь мимо следующего шара,  хотя при другом "выборе" с ним бы столкнулся.

Эту картину можно обобщить.  В поведении любого объекта  есть периоды, когда оно устойчиво предопределено, предсказуемо. В развивающихся биологических системах эти периоды носят специальное название - креоды (см. гл. 4). В полностью хаотических системах такие периоды  соответствует горизонту прогнозирования.

Вместе с тем, есть моменты времени (или периоды прохождения через перемешивающий слой),  когда поведение становится неустойчивым (так называемые точки бифуркации) и появляется  возможность ( и необходимость) случайного выбора.  События, происходящие на следующем отрезке времени  (порядка  горизонта  прогнозирования или длительности креода), зависят от  выбранного пути. Поэтому их также можно (и должно) предвидеть.

Если перенести эти положения на общество, то придем к следующим выводам: 

Разумеется, люди  не круглые  шары (хотя,  что-то в этом есть). Тем не менее в жизни каждого человека,  есть периоды, когда поведение предопределено  и  выбор делать не нужно.  В эти периоды вопросы об ответственности и совести просто не встают.

Есть в жизни моменты,  когда человек становится перед необходимостью выбора (жизнь теряет устойчивость).  Тогда  он  оценивает возможные последствия  выбора на последующем горизонте прогнозирования. Как правило,  он это может и должен сделать  (если  не  может, то, значит, глуп, а это, как известно, хуже воровства).

Именно в эти,  бифуркационные, моменты появляются понятия  ответственности за сделанный выбор (то есть за поступок) и совести.

Как видим, они основаны на следующих свойствах.

Во-первых, объективном, не зависящем от человека свойстве потери устойчивости (бифуркации).

Во-вторых, на  субъективных  способностях человека предвидеть последствия выбора в течение горизонта прогнозирования.  Этим и определяется ответственность.

В-третьих, человек,  способный прогнозировать,  делает выбор, взвешивая пользу или вред возможных последствий для себя,  окружающих и общества в целом.  Этим определяется этический статус человека, то есть совесть.

Для морального статуса равно необходимы второе и третье условия.

Так, человек, способный прогнозировать, и сознательно выбравший вариант, который нанес вред другим, аморален и это очевидно.

Однако, не менее аморален человек,  не способный  предвидеть результат, но сделавший выбор, принесший много зла людям. Примеров такого поведения людей, в том числе и очень авторитетных, увы, более, чем достаточно.

События и бифуркации бывают разного масштаба.

В повседневной жизни выбор приходится делать часто,  горизонт прогнозирования мал,  но и последствия выбора не так  существенны. Например, выбрал  один  магазин  и в нем купил вещь подороже,  а в другом мог бы и дешевле.  Ошибка, но не смертельная. В этом масштабе ситуация близка к картине "полного хаоса".  Серьезные этические проблемы при этом не возникают, да и не могут возникнуть - ответственность не велика.

На более высоком уровне выбор делается реже, и горизонт прогнозирования больше. Например, женитьба - шаг серьезный.  Здесь горизонт прогнозирования -  вся жизнь (или до развода).  Если уж сделал выбор и женился, то ты должен ...  много чего ты должен и уклонение от долга  - нарушение этики.

Поведение в течение горизонта прогнозирования в  этом  случае более соответствует концепции полного детерминизма.

В жизни всего общества бифуркации еще реже.  Горизонт прогнозирования - время между катаклизмами.

В течение стабильного (устойчивого) периода развитие общества на макро уровне детерминировано. При этом проблемы гражданской этики (гражданской совести) реально не встают.  Большинство людей об этом просто  не  думают и правильно делают,  поскольку предвидеть, что именно произойдет после следующей бифуркации, невозможно; "чистый разум" на это не способен.

В действительности даже в эти  периоды  появляется  небольшое число людей,  призывающих  к смене режима иногда во имя Бога (религиозные фанатики), иногда во имя "чистого разума" (диссиденты).  Как правило, их преследуют и  в этом есть резон - эти люди аморальны не потому, что злонамеренны, а потому, что безответственны. Однако,  часто именно они воспринимаются как "святые мученики", то есть люди высокой гражданской совести.  То, что эти люди, сделавшие безответственный выбор (и призывавшие к этому других), в действительности аморальны,  выясняется  уже  после следующего катаклизма,  когда становится ясно:  "за что боролись на то и напоролись".

В моменты,  когда  общество  теряет устойчивость и становится перед необходимостью выбора, роль каждого человека возрастает. Соответственно возрастает  и  ответственность  за  выбор.  Здесь уже гражданская активность оправдана и, напротив, отсутствие гражданской совести аморально.

Подведем итог:

Влияние научных  концепций  на  этические нормы как человека, так и общества, существенно.

В рамках  концепции  полного детерминизма равно как и полного хаоса, моральный статус воспринимается, как нечто статическое , не зависящее от фазы процесса. При этом теряется основа таких понятий как ответственность  и совесть.

В рамках синергетики моральный статус играет разную  роль  в зависимости от фазы развития (человека,  семьи, общества). Понятия ответственность и совесть естественно возникают  в фазах потери устойчивости, тогда и проявляется этический статус. Это не значит , что основные догмы этики (т.е. заповеди) изменяются со временем (хотя и это имеет место).  Это значит,   что  они просто должны проявляться в моменты бифуркации. Проявление активности до или после этого в действительности аморально.

Возникает вопрос: какие именно бифуркации играют роль в обществе? Для ответа воспользуемся аналогиями. Общество - развивающаяся система и в нем происходит накопление информации, как безусловной, так и условной.

Генерация и использование безусловной информации характерна для эволюции биосферы  (филогенеза) и развития сложного  организма (онтогенеза). Применительно к обществу в этом аспекте уместно воспользоваться аналогией с этими процессами. Здесь главную роль играют бифуркации типа “складки” и “сборки” (смена режима), бифуркации типа Хопфа (автоколебания и авто волны) и бифуркации Тюринга (возникновение диссипативных структур). В обществе им соответствуют технические революции, освоение новых территорий и возникновение новых городов и государств. обсуждение этих явлений относится к экономике, социологии и демографии и выходит за рамки книги.

Генерация условной информации аналогична образованию кода. Этические нормы - пример условной информации и здесь уместно воспользоваться этой аналогией (см. гл. 3). Главную роль при этом играют бифуркации прохождения фронта между разными  кластерами  на стадии паркета.

Генерация конъюнктурной информации в данном случае означает укрепление норм поведения, существующих в данном кластере. Эта информация, как упоминалось, не является новой и её ценность определяется личными целями “конъюнктурного информатора” - сделать карьеру на идеологии.

Если кластер достаточно велик, фронты далеко и ещё не известно в какую сторону движутся, то генерация конъюнктурной информации не является ни моральной, ни аморальной. Идеологические карьеристы всегда были, есть и будут, поскольку желание сделать карьеру - естественная поведенческая реакция представителей homo sapiens. Их можно упрекать или им завидовать, но важно понимать, что серьёзных для общества последствий их деятельность не повлечет.

Генерация прогностической информации в этом случае почти всегда аморальна, поскольку безответственна. Эта деятельность может привести к серьёзным последствиям, а к каким именно - предвидеть практически невозможно.  Здесь справедливо всё, сказанное выше об этике в периоды устойчивого развития.

Если фронт уже приблизился и наступила бифуркационная ситуация, то положение меняется. На самом фронте (в пределах его ширины) конъюнктура быстро меняется и генерация конъюнктурной информации теряет смысл. Акт генерации любой информации становится ответственным, поскольку может повлиять на движение фронта. Здесь справедливо все сказанное об этике в бифуркационный период.

В заключение подчеркнём главное:

С позиций синергетики этические нормы нельзя рассматривать, как нечто абсолютное и не зависящее от фазы развития общества. Напротив. в зависимости от этой фазы часто “добро” и “зло” меняются местами. На интуитивном уровне это давно осознано человечеством и  неоднократно отражено в классической литературе.       


 

В заключение главы подведем итог.

В синергетике действительно возникают методологические проблемы, решение крторых способствует развитию как синергетики, так и методологии.

В главе затронут широкий круг проблем от логики и диалектики до этики. Объединяет их то, что все они решаются в динамике. Именно, для решения проблемы рассматривается процесс её возникновения. При этом, самое важное свойство процесса - его устойчивость (или неустойчивость). Именно явление неустойчивости позволяет определить области применимости различных подходов и тем решить проблему их совместимости.

Другое важное обстоятельство состоит в том, что люди часто имеют дело с условной информацией, но воспринимают её как безусловную. Примером может служить проблема “стрелы времени” Здесь также уместен динамический подход. Для разрешения недоразумения достаточно проанализировать процесс возникновения условной информации и эволюции её ценности.

Сама по себе мысль о том, что проблемы нужно решать в динамике, разумеется, не нова. Человечество 4уже более двух тысяч лет знает, что  “все течет и все изменяется”. Важно и ново другое - синергетика позволяет задать вопрос: как течет и когда и как изменяется. Ответ на этот вопрос часто оказывается решением проблемы. В результате появляется надежда построить единую картину мира и не словесную, а на языке точных наук.

В главе затронуты далеко не все проблемы методологии. Более того, при решении одних проблем встают другие - это естественный процесс развития науки. Мы надеемся , однако, что при решении насущных проблем, а также тех, которые понадобятся впредь, синергетический подход будет плодотворен.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 



 



[1][1] Здесь и ниже слова “наука” и “теория” понимаются в том смысле, который характерен для западной (европейской) цивилизации. В восточных цивилизациях эти же слова понимаются в несколько ином смысле. Пример тому - китайская теория пунктурной терапии (см. гл. 6). Однако, обсуждение этих различий выходит за рамки книги.

[2][2] В недрах чистой  науки (в частности, математики) задачи часто ставятся ради удовлетворения любопытства, развлечения, игры ума или упражнения, что также можно рассматривать как цель. Чаще всего такие задачи оказываются бесполезными и ими заполняются научные архивы. Тем не менее, такие работы делались, делаются и будут делаться и в эволюционном  плане это оправдано. Таким образом, абсолютно бесцельных задач практически  не бывает.


 [AK1]

 [AK2]

Используются технологии uCoz