Здавалка
Главная | Обратная связь

V.I. ПОРЯДОК И БЕСПОРЯДОК. ЭНТРОПИЯ, НЕГЭНТРОПИЯ И ИНФОРМАЦИЯ



Все к лучшему в этом лучшем из миров.
Вольтер

Проявление феноменов Фортуны можно определить как случайные (на первый взгляд) стечения обстоятельств, приводящие в соответствии с КРИТЕРИЯМИ НЕБЕЗРАЗЛИЧИЯ к благоприятному для данного биологического объекта (БО) (или сообщества БО) результату. Благоприятным же, в свою очередь, можно считать такой результат, который способствует улучшению качества жизни. Последнее всегда связано с уменьшением неопределенности, то есть с увеличением предсказуемости того, что может произойти с БО.
Отсюда следует, что явления Фортуны тесно связаны с такими важнейшими понятиями современной физики и кибернетики, какими являются энтропия и информация. Чтобы установить эту связь, напомним кратко их определения.
Энтропия S вводится как мера упорядочения системы [1] и определяется с помощью соотношения:
S=kmW, (1)
где k - коэффициент (так называемая постоянная Больцмана); W - термодинамическая вероятность реализации данного состояния рассматриваемой системы, то есть число различных способов его реализации.
Из (1) следует, что чем больше величина W, то есть чем большим числом способов реализуется данное состояние, тем больше разупорядоченность системы и тем больше ее энтропия S. И, наоборот, с ростом упорядоченности в системе меньше становится величина энтропии. Имеет место фундаментальный закон природы, так называемое второе начало термодинамики, согласно которому упорядоченность изолированной неравновесной системы должна убывать со временем, а энтропия возрастать соответственно энтропия равновесной изолированной системы сохраняется. Проявлением этого закона является, например, исчезновение искусственно созданных неоднородностей в распределении плотности или температуры газа (жидкости) в замкнутом теплоизолированном объеме. Эти неоднородности, которые представляют собой определенную упорядоченность, постепенно исчезают в результате самодиффузии или теплопроводности, а энтропия данного объема газа возрастает по отношению к ее значению, в исходном, неоднородном состоянии.
Таким образом, в изолированной системе не может сохраниться никакое искусственно созданное упорядочение. Ход развития такой системы всегда приводит к постепенному разупорядочению, то есть к беспорядку.
Важную роль в анализе рассматриваемых вопросов играет также понятие информации. Оно непосредственно связано с понятием энтропии как меры беспорядка. Информация, содержащаяся в каком-либо событии, дает количественную меру сведений, которое это событие содержит. Пусть оно состоит в подбрасывании монеты. Пока она не брошена, событие отсутствует, и информации о ней нет, то есть она равна нулю. После того как монета подброшена и выпал, например, орел - событие реализовано и информация уже отлична от нуля. Оценим количество этой информации. Пусть мы бросаем две монеты одновременно. Ясно, что мы получим вдвое большую информацию. Вероятность реализации двух независимых событий (например, выпадение на одной монете орла, а на другой - решки), равна произведению их вероятностей, а информация - сумме информации об этих событиях. Следовательно, естественно определить меру информации как логарифм вероятности. В нашем примере вероятность выпадения определенной стороны монеты следующая: Р1= 1/2.
Вероятность выпадения определенных сторон сразу у двух монет
Р = Р1/ Р2; = 1/4, а информация, содержащаяся в этом событии
I = - К log Р = - К log Р1 - К log Р2= I + Т (2)
Где, К - некоторый, коэффициент пропорциональности, конкретный вид которого обусловлен соображениями удобства.
Таким образом, научное определение информации о каком-то событии связано с вероятностью его реализации. Это обстоятельство дает возможность установить связи информации с энтропией, так как последняя, согласно (1), также определяется через вероятность (впервые это было сделано Л. Сциллардом [2] - выдающимся физиком, лауреатом Нобелевской премии). Рассмотрим, например, ситуацию, когда событие состоит в переходе системы из одного состояния, характеризующегося энтропией S, = k In Wp в другое с энтропией
S, = k In W,
Пусть для определенности S1 < S2, (т. е. W1, > W2). Тогда при данном переходе энтропия системы уменьшается на величину
AS=S,-S =klnW1/W2
Введя в определение информации (2) коэффициент К = k In 10 и считая, что для состояний 1 и 2 вероятность их реализации Р1 ~ W1 и Р2 ~ W2, соответственно, отождествим изменение информации Л1 о системе при переходе 1 -> 2 с убыванием энтропии AS:
Д1 = - k In 10 log (Р,/Р,) = k In (W1/W2) = AS = - AN. (3)
В (3) введена величина AN уменьшения негэнтропии N (отрицательной энтропии). Таким образом, увеличение информации о данной системе имеет место только при уменьшении ее энтропии или увеличении негэнтропии. Это очень важный общий вывод.
Отметим, что на самом деле, особенно применительно к процессам, связанным с жизнедеятельностью биообъектов, важнейшей характеристикой информации, помимо количества, является ее ценность. Ясно, что два различных факта могут содержать одинаковое количество информации, но при этом быть далеко не равноценными для человека. Например, в установлении факта существования телекинеза столько же информации, сколько и в выпадении определенной стороны монеты при ее подбрасывании, так как телекинез либо существует" либо нет. Однако, ценность этой информации, весьма различна. Именно она будет играть важнейшую роль в описании механизмов феноменов Фортуны.







©2015 arhivinfo.ru Все права принадлежат авторам размещенных материалов.