6.3.2. Что такое «информация»?

We use cookies. Read the Privacy and Cookie Policy

6.3.2. Что такое «информация»?

Развитие кибернетики стимулировало обсуждение общей методологической проблемы о природе информации и связи ее с физическим понятием энтропии. Что же такое информация? Обратимся к толковому словарю: «В понятии «информация» следует различать два аспекта. Во-первых, информация представляет собой меру организации системы. Математическое выражение для информации тождественно выражению для энтропии, взятой с обратным знаком. Как энтропия системы выражает степень ее неупорядоченности, так информация дает меру ее организации. Так понятая информация составляет внутреннее достояние системы, процесса самих по себе и может быть названа структурной информацией. Во-вторых, от структурной информации следует отличать информацию, всегда связанную с отношением двух процессов. Теория информации обычно имеет дело именно с относительной информацией, которая тесно связана с отражением. Если в предмете происходят изменения, отражающие воздействие другого предмета, то можно сказать, что первый предмет становится носителем информации о втором предмете. В кибернетических системах изменения в некотором предмете, вызванные воздействием другого предмета, являются не просто некоторыми характеристиками первого, а становятся фактом функционирования кибернетической системы именно в качестве носителя информации о втором предмете. Относительная информация из потенциальной, какой она является в докибернетических системах (системах неживой природы, не связанных с управлением), превращается здесь в актуальную информацию, то есть отражение, пассивное в докибернетических системах, становится активным отраженном. С этой точки зрения мозг человека представляет собой исключительно сложную систему, хранящую и перерабатывающую поступающую из внешнего мира относительную актуальную информацию. Свойство мозга отражать и познавать внешний мир предстает как звено в развитии процессов, связанных с передачей и переработкой информации» (13,172).

«Поскольку все предметы и процессы окружающего нас мира так или иначе взаимосвязаны, между ними неизбежно происходит обмен не только веществом и энергией, но и информацией. Только благодаря непрерывному обмену информацией между отдельными частями системы может осуществляться их организованное взаимодействие. Циркуляция информации в системе, к какой бы категории она ни относилась (машины, организм, общество), есть самый существенный, по мнению академика П.К. Анохина, фактор в организации целостной системы» (49,51).

«В информации находят отражение особенности организации взаимодействующих объектов: более организованные объекты способны извлекать из окружающей среды большую информацию, чем менее организованные, одновременно они сами служат источником большей информации. При этом не следует забывать, что каждая система может быть охарактеризована бесконечным количеством свойств, а поэтому бесконечно и количество информации, которое в принципе может быть из нее извлечено. Таким образом, информационная ценность системы зависит не от количества вообще заключенной в ней информации (оно бесконечно), а от того, кто и как эту информацию использует. Это создает большие трудности для измерения информации, и к настоящему времени разработана лишь формальная математическая теория передачи количества информации по каналам связи. Она исходит из представления об информации как о степени снятой неопределенности, которую можно установить, например, выбором одного из двух решений» (49,51).

«Энтропийная основа информации была ясна специалистам еще до возникновения теории информации, историю которой принято обычно отсчитывать со дня выхода в свет в 1949 году труда американского математика и инженера Клода Шеннона «Математическая теория связи». Поскольку информацию относят к исследуемой системе, считая ее функцией состояния последней, увеличение данных о системе означает уменьшение ее неопределенности. Последнее же наводит на мысль о связи информации с вероятностью состояния системы, а следовательно, и с энтропией» (49,52).

«Один из первых шагов в этом направлении сделал еще в 1928 году американский инженер-связист Р. Хартли. Он предложил измерять степень неопределенности опыта с A различными результатами величиной log A. К. Шеннон в 1949 году, по существу, заново установил эту зависимость, хотя и подразумевал под энтропией соответствующую величину со знаком «минус». В 1956 году Л. Бриллюэн обратил на это внимание и предложил для «энтропии Шеннона», то есть энтропии со знаком «минус», название «негэнтропия». Он же ввел «негэнтропийный принцип информации», который накладывает новые ограничении на физические эксперименты и не зависит от известного соотношения неопределенности квантовой механики. Сущность этого принципа — с ростом информации о системе увеличивается негэнтропия, энтропия же есть мера недостатка информации.

Работы К. Шеннона вследствие их общего характера оказали большое влияние на все исследования, относящиеся к передаче и сохранению какой бы то ни было информации в технике. Линиями, по которым передается информация, могут быть не только телеграфные и телефонные провода или среда, проводящая радиосигналы, но и нервы, по которым передаются сигналы (и энергия) от органов чувств к мозгу и от мозга к мускулам, или те, почти совсем еще не исследованные пути, которыми от зародышевой клетки передаются указания о построении живого организма.

Нужно отметить, что в изменениях, происходящих в предметах и явлениях в процессе развития, наблюдаются одновременно две тенденции: стремление к усложнению организации и одновременно к упрощению. Тенденция к усложнению равносильна накоплению информации, а тенденция к упрощению означает уменьшение информации и накопление энтропии. Хотя развитие — это одновременно и усложнение, и упрощение формы организации, ведущей все же является тенденция усложнения, то есть накопления информации, или возрастания негэнтропии (всегда за счет расхода энергии)» (49,56).

«Что общего между эволюцией Вселенной, Солнечной системы и Земли и эволюцией биологической? Во всех случаях мы имеем дело с созданием новой информации, будь то галактики, звезды, планеты, складчатые горы или биологические виды. Новая информация создается в результате случайного выбора, возникающего при неустойчивости исходного состояния и при наличии нескольких более устойчивых состояний, среди которых и производится выбор. Создание новой информации — космологической, геологической или биологической — имеет характер фазового перехода. Это упорядочивание, происходящее не постепенно, а скачком. Так, было показано, что уравнения популяционной генетики, описывающие возникновение новых биологических видов, совпадают с уравнениями, описывающими фазовые переходы. Сходство космической и биологической эволюции этим не ограничивается. Возникновение неоднородностей — звезд и галактик — вследствие гравитационной неустойчивости означает конкуренцию и естественный отбор. Гравитационные неоднородности конкурируют друг с другом за конденсируемый материал. Космические, геологические, биологические эволюционные процессы, состоящие в структурообразовании, в возникновении порядка из первоначального хаоса, происходят в результате экспорта энтропии — ее оттока в окружающую среду. Сказанное справедливо и для отдельного организма. Он историчен в том смысле, что развивается из исходной оплодотворенной яйцеклетки и несет в своих структуре и функциях память о предшествующей биологической эволюции» (50,166).

Таким образом, создание новой информации, связанное с перераспределением энтропии и энергии, формирование новых энерго-информационных структур (см. разд. 3) — универсальный процесс актуальной действительности. Не является ли этот процесс сущностью и смыслом эволюции актуальной действительности? Той сущностью, которую человечество безуспешно пыталось определить на всем протяжении своего существования, и которая, наконец, начала осознаваться с появлением кибернетики — науки об общих закономерностях и характеристиках управления и информационной связи в живых системах, технике и обществе, основывающейся на общих законах получения, хранения и преобразования информации.

И если смысл эволюции актуальной действительности — в создании информации, в развертывании иерархии энерго-информационных структур, в негэнтропийной деятельности, то можно предположить, что предназначение человека и человечества, цель их существования — быть средством негэнтропийной деятельности на одном из этапов эволюции. Не значит ли это, что эволюционный антропоцентризм человечества — заблуждение? Не есть ли это еще один предрассудок, с которым придется расстаться?