Признаться, я невысокого мнения о философской литературе по теме "Информация".
Нетрудно видеть, что философские попытки осмысления понятия Информация провалились. Основатель направления "Философия информации" Лучано Флориди (2002) не смог предложить ничего, кроме списка надуманных вопросов (a la "сколько ангелов поместится на острие иглы"). На этом фоне, первые статьи сборника работ российского ученого В.В. Саночкина приятно удивили разумным - без мистики - подходом и полезными для практического использования выводами. Впрочем, формально, Владимир Викторович Саночкин не философ, хотя и член Российского философского общества - кандидат физико-математических наук, заместитель главного редактора журнала "Эволюция". Его основные работы представлены в сборнике "Природа информации и развития" (2004) и более новые публикации являются развитием прежних идей, так что ограничимся чтением данного сборника. К сожалению, как это обычно бывает, попытки построить "универсальную теорию всего" кончаются плохо, и последние статьи сборника выглядят так, словно созданы с использованием мультипликатора заблуждений.
Сборник разбит на восемь разделов по нескольку связанных между собой статей в каждом:
0. Предисловие
1. Что такое информация
1.1 Введение
1.2 Как хранится и передаётся информация? Информация и структура
1.3 Как возникает информация? Информация и движение
1.4 Информация и материя
1.5 Определение информации
1.6 Анализ определения информации
1.7 Доказательство универсальности определения информации
1.8 Иллюстрации применения определения информации
1.9 Заключение
2. Эквивалентность понятий 'информация' и 'структура'
3. Фундаментальная причина развития - структурная обратная связь
3.1 Естественный отбор, как универсальный механизм накопления информации
3.2 Естественный отбор - это структурная обратная связь
3.3 Структурная обратная связь и второе начало термодинамики
3.4 Некоторые следствия
3.5 Заключение
4. Структурная обратная связь и интеллект
5. Структурная обратная связь в иерархии систем
6. Основы понимания информации
6.1 Смысл и контекст информации
6.2 Создание индивидуального контекста путём осмысления информации
6.3 Необходимое условие взаимопонимания
6.4 Проверка контекста, появление и преодоление заблуждений
Во введении автор пишет: Исследования в обозначенной области находятся ещё только в стадии становления. В широкой научной общественности ещё не сложилась общепризнанная система взглядов ни на сущность информации, ни на сущность развития. ... Предложено определение информации, устраняющее эти неточности, доказана универсальность этого определения. Рассмотрены основы понимания информации. Предлагаемая концепция ясно показывает, что информация теснейшим образом связана со структурой материи и принадлежит не только её высокоразвитым формам, что информация - это такая же фундаментальная категория, как вещество или энергия. ... Полезность концепции состоит в том, что наблюдаемое в самых разных областях, можно представить, как проявление одних и тех же общих причин, рассматривать на общей основе и более компактно. Появляются новые основания применять наработанное в одной области, для решения проблем в других областях. В частности, на этой основе удалось показать универсальность принципа естественного отбора и представить его в виде положительной обратной связи.
Читаем и обдумываем. Часть выдвигаемых автором положений намеренно опущена - или как не представляющие интереса в контексте данного обсуждения, или как полностью бездоказательные (личные фантазии автора), или как заведомо неверные - нет смысла тиражировать очевидные ошибки.
1. Что такое информация
Аннотация
Проанализированы отношения информации с материей, движением и структурой. Показано, что информация возникает при сравнении свойств объектов в ходе их взаимодействия. Дано определение информации и доказана его универсальность. Приводится анализ и ряд иллюстраций применения определения.
Тезис
...приходится заключить, что достаточно общего и строгого определения нет. Большинство попыток являются, по сути, тавтологией типа "информация - это сведения", где понятие определяется через столь же неопределённый синоним. В ряде случаев продвижение в понимании достигается без общей формулировки, а определением лишь существенных для некоторой сферы знаний специальных свойств информации, в частности, количества. В других случаях, используются интуитивные представления о ней, в третьих, информацией называются созданные в рамках частных подходов абстрактные конструкции, непригодные вне этих рамок и несовпадающие между собой.
Критика
Нельзя не согласиться. Текущее состояние теории информации не имеющее даже определенного предмета исследований выглядит нестерпимым. Любой, даже незначительный, шаг в правильном направлении будет полезен.
Тезис
Суммируя непротиворечивые части упомянутых источников и собственный опыт, отметим, что информация ассоциируется с сообщением, словом, мыслью, знанием. Её можно хранить, передавать, принимать, копировать, понимать. Наиболее общепринятыми её характеристиками являются количество, содержание и смысл. Прирост количества информации приравнивается к убыли энтропии и выражается через уменьшение неопределённости в системе.
Критика
Последнее предложение дано как ссылка на литературу и отражает сложившееся со времени работы Шеннона убеждение об эквивалентности энтропии и "количества информации". Прежде всего неудачен сам (принадлежащий К. Шеннону) "маркетинговый" термин "количество информации". Для системы, имеющей несколько состояний и способной переходить из одного состояния в другое, реагируя на входной сигнал, Шеннон определяет бит (квант действия) как сигнал, достаточный для совершения простейшего выбора - ответа на вопрос "да/нет". В случае совершения нескольких последовательных выборов "количество информации" полученное системой определяется числом этих последовательных выборов.
Нетрудно видеть, что такая модель неявно предполагает существования "дерева выборов", в простейшем случае - двоичного, узлы которого упорядочены по некоторому критерию, допускающему ответ на вопрос "да/нет". Если такой критерий нельзя предоставить (узлы неупорядочены, дерево выбора не может быть построено по указанному принципу), то понятие "количество информации" теряет всякий смысл для совершения выбора.
Например, пусть задан массив из восьми чисел [1..8], N = 8. При поиске в сортированном массиве числа, заданного в указанном диапазоне, в точном соответствии с энтропийным критерием Хартли-Шеннона, достаточно LOG2(N) = 3 - трех бит информации, то есть трех последовательных выборов (ответов на вопрос "да/нет"), осуществляющих последовательную бисекцию массива. Однако, если массив неупорядочен, то поиск заданного числа, в среднем, потребует N/2 = 4 операций.
Очевидно, что энтропия бесполезна при выборе из неупорядоченного множества. В задачах обработки текста, Шеннон всюду неявно предполагает использование алфавита (алфавитно упорядоченного множества), о чем обычно, забывают, пытаясь использовать понятие энтропии в иных приложениях.
Таким образом, шенноновское "количество информации" имеет смысл только в задачах выбора из упорядоченного множества и только по заданному критерию.
Тезис
Способность сохраняться и передаваться является одним из определяющих свойств информации. ... Как мы передаём информацию? Перемещаем упомянутые носители вместе с зафиксированной в них структурой, например, посылаем по почте, или создаём переносящие информацию "самодвижущиеся" структуры из волн, модулируя звук, радиоволны, свет. ... Обобщая, можно сказать, что информация передаётся и сохраняется структурой материи и без материи существовать не может. А материя всегда имеет структуру и является носителем информации, по крайней мере, о себе, о своем состоянии.
Критика
Приведенный абзац выглядит бессодержательным. Кроме тривиального "информация передается носителем" в нем нет ничего, что, действительно, говорило бы о свойствах информации.
Законы сохранения (способность сохраняться и перемещаться), применимы только к физическим объектам. В частности, "сохранение" означает отсутствие перемещения в иное место, а "перемещение" - отсутствие сохранения в прежнем. К информации, эти качества, очевидно, не относятся: информация не может быть перемещена и может быть сколь угодно многократно скопирована без убыли в прежнем месте.
Автор должен либо дать для информации другие, собственные определения терминов "сохраняться" и "передаваться", имеющие смысл, отличный от того, что принят для физических объектов, либо использовать иные термины.
Тезис
Понятия информация и структура связаны и таким важным свойством, как новизна. Будем называть новой информацией такую, которую нельзя получить копированием, переписыванием уже имеющейся. Одна и та же информация может содержаться во многих однотипных объектах - экземплярах структуры. Появление нового экземпляра существующей структуры не означает появления новой информации. А его уничтожение не означает уничтожение информации, пока остается хотя бы один экземпляр, содержащий эту же информацию. Значит, информация принадлежит не конкретному экземпляру структуры, а соответствует абстрактной структуре, виду объектов, а конкретные объекты - экземпляры вида - соответствуют конкретным сообщениям, содержащим одинаковую информацию.
Критика
Предлагаемое определение вызывает больше вопросов, чем дает ответов.
"Понятия информация и структура связаны и таким важным свойством, как новизна. Будем называть новой информацией такую, которую нельзя получить копированием, переписыванием уже имеющейся".
Означает ли это, что любой генератор шума является бесконечным источником информации?
"Появление нового экземпляра существующей структуры не означает появления новой информации"
Иными словами, передача сообщения по каналу связи (копирование) в принципе не связана с передачей новой информации?
"А его уничтожение не означает уничтожение информации, пока остается хотя бы один экземпляр, содержащий эту же информацию".
То есть, если собрать вместе все книги мира, сунуть в герметичный контейнер и бросить в море, то мы ничего не потеряем?
Нетрудно видеть, что автор не способен избавиться от искушения рассматривать информацию как вещь (материальный предмет), для которого существуют законы сохранения, очевидно, неприменимые к информации.
Тезис
Взаимосвязь информации и несущей её структуры позволяет предположить, что любые их изменения взаимно скоррелированы. То есть изменение информации невозможно без изменения несущей структуры, а изменение структуры сопровождается изменением за фиксированной в ней информации. Например, изменение информации на этой странице потребует изменения несущей структуры из букв, и наоборот, любое изменение этой структуры изменит информацию, хотя бы о количестве или расположении букв. Если любая структура несёт информацию, то информация должна появляться при создании структур. Причём при воспроизведении структуры, например, этой страницы, информация воспроизводится, а при создании новой структуры вместе с ней появляется новая информация.
Критика
Прежде всего, заметим, что "структура" и "информация" хотя, безусловно связанные, но различные вещи. Например, если набрать этот текст другим шрифтом, то можно предположить, что его структура и связанная с текстом информация не изменятся. Но если использовать простой шифр замены (буквами другого алфавита), то информация утрачивается и недоступна без расшифровки - при полном сохранении структуры. С другой стороны, меняя форматирование (например, выписывая текст в столбик или "по улитке"), мы меняем структуру текста, но не связанную с ним информацию. Можно подобрать и другие примеры. Например, математические формулы той же самой структуры могут описывать принципиально различные законы природы. Очевидно, что шаблон (структура) не может быть отождествлен с его конкретной реализацией (инстансом) и одному и тому же шаблону может соответствовать бесчисленное количество различных реализаций.
Тезис
Основной вывод. Информация неразрывно связана со структурой материи, сохраняется и переносится материальными структурами.
Критика
Как было показано, "основной вывод" принципиально неверен. Оставшаяся часть сборника является развитием этого заблуждения, но все еще содержит вопросы, интересные для дискуссии.
1.3 Как возникает информация? Информация и движение
Тезис
Таким образом, мы пришли к выводу, что сравнение объективно происходит при любом взаимодействии. Вообще, с точки зрения причинности, любое состояние, любая текущая реальность появляется в результате предшествующего взаимодействия некоторых объектов, которое и является единственной причиной этого состояния. Поэтому, все частные процессы, влияющие на это состояние, в том числе и упомянутое сравнение, логически содержатся во взаимодействии, являются его составляющими. Этот вывод нам ещё пригодится.
Критика
Вообще говоря, нет. Во-первых, есть множество примеров систем с безразличным положением равновесия (напр. шарик на горизонтальной поверхности). Во-вторых, под это определение, видимо, не подпадает взаимодействие однородных систем (напр. смешивание двух порций той же самой жидкости или двух объемов того же самого газа).
Иными словами, приведенное определение применимо только к движению под действием разности потенциалов. Называть ли его "сравнением" - вопрос терминологии. Более важно, что такое движение подчиняется принципам стационарности действия (таким, как принцип наименьшего действия Гамильтона), о чем в приводимом определении ничего не сказано.
Тезис
Завершая эту часть рассуждений, расставим затронутые понятия в соответствии с выявленными отношениями: взаимодействие объектов содержит в себе сравнение их свойств и, поэтому, является объективной причиной возникновения в системе, составленной этими объектами, не только текущего реального состояния, но и соответствующего ему текущего содержания информации.
Критика
Положение выглядит бессодержательным: изменение состояния, как мы видели, не всегда требует сравнения, а что такое "текущее содержание информации" и как оно связано с состоянием остается неопределенным. С другой стороны, информацию невозможно отделить от изменения состояния - это единственное, что меняется в системе в качестве реакции на воздействие, так что в отсутствие учета переноса физического агента, "изменение состояния" и "информация" могут рассматриваться как синонимы
Тезис
Однако существует довольно распространенное мнение, что информация возникает в результате выбора. Впервые эту гипотезу выдвинул Г. Кастлер в 60-х годах XX века на основании факта появления генетической информации в процессе естественного отбора. ... эта гипотеза рассматривается на примере путника, стоящего на развилке без указателя и не знающего, по какой из двух дорог можно попасть в пункт "А", притом, что другая дорога ведёт в пункт "Б". Утверждается, что информация возникает в момент выбора путником одной из дорог, а в качестве критерия возникновения информации берется то, что путник, побывав в любом из этих пунктов, может на обратном пути установить на развилке указатель. Соглашаясь с критерием, покажем, что основное утверждение ошибочно.
Для этого, во-первых, уточним, что приведённому критерию соответствует информация о том, на какой дороге расположен пункт "А". И, во-вторых, для определённости условимся, что единственная информация, которой путник обладает о пункте назначения - это его название. Пусть путник начал движение по выбранному пути, но с полдороги вернулся к развилке. Может он установить указатель? Нет. Значит, в момент выбора указанная информация не появилась! Искомая информация не возникла, даже тогда, когда путник уже дошел до какого-то пункта, но ещё не знает до какого из них. Путник должен узнать у местных жителей или по входной вывеске, как называется этот пункт, и сравнить ответ с известным ему названием пункта назначения. Только после сравнения путник сможет, наконец, сказать, на какой дороге расположен пункт "А", и на обратном пути установить указатель.
Таким образом, искомая информация появилась при сравнении, а не при выборе. Этот вывод не зависит от вида имевшейся у путника исходной информации о пункте назначения. Искомая информация появляется при сравнении предварительно имевшихся данных с полученными на месте, и, подчеркнём ещё раз, не является непосредственным результатом какого-либо выбора.
Заблуждение Г. Кастлера не случайно и объясняется следующими соображениями. Семантика понятия "выбор" связывает с ним основание выбора, которым обычно и является информация, а так же результат выбора - реализованное состояние некоторой системы. Являясь причиной возникновения состояния, выбор, так же как и сравнение, содержится во взаимодействии. Отсюда, учитывая, что информация для сравнения выступает результатом, а для выбора - основанием, можно заключить, что смысл взаимодействия состоит в сравнении текущих свойств объектов, и выборе их нового состояния из множества потенциально возможных на основании полученной при сравнении информации. То есть, в соответствии со смыслом понятий функции разделены: сравнение создаёт информацию, а выбор реализует её.
Критика
"Таким образом, искомая информация появилась при сравнении, а не при выборе. Этот вывод не зависит от вида имевшейся у путника исходной информации о пункте назначения. Искомая информация появляется при сравнении предварительно имевшихся данных с полученными на месте, и, подчеркнём ещё раз, не является непосредственным результатом какого-либо выбора".
С этим выводом (выбор - реализация сравнения) нельзя не согласиться: информация появляется как результат измерения (сравнения прогноза и реальности), в точном соответствии с классической моделью Шеннона (информация, как ошибка прогноза).
Тезис
Таким образом, и в природе, и в любой голове, которая, кстати, тоже является частью природы, информация появляется и изменяется в результате сравнения свойств объектов в процессе их взаимодействия и фиксируется следствием взаимодействия. Можно сказать, что причина отражается в следствии в виде информации о причине.
Критика
Исключая терминологию, нет возражений. В более привычных терминах это можно сформулировать так: "Деформация системы является реакцией на приложенное воздействие". В частном случае мы имеем закон Ома (или его аналог, второй закон Ньютона, например), в общем случае - термодинамическую тройку: произведение реакции системы на ее резистанс равно приложенному воздействию.
Тезис
Основной вывод. Информация возникает и изменяется вместе с несущей её материальной структурой в едином движении, как результат сравнения свойств объектов в процессе их взаимодействия. Это происходит везде и постоянно, и в живом, и в неживом.
Критика
Нет возражений. Информация - всегда "тень" реального физического процесса, удобная абстракция при пренебрежении массо-энергетическими характеристиками взаимодействия. Если мы отказываемся учитывать перенос материи/энергии, то вынуждены изобрести "информацию" для объяснения причин происходящих изменений.
1.4 Информация и материя
Тезис
Как уже отмечено, информация ассоциируется с такими понятиями как слово, сообщение, знание, мысль. Все они относятся к области идеального. Вместе с ними резонно отнести к идеальному и информацию.
Критика
Нет возражений. Информация - это идеальный объект, возникающий при описании абстракции реального физического взаимодействия.
Тезис
Таким образом, информация - не материя и даже не её свойство, однако, не может существовать без материи, и неразрывно связана с её структурой и движением. В соответствии с законом единства и борьбы противоположностей, у материи тоже должна быть неразрывно с ней связанная диалектическая противоположность - нечто нематериальное, что традиционно обозначают словом "идея". Более на эту роль подходит термин "информация", так как идея - это тоже информация.
Критика
Кажется, это место - диалектической противоположности материи уже занято - энергией.
1.5 Определение информации
Тезис
Что касается классической теории информации, а точнее, теории связи, основанной на работах К. Э. Шеннона, то в ней через изменение неопределённости определяется не сама информация, а её мера или количество. Для удобства изложения слово "количество" часто опускается, что искажает смысл и дезориентирует читателя.
Критика
Кажется, термин "количество информации" дезориентирует, даже если слово "количество" не было опущено. Что касается самой этой меры - информационной энтропии, то (без всякой связи с "информацией") ее значение далеко выходит за пределы теории связи, являясь универсальным для произвольных фрактальных систем ("фрактальная плотность") и, в частном случае, для текстовых фракталов.
Тезис
ИНФОРМАЦИЯ - это существующие на материальном носителе соотношения свойств объектов, определённые в момент сравнения свойств (взаимодействия) этих объектов.
Критика
Нет возражений. Информация - всегда результат процесса измерения.
1.6 Анализ определения информации
Тезис
Фиксация на материальном носителе - это существенный признак. Он отражает диалектическую связь информации и материи, их влияние друг на друга, возможность создавать, сохранять и копировать информацию путём взаимодействия материальных объектов.
Критика
Термин "Фиксация" представляется неудачным, создавая ложное впечатление об информации, как о чем-то, что "содержится" в материальном носителе. На самом деле информация возникает в процессе измерения параметров этого носителя и не существует ни в какой другой момент, кроме как в сам момент измерения. "Хранение" информации означает просто деформирование другого носителя так, что измерение его параметров приведет к получению той же самой информации. Иными словами (опираясь на шенноновскую модель коммуникации), информация не хранится в канале связи. Канал связи - это просто копир, способный к воспроизведению информации на физическом носителе той же или иной природы.
Тезис
Простейший, элементарный случай получения информации - это сравнение двух объектов по одному свойству - элементарное сравнение. Получаемый при этом 1 бит информации определяет альтернативу: больше или нет интенсивность свойства у одного объекта по сравнению с другим объектом. Каждое новое элементарное сравнение добавляет 1 бит информации. Минимальное число элементарных сравнений, необходимых для получения некоторой информации, определяет количество этой информации в битах. Сочетая элементарные сравнения и, например, метод дихотомии, можно уточнять соотношения свойств и выражать их в числах. Чем больше разных сравнений, тем больше информации, тем точнее известно соотношение. К этому сводится любое измерение.
Критика
Автором упущен важный момент дихотомическое сравнение (бисекция пространства состояний) требует упорядоченного множества (например, по критерию меньше-больше). Если отношение порядка не задано, то такой выбор невозможен.