Алексахин Игорь Васильевич : другие произведения.

Двухканальное управление как следствие оптимизации существования

"Самиздат": [Регистрация] [Найти] [Рейтинги] [Обсуждения] [Новинки] [Обзоры] [Помощь|Техвопросы]
Ссылки:


 Ваша оценка:
  • Аннотация:
    Математическое доказательство наличия двух каналов, по которым информация о среде поступает в систему научных и производительных сил мира.


   Математическое доказательство наличия двух каналов, по которым информация о среде поступает в систему научных и производительных сил мира.
  
   И.В.Алексахин.
  
  
   Двухканальное управление
   как следствие оптимизации существования.
  
   Принцип двухканального управления, как следствие принципа оптимальности
  
   Рассматриваются системы минимизирующие расход энергии при получении и хранении информации на заданном интервале времени. Показано, что наличие двух каналов информации у систем, развивающихся в нестационарной среде, и Принцип двухканального управления являются следствием Принципа оптимальности (Принципа наименьшего действия). Получены зависимости, связывающие характеристики этих систем.
   Результаты могут быть использованы при проектировании счетно-решающих машин и комплексов, получающих и хранящих информацию, при анализе процессов получения хранения и переработки информации.
  
   Ранее [15], [16] было показано, что системы, развивающиеся в нестационарной среде, с необходимостью специализируют два канала получения информации от среды. Это положение было названо "Принцип двухканального управления" и отнесено к основополагающим принципам кибернетики. Канал первого рода хранит и передаёт информацию о прошлом опыте взаимодействия системы со средой (стратегическая память). Канал второго рода передаёт информацию о современном опыте (тактическая память). Два канала информации существуют и могут быть обнаружены в каждой достаточно совершенной системе, развивающейся в нестационарной среде: в народном хозяйстве, в биологической клетке организма, в производственном коллективе, в сознании человека, идущего по людной улице, в учебном заведении, в артистической труппе, в футбольной команде и т.п. Особенно ярко описанный принцип проявляется в живых биологических системах (В.А.Геодакян: [13] - 1965 г. и другие работы), существующих и совершенствующихся миллионы лет. Женский пол несёт потомку бесценную генетическую информацию о прошлом опыте поколений её рода, мужской - о его личном опыте взаимодействия со средой. (Естественно, потоки информации от родителей к потомку не ограничены вышесказанным). Исходя из "Принципа двухканального управления", авторам [15], [16], использующим статистику биографических данных выдающихся личностей, удалось обнаружить влияние возраста родителей на способности потомка.
   Ниже приводится математическое исследование процесса развития научных сил человечества. Показано, что известный экспоненциальный рост потока знаний, соответствующий линейному росту потока информации, является следствием действия "Принципа двухканального управления", то есть, в самой системе научных сил человечества математически обнаруживаются два канала информации. А сам "Принцип двухканального управления" является следствием физического "Принципа наименьшего действия" или математического "Принципа оптимальности", то есть, развивающиеся системы потому и специализируют два канала информации, что это им энергетически выгодно.
   Отсюда следует очевидный частный вывод: два пола живого мира потому и существуют, что это энергетически выгодно популяциям, развивающимся в нестационарной среде. В том же случае, когда среда для данной популяции является стационарной, живая система довольствуется одним каналом информации и размножается "почкованием".
   Таким образом, приведённый ниже текст - это (опубликованное ранее [16]) математическое доказательство Принципа двухканального управления [15], [16], [17], частным случаем которого является эпохальное открытие В.А.Геодакяна [13].
  
  
   1. Постановка задачи
   Рассмотрим научные силы человеческого общества как некоторую систему. Среду, которую исследует эта система, будем характеризовать, исходя из понятия разнообразия ее элементов, понятия введенного [1] У.Р. ЭШБИ в 1959 году. Разнообразие - это отличие элементов некоторого множества друг от друга. Если все элементы среды одинаковы, то разнообразие множества равно нулю. Максимальное разнообразие данного множества предполагает, что каждый элемент отличен от любого другого элемента. Очевидно, что, при бесконечном количестве отличающихся друг от друга элементов, разнообразие множества бесконечно.
   Разнообразие, таким образом, это объективное свойство материальных систем [2]
   При познании бесконечной среды системой происходит "ограничение действительно существующего разнообразия" [2]. Некоторая конечная часть объективного разнообразия воспринимается системой и выступает как субъективное разнообразие, как знание. Субъективное разнообразие может быть измерено двоичным логарифмом мощности множества элементов познанного разнообразия. Этот логарифм суть информация (I) по Эшби [1], измеряемая в битах.
   Развитие науки принято описывать потоком знаний, т.е. массой знаний, добываемым человечеством в единицу времени. Поток знаний обычно связывается с такими параметрами как:
  -- общее число научных журналов в мире;
  -- общее число реферативных журналов в мире;
  -- число публикаций по отдельным отраслям науки;
  -- число публикаций в реферативных журналах и др.,
   при этом предполагается прямая пропорциональность потока знаний и значений названных характеристик.
   Статистический анализ этих и других параметров за последние триста лет, проведенный многочисленными авторами как специальных [3], [4], [5], [6], [7], [8], так и обзорных /в этой части/ [9], [10], [11] работ, показывает, что, по крайней мере, со времен Ньютона, поток знаний /S/ растет в соответствии с экспоненциальной зависимостью вида
  
    [], /1/
  
   где: t - время;
   S0 - поток знаний в момент t=t0;
   k - постоянная экспоненты.
   Соответствующий поток информации ( []) от среды к системе определяется как двоичный логарифм мощности множества элементов разнообразия среды, познаваемых системой в единицу времени.
  
    []. /2/
  
   Используя выражение /1/, получаем
  
    [], /3/
  
   где:
  
    [] , /4/
  
    [] . /5/
  
   На рис. 1, 2 приведены примеры зависимости потока информации от времени.
  
    []
  
   Рис. 1. Рост численности научных публикаций по естественным наукам [11]
   (Всего 6 млн. публикаций).
  
    []5b
  
   Рис. 2. Рост публикаций в реферативном журнале "Chemical Abstracts" (из [8]).
  
   Пусть I0 и I - количества информации в памяти системы в моменты времени t0 и t, соответственно. Будем полагать, что информация, поступившая в систему на интервале времени / t0, t/ сохраняется в ее памяти на этом интервале. Тогда, в соответствии с /3/
  
    []. /6/
  
   Можно говорить о движении рассматриваемой системы в одномерном пространстве /о I/ информации со скоростью  [], являющейся линейной функцией времени /3/. Движение системы характеризуется постоянством ускорения
  
    [] . /7/
  
   Что побуждает рассматриваемую систему следовать закону /7/? При решении этого будем опираться на принцип оптимальности, так широко используемый в современной физике (см., например, [12]). Сущность принципа оптимальности в его простейшей формулировке заключается, как известно, в следующем: из всех возможных траекторий, соединяющих две точки пространства и обеспечивающих переход из одной точки в другую за заданный промежуток времени, выбирается траектория, которая требует наименьших затрат.
   В рассматриваемом случае необходимость развития производства ставит перед научными силами общества задачу получения определенного количества информации I2 - I1 в течение заданного промежутка времени t2 - t 1.
   Предложим, что существующая организация систем научно-исследовательских учреждений позволяет перейти из точки t1I1 на плоскости 0tI в точку t2 I2 по любому из путей, соединяющих эти точки /см. рис. 3/.
  
    []
  
   Рис.3.
   Очевидно, что каждому из этих путей можно поставить в соответствие цену - затраты некоторой величины, которую система должна экономить. Пусть это будет, например, энергетические затраты на переход из состояния t1I1, в состояние t2I2.
   Прямая задача вариационного исчисления состоит в том, чтобы найти такой путь, цена которого была бы минимальна.
   В рассматриваемой задаче вид оценочной функции траекторий ведущих из точки t1I1, в точку t2 I2 неизвестен. Зато известен закон /7/, по которому на практике совершается этот переход. Исходя из предположения, что рассматриваемая система минимизирует свои затраты на переход, найдем вид функционала, определяющего эти затраты и достигающего минимума на действительной траектории /6/ перехода.
   В общем виде этот функционал может быть записан как интеграл
  
    [], /8/
  
   который принимает экстремальное значение /если экстремум существует/ при условии справедливости уравнения Эйлера-Пуассона [14]
  
    []. /9/
   Зависимость /9/ - дифференциальное уравнение порядка n, описывающее, наряду с траекторией /6/, движение системы. Сопоставляя их и учитывая постоянство ускорения /7/, можно упростить задачу и, заведомо пренебрегая при анализе эффектами более высокого порядка, ограничиться случаем n = 1. Интеграл /8/ и уравнение /9/ принимают вид:
  
    []. /10/
  
    []. /11/
  
   Задача состоит в том, чтобы найти ядро P функционала /10/, показать, что этот функционал достигает минимума на траектории /6/ и проанализировать полученное решение с точки зрения его физической и информационной сущности.
  
  
   2. Минимизируемый функционал
   Уравнение Эйлера /11/, при условии справедливости которого, функционал /10/ достигает экстремума, представим в виде
  
    []. /12/
  
   Беря частную производную от этого выражения, по  [], получаем
  
    [], /13/
  
   или
  
    []. /14/
  
   Это выражение есть полная производная по времени от функции в скобках, то есть
  
    []. /15/
  
   Учитывая зависимость функции P от  [], находим:
  
    [], /16/
  
   Дифференцируя /11/ по  [] и учитывая равенство /15/ , получаем
  
    [], /17/
  
   то есть,
  
    []. /18/
  
  
   Дифференцируя /11/ по  [] и учитывая равенство /18/, имеем
  
    [] /19/
  
   и
  
    []. /20/
  
   Интегрируя выражение /20/, находим
  
    []. /21/
  
   Однако, продифференцировав зависимость /21/ по  [] , в соответствии с равенством /18/, справа также получим нуль, что свидетельствует о независимости функции  [] . Таким образом,
  
    []. /22/
  
   Интегрируя выражение /22/ по  [] , получаем
  
    []. /23/
  
   Дифференцируя выражение /23/ дважды по  [] и используя равенство /16/, имеем
  
    [] . /24/
  
   Интегрируя полученную зависимость /24/ дважды и учитывая независимость функции  [] от  [] , получаем
  
    [], /25/
  
    []. /26/
  
   Подставляя зависимость /26/ в выражение /23/, имеем
  
    []. /27/
  
   Постоянная  [] и функции времени  [] это параметры системы, получающей информацию от среды и хранящей эту информацию на отрезке времени  [], точнее, это параметры, связывающие систему и среду, это параметры отношений системы и среды.
   Таким образом, функционал /10/ принимает вид
    []. /28/
  
   Вторая вариация интеграла /28/ определяется [14] выражением
  
    [], /29/
  
   где h(t) - произвольное приращение функции I, но такое, что  [] .
   Следовательно, экспериментальное значение функционала соответствует его минимуму при  [] и максимум при  [].
  
  
   4. Два канала информации
   Прежде всего, отметим, что из физических, информационных соображений, подынтегральную функцию выражения /28/ можно разделить на три слагаемых. Расход энергии делится на три потока.
  
    [], /30/
  
   где
  
    []  
  
    []  
  
    [] . /33/
  
   Первое слагаемое связано с количеством информации ( []), поступившей в систему и хранимой в памяти системы. Второе слагаемое связано с величиной потока информации ( []), поступающей в систему на интервале времени /t1, t2/. Следовательно, первое слагаемое - это энергия, израсходованная на хранение информации системой, второе - энергия, израсходованная на получение информации.
   Третье слагаемое не связано ни с количеством, ни с потоком информации, и интерпретируется, как энергия идущая на обеспечение работоспособности системы, на обеспечение готовности системы получать и хранить информацию. Эта энергия потребляется системой даже в том случае, когда количество информации в памяти системы и поток поступающей информации равны нулю.
  
   Распределение энергии между количеством информации полученной системой и потоком информации в систему свидетельствует о наличии двух каналов, по которым развивающаяся система обеспечивает себя информацией, или, точнее, свидетельствует о наличии двух каналов, по которым среда управляет развивающимися системами. Первый канал поставляет информацию "из прошлого", это - память системы, хранящая концентрат прошлого опыта системы. Второй канал - это те органы системы, которые непрерывно поставляют информацию "из настоящего" о новых изменениях, происходящих в среде. Наличие таких каналов можно проследить в любой системе, развивающейся в нестационарной среде[15], [16], [17] и, прежде всего, в живых системах [13] .
   Пусть функционал измеряется в джоулях. Тогда размерность подинтегральной функции дж/сек. Ядро /P/ функционала - это мощность системы, идущая на получение и хранение информации.
   Дальнейший анализ справедлив для любой развивающейся системы, доля мощности которой, расходуемой в процессе хранения информации пропорциональна количеству информации в памяти системы
  
    []  
  
   а доля мощности расходуемой в процессе получения информации пропорциональна квадратичной функции потока информации, поступающей в систему
  
    []  
  
  
   5. Физический смысл параметров.
   Выясним физический смысл функций:  [].
   Из выражения /34/ следует
    [] . /36/
  
   Следовательно,  [] - это мощность системы предназначающаяся для хранения в памяти одного бита информации, или  [] это количество энергии, расходуемое системой для сохранения 1 бита информации в течение 1 секунды.
   Таким образом,  [] - есть некоторый конструктивный параметр системы, определяющий степень совершенства ее памяти. В дальнейшем, для краткости, будем называть этот параметр напряжением памяти системы. Очевидно, чем меньше напряжение памяти, тем меньше секундный расход энергии идущий на хранение 1 бита, тем выше совершенство памяти системы.
   Рассмотрим выражение /35/ - cекундный расход энергии обеспечивающий получение информации. Дифференцируя его по  [], получаем
    [] . /37/
  
   Выражением /37/ определяется расход энергии системой на получение 1 бита информации. В дальнейшем, для краткости, будем называть его напряжением познания системы.
   Как следует из формулы /37/, расход энергии на получение одного бита пропорционален потоку информации. То есть, чем больше поток информации, тем больше цена за каждый новый бит, тем труднее системе получить каждый новый бит. С уменьшением потока информации цена каждого нового бита уменьшается, но не достигает нуля и остается конечной величиной даже в том случае, когда поток информации сравняется с нулём.
   На что же расходуется эта энергия? Что вообще значит "получить n битов информации от среды"?
   Разнообразие среды бесконечно. Система, в силу своей ограниченности на данный момент времени, не способна получить информацию обо всем этом разнообразии. Она ограничивает его и исследует только конечное множество элементов разнообразия в виде объекта, отбрасывая остальное как беспорядок, как шум.
   Шум всегда имеет место вследствие ограниченности познавательных способностей системы. Следовательно, шум среды зависит от уровня этих способностей. Шум характеризует степень сложности среды относительно познавательных способностей системы. С другой стороны, величина, обратная шуму, характеризует уровень познавательных способностей системы относительно степени сложности среды. Бессмысленно говорить о сложности среды как о чем-то абсолютном, независящем от совершенства познающей системы. Точно так же, бессмысленно говорить о совершенстве системы, взятой вне среды.
   Система производит работу по выделению информации из разнообразия среды. Она затрачивает энергию и отфильтровывает нужные ей биты из шума. Количество энергии, расходуемой на получение 1 бита и определяемое выражением /37/, идет на работу против шума, в результате возникает поток информации. Следовательно, в правой части первого равенства /37/ должен быть параметр, характеризующий шум. Этот параметр
  
    []. /38/
  
   Для данной системы шум среды характеризуется напряжением познания системы, обеспечивающим получение 1 бита информации в 1 секунду. Его размерность
  
    []. /39/
  
   1 шум для данной системы это уровень сложности такой среды, в которой система получает 1 бит в секунду, затрачивая 1 джоуль на каждый полученный бит.
   Обратно, уровень способности познания системой окружающей ее среды будет характеризоваться некоторым параметром обратным шуму. Назовем его относительным уровнем организации системы, обозначив (w). Из определения следует
  
    []. /40/
  
   Уровень организации системы относительно данной среды определяется количеством битов информации, получаемый системой в 1 секунду при затрате 1 джоуля энергии на каждый бит. Размерность параметра
  
    []. /41/
  
   Система с относительным уровнем организации в 1 орг получает от среды 1 бит информации в 1 секунду при затрате 1 джоуля на каждый бит.
   Предложим, что система А и система В получают от одной и той же среды 1 бит в 1 секунду. Затраты энергии при этом на 1 бит: системой А - 1 джоуль, и системой В - 2 джоуля. Тогда шум среды для систем А
  
    [],
  
   а для системы В
  
    [] .
  
   Уровень организации системы А относительно среды
  
    [],
  
   а системы В относительно той же среды
  
    [].
  
   Функция  [] имеет размерность напряжения познания системы /37/ и определяет расход энергии системой на получение 1 бита информации.
  
    [] /42/
  
   Таким образом, в отличие от конструктивного параметра  [],
   характеризующего чисто внутреннее совершенство системы, параметры  [] характеризуют внешнее совершенство системы, т.е. соотношение между сложностью разнообразия среды и совершенством системы.
   Из физического смысла параметров  [] следует, во-первых, что они неотрицательны. Отрицательные значения этих параметров означали бы, что процессы получения и хранения информации происходят не с затратой, а с получением системой энергии.
   Во-вторых, процесс хранения информации может протекать без затраты энергии, как, например, в случае сохранения высеченной на камне надписи, или в случае хранения с помощью перфокарт программы работы электронно-вычислительной машины. Следовательно
  
    [] /43/
  
   В третьих, процесс получения информации требует обязательно затраты энергии системой. Получение информации без энергетических затрат означало бы, что разнообразие среды имеет нулевую сложность относительно познающей ее системы. Такое соотношение между системой и средой может иметь место в случаях, когда разнообразия среды либо не существует, либо это разнообразие полностью познано системой. Очевидно, что при этом отсутствует сама необходимость получения информации. Отсюда следует ограничение
  
    [] /44/
  
   Таким образом, вторая вариация /29/ функционала /28/
  
    [] /45/
  
   и экстремальное значение функционала соответствует его минимума. Этот минимум обеспечивается при неограниченном источнике энергии.
  
   Наконец, параметры [] могут связывать с информацией не только энергию, но также и другие затраты системы, обеспечивающие получение и хранение информации. Это может быть, например, годовой расход денежных средств в рублях, или количество людей занятых ежегодными научными исследованиями. В этих случаях размерности  [] , соответственно, меняются.
  
  
   6. Развитие оптимальной системы
   Остановимся на ситуации, когда отношения системы и среды стабильны на исследуемом отрезке времени, математически это означает независимость параметров  [] от времени. В этом случае систему назовём оптимальной.
   Функционал /28/ принимает вид
  
    [] . /46/
  
   Подставляя его ядро
  
    [] /47/
  
   в уравнение /11/, получаем закон
  
    [] , /48/
  
   или
  
    []. /49/
  
   Скорость изменения во времени потока информации, поступающего в оптимальную систему прямо пропорциональна напряжению памяти системы и обратно пропорциональна шуму среды.
   Сделанный вывод вносит некоторую ясность в причины безудержного роста потока информации, обрушивающегося на современное общество. Математически этот рост имеет место, если выполняются неравенства
  
    [] /50/
  
    [] /51/
  
   Остановимся на неравенстве /50/. Оно означает, что рост потока информации будет продолжаться, пока система будет тратить энергию на хранение информации. Чтобы разобраться в сделанном заключении вернемся к постановке задачи. Система получила задание: на интервале времени /t1, t2/ обеспечить прирост информации I2-I1. Какая траектория, из числа изображенных на рис. 3, будет экономичнее в смысле расхода энергии? Очевидно, что чем выше проходит траектория, тем больше расход энергии на хранение информации. Высокие траектории бессмысленны, поскольку информация будет нужна только в момент t2. С другой стороны слишком вогнутая кривая потребует мало энергии на хранение информации, но зато приведет к значительным расходам на получение информации в конце интервала /t1, t2/. (Студент, не желающий тратить энергию на хранение информации во время учебного семестра, вынужден интенсифицировать процесс получения знаний с началом экзаменационной сессии). Оптимум достигается на квадратичной параболе, определяемой зависимостью /6/.
   Из выражений /7/ и /48/ вытекает
  
    []. /52/
  
   Таким образом, показатель степенной функции исходного выражения /1/ есть не что иное, как отношение (с коэффициентом ln2) напряжения памяти системы к шуму среды.
   Если выполняется равенство
  
    [] , /53/ т.е. система не тратит энергии на хранение информации в памяти (студент знает, что на экзамене он сможет зачитать ответ по конспекту), то ядро /47/ минимизируемого функционала /46/ принимает вид
  
    []. /54/
  
   Соответствующее уравнение Эйлера /11/, описывающее закон движения, превращается в равенство
  
    []. /55/
  
   Поток информации, поступающий в оптимальную систему, сохраняет постоянное значение, если система не тратит энергии на процесс хранения информации.
   Переход системы из состояния t1I1 в состояние t2I2 произойдет по прямой /рис.3/. Минимум расхода энергии соответствует постоянству потока / []0x01 graphic
/ получаемой информации, величина которого определяется уже в начальной точке интервала /t1, t2/ очевидным условием
  
    []. /56/
  
   Если  [], то из равенства /52/ следует, что k = 0 и поток знаний /1/ постоянен
  
   S=S0. /57/
  
   (Студент, уверенный в возможности использовать шпаргалку, не интенсифицирует работу при приближении экзаменационной сессии).
  
   Обратимся к неравенству /51/. Чтобы уяснить его смысл рассмотрим обратный случай
  
    [] /58/
  
   Из выражения /37/ следует, что в этом случае расход энергии на получение одного бита информации бесконечен, т.е. система, отдав всю энергию /запас которой конечен/ не сможет отфильтровать из шума среды ни одного бита. Таким образом, в случае выполнения условия /58/ не только,  [] , но и  [] . Поток информации постоянен и равен нулю
  
  
   7. Напряжение познания и расход энергии на хранение информации
   Из зависимости /37/, получаем
  
    [] /59/
  
   Поток информации прямо пропорционален напряжению познания и обратно пропорционален шуму среды.
  
   При условиях стабильности отношений системы и среды, то есть, при постоянстве параметров  [], уравнение /37/ имеет вид
  
    []. /60/
  
   Для конечного отрезка времени /t0, t/ имеем
  
    []. /61/
  
   Записав закон /48/, /49/ развития оптимальных систем в виде
  
    [] /62/
  
   и интегрируя уравнение /62/ на конечном отрезке времени /t0, t/, получаем
  
    [] . /63/
  
   Сопоставляя выражения /61/ и /63/, имеем
  
    []. /64/
  
   Изменение напряжения познания оптимальной системы на заданном интервале времени равно расходу энергии на хранение одного бита информации на этом интервале.
   Если оптимальная система не тратит энергии на хранение информации ( [] ), то напряжение познания не зависит от времени
  
    []. /65/
  
  
   8. Мощность оптимальной системы
   Мощность оптимальной системы определяется ядром /47/ функционала /46/.
   Подставив выражения /3/ и /6/ в зависимость /47/, получаем
  
    [] , /66/
  
   где:
  
    [] - начальная мощность, /67/
  
    [] - начальная скорость увеличения мощности, /68/
  
    [] - начальное ускорение увеличения мощности. /69/
  
   Таким образом, мощность системы увеличивается со временем, в соответствии с зависимостью /66/, аналогичной зависимости /6/ от времени количества информации в памяти системы.
  
   Продифференцировав выражение /47/, получаем
  
    []. /70/
  
   Используя закон /48/, выражение /70/ можно переписать в виде
  
    []. /71/
  
   Интегрируя правые части выражений /70/, /71/, можно записать
  
    [], /72/
  
    [] . /73/
  
   Приравняв правые части выражений /72/, /73/
  
    [] , /74/
  
   получаем
  
    []. /75/
  
   Следовательно,
  
    []. /76/
  
   Таким образом, в оптимальной системе разность той части используемой для получения информации мощности, которая соответствует квадратичному члену ядра /47/, и мощности, расходуемой на хранение информации, остается постоянной.
  
   Если начальное количество информации в памяти системы и начальный поток информации равны нулю, то
  
    []. /77/
  
   Та часть расходуемой на получение информации мощности, которая соответствует квадратичному члену ядра /47/, равна мощности, используемой для хранения полученной информации.
  
   Отметим, что, в оптимальной системе, мощность /34/, расходуемая на хранение информации, растёт, с течением времени, так же, как и количество информации /6/ в памяти, то есть, по квадратичной зависимости от времени. Мощность /35/, расходуемая на получение информации, так же растёт по квадратичной параболе, хотя поток информации /3/, поступающей в систему, зависит от времени линейно.
  
   9. Резюме
   Мы показали, что система научно-производительных сил общества оптимизирует своё существование, это выражается в минимизации энергетических затрат системы на получение и хранение необходимой для развития информации. Эта минимизация достигается реализацией Принципа двухканального управления. Действие этого Принципа обнаруживается практически во всех системах: [13], [15], [16], [17], {18], то есть, практически, все системы оптимизируют своё существование. А что есть разум, как не оптимизация существования?
  
  
   Днепропетровск.
   1972.
  
  
  
  
   ЛИТЕРАТУРА.
      -- 1. У. З. Эшби. "Введение в кибернетику". М., 1959.
      -- 2. А. Д. Урсул. "Информация". Наука. М., 1971, стр. 80-95.
      -- 3. D. I. Price. "Archives Internationales d'Histore des Sciences. 30, N14, 85. 1953.
      -- 4. D. I. Price. "The exponential curve of Sciences". Discovery 17, N 6, 240. 1956.
      -- 5. R. H. Ewell. "Chemical and Engineering News" 33, 29, 2980. 1955.
      -- 6. National Science Foundation. 13th Annual report. NSF-64-1. 1963. p. 132.
      -- 7. М. М. Карпов. "Закон ускоренного развития естественных наук". "Вопросы философии" N4. 1963. стр. 106-111.
      -- 8. А. И. Михаилов, А. И. Чёрный, Р. С. Гиляревский. "Основы научной информации". Наука. М., 1965.
      -- 9. Г. Э. Влэдуц, В. В. Налимов, Н. И. Стяжкин "Научная и техническая информация как одна из задач кибернетики". УФН. 1959. Сентябрь. Т. 69. Вып.1, стр. 13-56.
      -- 10. Г. М. Добров "Наука о науке". "Наукова думка". Киев. 1966. стр. 21-66.
      -- 11. D. I. Price. "Networks of Scientific papers". "Science", 30. У11, 1965. Vol.149, page 510-515.
      -- 12. Л. Д. Ландау и Е. М. Лифшиц. "Механика. Электродинамика". Наука. М., 1969.
      -- 13. В.А.Геодакян. "Роль полов в передаче и преобразовании генетической информации". В книге "Проблемы передачи информации", т.1, вып.1. М., 1965.
      -- 14. И. М. Гельфанд и С. В. Фомин. "Вариационное исчисление". Физматгиз. М.,1961, стр.47, 98-100.
      -- 15. И. В. Алексахин, А. В. Ткаченко. "Принцип двухканального управления". В книге "Системные исследования. Ежегодник". Наука. М., 1976, стр.171-182.
      -- 16. И. В. Алексахин, А. В Ткаченко. "Когда рождаются таланты". АДП. Днепропетровск. 1997, 1998, 1999, 2001, 2002, 2003, 2004, 2005, 2006. Тир.1000. стр. 30-100, 148-162.
      -- 17. И. В. Алексахин. "Два пола - два канала информации". www.lib.ru , http://zhurnal.lib.ru/ , И.В.Алексахин, Статья, 2006. 7 стр.
      -- 18. И. В. Алексахин, А. В Ткаченко. Монография. "Когда рождаются таланты". Международная академия биоэнерготехнологий, Крымский институт ноосферы, Конструкторское бюро "Южное". Издательство "Монолит". Днепропетровск. с.203. 2009. Тир. 200.
      
      
      
      
      
      
      
      
      
      
      
      
      
      
       16
      
      
      
      

 Ваша оценка:

Связаться с программистом сайта.

Новые книги авторов СИ, вышедшие из печати:
Э.Бланк "Пленница чужого мира" О.Копылова "Невеста звездного принца" А.Позин "Меч Тамерлана.Крестьянский сын,дворянская дочь"

Как попасть в этoт список
Сайт - "Художники" .. || .. Доска об'явлений "Книги"