Эволюционно-синергетическая парадигма
Термин “информация” замечателен тем, что, существующему с давних пор бытовому понятию, К.Шенноном был придан математически точный смысл. Неопределенно-бытовой смысл этого термина уже научного. Это приводило и приводит ко многим недоразумениям и спекуляциям. Интересно и то, что К.Шеннон как создатель теории информации – по существу, раздела математики , был не чистым математиком, а инженером-тео
ретиком. Поэтому его работы написаны языком ясным для понимания инженеров, естественников и даже сведущих в математике гуманитариев. Профессиональные математики проявили активность в этой области позднее, но их капитальный подход не востребован пока в приложениях, за исключением, возможно, работ А.Н. Колмогорова.
Базисным понятием всей теории информации является понятие энтропии. Энтропия – мера неопределенности некоторой ситуации. Можно также назвать ее мерой рассеяния и в этом смысле она подобна дисперсии. Но если дисперсия является адекватной мерой рассеяния лишь для специальных распределений вероятностей случайных величин (а именно – для двухмоментных распределений, в частности, для гауссова распределения), то энтропия не зависит от типа распределения. С другой стороны, энтропия вводится так, чтобы обладать, кроме универсальности и другими желательными свойствами. Так, если некий опыт имеет n равновероятных исходов, а другой опыт m равновероятных исходов, то составной опыт имеет nm таких исходов. Если мы вводим меру неопределенности f , то естественно потребовать, чтобы она была такова, чтобы во-первых, неопределенность росла с ростом числа возможных исходов, а во-вторых, неопределенность составного опыта была равна просто сумме неопределенности отдельных опытов, иначе говоря, мера неопределенности была аддитивной: f(nm)=f(n)+f(m). Именно такая удобная мера неопределенности была введена К. Шенноном:
H(X)= —P (Xi) log P (Xi),
где Х – дискретная случайная величина с диапазоном изменчивости N, P(Xi) – вероятность i – го уровня X.
В дальнейшем мы будем рассматривать Х как некоторую физическую величину, меняющуюся во времени или пространстве. Временной или пространственный ряд Xj (j – индекс временной или пространственной координаты r) будем называть, как это принято в ряде естественных наук, “вариацией”. В самой теории информации такое пространственно-временное упорядочение совершенно не обязательно, но, во-первых, анализ именно таких вариаций составляет суть всех естественных наук, во-вторых, это с первых шагов позволяет лучше ощутить смысл новых понятий. Заметим также, что если даже пространственная или временная упорядоченность величины Х в явном виде отсутствует, она неизбежно существует неявно. Например, положим, что j – номер различимой частицы, а Хj – ее импульс. Х – неупорядоченная случайная величина (ее номер j присваивается произвольно), но все эти частицы неизбежно разнесены в пространстве (раз мы можем их различить) и, при необходимости, мы можем их соединить некоторой (ломаной) осью и восстановить упорядоченность. Но для понимания проще представлять Х как сигнал, который может быть записан самописцем, как рельеф местности вдоль некоторого профиля, как пространственное распределение плотности энергии поля и т.п.
Таким образом, чтобы рассчитать H(X), берется запись вариации Xj , разность между максимальным и минимальными значениями Хj разбивается на N квантов (обычно равных разрешающей способности прибора) и подсчитывается число mi заполнения каждого i -го уровня (число благоприятных случаев). Общее число случаев M – это число пространственных или временных ячеек, опять-таки обычно определяемых разрешением прибора. В результате мы получаем распределение вероятностей P(Xi)=mi/M, которое подставляем в формулу H(x).
В теории информации в формуле для энтропии обычно используют двоичные логарифмы, тогда (энтропия и информация) измеряется в битах. Это удобно тем, что выбор между двумя равновероятными уровнями Xi (как в двоичном) сигнале характеризуется неопределенностью 1 бит. В популярной литературе иногда пользуются десятичными логарифмами и единицей энтропии является дит. В физике удобнее пользоваться натуральными логарифмами и единицей энтропии является нат (поскольку в дальнейшем наш подход существенно физический, мы также используем натуральные логарифмы). Выбор основания – лишь вопрос масштаба, в любом случае энтропия безразмерна. Возможная величина энтропии заключена в пределах:
0<= H(X)<= logN.
Заключение
1. Синергетика может быть использована как основа междисциплинарного синтеза знания, как основа для диалога естественников и гуманитариев, для кросс-дисциплинарной коммуникации, диалога и синтеза науки и искусства, диалога науки и религии, Запада и Востока (западного и восточного миропонимания).
2. Синергетика может обеспечить новую методологию понимания путей эволюции систем, причин эволюционных кризисов, угроз катастроф, надежности прогнозов и принципиальных пределов предсказуемости в экологии, экономике, социологии, геополитике. Синергетика дает нам знание о конструктивных принципах коэволюции сложных систем, находящихся на разных стадиях развития. Поэтому синергетика может стать основой для принятия обоснованных решений и предсказаний в условиях неопределенности, стохастических потрясений, периодической реорганизации геополитических структур.
Синергетика открывает принципы нелинейного синтеза: 1) наличие различных, но не каких угодно, способов объединения структур в одну сложную структуру, 2) значение правильной топологии, "конфигурации" объединения простого в сложное, 3)объединение структур как разных темпомиров, 4) возможность - при правильной топологии объединения - значительной экономии материальных и духовных затрат и ускорения эволюции целого.
3. Будучи междисциплинарной по своему характеру, синергетика позволяет выработать некоторые новые подходы к обучению и образованию, к эффективному информационному обеспечению различных слоев общества. Речь идет об образовании через обучающие компьютерные программы и дискеты, несущие новое видение мира и новые способы мышления, знание как know how, реализующие синтез результатов естественных и гуманитарных наук. Естественнонаучное образование гуманитаризируется, а гуманитарное становится невозможным без новых естественнонаучных, нелинейных математических методов исследования. Новые информационные технологии становятся необходимыми в образовании.
4. Методология нелинейного синтеза, фундированная на научных принципах эволюции и коэволюции сложных структур мира, может лечь в основу проектирования различных путей человечества в будущее. Благодаря синергетике человечество обретает философию надежды.
Синергетика с её статусом метанауки изначально была призвана сыграть роль коммуникатора, позволяющего оценить степень общности результатов, моделей и методов отдельных наук, их полезность для других наук и перевести диалект конкретной науки на высокую латынь междисциплинарного общения. Положение междисциплинарного направления обусловило еще одну важную особенность синергетики - ее открытость, готовность к диалогу на правах непосредственного участника или непритязательного посредника, видящего свою задачу во всемирном обеспечении взаимопонимания между участниками диалога. Диалогичность синергетики находит свое отражение и в характере вопрошания природы: процесс исследования закономерностей окружающего мира в синергетике превратился (или находится в стадии превращения) из добывания безликой объективной информации в живой диалог исследователя с природой, при котором роль наблюдателя становится ощутимой, осязаемой и зримой.
Другие рефераты на тему «Биология и естествознание»:
Поиск рефератов
Последние рефераты раздела
- Влияние экологических факторов на разнообразие моллюсков разнотипных искусственных и естественных водоемов
- Влияние экологии водоемов на биологическое разнообразие фауны
- Влияние фтора и фторосодержащих соединений на здоровье населения
- Влияние факторов внешней среды на микроорганизмы
- Влияние физической нагрузки на уровень адренокортикотропного гормона, адреналина, кортизола, кортикостерона в сыворотке крови спортсменов
- Временные аспекты морфогенетических процессов. Эволюция путем гетерохронии
- Вопросы биоэтики