close

Вход

Забыли?

вход по аккаунту

?

Об определении меры упорядоченности искусственных систем.

код для вставкиСкачать
УДК 004
В.Х. ФЕДОТОВ
ОБ ОПРЕДЕЛЕНИИ МЕРЫ УПОРЯДОЧЕННОСТИ
ИСКУССТВЕННЫХ СИСТЕМ∗
Ключевые слова: искусственная система, упорядоченность, мера, искусственный
интеллект, экспертные системы, экономика, техника, самоорганизация, критерий эволюции, интенсивность, энтропия.
Рассмотрены проблемы выбора критериев оценки упорядоченности искусственных систем, которые можно использовать для конструирования интеллектуальных компонентов широкого класса информационных систем в экономике (планирование, прогнозирование), технике и др. В качестве меры упорядоченности предложена эвристическая функция интенсивности, построенная на аналогии с формализмом фундаментальных законов природы. Проведено ее сравнение с энтропийной мерой Шеннона, применяемой в теории информации.
V.Kh. FEDOTOV
ABOUT THE DETERMINATION OF THE MEASURE OF ORDERING ARTIFICIAL SYSTEMS
Key words: artifical system, ordering, measure, artifical intelligence, expert systems, economics, technologies, self-organization, the evolution criteria, intensity, entropy.
The considered problems of the choice criteria of ordering artificial systems, which possible use
for constructing intellectual component for broad classes information systems in economics
(planning, prediction), technologies and others. As measures of ordering is offered heuristic
function to intensities, built on analogies with formalism of the fundamental laws of the nature.
Its compared with entropy measure by Shannon applicable in theories of information.
Важной проблемой при проектировании информационных систем поддержки принятия решений в экономике и технике является поиск адекватных
мер оценки их упорядоченности. Применяемое в теории информации понятие
энтропии предполагает знание функций распределения случайных величин,
которые априори не известны. Целью работы является поиск эвристических
критериев и адекватных мер оценки упорядоченности искусственных систем
(ИС) на основе аналогий между фундаментальными законами природы. Физико-эвристический подход позволяет сформулировать важнейшие эвристические гипотезы для баз знаний интеллектуальных экспертных систем широкого
назначения (экономика, техника и др.).
Законы материи и движения отражают фундаментальные свойства природы и общества и опираются на статистические гипотезы (законы сохранения, всемирного тяготения, больших чисел, действующих масс и др.). Принципы эволюции в философии выражает диалектика (законы движения природы и
общества), в физике − термодинамика, в биологии − теория эволюции и т.д.
Молекулярно-кинетическая теория. Основана на гипотезах: 1) материя
состоит из элементарных объектов; 2) объекты находятся в непрерывном хаотическом (тепловом) движении. В результате их взаимодействия возникают
качественно новые свойства, не сводимые к простой сумме механических.
Открытые системы. Открытые системы обмениваются с внешней средой материей и энергией. Замкнутые системы − только энергией. Системы без
обмена называют изолированными.
Первое начало термодинамики. Основная гипотеза естествознания −
закон сохранения энергии (материи, количества движения). В природе различные формы движения непрерывно превращается друг в друга, но общее количество движения в замкнутой системе остается постоянным.
∗
Работа выполнена при финансовой поддержке РФФИ проект № 08-07-97009 р_поволжье_а «Исследование и оптимизация подходов к разработке масштабируемых, настраиваемых и адаптивных
прикладных производственных информационных систем».
Второе начало термодинамики. В замкнутой системе энтропия S со временем растет dS≥0, достигая максимума в равновесии dSeq=0. В открытой системе изменение энтропии dS=deS+diS, где deS − поток внешней энтропии (обмен
энергией); diS − производство энтропии внутри системы (диффузия, реакции). В
закрытых системах deS=0, dS=diS≥0. В открытых системах deS≠0 и dS может
иметь любой знак. В стационарном состоянии (с.с.) dS=0 и deS=−diS≤0 [2].
Третье начало термодинамики. Связывает энтропию с числом состояний
замкнутой системы S=klnω≥0, где k – константа Больцмана; ω≥1 – число состояний.
Принцип минимума производства энтропии. В линейных системах производство энтропии P=diS/dt монотонно убывает dP/dt2≤0 и достигает минимума в с.с.
Критерий эволюции обобщает принцип минимума на нелинейные системы. В ходе эволюции любая система стремится уменьшить производство энтропии dХP/dt≤0, обусловленное внутренними силами Х, здесь
dP/dt=dХP/dt+dIP/dt. При этом не оговаривается знак dIP/dt. В линейной области dХP=dIP и критерий переходит в принцип минимума. Вне линейной области
dP/dt может менять знак. Рост упорядоченности возможен тогда, когда избыточное производство энтропии становится отрицательным dIP/dt~d(δ2S)/dt<0.
Закон больших чисел. Основан на гипотезах: 1) вероятность p появления истинного события в n испытаниях одинакова; 2) испытания независимы.
Вероятность сложного события (при n испытаниях событие наступит k раз)
Pnk=Cnkpk(1–p)n-k, где Cnk – число сочетаний из n по k, [4].
Закон действующих масс (ЗДМ). Скорость химического превращения
nА+mВ→ определяется гипотезой r=ωAnBm, где: ω – вероятность; A, B − концентрации; n, m − число молекул. Чтобы оно произошло, нужны подходящие
условия. Какие именно – достоверно неизвестно.
Заметим, что между формальной записью ряда законов природы существует аналогия, выражающаяся в том, что уровень взаимодействия объектов
(зависимая величина) в первом приближении определяется взвешенным произведением нескольких существенных факторов (независимые величины).
Назовем эту закономерность принципом взвешенной пропорциональности.
Он дает простое эвристическое правило количественной оценки – «интенсивность» процесса пропорциональна некоторой «весовой» функции от объектов,
участвующих в данном процессе. Вид функции «интенсивности» может быть
различным и зависит от меры, метрики, системы координат и т.д.
Далее под мерой будем понимать любую единицу измерения количественных и качественных характеристик объектов, а под метрикой – правила
измерения «расстояния» между ними. Приведем для сравнения известные
определения [5].
Мера является обобщением понятия длины (площади и т.д.), соответствующим распределению элементов множества (концентрации) в некотором
пространстве. Метрика на множестве Х – это функция ρ(x,y)≥0, определенная
на Х×Х и удовлетворяющая при любых x,y∈Х гипотезам: 1) ρ(x,y)=0 ⇔ x=y (аксиома тождества); 2) ρ(x,y)+ρ(y,z) ≥ ρ(x,z) (неравенство треугольника); 3) ρ(x,y) =
ρ(x,y) (аксиома симметрии).
Пример. Евклидова метрика ρ(x,y)=∑(xi–yi)1/2 задана на Rn. Пара {Rn,ρ} образует метрическое пространство. Здесь xi ,yi∈Rn – множество действительных чисел.
Фундаментальными мерами в теории информации являются количество
информации и энтропия [3,6]. Энтропия дискретной системы определяется
выражением
(1)
H(p) = −k∑pi log pi,
где k − константа (примем k=1); pi − вероятность i-го состояния (∑pi=1); i=1,…,n –
номер состояния; n – число различных состояний. Для непрерывных систем
H = −∫−∞+∞ p(x) log p(x)dx, где p(x) − плотность вероятности. Функция H получена
К. Шенноном (1948) исходя из требований: 1) непрерывность по р; 2) монотонное возрастание по n при pi=1/n; 3) если выбор распадается на два последовательных выбора, то первоначальная Н должна быть взвешенной суммой
индивидуальных значений Н. Отметим, что логарифмическая мера количества
информации была введена Р. Хартли [7] еще в 1928 г.
Свойства энтропии. 1) Если одно из состояний достоверно, а другие невозможны, то энтропия достигает минимума Hmin=0; 2) Если все состояния равновероятны, то энтропия максимальна Hmax=logn; 3) С ростом числа состояний
энтропия растет; 4) При объединении независимых систем их энтропии складываются; 5) При объединении зависимых систем энтропия становится меньше суммы энтропий частей.
Из свойств энтропии следует, что уменьшить энтропию (увеличить порядок) можно тремя способами: 1) разбалансирование вероятностей (флуктуации); 2) уменьшение числа состояний (пространственные ограничения);
3) увеличение числа зависимых подсистем (неоднородности).
В природе существует единство дискретного и непрерывного. Повышение
сложности дискретной системы можно ассоциировать с предельным переходом к
непрерывности. Непрерывная система асимптотически подобна сложной дискретной системе. Принцип взвешенной пропорциональности позволяет выбрать в
качестве меры упорядоченности искусственной системы как физические
(уменьшение производства энтропии, снижение скорости процесса и др.), так и
эвристические функции интенсивности. В качестве критериев для конструирования эвристической функции интенсивности выберем следующие: 1) физичность
(соответствие законам природы); 2) принцип взвешенной пропорциональности; 3)
связь с известными мерами упорядоченности (энтропия, количество информации); 4) нелинейность; 5) возможность существования неустойчивости.
Мультипликативные функции. Возьмем за основу меры упорядоченности мультипликативные функции интенсивности вида (в Евклидовой метрике)
(2)
F(x,a) = ki∏xiai ≡ ki∏ηi ≡ kiF(η),
где ki – константы (без нарушения общности можно считать ki =1); x=(xi) – вектор независимых переменных 0≤xi≤1; a=(ai)≥0 – вектор независимых параметров; ηi≡xiai; i=1,…,n (n>1).
Примечание. Отметим, что в формальной записи законов природы вектор а может содержать и отрицательные компоненты. Пример: 1) Закон всемирного тяготения F=m1m2r−2, где m1,m2 – массы; r – расстояние. Однако замена переменной d=1/r позволяет представить его в виде F=m1m2d2.
Свойства функции F. Отметим, что F(η)=F(x,1) и является частным случаем F(x,a).
1) Функция F ограничена сверху и снизу 0≤ F(x,a)≤1. Если одно из xi→0, то
F→Fmin=0. Если все xi→1, то F→Fmax=1. С ростом размерности системы n функция F убывает.
2) Монотонно возрастает, выпукла вниз и не имеет перегибов. Fx≡ ∂F/∂xj=
aj/xj∏xiai= aj/xjF≥0, Fx(2)≡ ∂2F/∂xj2= aj(aj−1)/xj2F≥0, …, Fx(n)=(aj!)/xjnF≥0.
3) Средние значения. Если все xi=1/n, то Feq=∏(1/n)ai= n−∑ai ≤ 1.
На рис.1.1 приведен вид функции F для n=2 при увеличении компонент
вектора a (горизонтальные оси – компоненты вектора х, вертикальная ось – F,
масштаб делений =0,1).
Аддитивные функции. Логарифмируя (2) получим аддитивные функции
интенсивности (логарифмическая метрика)
(3)
I(x,a) ≡ −lnF = − ln(∏xiai) = −∑ai lnxi ≡ ∑aiρi ≡ I(ρ,a),
здесь ρi≡ln(1/xi)≥1, xi≠0. Учитывая, что I(ρ,a) – билинейная функция, рассмотрим свойства I(x,a).
1) Функция I ограничена снизу 0≤ I(x,a), но не ограничена сверху. С ростом
размерности n функция I растет. Если все xi→1, то I→Imin=0. Если одно из
xi→0, то I→Imax=∞.
2) Монотонно убывает, выпукла вниз и не имеет перегибов. Ix ≡ ∂I/∂xj
=−aj/xj≤0, Ix(2)≡∂2I/∂xj2=aj /xj2≥0, …, Ix(n)=(−1)n(n−1)!aj /xjn.
3) Средние значения. Если все xi=1/n, то Ieq= –∑ai ln(1/n) = lnn∑ai ≥ 0.
Сбалансированные функции. Сложные системы характеризуются наличием неоднородных подсистем и законов сохранения (сбалансированность),
которых может быть несколько. Предположим, что в системе существует хотя
бы одна подсистема и один закон сохранения
(4)
∑xi=1, i=1,…,n.
Исключим любую переменную, например xn=1−∑xi, i=1,…,n−1 (n>1), понизим размерность функции интенсивности. Ее область изменения «сократится»
с n-мерного куба до (n−1)-мерного симлекса 0≤xi≤1, ∑xi≤1. Соотношения (2),(3)
примут вид
F* ≡ xn an∏xiai = (1−∑xi) an∏xiai ,
(2*)
I* ≡ − anln(1−∑xi) −∑ai lnxi = anρn +∑aiρi ,
(3*)
Свойства функции F*.
F1) Функция F* ограничена сверху и снизу F*min ≤ F*≤F*max. С ростом n
функция F* убывает.
F2) Не монотонна, выпукла вверх, имеет n граничных минимумов, один
внутренний максимум и два перегиба. F*x=(aj/xj−an/xn)F*=0 при xk*=0 или xk*=
(ak/aj)xj= ak/∑ai; F*x(2)= [(aj/xj−an/xn)2 −(aj/xj2+an/xn2)]F* = 0 при xk=
[akaj±√akaj(ak+aj−1)]xj/(aj(aj−1)) = ak(ak−1))/∑[akai±√akal(ak+ai−1)].
F3) Минимумы граничные F*min= F*(0)= 0. Максимум внутренний F*max=
F*(xi*)= ∏aiai /(∑aj)aj≤ 1.
F1) Средние значения. Если все xi=1/n, то функция F*eq=1/n∑ai.
Свойства функции I*.
I1) Функция I* ограничена только снизу I*min ≤ I*. С ростом n функция I* возрастает.
I2) Немонотонна, выпукла вниз, имеет один внутренний минимум, не имеет перегибов. I*x= −aj/xj+an/xn = 0 при xk*= (ak/aj)xj= ak/∑aj; Ix(2)= aj/xj2+an/xn2 ≥ 0, …,
Ix(n)= (n−1)![(−1)n (aj/xjn)+an/xnn].
I3) Минимум внутренний. I*min = I*(xi*) = − ∑ai ln(ai/∑aj) ≥ 0.
I4) Средние значения. Если все xi=1/n, то функция I*eq= ∑ai lnn.
Закон сохранения (4) позволяет связать сбалансированные функции с энтропией
I*(xi, xi) = −lnF*(xi, xi) = −∑xi ln xi = H(x).
(5)
Энтропия является их частным случаем. Уменьшению энтропии соответствует уменьшение I* или увеличение F*, что возможно за счет: 1) отклонения
компонент вектора х от среднего значения 1/n в сторону верхней границы (разбалансирование); 2) уменьшения компонент вектора a (весов); 3) уменьшения
размерности n системы (сложности). Иллюстрации приведены на рис. 1.
1)
2)
F
0.5
0.45
0.4
0.35
0.3
0.25
0.2
0.15
0.1
X1
0.05
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
3)
4)
I
5
4.5
4
3.5
3
2.5
2
1.5
1
X1
0.5
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Рис. 1. Сбалансированные функции интенсивности:
1) F*=x1a1x0a0, n=2, a1=a2=1 (сплошная); а1=1.3, а2=0.3 (пунктир);
2) F*=x1a1x2a2x0a0, n=3,a1=a2=а3=1 (нижняя); a1=a2=1, а3=0.5 (верхняя);
3) I*=−(a1lnx1+a2lnx2), n=2, a1=a2=1 (сплошная); а1=1, а2=0.5 (пунктир); a1=x1, a2=x2
(нижняя, энтропия). 4) I*=−(a1lnx1+a2lnx2+a0lnx0), n=3, a1=a2=а3=1 (верхняя);
a1=a2=а3=0.4 (средняя); a1=x1,a2=x2;а3= x3 (нижняя, энтропия).
Энтропия систем с двумя и тремя неравновероятными состояниями показана на рис. 1.3 (нижняя линия) и 1.4 (нижняя поверхность). Как видно, сбалансированные функции также разнонаправленны, но F* выпукла вверх подобно энтропии.
Вычисление энтропии предполагает знание, вообще говоря, неизвестных
функций распределения. Выберем в качестве аналога такой функции сбалансированную функцию интенсивности F*, предварительно приняв несколько
эволюционных гипотез. Предположим, что вектор x зависит от времени x=x(t)
и описывает эволюцию некоторой динамической системы:
dxj/dt = f j (x, a, w) , x(t0) = x0,
(6)
где 0≤xj≤1 – концентрации (плотности) объектов, ∑xj=1, j=1,…,n; w=w(E,t) – вектор параметров, влияющих на интенсивность процессов в системе;
f=f(F*(x,a),w) – вектор от функции интенсивности; t – время; x0 – начальные
условия.
Определим правила формирования функции f. Для этого представим
сложный процесс в виде ряда стадий взаимодействия (этапов эволюции) объектов Xj, каждый из которых определяется сбалансированной функцией интенсивности
(7)
∑a ij Xj → ∑a − ij Xj , i=1,…,s; j=1,…,n+1,
где aij, a−ij≥0 – число объектов j, участвующих в стадии i (матрица процесса),
удовлетворяющая постадийным балансовым соотношениям ∑aij=∑a−ij≥0; i – номер стадии; s≥n+1 – число стадий. Матрица процесса описывает процессы рождения и гибели объектов системы. При a−ij–aij>0 число объектов j в стадии i возрастает (положительная эволюция), при a−ij–aij<0 убывает (отрицательная эво-
люция), а при a−ij–a ij=0 не изменяется (нейтральная эволюция). Тогда (6) с учетом суммарной интенсивности сложного процесса по всем стадиям примет вид
(8)
dxj/dt = f j = ∑(a−ij − a ij)Fi ; j=1,…,n+1, i=1,…, s,
где Fi≡wiFi*=wi∏jxjaij – стадийные функции интенсивности, связанные с общей
интенсивностью F*=∏iwiFi*=w∏jxjaj ; aj = ∑i aij; w=∏iwi, здесь wi – стадийные коэффициенты интенсивности.
Из сбалансированности функции интенсивности следует, что в любой
момент времени
∑dxj/dt=0; j=1,…,n+1.
(9)
Поэтому одно любое из уравнений (8) является зависимым и его можно
исключить, понизив размерность системы на единицу.
Устойчивость системы (8) в линейном («грубом») приближении будет определяться n нетривиальными корнями характеристического уравнения [4]
λn+σ1λn−1+…+σn=0.
(10)
Если все корни имеют отрицательные действительные части Reλi<0 при
любых значениях параметров, то система остается устойчивой. Если при некоторых значениях параметров действительная часть хотя бы одного корня
положительна Reλi>0, то в этой области система теряет устойчивость. Пограничное состояние соответствует появлению пары чисто мнимых корней Reλi=0
и требует дополнительных нелинейных («негрубых») исследований.
В общем случае для систем высокой размерности непосредственное определение корней (10) невозможно. Выполним косвенный анализ на основе
его коэффициентов. Для устойчивости (Reλi<0) необходимо и достаточно,
чтобы выполнялось n неравенств Рауса–Гурвица [4]:
(11)
σ1>0, σ1σ2 − σ3>0, σ3(σ1σ2 − σ3)>0, σ4[σ3 (σ1σ2 − σ3) −σ4σ12]>0, …
где
(12)
σp= ∑i1<…<ipdet(–∂fip/∂xiq); p, q =1,…,n,
здесь det – определитель;∂fip/∂xiq – частные производные.
Из (2*),(8) и свойств функции F* следует, что
(13)
∂fi/∂xk = ∑(a−ij − aij)(aik/xk−ain/xn)Fi ≡ Jjk; j, k=1,…,n.
Подставляя соотношения (13) в (12), получим выражение коэффициентов
характеристического уравнения через параметры сбалансированной мультипликативной функции интенсивности
(12′)
σ1= (−1)1∑jJjj= −∑j∑i(a−ij − aij)(aij/xj−ain/xn)Fi ,
2
σ2= (−1) ∑ j1<j2 Jj1,k1Jj2,k2 = ∑j1<j2∑i [(a−i j1 − ai j1)(ai j1/xj1−ain/xn)Fi] ×
×∑i[(a−i j2 − ai j2)(ai j2/xj2−ain/xn)Fi].
σ3= (−1)3∑ j1<j2<j3 Jj1,k1Jj2,k2 Jj3,k3, …, σn= (−1)ndet(Jip,iq) = (−1)n∑i1<…<ip Jj1,k1Jj2,k2,…, Jjn,jn.
Критерий (11) с учетом (12′) примет вид
0>∑jJjj , ∑ j1<j2<j3 Jj1,k1Jj2,k2 Jj3,k3>∑jJjj ∑ j1<j2 Jj1,k1Jj2,k2,
(14)
∑ j1<j2<j3 Jj1,k1Jj2,k2 Jj3,k3(∑ j1<j2<j3 Jj1,k1Jj2,k2 Jj3,k3−∑ j1<j2<j3 Jj1,k1Jj2,k2 Jj3,k3) > 0,
∑ j1<j2<j3 Jj1<j4,k1Jj2,k2 Jj3,k3 Jj4,k4[∑ j1<j2<j3 Jj1,k1Jj2,k2 Jj3,k3([∑ j1<j2<j3 Jj1,k1Jj2,k2 Jj3,k3−
−∑ j1<j2<j3 Jj1,k1Jj2,k2 Jj3,k3) + ∑ j1<j2<j3 Jj1<j4,k1Jj2,k2 Jj3,k3 Jj4,k4(∑jJjj )2)] >0, …
Критерий устойчивости. Соотношения (14) позволяют однозначно определить устойчивость системы (8) в исследуемой области параметров без вычисления корней характеристического уравнения. Выполнение всех условий (14) является критерием устойчивости целого класса сложных систем, эволюция которых описывается сбалансированными мультипликативными функциями интенсивности.
Невыполнение любого из них является критерием неустойчивости.
Критерий Льенара–Шипара [4] сокращает условия Рауса–Гурвица, опуская каждое второе
0>∑jJjj , ∑ j1<j2<j3 Jj1,k1Jj2,k2 Jj3,k3(∑ j1<j2<j3 Jj1,k1Jj2,k2 Jj3,k3−∑ j1<j2<j3 Jj1,k1Jj2,k2 Jj3,k3) > 0, … (14′)
Из критериев Рауса–Гурвица и Льенара-Шипара следует, что в области
устойчивости все коэффициенты σp>0. В области, где хотя бы одно из σp<0 (с
четными или нечетными индексами), устойчивость нарушается. В области с
одним из σp=0 требуется более тонкий (нелинейный) анализ. Это позволяет
записать еще две (слабую и сильную) формулировки критерия.
Необходимое условие устойчивости. Для устойчивости системы (8)
необходимо (но не достаточно) выполнение условий
−∑jJjj>0, ∑ j1<j2 Jj1,k1Jj2,k2 >0, −∑ j1<j2<j3 Jj1,k1Jj2,k2 Jj3,k3>
>0, ∑ j1<j2<j3 Jj1<j4,k1Jj2,k2 Jj3,k3 Jj4,k4>0, …
(15)
Достаточное условие неустойчивости. Для неустойчивости системы
(8) достаточно, чтобы хотя бы одно из половины условий (15), выбранных через одно, начиная с первого или второго, не выполнялось (неустойчивость
возможна и при менее жестких требованиях).
В частных случаях для систем невысокой размерности (n≤4) и некоторых
классов многомерных систем (квазилинейных) можно получить и более простые критерии устойчивости.
В исследуемой области параметров может существовать несколько стационарных состояний (с.с.). Эти состояния могут быть точками или иметь более высокую размерность (линии, поверхности и т.д.). В с.с. процессы рождения и гибели каждого объекта уравновешиваются
(16)
∑a ijFi ∞=∑a−ijFi∞ , j=1,…,n+1.
С учетом (16) характеристические коэффициенты (12) в с.с. можно записать в виде [1]
(17)
σp ∞= ∑i1<…<ip(xi1∞⋅⋅⋅xip∞)–1 ∑k1<…<kpFk1∞⋅⋅⋅Fkp∞Δi1…ip, k1…kp,
где
(18)
Δi1…ip, k1…kp≡ det(akp,ip − a−kp,ip) det(akp,ip), ip =1,2,…,n; kp =1,2,…,s.
Из (17)-(18) следует, что коэффициенты σp могут менять знак только за
счет величины Δi1…ip, k1…kp, вычисляемой как произведение двух определителей, зависящих от матрицы процесса. Если все Δi1…ip, k1…kp>0, то соответствующий σp также положителен при любых значениях параметров. Если хотя
бы один из Δi1…ip, k1…kp<0 при некоторых значениях индексов, то в некоторой
области параметров возможно наличие с.с., в котором σp <0.
Соотношения (11),(17) позволяют однозначно определить устойчивость
самих стационарных состояний системы (8) и справедливы только в их малой
окрестности. Если все условия (11),(17) выполняются, то с.с. устойчиво и наоборот. Невыполнение любого из них однозначно идентифицирует неустойчивость с.с. С учетом (17)-(18) также можно перефразировать необходимое условие устойчивости и достаточное условие неустойчивости применительно к с.с.
Достаточное условие абсолютной неустойчивости (самоорганизации). Назовем систему абсолютно неустойчивой, если в некоторой области
параметров все с.с. и границы неустойчивы, т.е. для каждого m=1,…,M (M −
число с.с.) существует хотя бы одно pm=1,…,n такое, что
σp,m∞,= ∑i1,m <…<ip,m (xi1,m∞ ⋅⋅⋅xip,m∞)–1 ∑k1,m <…<kp,m Fk1,m∞ ⋅⋅⋅Fkp,m∞ Δi1…ip,m, k1…kp,m <0. (19)
Абсолютная неустойчивость гарантирует переход системы в качественно
новый режим незатухающих колебаний (самоорганизация). Сложность колебаний определяется числом и типом неустойчивостей (регулярные, многопериодические, квазипериодические, стохастические).
Модель (6)-(9) позволяет определить производные понятия «производства интенсивности» dF/dt и «перепроизводства интенсивности» d2F/dt2 по аналогии с энтропией и вычислить их
(20)
dF/dt= F∑j(aj/xj−an/xn)f j ≡ F∑jΔf j, j=1,…,n−1.
d2F/dt2= F[∑j (Δf j2−∑j(aj/xj2−an/xn2)f j2 + ∑jΔf j∑i(a−ij −aij)(aij/xj−ain/xn)Fi], i=1,…,s. (21)
Для практической реализации этих критериев и соотношений требуется
задать: 1) число независимых объектов n; 2) число этапов эволюции s; 3) матрицу процесса a ij размером n×s.
a) w1=1, w2=2
b) w1=2, w2=1
3
2.5
2.5
2
2
1.5
1.5
1
1
0.5
0
0.5
0
1
2
3
4
5
6
7
8
9
0
10
0
1
2
3
70
80
90
4
5
6
7
8
9
10
c) w1=2, w2=1
1
0.8
0.6
0.4
0.2
0
0
10
20
30
40
50
60
100
Рис. 2.1. Квадратичный триггер. Нестационарный портрет.
2
2
Область устойчивости (x10=0.1): сплошная x1(t); точки σ1(t)= −d x1/dt
0.5
0.2
0.15
0.1
0.05
0
0
-0.05
-0.1
-0.15
-0.2
0
1
2
3
4
5
6
7
8
9
-0.5
10
0
1
2
3
4
5
6
7
8
9
0.1
0.05
0
-0.05
-0.1
0
5
10
15
20
25
Рис. 2.2. Интенсивность. Штрих-пунктир f1(t)=F1(t)−F2(t) (суммарная интенсивность),
сплошная dF/dt (производство интенсивности), сплошная с маркерами d2F/dt2
(перепроизводство интенсивности)
10
Пример 1. Рассмотрим несложный процесс, заданный параметрами n=1,
s=2 и матрицей a1j = (01, 10), a2j = (11, 02). Ему соответствует двухстадийная схема эволюции двух объектов, связанных законом сохранения (квадратичный триггер) 1) 0⋅Х1+1⋅Х2→1⋅Х1+0⋅Х2, 2) 1⋅Х1+1⋅Х2→0⋅Х1+2⋅Х2. Стадийные функции интенсивности равны F1=w1x2 (положительная эволюция), F2=w2x1x2 (отрицательная эволюция). В пространстве параметров область неустойчивости определяется критерием σ1=F1/x2+F2/x1−F2/x2=w1+w2x2−w2x1<0 и реализуется при x1>(w1+w2)/2w2. Если
w1=1, w1=2, то при начальных условиях x10<3/4 система начинает движение из
области устойчивости (рис. 2), а при x10>3/4 – из области неустойчивости (рис. 3).
Равенства (16) запишутся F1=F2 и F1+F2=2F2. Отсюда с учетом баланса
w1x2=w2(1−x2)x2 определяются координаты двух точечных с.с.: x2=0, x1=1 (граничное) и x2=(w2 −w1)/w2, x1=w1/w2 (внутреннее) при w1≤w2 (условия физичности).
Выражение (17) примет вид σ1 = ∑i1(xi1)–1∑k1Fk1Δi1,k1 = F1/x1=F2/x1=w1+w2x2−w2x1. В
граничном с.с. σ1=w2−w1>0, а во внутреннем σ1=w2−w1<0. Значит, в случае общего положения w1≠w2 критерий устойчивости выполняется только во внутреннем с.с., а граничное с.с. неустойчиво. При w1>w2 внутреннее с.с. становится отрицательным, а граничное − устойчивым. При w1=w2 оба с.с. совпадают, σ1=0 и требуется дополнительный анализ.
На рис. 2.1 плотность Х1 со временем x1(t) монотонно растет, а величина
σ1(t), имеющая смысл второй производной с обратным знаком, монотонно убывает, но остается положительной и достигает минимума σ1=w2−w1 в с.с. На рис. 2.2
приведены нестационарные характеристики интенсивности. Видно, что суммарная интенсивность монотонно убывает, а ее производство становится отрицательным. Перепроизводство и производство интенсивности разнонаправленны.
На рис. 3 показаны соответствующие зависимости при движении из области неустойчивости.
a) w1=1, w2=2
b) w1=2, w2=1
1
1.15
0.8
0.6
1.1
0.4
1.05
0.2
1
0
0.95
-0.2
0.9
-0.4
0.85
-0.6
0
1
2
3
4
5
6
7
8
9
10
0.8
0
1
2
3
4
5
6
7
c) w1=2, w2=1
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
10
20
30
40
50
60
70
80
90
100
Рис. 3.1. Квадратичный триггер.
Область неустойчивости x10=0.9: x1(t) − сплошная линия; σ1(t) − точки
8
9
10
0.1
0.04
0.02
0.08
0
-0.02
0.06
-0.04
0.04
-0.06
-0.08
0.02
-0.1
-0.12
0
-0.14
0
1
2
3
4
5
6
7
3
x 10
8
9
-0.02
10
0
1
2
3
4
5
6
7
8
9
10
-3
2
1
0
-1
-2
-3
0
10
20
30
40
50
60
70
80
90
100
Рис. 3.2. Интенсивность. Штрих-пунктир f1(t)=F1(t)−F2(t) (суммарная интенсивность),
сплошная dF/dt (производство интенсивности), сплошная с маркерами d2F/dt2
(перепроизводство интенсивности)
На рис. 3.1 видно, что в области неустойчивости величина σ1(t) становится отрицательной, затем возрастает до положительного максимума σ1∞=w2−w1
в с.с. При этом производство интенсивности остается положительным, но проходит через максимум, а перепроизводство интенсивности становится отрицательным и остается таковым до стационара (рис. 3.2). Функция интенсивности
позволяет определить распределение объектов в системе в любой момент
времени и вычислить классическую нестационарную энтропию ШеннонаХартли. На рис. 3.3 видно, что в области неустойчивости нестационарный избыток производства энтропии также отрицателен.
Нестационарные режимы характеризуется временем релаксации τ, которое
в первом приближении τ∼1/σ1∞=1/(w2−w1). Время релаксации для случаев общего
положения (рис. 3,а,в) τ≈4. С ростом wi время релаксации падает, а с уменьшением – растет. Для вырожденного случая (рис. 3,с) σ1→0 и наблюдается резкое
увеличение τ в 10 и более раз (медленная релаксация). Отметим, что медленные
релаксации соответствуют увеличению неравновесного времени жизни системы,
т.е. являются своеобразным аналогом неустойчивости и их можно рассматривать
как критерий долголетия («вечной молодости», «эликсир бессмертия» и т.д.).
Таким образом, эвристические критерии для оценки упорядоченности искусственных систем могут быть сконструированы на основе аналогий между
фундаментальными законами природы. Мультипликативные сбалансированные функции интенсивности обладают свойствами, подобными энтропии и
могут быть использованы для анализа возможных вариантов эволюции искусственной системы. С их помощью можно решать следующие задачи: 1) определение нестационарного распределения объектов в сложной динамической
системе с заданной структурой; 2) оценка меры ее упорядоченности; 3) анализ
устойчивости; 4) вычисление классической энтропии Шеннона–Хартли, в том
числе нестационарной; 5) моделирование источника информации о неизвестных параметрах системы (распределения плотности вероятности и др.).
Физико-эвристический подход позволяет сформулировать основные гипотезы для баз знаний систем искусственного интеллекта и нового поколения информационных систем, применяемых в технике (роботы и др.) и экономике
(планирование, прогнозирование, аудит и др.). Такие гипотезы должны обладать
наивысшим приоритетом и размещаться в базе правил верхних уровней (макроправил). Наряду с ними там же целесообразно разместить правила выбора макроскопических характеристик системы (открытость, однородность и др.). Возможная структура эвристической базы знаний следующая: 1) критерии эволюции
(правила принятия стратегических решений); 2) основная база знаний (описание
предметной области на языке представления знаний); 3) алгебра знаний (формальные правила обработки базы знаний); 4) система согласования критериев
эволюции и правил обработки; 5) система принятия решений.
Важной проблемой остается задача построения формализма самих искусственных систем, для решения которой в данном случае использовался
метод представления сложной системы последовательностью стадий эволюции ее объектов.
Литература
1. Алексеев Б.В. Стехиометрические условия неустойчивости каталитических процессов /
Б.В. Алексеев, В.Х. Федотов, Н.И. Кольцов // ДАН СССР. 1989. Т. 306. № 4. С. 884-888.
2. Гленсдорф П. Термодинамическая теория структуры, устойчивости и флуктуаций / П. Гленсдорф, И. Пригожин. М.: Мир, 1973.
3. Колмогоров А.Н. Теория информации и теория алгоритмов / А.Н. Колмогоров. М.: Наука, 1987.
4. Корн Г. Справочник по математике для научных работников и инженеров / Г. Корн, Т. Корн.
М.: Наука, 1978.
5. Математическая энциклопедия. М.: Советская энциклопедия, 1977-1984. Т. 1-5.
6. Хартли Р.В.Л. Теория информации и ее приложения / Р.В.Л. Хартли. М.: Физматгиз, 1959.
7. Шеннон К. Работы по теории информации и кибернетике / К. Шеннон. М.: Изд-во иностр.
лит., 1963.
ФЕДОТОВ ВЛАДИСЛАВ ХАРИТОНОВИЧ – кандидат химических наук, доцент кафедры
информационных систем экономического факультета, Чувашский государственный университет, Россия, Чебоксары (fvh@inbox.ru).
FEDOTOV VLADISLAV KHARITONOVICH – candidate of chemical sciences, assistant professor, Chuvash State University, Russia, Cheboksary.
Документ
Категория
Без категории
Просмотров
6
Размер файла
354 Кб
Теги
искусственные, система, меры, упорядоченности, определение
1/--страниц
Пожаловаться на содержимое документа