close

Вход

Забыли?

вход по аккаунту

?

Krichevskiy

код для вставкиСкачать
Министерство образования и науки российской федерации
Федеральное государственное автономное
образовательное учреждение высшего образования
САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
АЭРОКОСМИЧЕСКОГО ПРИБОРОСТРОЕНИЯ
МЕТОДЫ ИССЛЕДОВАНИЙ
В МЕНЕДЖМЕНТЕ
Методические указания
к выполнению курсовой работы
Санкт-Петербург
2015
Составитель – доктор технических наук, профессор М. Л. Кричевский
Рецензент – кандидат экономических наук, доцент Ю. А. Козлова
содержатся краткие теоретические сведения по методам, применяемым при выполнении курсовой работы, иллюстративные примеры по способам агрегирования данных, инструментарию нейронных
сетей и нечеткой логики.
предназначены для студентов, обучающихся в магистратуре экономического факультета, и должны помочь им овладеть компетенциями, которые привносят в традиционные приемы обучения знания,
основанные на интеллектуальных информационных технологиях.
Публикуется в авторской редакции.
Компьютерная верстка Н. Н. Караваевой
Сдано в набор 13.10.15. Подписано к печати 23.10.15. Формат 60×84 1/16.
Бумага офсетная. Усл. печ. л. 3,3. Тираж 100 экз. Заказ № 390.
Редакционно-издательский центр ГУАП
190000, Санкт-Петербург, Б. Морская ул., 67
© Санкт-Петербургский государственный
университет аэрокосмического
приборостроения (ГУАП), 2015
1. Анализ многомерных данных
Рассматриваются способы представления исходных данных,
включающие формирование матриц «объект – признак», «признак –
признак», «объект – объект». Описываются метод главных компонентов, позволяющий визуализировать многомерные данные,
и кластерный анализ, который дает возможность создать группы
сходных объектов по набору признаков. Приводятся сведения по
моделированию данных методом Монте-Карло, которые требуются
для создания базы примеров конкретных объектов.
1.1. Представление многомерных данных
Независимо от природы наблюдаемых явлений или процессов
в большинстве ситуаций исходные данные представляются в виде
матрицы (таблицы) объект-признак, где строками являются объекты, а столбцами – признаки. Под объектом подразумевается любой
предмет изучения, например, страна, фирма, регион, студенческая
группа и т. п. Признак определяет характеристики рассматриваемого объекта, например, если объектом исследования является фирма, то к числу признаков, ее характеризующих, можно отнести численность персонала, ежемесячный объем расходов и доходов, число
контрагентов и другие характеристики. Каждый элемент такой матрицы Х обозначается как xij, где i = 1,m – номер объекта; j = 1,n –
номер признака. Размерность этой матрицы составляет m × n . Матрица Х описывает m объектов в терминах n признаков, причем
значения m и n обычно достаточно велики. Считается, что для получения статистически достоверных результатов число объектов
должно превышать число признаков в несколько раз.
При обработке многомерных данных следует учитывать дуализм
представления, так как имеются возможности визуализации как
объектов в пространстве признаков, так и признаков в пространстве
объектов. Кроме представления исходных данных в виде матрицы
объект-признак, имеются и другие возможности представления.
3
Например, с помощью коэффициента корреляции между признаками, который вычисляется по формуле
rik =
xi xk − xi xk
,
si sk
где xi xk – среднее значение произведения величин признаков xi, xk;
xl (xk ) – среднее значение признака xi, (xk); si (sk)– среднеквадратичное отклонение соответствующих признаков, можно представить исходные данные в виде матрицы признак-признак R.
Эта матрица в отличие от предыдущей имеет размерность n × n.
В каждой ячейке матрицы расположены значения коэффициента
корреляции между соответствующими признаками; на диагонали
матрицы стоят единицы, так как корреляция признака с самим собой максимальна и равна единице. Матрица R симметрична относительно своей диагонали.
Сходство или различие между классифицируемыми объектами
устанавливается в зависимости от метрического расстояния между
ними. Если каждый объект описывается n признаками, то он может
быть представлен как точка в n-мерном пространстве, и его сходство
с другими объектами будет определяться как соответствующее расстояние. Указанное обстоятельство позволяет перейти к еще одному
виду представления исходных данных, а именно: к матрице объектобъект D, представляющей собой таблицу расстояний между анализируемыми объектами. В этом случае в каждой ячейке матрицы
находится величина расстояния, допустим, евклидова, рассчитываемого по формуле:
=
dik
n
∑ ( xij − xkj )
j =1
2
.
Здесь xij, xkj – значения j-го признака, соответственно, у i-го и
k-го объектов.
На диагонали матрицы находятся нули, поскольку расстояние
от точки до нее самой равно нулю. Элементы матрицы симметричны
относительно диагонали.
Таким образом, исходные данные могут быть представлены в виде матриц трех типов:
– объект-признак Х;
– признак-признак R;
– объект-объект D.
4
1.2. Визуализация многомерных данных
Любое исследование многомерных данных невозможно без использования метода главных компонентов (ГК). Сущность этого метода заключается в снижении размерности данных путем определения незначительного числа линейных комбинаций исходных признаков, которые объясняют большую часть изменчивости данных
в целом. Метод ГК связан с переходом к новой системе координат,
которая является системой ортонормированных линейных комбинаций. Этот метод дает возможность по n исходным признакам объектов построить такое же количество ГК, являющихся обобщенными (агрегированными) признаками. На первый взгляд, такой
переход не дает никакого преимущества в представлении данных,
но существует возможность сохранения информации о рассматриваемых данных даже в том случае, если сократить количество вычисленных ГК. Кроме того, при сохранении двух или трех ГК реализуется возможность визуализации многомерных объектов в сокращенном признаковом пространстве. Метод ГК обладает рядом
свойств, делающим его эффективным для визуализации структуры
многомерных данных. Все они касаются наименьшего искажения
геометрической структуры точек (объектов) при их проектировании в пространстве меньшей размерности.
Математическая модель ГК базируется на допущении, что значения множества взаимосвязанных признаков порождают некоторый
общий результат. В этой связи при представлении исходных данных как раз и важна матрица признак-признак, в которой содержится вся информация о попарной связи между признаками.
Первым ГК набора первичных признаков Y = (х1, х2, …, хn) называется такая линейная комбинация этих признаков, которая среди
прочих линейных комбинаций обладает наибольшей дисперсией.
Геометрически это означает, что первый ГК ориентирован вдоль направления наибольшей вытянутости гиперэллипсоида рассеивания
исследуемой совокупности данных. Второй ГК имеет наибольшую
дисперсию рассеивания среди всех линейных преобразований, некоррелированных с первым ГК, и представляет собой проекцию на
направление наибольшей вытянутости наблюдений в гиперплоскости, перпендикулярной первому ГК. Вообще, j-м ГК системы исходных признаков Y = (х1, х2, …, хn) называется такая линейная комбинация этих признаков, которая не коррелирована с (j – 1) предыдущими ГК и среди всех прочих некоррелированных с предыдущими
(j – 1) ГК обладает наибольшей дисперсией. Отсюда следует, что ГК
5
занумерованы в порядке убывания их дисперсий, т. е.
σ2 (f1 ) ≥ σ2 (f2 ) ≥ ⋅⋅⋅ ≥ σ2 (fn ), а это дает основу для принятия решения
о том, сколько последних ГК можно без ущерба изъять из рассмотрения.
Решение задачи методом ГК сводится к поэтапному преобразованию матрицы исходных данных. Основные шаги метода показаны
на схеме, приведенной на рис. 1.
Прокомментируем этапы вычислений. В качестве исходных данных обычно выбирается матрица объект-признак Х. Поскольку характеристиками объектов могут служить признаки различной природы и размерности, то данные необходимо стандартизировать, т. е.
провести центрирование (вычитание среднего значения) и нормирование (деление на среднеквадратичное значение) данных.
На следующем шаге вычисляется матрица корреляций R между
признаками, т. е. осуществляется переход к матрице признак-признак. Диагональные элементы этой матрицы равны единице, а сама
матрица симметрична относительно этой диагонали, так как rij = rji.
Далее проводится расчет матрицы собственных чисел Λ, которая
в отличие от предыдущих матриц является диагональной, т. е. здесь
только на диагонали матрицы находятся собственные числа: все
прочие элементы матрицы равны нулю. Размерность этой матрицы,
как и двух предыдущих, составляет n × n. Каждое значение λj определяет дисперсию каждого ГК. Суммарное значение ∑ λ j равняется сумме дисперсий исходных признаков. При условии стандартиn.
зации исходных данных ∑ λ j =
Рис. 1 Вычислительная схема метода главных компонентов
6
Затем определяется матрица собственных векторов В, которая,
также, как и предыдущая, является квадратной и состоит из n
строк и n столбцов. Компоненты каждого собственного вектора (СВ)
представлены в виде вектора-столбца, сумма квадратов составляющих которого вследствие ортогональности равна единице.
На последнем шаге вычисляются ГК:
– с помощью матрицы Λ находятся два или три наибольших собственных числа (такой выбор обусловлен желанием визуализировать многомерные объекты в двумерной плоскости или трехмерном
пространстве);
– по матрице В определяются СВ, которые соответствуют выбранным собственным числам;
– найденные таким образом СВ умножаются последовательно
на строки исходной матрицы, формируя значения ГК для каждого
объекта.
Например, при выборе только первых двух наибольших собственных чисел определяем соответствующие им составляющие СВ
(два столбца матрицы В), которые перемножаем на строки матрицы Х.
Перемножение первого столбца матрицы В на первую строку матрицы Х даст значение первого ГК для первого объекта, умножение
того же столбца на вторую строку определяет значение первого ГК
для второго объекта, т. е.
Y1 = b11x11 + b21x12 +... + bn1x1n,
где b11, b21, …, bn1 – компоненты первого СВ; x11, x12, …, x1n – первая
строка матрицы данных объект-признак.
После выполнения таких же операций со вторым выбранным
вектором, рассчитанным по формуле
Y2 = b12x21 + b22x22 + ... + bn2x2n,
получаем возможность построить все объекты в плоскости первых
двух ГК, где их взаимное расположение позволяет сделать предварительные выводы о сходстве (различии) объектов.
Пример 1. (Выполняется в пакете Statistica). В табл. 1 приведены средние баллы экзаменов по четырем дисциплинам: отечественная история; экономическая теория; математический анализ; линейная алгебра для каждой из девяти групп.
Рассчитать ГК и представить в плоскости первых двух ГК все
9 групп, т. е. перейти от начального четырехмерного признакового
пространства к новому двумерному.
7
Таблица 1
Средние баллы 9 групп по 4 дисциплинам
Номер
группы
1
2
3
4
5
6
7
8
9
ОтечестЭкономивенная история ческая теория
4,59
4,68
4,52
4,64
4,32
4,36
4,05
3,9
3,76
4,77
4,73
4,29
4,5
4,09
4,27
4,05
3,95
4
Математический
анализ
Линейная
алгебра
4,82
4,27
3,95
4,45
4,14
4,05
3,62
3,63
3,33
4,59
4,38
3,95
4,41
4,23
4,23
4,0
3,86
3,48
Решение примера реализуется следующими шагами.
1. Создать новый файл в пакете Statistica, состоящий из 9 строк
и 4 столбцов. Скопировать в полученную таблицу данные примера.
2. В командной строке выбрать опцию Анализ, в которой указать
позицию Многомерный разведочный анализ и далее – Анализ главных
компонент и классификация. В стартовой панели модуля на вкладке
Дополнительно нажать кнопку Переменные. В открывшемся окне Выберите переменные… в поле Переменные анализа выделить все 4 переменные. В результате приходим к окну анализа ГК (рис. 2).
Рис. 2. Стартовая панель после выбора переменных
8
3. После нажатия ОК приходим к окну результатов (рис. 3).
4. Выделив опцию Наблюдения, приходим к графику ГК (рис. 4),
где в плоскости первых двух ГК изображены точками все 9 объектов-студенческих групп.
Рис. 3. Окно результатов анализа
Рис. 4. Группы в плоскости первых двух главных компонентов
9
Рис. 5. Признаки в плоскости первых двух главных компонентов
5. Выделив опцию Переменные, получим представление признаков-дисциплин в плоскости ГК (рис. 5).
1.3. Кластерный анализ
Кластерный анализ – это способ группировки многомерных объектов, основанный на представлении результатов отдельных наблюдений точками подходящего геометрического пространства
с последующим выделением групп как «сгустков» этих точек (кластеров, таксонов). «Кластер» (cluster) в английском языке означает
«сгусток», «скопление» и т. д. Данный метод исследования получил
развитие в последние годы в связи с возможностью компьютерной
обработки больших баз данных.
Термин кластерный анализ (КА) в действительности включает
в себя набор различных алгоритмов классификации. Общий вопрос, задаваемый исследователями во многих областях, состоит
в том, как организовать наблюдаемые данные в наглядные структуры, т. е. развернуть таксономии. КА является не столько обычным
статистическим методом, сколько набором различных алгоритмов
распределения объектов по кластерам. Существует точка зрения,
что в отличие от многих других статистических процедур, методы
10
КА используются в ситуациях, когда не имеется каких-либо априорных гипотез относительно классов. Следует понимать, что КА
определяет наиболее возможно значимое решение.
В КА используются иерархические процедуры, которые упорядочивают объекты по мере их сходства или различия. Применяемые
процедуры делятся на два типа: агломеративные и дивизимные.
В агломеративных процедурах начальным является разбиение, состоящее из п одноэлементных классов, а конечным – состоящее из
одного класса; в дивизимных – наоборот. Принцип работы иерархических агломеративных (дивизимных) процедур состоит в последовательном объединении (разделении) групп элементов, сначала самых близких (далеких), а затем – все более отдаленных (близких)
друг от друга. Большинство этих алгоритмов исходит из матрицы
расстояний.
В качестве примера рассмотрим агломеративный иерархический
алгоритм. На первом шаге алгоритма любой объект рассматривается как отдельный кластер. В дальнейшем на каждом шаге работы
алгоритма происходит объединение двух самых близких кластеров,
и с учетом принятого расстояния по формуле пересчитывается матрица расстояний, размерность которой снижается на единицу. Работа алгоритма завершается, когда все объекты объединены в один
класс. Большинство программ, реализующих алгоритм иерархической классификации, предусматривает графическое представление
результатов классификации в виде дендрограммы.
Наиболее трудным и наименее формализованным в задаче классификации является определение понятия однородности объектов.
В общем случае понятие однородности объектов задается введением либо правила вычисления расстояний ρ(xi, хj) между любой парой исследуемых объектов (x1, x2,..., xn), либо некоторой функцией
r(хi, xj), характеризующей степень близости i-го и j-го объектов.
Если задана функция ρ(xi, хj), то близкие с точки зрения этой метрики объекты считаются однородными, принадлежащими к одному классу. Очевидно, что необходимо при этом сопоставлять ρ(xi, хj)
с некоторыми пороговыми значениями, определяемыми в каждом
конкретном случае по-своему.
Аналогично используется и мера близости r(xi, хj), при задании
которой необходимо выполнение следующих условий:
– симметрии r(xi, хj) = r(xj, хi);
– максимального сходства объекта с самим собой
=
r ( xi , j ) max r ( xi , j ), 1 ≤ i, j ≤ n;
ij
11
– монотонного убывания r(xi, хj) по мере увеличения ρ(xi, хj), т. е.
из ρ(xk, хl) ≥ρ(xi, хj) должно следовать неравенство r(xk, хl) ≤ ρ(xi, хj).
Укажем наиболее широко используемые в задачах КА расстояния и меры близости.
1) Обычное евклидово расстояние определяется по формуле
(
k
) ∑(xil − xjl )2,
ρE xi , xj =
l =1
где xil, хjl — значения l-го признака у i-го (j-го) объекта (l = 1, 2, ...,
k, i, j = 1, 2, ..., п).
Евклидово расстояние используется в следующих случаях:
а) наблюдения берутся из генеральной совокупности, имеющей
многомерное нормальное распределение с ковариационной матрицей вида σ2Ek, где Еk — единичная матрица, т. е. исходные признаки взаимно независимы и имеют одну и ту же дисперсию;
б) исходные признаки однородны по физическому смыслу и одинаково важны для классификации.
Естественное с геометрической точки зрения евклидово пространство может оказаться бессмысленным (с точки зрения содержательной интерпретации), если признаки измерены в разных
единицах. Для устранения этого явления используют нормирование каждого признака путем деления центрированной величины
на среднее квадратическое отклонение и переходят от матрицы Х
к нормированной матрице.
2) Взвешенное евклидово расстояние рассчитывается по выражению
ρWE ( xi , xj ) =
k
2
∑ωl ( xil − xjl )
.
l =1
Оно применяется в тех случаях, когда каждому l-му компоненту
вектора наблюдений Х удается приписать некоторый «вес» ωl, пропорциональный степени важности признака в задаче классификации. Обычно принимают 0 ≤ ωl ≤ 1, где l = 1, 2,..., k. Определение весов, как правило, связано с дополнительными исследованиями, например, с организацией опроса экспертов и обработкой их мнений.
Определение весов ωl только по данным выборки может привести
к ложным выводам.
Хотя указанные меры расстояния являются самыми распространенными, отметим еще некоторые меры.
12
3) Квадрат евклидова расстояния. Эта мера используется для
придания больших весов более отдаленным друг от друга объектам
и вычисляется по формуле
k
2
ρ2E ( xi , xj ) =
∑ ( xil − xjl ) .
l =1
4) Расстояние городских кварталов (city-blok). Это расстояние
является просто средним значением разностей по координатам.
В большинстве случаев эта мера приводит к таким же результатам,
как и для обычного евклидова расстояния. Эта мера расстояния
определяется по формуле
k
ρC ( xi , xj ) =
∑ xil − xjl .
l =1
Oтметим, что для этой меры влияние отдельных больших разностей (выбросов) уменьшается, так как они не возводятся в квадрат.
5) Метрика Минковского, вычисляемая по выражению
 k
ρM ( xi , xj ) =
 ∑ xil − xjl
 l=1
1/ p
p


.
Эта метрика обобщает вышеприведенные характеристики, так
как при р = 1 приходим к расстоянию городских кварталов, а при
р = 2 – к обычному евклидову расстоянию.
В КА необходимо сформировать правила объединения или связи
для двух кластеров. На первом шаге, когда каждый объект представляет собой отдельный кластер, расстояния между этими объектами определяются выбранной мерой. Однако, когда связываются вместе несколько объектов, для определения расстояния между
кластерами существуют различные методы объединения кластеров, указанные ниже.
– Метод одиночной связи (ближайшего соседа). В этом методе
расстояние между двумя кластерами определяется расстоянием
между двумя наиболее близкими объектами (ближайшими соседями) в различных кластерах. Это правило должно, в известном смысле, нанизывать объекты вместе для формирования кластеров, и результирующие кластеры имеют тенденцию быть представленными
длинными «цепочками.»
– Метод полных связей (дальнего соседа). В этом методе расстояния между кластерами определяются наибольшим расстоянием
между любыми двумя объектами в различных кластерах.
13
– Метод средней связи..В этом методе расстояние между двумя
различными кластерами вычисляется как среднее расстояние между всеми парами объектов в них.
– Метод Уорда. Этот метод отличается от всех других методов,
поскольку он использует методы дисперсионного анализа для оценки расстояний между кластерами. Метод минимизирует сумму квадратов для любых двух кластеров, которые могут быть сформированы на каждом шаге. В целом метод представляется очень эффективным, однако он стремится создавать кластеры малого размера.
Пример 2. (Выполняется в пакете Statistica). Исходные данные – те же, что и в примере 1. Необходимо выполнить кластеризацию девяти студенческих групп.
Решение примера выполняется следующим образом.
1. В командной строке окна выбрать опцию Анализ, в которой
указать позицию Многомерный разведочный анализ и далее – Кластерный анализ – Иерархическая кластеризация, после чего нажать ОК. В открывшемся окне кластерного анализа на вкладке
Дополнительно, в опции Объекты выбрать Наблюдения (строки)
и нажать ОК (рис. 6).
2. В окне Результаты иерархической кластеризации (рис. 7) нажать клавишу Вертикальная дендрограмма, в результате чего приходим к графику, показанному на рис. 8.
Полученная дендрограмма указывает порядок и уровень объединения объектов-групп, сходных между собой, а также сформировавшиеся кластеры сходных объектов.
Рис. 6. Исходное окно кластерного анализа
14
Рис. 7. Окно результатов иерархической кластеризации
Рис. 8. Дендрограмма студенческих групп
15
1.4. Моделирование случайных величин
При моделировании случайных величин широко используется
метод Монте-Карло. Этот метод объединяет группу методов численного решения различных математических задач при помощи моделирования случайных величин.
Название “Монте-Карло” произошло от города Монте-Карло,
известного своими казино, так как простейшим прибором для генерирования случайных чисел служит игральная рулетка. Возникновение метода связывают с именами Дж. Неймана, С. Улама,
Н. Метрополиса, которые в 40-х годах прошлого века работали в
Лос-Аламосе, США. Развитию данного метода способствовало бурное развитие ЭВМ.
При решении задач методом Монте-Карло нужно:
1. Выбрать случайную величину (СВ) для решения конкретной
задачи
2. Найти значение произвольной СВ.
Необходимыми элементами для моделирования являются датчики случайных чисел, в качестве которых используются физические устройства. Для их реализации используют шумящие радиоэлектронные приборы. Они применяются довольно редко, так как
нет возможности повторно воспроизвести выборочную последовательность для повторения расчетов. Псевдослучайные числа: пригодность случайных чисел определяется не процессом их получения,
а тем, что они обладают интересующими нас свойствами независимых случайных величин. Псевдослучайными числами называются
такие, которые вычисляются по заданной формуле и могут быть использованы вместо случайных чисел при решении задач численным
методом. Из сказанного следует, что оказываются тождественными
те свойства случайных и псевдослучайных чисел, которые требуются для моделирования широкого круга задач. По отношению к этим
задачам разницы между физически генерируемыми «случайными»
числами и псевдослучайным числами практически нет.
К преимуществам псевдослучайных чисел можно отнести:
1. Небольшие затраты машинного времени для их получения.
2. Возможность повторных воспроизведений последовательности чисел.
3. Необходимость однократного тестирования алгоритмов вычисления псевдослучайных чисел.
Для моделирования непрерывной случайной величины нужно
учесть, что СВ X, удовлетворяющая уравнению W(x) = α имеет плот16
ность вероятности (ПВ) w(x). Таким образом розыгрыш значения непрерывной СВ X с заданной функцией распределения (ФР) W(x) сводится к следующей процедуре: нужно получить случайное число
α ∈[0,1] и в качестве значения x взять W −1 (x), где введено обозначение для обратной функции по отношению к ФР W(x).
При моделировании СВ воспользуемся методом обратной функции, сущность которого заключается в том, что по ФР входной переменной путем розыгрыша находится значение этого признака.
Напомним, что ПВ случайной величины X, обозначенная как
w(х), такая, что при любых a и b вероятность неравенства а < Х < b
равна
b
∫ w(x)dx.
a
Например, если Х имеет нормальное распределение, то
=
w(x)
 (x − a)2 
exp  −
,
σ 2π
2σ2 

1
где a – среднее значение; σ – среднеквадратичное отклонение.
График ПВ нормального закона со средним значением, равным
нулю, и дисперсией, равной единице, показан на рис. 9, а.
Если ПВ w(x) непрерывна, то при достаточно малых dx вероятность неравенства x < X < x + dx приближённо равна w(x)dx.
ПВ имеет следующие свойства:
1. ПВ всегда положительна, т. е. w(x) ≥ 0.
а) 0,6
б) 1,0
0,5
0,8
0,4
0,6
0,3
0,4
0,2
0,2
0,1
0,0
–3 –2 –1
0
1
2
3
0,0
–3 –2 –1
0
1
2
3
Рис. 9. Плотность вероятности (а) и функция распределения (б)
нормального закона
17
2. Площадь под кривой ПВ во всем диапазоне изменения переменной равна единице, т. е.
∞
∫ w(x)dx = 1.
−∞
Функция распределения W(x)для каждого значения х определяется вероятностью того, что случайная величина ξ примет значение, меньшее х, т. е.
W (x)= P(ξ < x)
Зная ФР W(x), можно найти вероятность того, что СВ ξ удовлетворяет неравенствам x′ ≤ ξ < x′′: вероятность попадания дискретной
случайной величины в интервал x ′ ≤ ξ < x ′′ равна приращению ФР
на этом интервале.
Укажем свойства ФР.
1. ФР является неубывающей.
2. Значения функции распределения удовлетворяют неравенству
0 ≤ W (x) ≤ 1.
3. ФР и ПВ связаны соотношением
W (x) =
x*
∫ w(x)dx,
−∞
где х* – переменный предел интегрирования.
Таким образом, ФР представляет собой накопленные значения ПВ.
График ФР нормального закона показан на рис. 9, б.
Как известно из теории вероятности, вся площадь под кривой ПВ
равна единице, а ФР определяется как накопленная сумма (интеграл) от ПВ, поэтому на правой границе диапазона изменения переменной ФР асимптотически стремится к единице. Ось ординат ФР
имеет диапазон от 0 до 1 (100%), поскольку определяет собой вероятность любого события. Вследствие этого для моделирования надо
взять любое случайное число из интервала [0, 1] и отложить его на
вертикальной оси, далее следует из этой точки провести горизонтальную линию до пересечения с кривой ФР, а из точки пересечения
опустить перпендикуляр на горизонтальную ось. Таким образом, на
этой оси получаем первое разыгранное значение некоторого признака. В этом заключается сущность метода обратной функции.
Разыграв определенное количество случайных чисел (разумеется, уже не с помощью рулетки), получим то же количество значе18
ний моделируемого признака. Подобная процедура повторяется для
всех разыгрываемых переменных, и в итоге получаем таблицу смоделированных значений, состоящую из n строк (количество розыгрышей) и m столбцов (число переменных).
Для нормально распределенных величин методом обратной
функции значение СВ Х рассчитывается по формуле
x =σx Φ0−1 (a − 0,5) + mx ,
x
2
1
где Φ0 (x) = ∫ e −t /2dt – функция Лапласа; mx , σ x – среднее зна2π 0
чение и среднеквадратичное отклонение; a – разыгранная величина
из интервала [0, 1].
Пример 3. (Выполняется с помощью табличного процессора
Excel).
Разыграть методом Монте-Карло 10 значений величин, которые
распределены по нормальному закону со средним значением, равным 3, и дисперсией, равной 1.
1. Через Сервис – Надстройки включить Пакет анализа (отметить соответствующее окно) (рис. 10).
2. Через Сервис –Анализ данных перейти к окну «Анализ данных «, в котором выделить опцию «Генерация случайных чисел»
(рис. 11).
Рис. 10. Включение пакета анализа
19
3. В появившемся окне выполнить следующие операции (рис. 12):
– В строке числа переменных поставить 1 (одна переменная разыгрывается).
– В строке числа случайных чисел поставить 10, так как по условиям примера необходимо получить 10 чисел.
– В следующей строке выбрать вид распределения: нормальное.
– В окне параметры указать данные в примере значения: среднее = 3, а стандартное отклонение (то же, что среднеквадратичное
отклонение – СКО) равно квадратному корню из заданной дисперсии и составляет 1.
– В строке параметров вывода указать столбец, куда запишутся
разыгранные значения.
Разыгранные 10 значений нормально распределенных величин
показаны на рис. 13.
Рис. 11. Открытие окна «Анализ данных»
1
2
3
4
5
6
7
8
9
10
Рис. 12. Окно «Генерация случайных чисел»
20
А
2,699768
1,722317
3,244257
4,276474
4,19835
4,733133
0,816412
2,765819
4,095023
1,913299
Рис. 13. Разыгранные
значения
2. Искусственные нейронные сети
Искусственные нейронные сети (НС) используются при решении проблем, которые не могут быть точно сформулированы. Слово
«нейронные» применяется потому, что многое в теорию НС пришло
из нейробиологии. В качестве определения НС может служить такое: НС – параллельно распределенная структура обработки информации, состоящая из отдельных элементов (нейронов), которые соединены между собой связями.
В этом разделе вначале приводятся сведения об искусственном
нейроне, затем рассматриваются различные архитектуры НС и методы обучения сетей. Завершается раздел описанием примера, который позволяет научиться конструировать НС, обучать ее и пользоваться ею при решении задач.
2.1. Модель искусственного нейрона
НС иногда рассматриваются как значительно упрощенные модели человеческого мозга. Такой взгляд несколько преувеличен и вводит в заблуждение, так как мозг человека еще не полностью изучен
и его поведение очень сложно.
Нейронные сети инспирированы структурой и поведением биологических нейронов и нервной системы человека. В настоящее время описано около 50 типов НС, которые используются при решении
различных задач. Нейронные сети состоят из многих вычислительных элементов, обычно называемых нейронами. Сила связи (соединений) между двумя нейронами определяет вес. Значения весов
представляют собой те параметры сетей, которые являются субъектами обучения в нейросетевой технологии. В зависимости от рассматриваемой проблемы веса имеют разный физический смысл, который иногда трудно выявить.
Искусственные НС представляют собой модели, используемые
для решения задач нелинейной классификации и регрессии, которые обучаются на основе базы примеров (данных). На рис. 14 представлена типичная схема биологического нейрона, состоящего из
тела (ядра нейрона), дендритов и аксонов, служащих для приема и
передачи сигналов, соответственно. Показанные синапсы определяют промежуток (щель), который электризуется и проводит сигналы
от соседних нейронов. Характер возбуждения этого синапса – нелинейный, и в целом нейрон становится активным и передает сигналы
21
дендриты
аксоны
аксон
тело нейрона
синапсы
движение импульса
Рис. 14. Биологический нейрон
соседним нейронам в случае превышения суммы входящих сигналов некоторой пороговой величины.
Мозг содержит порядка 1011 нейронов (нервных клеток) различных типов. Тело клетки суммирует сигналы, полученные от дендритов, и в случае превышения результирующего сигнала над некоторым порогом вырабатывает импульс, проходящий по аксону
к другим нейронам.
Каждый нейрон может генерировать импульс, который возбуждает или затормаживает сотни или тысячи других нейронов; последние в свою очередь через свои дендриты воздействуют на тысячи других нейронов. Эта высокая степень связности обеспечивает
мозгу вычислительную мощность.
Авторами модели искусственного нейрона являются У. МакКаллох и У. Питтс, которые в 1943 г. предложили общую теорию информационных вычислений, основанную на бинарных решающих
элементах, которые они назвали «нейронами», хотя эти элементы
намного проще, чем их биологические прототипы. Каждый из этих
элементов i = 1,..., n может принимать выходные значения, равные
только ni = 0 или 1. При этом ni = 0 определяет состояние покоя,
а ni = 1 – активное состояние элементарной ячейки. Новое состояние
некоторого нейрона определяется воздействием всех других нейронов на него и выражается линейной комбинацией их выходных значений с учетом синаптических весов между нейронами. Иначе говоря, модель нейрона Маккаллоха-Питтса вычисляет взвешенную
сумму своих входов от других нейронов. Далее в модели принято,
22
x1
x2
W1
W2
.
.
.
x3
d
y
Σ
F
Сумматор
Функция
активации
W3
Рис. 15. Модель искусственного нейрона
что нейрон становится активным, если эта сумма (вход нейрона)
превышает некоторый порог qi, который может значительно различаться от одного нейрона к другому.
Маккаллох и Питтс показали, что сети, составленные из таких
нейронов, могут выполнять вычисления подобно программируемым цифровым компьютерам. В определенном смысле сеть также
содержит «программный код», который управляет вычислительным процессом. Сеть отличается от традиционного компьютера
тем, что шаги программы выполняются не последовательно, а параллельно в пределах каждой элементарной ячейки.
В целом, учитывая свойства реальных нейронов, в модель следует ввести нелинейную функцию F(x), которая называется функцией
активации (ФА) или передаточной функцией. На рис. 15 приведена
схема искусственного нейрона Маккаллоха-Питтса.
2.2. Архитектура нейронных сетей
Нейроны обычно организованы в слои, в которых все вычислительные элементы подвергаются воздействию ФА. Чаще всего НС
состоит из входного слоя и, по крайней мере, еще двух слоев нейронов: скрытого и выходного (рис. 16). Нейроны скрытого слоя имеют нелинейную и дифференцируемую ФА. Отметим, что в такой
НС есть два слоя регулируемых весов (между входным и скрытым,
между скрытым и выходным), которые образуют элементы весовых
матриц V и w. Нелинейный характер ФА позволяет НС быть универсальными аппроксиматорами. Дифференцируемость ФА нейро23
нов скрытого слоя делает возможным решить проблему нелинейного обучения.
Обычно входной слой не рассматривается как слой вычислительных элементов. Входные нейроны не выполняют никаких вычислений, хотя в графическом представлении они выглядят как слой.
Скорее, эти нейроны можно считать входным вектором, чьи компоненты подаются далее на вычислительные элементы следующих
слоев (скрытого или выходного).
Нейроны выходного слоя могут быть линейными (для задач регрессионного типа) или иметь сигмоидную ФА (для задач классификации и распознавания образов). Для НС, используемых в схемах
адаптивного управления или прогнозирования временных рядов,
нейроны выходного слоя являются линейными. Схема НС, показанная на рис. 11, отображает прямонаправленную сеть (многослойный персептрон), в которой выходной сигнал определяется следующим образом
J
o =(x,V,w,b) =F ((x,V,w,b) =∑ wj σ j (vT
j x + bj ),
j =1
где σj – параметр сигмоидной ФА; х – входной вектор; V и w – матрица весов, соответственно, между входным и скрытым, между скрытым и выходным; b – вектор смещения; J – число нейронов скрытого слоя.
y1 W
V
x1
y2
yj wj
xi
yj+1
b1
xn+1=+1
bJ
yJ
+1
Рис. 16. Типичная схема нейронной сети
24
0
Организация нейронов и их связей в определенную структуру
(архитектуру) оказывает значительное влияние на вычислительные возможности НС. Топологии связей, которые определяют поток
данных между входными, скрытыми и выходными нейронами, сводятся к двум основным группам:
– прямонаправленные (слоистые);
– рекуррентные (полносвязные) сети.
В слоистых сетях нейроны расположены в несколько слоев
(рис. 17). Нейроны первого слоя получают входные сигналы, преобразуют их и передают нейронам второго слоя. Далее срабатывает
второй слой и т. д. до k-го слоя, который выдает выходные сигналы
для интерпретатора и пользователя. Если не оговорено противное,
то каждый выходной сигнал предыдущего слоя подается на вход
всех нейроновпоследующего. Число нейронов в каждом слое может
быть любым и никак заранее не связано с количеством нейронов
в других слоях. Стандартный способ подачи входных сигналов: все
нейроны первого слоя получают каждый входной сигнал, поэтому
чаще всего количество нейронов входного слоя определяется размерностью вектора входных данных.
В полносвязных сетях каждый нейрон передает свой выходной
сигнал остальным нейронам, включая самого себя (рис. 18). Выходными сигналами сети могут быть все или некоторые выходные сигналы нейронов после нескольких тактов функционирования сети.
Все входные сигналы подаются всем нейронам. Для полносвязной
сети входной сумматор нейрона фактически распадается на два:
первый вычисляет линейную функцию от входных сигналов сети,
второй – линейную функцию от выходных сигналов других нейронов, полученных на предыдущем шаге.
Выходные
сигналы
Входные
сигналы
...
...
Слой 1
... ...
...
Слой 2
...
...
...
...
Слой k
Рис. 17. Прямонаправленная сеть
25
ƒ(x)
w11
w1n
wn1
Z–1
Z–1
1,0
Z–1
0,8
y1
1
0,6
0,4
y2
0,2
ο
0,0 ο ο ο
y3
–0,2
wnn
Рис. 18. Полносвязная сеть
–4 –2
οο ο
0
2
ο ο
ο ο
2
4
x
Рис. 19 График сигмоидной
функции (1) и ее производной (2)
В большинстве случаев применяется нелинейная ФА, в качестве
которой в нейросетевой технологии распространена так называемая
сигмоидная функция. Применение такой функции обусловлено,
в основном, двумя обстоятельствами: во-первых, ограничением величины сигнала после операций умножения и суммирования, и, вовторых, простыми соотношениями между этими функциями и их
первыми производными, которые используются в методе обучения
многослойных сетей.
Сигмоидная функция и ее производная имеют вид
−1
f (x=
) [1 + exp(−βx) ] , f ′(x) =
βf (x) [1 − f (x) ].
Входящий в формулу параметр β, величина которого влияет на
форму кривой, подбирается пользователем.
Значения этой функции лежат в диапазоне от 0 до 1, поэтому ее
часто применяют в ситуациях, когда требуемые выходные значения
являются бинарными или находятся в указанном диапазоне. Иногда такую функцию называют бинарной сигмоидой. На рис. 19 изображен график сигмоидной функции и ее производной при значении β = 1.
2.3. Обучение нейронных сетей
Возможно, самым удобным принципом классификации ИНС являются парадигмы их обучения (иначе, правила изменения и регулирования весов). Существуют три основных парадигмы обучения:
– супервизорное обучение (СО);
26
– несупервизорное обучение (НСО);
– усиленное обучение (УО).
СО – сегодня наиболее часто используемый вид обучения сетей
и используется в НС, предназначенных для классификации и предсказания. НСО применяется в задачах кластеризации и сегментации для поддержки принимаемого решения. УО используется в
задачах оптимизации и адаптивного управления и по сравнению
с другими способами обучения используется реже.
Наиболее распространенным является первый способ. Этот вид
обучения эквивалентен программированию на примерах. При таком подходе сети задается проблема, и НС ищет решение по известному соотношению «вход-выход». Здесь «учитель» (тренер) указывает, каким должен быть правильный ответ. Обучающий алгоритм
по разнице между правильным (требуемым) выходом и действительным выходом сети регулирует ее веса таким образом, что в следующий момент времени (на следующем проходе) выход сети будет
ближе к правильному ответу. На входной слой сети подается вектор
входных параметров, а на выходной – соответствующий этому вектору номер класса (в задаче классификации). Такие примеры «входвыход» сети должны быть предъявлены десятки раз прежде, чем
сеть может дать точный ответ на некоторую сложную проблему (например, отнести новый, неизвестный сети объект к одному из классов, на которые она обучена).
СО обычно используется, когда в наличии имеется база примеров, содержащие вход и выход. По этой базе НС может обучиться
тому, как связаны вход и выход, и на основании этого принять соответствующее решение. Сеть тренируется на предъявляемых ей учителем примерах. Цель такой тренировки заключается в минимизации ошибки между правильным и реальным выходами сети.
Переход к многослойным нейронным сетям, способным решать
задачи классификации, был затруднен из-за отсутствия обучающего алгоритма для таких сетей. Метод обучения многослойных сетей,
получивший название метода обратного распространения ошибки
(ОРО, в английском написании – Back Propagation Error (BPE)), был
предложен в 1986 г., после чего начался интенсивный период разработки нейросетевых технологий на основе многослойных сетей
в приложениях к различным сферам науки и техники. Здесь рассмотрим метод ОРО для многослойного прямонаправленного персептрона (МПП), предназначенного для решения задач, которые
могут быть выражены в виде образов (пар) вход – выход. Такие соотношения можно назвать обучающими примерами.
27
Обучение МПП состоит в адаптации всех синаптических весов
таким образом, чтобы разница между действительными выходными и требуемыми сигналами, усредненная по всем обучающим примерам, была настолько мала, насколько это возможно. Обучение сети методом ОРО включает в себя три этапа:
– прямое распространение входного обучающего образа;
– вычисление ошибки и ее обратное распространение;
– регулирование весов.
После обучения сети ее использование состоит только из вычислений первой фазы. Хотя обучение сети может представлять собой
медленный процесс, обученная сеть выполняет свою задачу очень
быстро.
Для конкретности рассмотрим МСП, состоящий из входного,
скрытого и выходного слоев нейронов, схема которого представлена
на рис. 20.
Обозначим xi (i = 1, 2,..., n) – входные нейроны; vj (j = 1, 2,..., q) –
нейроны скрытого слоя; yk ( k = 1, 2,..., m) – выходные нейроны;
wij – веса от ячеек входного слоя к нейронам скрытого слоя; wjk –
веса от нейронов скрытого слоя к выходным нейронам. Индексом
p = 1, 2,..., P обозначим различные образы, предъявляемые на вход.
Алгоритм обучения сети представляет собой такую последовательность шагов.
1. Инициировать веса, приняв их малыми случайными величинами.
2. Если условие остановки не выполняется, делать шаги 3–10.
3. Для каждой обучающей пары выполнять шаги 4–9.
x1
wij
f(hj)
Σ
x2
Σ
.
i ..
.
.
.
xr1
1 слой
v1
v2
.
.
Σ
.
.
.
vq
wjk
f(hj)
Σ
y1
Σ
y2
.
.
.
2 слой
.
.
.
ym
Σ
Рис. 20. Схема персептрона
28
.
.
3 слой
Прямой проход по сети
4. Каждая входная ячейка xi, i = 1, 2,..., n принимает входной
сигнал и распространяет его ко всем нейронам следующего (скрытого) слоя.
5. Каждая ячейка скрытого слоя vj, j = 1, 2,..., q суммирует свои
взвешенные входные сигналы
hj = ∑ wij xi ,
i
применяет к полученной сумме функцию активации, формируя выходной сигнал
vj = f (hj ),
который посылается ко всем ячейкам выходного слоя.
6. Каждая выходная ячейка yk, k = 1, 2,..., m суммирует взвешенные сигналы
hk = ∑ wjkvj ,
j
формируя после применения функции активации выход сети
yk = f (hk ).
Обратное распространение ошибки
7. Каждая выходная ячейка сопоставляет свое значение выхода
с требуемой целевой величиной и вычисляет параметр dk
d k = (tk − yk )f ′(hk ),
после чего определяется корректировочный член для весов
∆wjk = ηd kvj ,
а параметры dk посылаются в нейроны скрытого слоя.
8. Каждая скрытая ячейка vj суммирует свои d-входы от нейронов выходного слоя
h=
j
∑ dkwjk ,
k
результат умножается на производную от функции активации для
определения dj
=
d j f ′(hj )∑ d kwjk
k
и вычисляется поправочный член
∆wij = ηd j xi .
29
Изменение весов
9. Веса между скрытым и выходным слоями модифицируются
следующим образом
wjk=
(new) wjk (old) + ∆wjk .
Аналогичным образом изменяются веса между входным и скрытым слоями
wij=
(new) wij (old) + ∆wij .
10. Проверка условия остановки.
Схема алгоритма ОРО показана на рис. 21.
Пример 4. (Выполняется в пакете Statistica). Исходные данные –
файл данных Irisdat.sta.
Рассматриваются три сорта цветов ириса: Setosa, Versicolor,
Virginica. Всего имеется по 50 экземпляров каждого вида, и каждый из них характеризуется четырьмя признаками: длиной и шириной чашелистика, длиной и шириной лепестка.
Задача заключается в том, чтобы обученная НС предсказывала
тип нового, предъявленного сети цветка, по набору измерений из
четырех признаков.
Решение примера выполняется следующим образом.
1. Открыть файл Irisdat.sta через опцию Файл – Открыть.
Нейросеть
Генератор
обучающих x, t Распре- x
делипар {x, t}
тель
y
прямой сигнал
w(new)
обратный проход
Обновление весов
w(new)=w(old)+∆w
∆w
Вычисление
приращений весов ∆w
Рис. 21. Алгоритм метода ОРО
30
t–y
Рис. 22. Окно Нейронные сети
Рис. 23. Окно выбора переменных
31
2. Выбрать команду Анализ – Нейронные сети для отображения
Стартовой панели STATISTICA Нейронные сети. Выбрать опцию
Классификация в группе Тип задачи, указать в качестве инструмента Мастер решений, вкладку Быстрый (рис. 22) и нажать OK.
3. Выбрать переменную IRISTYPE в списке Категориальные
выходные, а переменные SEPALLEN, SEPALWID, PETALLEN и
PETLWID в списке Непрерывные входные (рис. 23).
Нажать кнопку OK, чтобы отобразить диалог Мастер решений.
4. На вкладке Быстрый указать опцию Выбрать подмножество
независимых переменных, установить параметр Длительность
анализа, равный 1 минуте, а параметр Сохранять сетей – 10.
На вкладке Тип сети выбрать Трехслойный персептрон.
На вкладке Сложность указать по 6 нейронов в слое №  2; в этом
случае будет анализироваться сеть с 6 скрытыми нейронами.
На вкладке Обратная связь указать опцию Все тестируемые
сети (реальное время) в группе Подробное описание сетей. Выбрать
опцию Создать таблицу подробного описания сетей при завершении анализа и нажать кнопку OK.
Рис. 24. Окно результатов
32
Рис. 25. Архитектура сети
Рис. 26. Матрица ошибок
Рис. 27. Ввод значений пользователя
Рис. 28. Классификация нового наблюдения
33
5. В окне «Результаты» нажать клавишу Выбрать модели и выбрать модель с наименьшей ошибкой обучения (рис. 24). В данном
случае ошибка для сети № 14 составляет около 10%.
При вкладке Дополнительно можно просмотреть архитектуру
сети, состоящую из 4 входных, 6 скрытых и 3 выходных нейронов
(рис. 25).
6. На вкладке Описательные нажать клавишу Описательные статистики для формирования отображаемых результатов.
На рис. 26 приведена матрица ошибок, откуда видно, что Setosa
классифицируется безошибочно, а два других типа цветка – с ошибками.
7. На вкладке Дополнительно можно перейти к наблюдению
пользователя, нажав одноименную клавишу. При этом открывается окно, в которое следует ввести новые данные, нажав клавишу
Значение пользователя (рис. 27).
Результат классификации нового наблюдения, введенного пользователем, показан на рис. 28.
Следует отметить, что это наблюдение для сети – новое, она никогда его раньше не видела, и, тем не менее, классифицирует его.
34
3. Нечеткая логика
Данный раздел посвящен нечеткой логике (НЛ) и ее использованию в задачах менеджмента. Основная идея НЛ состоит в том,
что интеллектуальный способ рассуждений, опирающийся на естественный язык общения человека, не может быть описан в рамках
традиционных математических формул. Формальному подходу
присуща строгая однозначность интерпретации, а все, что связано с применением естественного языка, имеет многозначную интерпретацию. Основатель современной концепции НЛ профессор
Л. Заде построил новую математическую дисциплину, в основе которой лежит не классическая теория множеств, а теория нечетких
множеств. Последовательно проводя идею нечеткости, можно описать нечеткие аналоги всех основных математических понятий и
создать аппарат для моделирования человеческих рассуждений и
способов решения задач.
В разделе вначале описывается сущность НЛ, рассматриваются
ее основные компоненты, включающие нечеткие множества, функции принадлежности, базы правил. Далее анализируется схема нечеткого логического вывода и приводится пример решения задачи с
применением НЛ.
3.1. Сущность нечеткой логики
Многие системы в реальной жизни являются достаточно сложными или плохо определенными для получения точного аналитического решения. Использование нечетких множеств с промежуточными степенями принадлежности открывает возможности анализа таких систем как с качественной, так и с количественной точек
зрения.
Рассмотрим кратко сущность нечеткой логики, которая представляет удобный путь отображения входного пространства в выходное (рис. 29).
Входные
признаки
Черный
ящик
Выходные
признаки
Рис. 29. Схема отображения пространств
35
В качестве черного ящика принципиально могут быть различные системы, в частности: нейронные сети, экспертные системы,
дифференциальные уравнения и т. д. В нашем случае роль черного
ящика выполняет НЛ.
В основе НЛ, отображающей входное пространство в выходное,
используется механизм этого отображения в виде набора правил вида: если – то. Пример правила: если вода горячая, то нужно больше
открыть кран холодной воды.
Все правила оцениваются параллельно; порядок правил не важен. Перед тем, как строить систему, описываемую правилами, необходимо определить все члены, которые используются в системе,
и прилагательные для их описания (например, для температуры воды прилагательными могут быть: холодная, горячая, теплая и т. п.).
Укажем еще причины, на основании которых отдают предпочтение применению систем с НЛ:
– НЛ концептуально легче для понимания.
– НЛ – гибкая система и устойчива к неточным входным данным.
– НЛ может моделировать нелинейные функции произвольной
сложности.
– В НЛ учитывается опыт специалистов-экспертов.
– НЛ основана на естественном языке человеческого общения.
Последнее – самое важное. Естественный язык сформирован на
протяжении тысячелетий. Предложения, написанные обычным
языком, представляют собой триумф эффективности коммуникаций. Вследствие того, что НЛ построена на конструкциях качественного описания, используемых в повседневной жизни, НЛ легка для применения.
3.2. Нечеткие множества
Под нечетким множеством (НМ) понимается множество без четких, определенных границ. Такое множество может содержать элементы только с частичной степенью принадлежности. Для лучшего понимания различия между четкими и нечеткими множествами
проведем их сравнение на уровне определений.
Пусть E – универсальное множество, x – элемент множества E,
а R – некоторое свойство. Четкое подмножество A универсального
множества E, элементы которого удовлетворяют свойству R, определяется как множество упорядоченных пар A = {mA(х)/х}, где mA(х) –
характеристическая функция принадлежности (или просто функ36
ция принадлежности), принимающая значения в некотором множестве M (например, M = [0, 1]). Функция принадлежности (ФП)
указывает степень (или уровень) принадлежности элемента x подмножеству A. Нечеткое подмножество отличается от обычного тем,
что для элементов x из E нет однозначного ответа «да-нет» относительно свойства R.
Необходимо обратить внимание на существенную разницу между четкими и нечеткими множествами. Нечеткая логика является
средством моделирования человеческих знаний и понимания человеком окружающего мира. Но этот мир – не бинарный: имеется бесконечное число значений между 0 и 1; существует спектр оттенков
между черным и белым цветами; наши утверждения не могут быть
абсолютно истинными или абсолютно ложными. Таким образом,
бинарная концепция, подобная высказываниям да-нет, должна
быть расширена для перекрытия многочисленных расплывчатых
состояний, концепций, ситуаций.
Характеристическая функция (ХФ) μ А(х) в концепции четкой логики может принимать значения, равные только 0 или 1. Теперь положим, что ХФ становится любым числом в интервале [0, 1]. Таким
путем концепция принадлежности не является больше четкой (или
1, или 0), но трансформируется к нечеткой в смысле представления
частичной принадлежности или степени принадлежности.
Рассмотрим следующий пример.
Объект исследования представляет множество взрослых людей.
Обозначим через х возраст человека и введем функцию:
1, åñëè x ≥ 18
m(x) =

0, åñëè x < 18.
В этой записи учтено, что взрослым считается человек, достигший 18 лет. Следовательно, множество взрослых людей может быть
задано в виде:
A = {x m(x) = 1}, x ∈ X ,
где X – множество возможных значений х.
Последнее равенство гласит: множество А образуют такие «объекты», для которых ФП μ(х) = 1 (рис. 30, а).
Однако такая двузначная логика («да–нет») не учитывает возможного разброса мнений относительно границ множества А. Более
естественна форма представления, показанная на рис. 30, б, где ФП
ставит в соответствие каждому элементу х ∈ Х число m(х) из интервала [0.1], описывающее степень принадлежности Х к множеству А.
37
а) µ(х)
1,0
б) µ(х)
1,0
0
18
х
0
18
х
Рис. 30. Четкое (а) и нечеткое (б) множества
Укажем основные понятия, связанные с нечеткими множествами.
1. Лингвистическая переменная – определяет переменную, которая может быть входной или выходной, со значениями, выражающими качественные оценки. Примерами таких переменных служат: доход клиента, стоимость акции.
2. Лингвистическое значение – представляет собой значение
лингвистической переменной, выраженное в словесной форме. Примеры: большой положительный, молодой, средний.
3. Лингвистическое терм-множество переменной – множество
всех лингвистических значений, используемых для определения
конкретной лингвистической переменной. Пример: XL = {отрицательный, положительный} = {xL1, xL2}.
4. Область значений переменной – множество всех числовых
значений, которые может принимать определенный параметр изучаемой системы. Слово «числовые» употреблено здесь для того,
чтобы подчеркнуть отличие этих значений от лингвистических.
Для области значений используются и другие названия, в частности, пространство значений, предметная область, базисный диапазон и т. д. Примеры: Х = {x} – бесконечная непрерывная область;
Х = {x1, x2, ..., xn} – конечная дискретная область.
В НЛ для описании объектов и явлений с помощью нечетких
множеств вводятся понятия нечеткой и лингвистической переменных.
Нечеткая переменная характеризуется тройкой <a, X, A>, где
a – наименование переменной; X – универсальное множество (область определения a); A – нечеткое множество на X, описывающее
ограничения (т. е. mA(x)) на значения нечеткой переменной a.
Лингвистической переменной называется набор <b, T, X, G, M>,
где b – наименование лингвистической переменной; Т – множество
38
ее значений (терм-множество), представляющих собой наименования нечетких переменных, областью определения каждой из которых является множество X; G – синтаксическая процедура, позволяющая оперировать элементами терм-множества T, в частности,
генерировать новые термы (значения); М – семантическая процедура, позволяющая превратить каждое новое значение лингвистической переменной, образуемое процедурой G, в нечеткую переменную, т. е. сформировать соответствующее нечеткое множество.
3.3. Функции принадлежности
Несмотря на то, что выше было введено понятие ФП, конкретизируем ее определение как кривую, указывающую, каким образом
каждая точка входного пространства отображается в степень принадлежности между 0 и 1.
Для нахождения ФП могут быть использованы следующие методы:
– прямые;
– косвенные;
– посредством типовых форм;
– по данным эксперимента.
При прямом методе эксперт задает значения ФП m(х) для ∀х ∈ Х.
Обычно прямые методы используются для измеримых понятий,
таких как, например, темп роста, величина дохода и т. п. или при
выявлении бинарных значений какого-либо параметра. При таком
подходе применяют также групповые прямые методы, когда группе экспертов предъявляется конкретный объект (напомним, что под
объектом подразумевается любое предприятие, фирма, магазин),
и каждый из экспертов должен дать по каждому параметру один из
двух ответов такого, например, вида: «этот параметр в норме» или
«этот параметр не в норме». Количество положительных ответов,
деленное на число экспертов, дает величину ФП для параметра, находящегося в нормативных границах.
Косвенные методы построения ФП используют в случаях, когда
отсутствуют количественные признаки, необходимые для определения НМ. В этом случае применяют метод попарных сравнений, которые можно представить матрицей отношений А. Эксперт сам формирует матрицу А, в которой диагональные элементы равны единице,
а элементы, симметричные относительно диагонали, заполняются
значениями aij и 1/aij (aij – отношение предполагаемых экспертом
значений ФП i-го и j-го признаков рассматриваемого объекта).
39
1
trimf trapmf
0
gaussmf
sigmf
0,5
0
0
1
2
3
4
5
6
7
8
9
10
Рис. 31. Функции принадлежности модуля FuzzyLogic:
trimf – треугольная, trapmf- трапециевидная, gaussmf – гауссова,
sigmf – сигмоидная
В качестве типовых форм могут применяться различные виды
ФП, в частности, треугольная, трапециевидная, гауссова, сигмоидальная и другие. Форма ФП определяется разработчиком системы,
исходя из условий простоты, удобства и эффективности использования. Например, в пакете прикладного программирования Matlab
в модуле Fuzzy Logic, применяемого для решения задач посредством нечеткой логики, имеется одиннадцать видов ФП. На рис. 31
показаны некоторые из ФП.
По данным эксперимента определяются относительные частоты
проявления того или иного признака у объекта, на основании которых находятся значения ФП.
3.4. Нечеткий логический вывод
Имитация человеческих решений в задаче управляемой НЛ использует лингвистические переменные, оформленные в виде правил ЕСЛИ …, ТО. Например, если доход клиента – большой, то кредитный риск – малый. Реализация управляемой НЛ требует разработки базы правил с помощью нечетких множеств. Важная роль
здесь отводится опыту и знаниям эксперта.
Отметим следующее обстоятельство. Целью управления какойлибо системой в инженерной области является действие. В бизнесе,
финансах, менеджменте значение этого термина расширяется до более широкой интерпретации: предложение, инструкция, заключение, оценка, прогноз.
40
Нечеткий логический вывод (НЛВ) представляет собой аппроксимацию зависимости «вход – выход» на основе лингвистических
высказываний вида «если – то» и логических операций над нечеткими множествами.
В общем случае схема системы НЛВ может быть представлена
так, как это показано на рис. 32.
Данная система состоит из следующих модулей:
– фаззификация (от англ. cлова fuzzy): здесь происходит преобразование вектора входных четких переменных в нечеткие множества, необходимые для нечеткого вывода;
– база правил, содержащая информацию о зависимости y = f(x)
в виде лингвистических правил вида «если – то»;
– блок нечеткого вывода, который на основе базы правил формирует значение выходной переменной в виде выходного нечеткого
множества;
– дефаззификация (от англ. слова defuzzy): выполняется преобразование выходного нечеткого множества в четкое выходное значение у.
Необходимо подчеркнуть, что вход и выход этой системы являются четкими величинами.
Кратко рассмотрим отдельные блоки системы НЛВ.
Фаззификация: в этом блоке вычисляются степени принадлежности числовых значений входных параметров входным нечетким
множествам. Для выполнения такой операции должны быть заданы конкретные ФП (тип функции и ее параметры).
Как раз ФП и определяет степень принадлежности элемента x
нечеткому множеству. ФП можно описать как кривую, указывающую, каким образом каждая точка входного пространства отображается в степень принадлежности между 0 и 1.
База
правил
x
Дефаззификация
Фаззификация
y
Нечеткий
вывод
Рис. 32. Система нечеткого логического вывода
41
Под базой правил (БП) понимается совокупность нечетких правил вида «если – то», устанавливающих взаимосвязь между входами и выходами исследуемого объекта. Каждое нечеткое правило
имеет такой формат:
ЕСЛИ (посылка правила), ТО (заключение правила).
Посылка правила является утверждением вида «х есть большой», где «большой» представляет собой терм, заданный нечетким
множеством на универсальном множестве лингвистической переменной х. Заключение правила устанавливает факт типа «у есть b»,
в котором значение выходной переменной может задаваться следующим образом:
– нечетким термом – «у есть малый»;
– классом решений – «у есть ложная цель»;
– четкой константой – «у = 2»;
– четкой функцией от входных переменных – «у = 2 +3х».
Многомерные зависимости «входы – выходы» задают нечеткими
правилами с логическими операциями И или ИЛИ. Например, «Если
х1 = малый» И «х2 = большой» И «х3 = средний», то « у = большой».
БП содержит основную информацию о моделируемой системе,
поэтому умение правильно ее формировать является важным условием решения задач в области нечеткой логики.
С повышением уровня сложности модели (увеличение числа правил или градаций) улучшается ее способность описывать реальную
систему. Но с увеличением сложности модели возрастает тот объем
информации о моделируемой системе, который необходим для определения параметров модели (в частности, характеристики ФП всех
НМ, описывающих градации переменных).
В то же время такой объем информации часто является недостаточным для построения более сложной модели, и с этой точки зрения сложность модели является ее недостатком. При рассмотрении
задач нечеткого моделирования необходимо задавать некоторые
разумные границы уровня сложности и иметь представление о том,
что приводит к усложнению задачи.
Если обозначить число входов модели через w и принять, что
каждый из входов задается одинаковым числом z градаций (нечетких множеств), то число правил можно найти по формуле
r = zw.
На практике рекомендации по выбору числа правил сводятся
к следующему: количество правил равно произведению числа гра42
даций каждой входной переменной. Например, для системы из двух
входов, каждый из которых имеет, соответственно, n и m градаций, число правил составит величину nm. Однако здесь отмечено,
что число градаций выходной переменной (в системе с одним выходом) l < nm.
Укажем общие рекомендации по построению БП.
1. БП должна обеспечивать возможность достижения требуемой
точности нечеткой модели после того, как определены параметры
последней.
2. Для уменьшения объема вычислений и формирования более «прозрачной» модели число правил должно быть как можно
меньше.
3. Указанные свойства нечеткой модели – точность и число правил – являются взаимоисключающими. При большом числе правил достижение высокой точности является более простой задачей,
а уменьшение числа правил снижает ее точность.
Блок нечеткого вывода на основе степеней принадлежности
mAi(x1), mBj(x2) входных значений определяет результирующую ФП
mres(y)выходного значения (рис. 33).
Операции в этом блоке состоят из следующих шагов:
1. Вычисление степени выполнения условий отдельных правил.
2. Определение активированных ФП заключений отдельных
правил.
3. Нахождение результирующей ФП.
В результате вывода из m отдельных правил, составляющих базу правил, определяются m модифицированных ФП заключений,
на основе которых необходимо получить одну результирующую ФП
вывода по всей базе правил. Такой процесс часто называется аккумуляцией.
В типичных практических задачах количество входов, естественно, больше одного, поэтому соответствующие правила состав-
µ A (x1* ) 
 1

µ A (x1* ) 
 2

µ (x* ) 
B1 2


µ (x* ) 
 B2 2 
Нечеткий
вывод
µres(y)
Рис. 33. Блок нечеткого вывода
43
ляются в виде перечня (базы) правил, например, два правила могут
иметь такой вид:
R1: ЕСЛИ х1 = малый И х2 = средний, ТО y = высокий;
R2: ЕСЛИ х1 = малый И х2 = высокий, ТО y = очень высокий.
Эти два правила определяют трехмерную структуру нечетких
отношений с ФП в трехмерном пространстве, образованном х1, х2 и
y. Для правила R1, в частности, имеем
μR (x1, х2, y) = MIN (μL(x1), μM(x2), μH(y)).
Воспользовавшись правилом R1, найдем результат его действия.
ФП двух нечетких множеств «малый» и «средний» показаны на рис.
34 вместе с результатом нечеткого вывода для двух четких входных
значений: x′1 = 2 и x2′ = 600.
Результат этого правила формируется следующим образом: вначале отметим, что условия «малый» и «средний» соединены с помощью оператора И.
Аналогичным образом наличие нескольких правил также приводит к нечеткому выходному множеству.
Перейдем к последней операции, а именно: к дефаззификации.
В практических задачах для принятия конкретного решения необходим четкий выход системы, т. е. результатом вывода должно быть
четкое значение выходной переменной. Процедурой для получения
четкого выхода и является дефаззификация. Укажем на разницу
между фаззификацией и дефаззификацией. Первая операция означает преобразование четкого входа в вектор функции принадлежности, а вторая – преобразование нечеткого выходного множества
(обычно ненормированного) в четкое значение выхода.
Существует различные методы дефаззификации, среди которых
отметим наиболее известные:
– метод среднего максимума;
Малый
Средний
µ
1
µ
1
min
0,5
0,5
0,5
x′1=2
0 2 4 6 8
Высокий
µ
1
x1
x′2=600
400
µН′
x2
600
–4
Рис. 34. Результат выполнения правила R1
44
0
4
– метод первого максимума;
– метод последнего максимума;
– метод центра тяжести.
Чаще всего используется последний.
Здесь в качестве четкого значения y* выбирается координата yс
центра тяжести фигуры, образованной усеченными функциями
принадлежности (зачерненная часть на рис. 35).
Значение координаты центра тяжести может быть найдено по
следующей формуле:
y* =
yc =
∫ ymres (y)dy
∫ mres (y)dy.
представляющей собой отношение момента фигуры под кривой
μres(y) относительно вертикальной оси μ(y) к площади этой фигуры.
Пределы интегрирования задаются областью определения результирующего нечеткого множества.
Преимущество способа заключается в том, что в дефаззификации участвуют все активизированные ФП заключений. Сложность
вычислений, связанная с интегрированием, определяет недостаток
метода, однако в различных программных продуктах это затруднение успешно преодолевается.
Пример 5. (Выполняется в пакете Matlab). Рассмотрим учебную
задачу о чаевых. Входными переменными являются качество еды и
обслуживания, выходной переменной – размер чаевых официанту,
назначаемый в процентах от величины счета.
Схема работы модуля Fuzzy Logic системы Matlab показана на
рис. 36.
1. Вход в модуль: после вызова системы Matlab в командном окне (Command Window) набрать слово fuzzy и нажать клавишу Enter.
µ(y)
1
Центр
тяжести
yc
y
Рис. 35. Иллюстрация метода центра тяжести
45
Редактор входов
Редактор функций
принадлежности
Редактор правил
Система
нечеткого
вывода
Выход
График выходной
переменной
Рис. 36. Схема работы модуля Fuzzy Logic системы Matlab
Рис. 37. Окно редактора
46
Появится окно редактора системы нечеткого вывода Fuzzy inference
system (FIS) – editor (рис. 37).
2. По умолчанию редактор системы нечеткого вывода (СНВ) создает систему с одним входом и одним выходом; создаваемая система
относится к типу Мамдани. Добавить второй вход, для чего в меню Edit выбираем команду Add variable – input (добавить переменную – вход). Появится окно редактора с двумя входами.
3. Переименовать входы и выход. Щелчком мыши выделить окно с первой переменной Input1, затем в окне редактора вместо Input1
набрать food (еда) и нажать Enter. Аналогичные процедуры произвести со вторым входом (обозначим его как service) и выходом
(tip – чаевые). В результате должно получиться окно редактора с
двумя входами, одним выходом и соответствующими новыми подписями переменных (рис. 38).
4. Cохранить файл (если нужно), присвоив ему то же название,
что и выходной переменной: tip. Для этого в окне редактора нажать
File – Export to disk (отправить на диск) и набрать tip вместо прежнего наименования Untitled (безымянный). В этом случае данные сохраняются до окончания сеанса работы с системой Matlab.
Рис. 38. Окно редактора с двумя входами и одним выходом
47
5. Задать ФП можно двумя способами:
– через меню Edit – Membership Functions (редактирование ФП);
– двойным щелчком по окну соответствующей переменной.
Установить диапазон изменений для первой переменной [0 10]
в полях Range, Display Range (диапазон, отображение диапазона).
Достаточно набрать [0 10] в первом окне, после чего нажать Enter, и
требуемый диапазон появится в двух окнах.
Далее произвести редактирование ФП, для чего через меню
Edit – Add MFs (добавить ФП) и в появившемся окне Membership
Functions выбрать тип ФП (примем для первой переменной гауссов
тип (gaussmf) и их количество, равное 3.
Присвоить имена трем ФП: плохая, хорошая, превосходная (bad,
good, excellent). После переименования каждой из ФП необходимо
нажать Enter (рис. 39).
Аналогичную процедуру произвести для второй входной переменной service, установив для нее диапазон таким же, как и для первой переменной, но выбрав в качестве двух ФП трапеции (trapmf).
Параметры трапеций установить в соответствующем окне, равны-
Рис. 39. Функции принадлежности для первой переменной
48
Рис. 40. Функции принадлежности для второй переменной
ми (0 0 1 3) и (7 9 10 10), присвоив наименования ФП: медленное
(slow) и быстрое (quick) (рис. 40).
Такая же последовательность действий нужна и для выходной
переменной, где нужно задать диапазон от 0 до 25 процентов, выбрать три ФП треугольного типа (trimf) с параметрами (0 5 10), (5 12,
5 20), (15 20 25) и наименованиями small, middle, big (рис. 41).
6. Создать базу правил через меню Edit – Rules (редактирование
правил) следующего типа, например:
– Если еда – плохая или обслуживание – медленное, то чаевые –
малые.
– Если еда – превосходная и обслуживание – быстрое, то чаевые
– большие.
Добавить самостоятельно 1–2 правила. Обратить внимание на
то, что непосредственно ничего набирать не надо: в окне редактора
необходимо только отметить выбранные позиции.
После каждого правила нужно нажать Add rule (добавить правило) в нижней части окна. В скобках после каждого правила указан
вес правила (по умолчанию принимается равный 1). База правил
показана на рис. 42.
49
Рис. 41. Функции принадлежности для выходной переменной
Рис. 42. База правил системы нечеткого вывода
50
а)
б)
Рис. 43. Оценка чаевых: а – при плохой еде и медленном обслуживании:
чаевыесоставляют 5% от счета; б – при превосходной еде и быстром
обслуживании:чаевыесоставляют 18% от счета
Рис. 44. Трехмерный график зависимости выходной переменной
от входных факторов
51
7. Провести моделирование работы созданной системы оценки
чаевых, для чего через меню View –Rules (просмотр правил) выйти на систему графических окон, расположенных по строкам и по
столбцам. Количество строк равно числу правил, а число столбцов –
числу входных и выходной переменных. Кроме того, в дополнительном окне отображается суммарное выходное нечеткое множество,
из которого путем дефаззификации определяется четкое значение
выхода (в нашем случае – размера чаевых). Путем перемещения мыши по диапазонам входных переменных убедиться в работоспособности системы (рис. 43).
8. Построить трехмерные графики через меню View – Surface
и провести их анализ (рис. 44).
52
4. Сравнение нейронных сетей
и нечеткой логики
Нейронные сети и нечеткая логика являются средствами моделирования. Они работают практически одинаково после стадии обучения (в случае НС) или извлечения человеческих знаний (в ситуации с НЛ). По существу, эти технологии представляют собой обе
стороны одной монеты. Использование той или иной модели для решения рассматриваемой проблемы зависит от доступности предыдущих знаний о системе или количества наблюдений. Между ними
существует принципиальное различие, которое иллюстрируется
схемой на рис. 45.
Находящаяся на одном из полюсов НС представляет собой «черный ящик», отражающий ситуацию, при которой процесс полностью неизвестен, но в наличии имеются примеры наблюдений, записей, регистраций, выборочных данных. При использовании НС
никаких предыдущих знаний не требуется, нужны только данные
наблюдений. Здесь известны входы и выход, но требуется база примеров, по которой обучается сеть.
На другом полюсе с НЛ решение проблемы известно в виде структурированных человеческих знаний, опыта, эвристики, интуиции
о рассматриваемом процессе. Такая ситуация представима в виде
«белого ящика». При таком подходе разработчик составляет базу
правил, по которой обучается система.
В итоге можно сказать, что при минимуме доступных данных
наиболее вероятным является применение НС. Наоборот, чем больше объем имеющихся данных, тем ситуация благоприятнее для
использования НЛ. В целом, оба подхода имеют своей целью решение задач распознавания (классификации) и регрессии (многомерной аппроксимации функций). Сведем наиболее характерные
положительные и отрицательные характеристики обеих технологий
в табл. 1 и 2.
а)
б)
x
0
x
0
Рис. 45. Представление НС в виде «черного» ящика (а)
и НЛ в виде «белого» ящика (б)
53
Таблица 2
Преимущества и недостатки нейронных сетей
Преимущества
1.Обладают свойством обучаться на
примерах.
2. Могут аппроксимировать
любую многомерную нелинейную
функцию.
3. Не требуют глубокого понимания
изучаемого процесса.
4. Являются устойчивыми к
наличию шума.
Недостатки
1.Требуют большого времени
обучения в задачах с локальными
минимумами.
2. Не раскрывают соотношений
между переменными и не
увеличивают знаний о процессе.
3.В ряде задач обладают плохим
обобщением при предъявлении
новых образов.
Таблица 3
Преимущества и недостатки нечеткой логики
Преимущества
Недостатки
1. Могут аппроксимировать
любую многомерную нелинейную
функцию.
2. Являются пригодными в
ситуациях, когда математическая
модель неизвестна или ее трудно
получить.
3. Успешно используются при
отсутствии точной информации.
4. Применяются при формировании
правил принятия решений.
1.Могут возникать проблемы
при структурировании знаний
экспертов.
2.Число правил увеличивается
экспоненциально при возрастании
количества входов.
3. Обучение (изменение
формы и положения функций
принадлежности или правил) более
сложно, чем в случае НС.
54
5. Варианты заданий
Всего имеется 6 вариантов заданий. Каждый студент выполняет
один из вариантов.
1. Смоделировать базу примеров, которая потребуется для НС
при обучении сети на 2 класса. Вначале таблица состоит из 6 столбцов (3 переменные первого класса и 3 переменные второго класса) и
20 строк, затем она трансформируется к виду: 40 строк и 3 столбца.
Класс 1
Вариант
Класс 2
Х1
Х2
Х3
Х1
Х2
Х3
СЗ; СКО
СЗ; СКО
СЗ; СКО
СЗ; СКО
СЗ; СКО
СЗ; СКО
1
10; 1
100; 20
2
5; 1
80; 10
3
20; 2
60; 6
4
6; 1
50; 5
5
10; 1
60; 6
6
8; 2
80; 8
Значения СЗ и СКО в 5 раз
меньше
Значения СЗ и СКО в 10 раз
800; 16
меньше
Значения СЗ и СКО в 5 раз
500; 20
меньше
Значения СЗ и СКО в 5 раз
100; 10
больше
Значения СЗ и СКО в 10 раз
150; 8
больше
Значения СЗ и СКО в 5 раз
1000; 20
меньше
1000; 50
Примечания.
1. Моделирование проводится в Excel; каждая переменная распределена по нормальному закону со своими средними значениями (СЗ) и среднеквадратичными отклонениями (СКО).
2. Значения СЗ и СКО для переменных второго класса в определенное
число раз меньше соответствующих значений первого класса.
Трансформированная таблица имеет вид:
Номер наблюдений
Х1
Х2
Х3
Класс
1
2
...
20
1
1
...
1
21
22
...
40
2
2
...
2
55
2. По смоделированным данным вычислить главные компоненты и представить все 40 объектов в плоскости двух первых главных
компонентов. Оценить потерю информации при переходе к двум
главным компонентам.
3. Используя разыгранную таблицу в качестве базы примеров
создать файл в системе Statistica, сконструировать трехслойный
персептрон, обучить сеть, проверить ее работоспособность.
4. Разработать нечеткую систему для оценки выходного показателя (каждый студент выполняет один из вариантов).
Вариант
Название системы
Входные переменные
Выходная переменная
1
Подбор персонала
Возраст,
Степень
образование,
пригодности
иностранный язык, кандидата
опыт работы
2
Выдача кредита
в банке
Возраст, доход,
залог, семейное
положение
3
Привлекательность Цена, внешний
для клиента нового вид, известность
продукта
бренда, отзывы
потребителей
Оценка степени
привлекательности
нового продукта
4
Оценка финансового Наличие
состояния фирмы
задолженностей,
пропущенные
платежи,
наличие заказов,
финансовые
показатели
Оценка состояния
в виде шкалы, на
которой определены
отдельные зоны
5
Оценка риска
инноваций
6
Продажа квартир от Площадь квартиры, Риск застройщика
застройщика
расположение дома,
условия оплаты,
этажность
Величина
кредитного риска
Объем инвестиций, Риск инноваций
наличие
оборудования,
квалификация
персонала, срок
реализации
Решение выполняется в пакете Matlab. Кроме решения через нечеткую логику, должно быть выведено уравнение регрессии (в Excel),
которое связывает выходной параметр с входными переменными.
56
Содержание
1. Анализ многомерных данных..................................... 1.1. Представление многомерных данных.................... 1.2. Визуализация многомерных данных..................... 1.3. Кластерный анализ............................................ 1.4. Моделирование случайных величин..................... 2. Искусственные нейронные сети.................................. 2.1. Модель искусственного нейрона........................... 2.2. Архитектура нейронных сетей............................. 2.3. Обучение нейронных сетей.................................. 3. Нечеткая логика....................................................... 3.1. Сущность нечеткой логики.................................. 3.2. Нечеткие множества........................................... 3.3. Функции принадлежности.................................. 3.4. Нечеткий логический вывод................................ 4. Сравнение нейронных сетей и нечеткой логики............. 5. Варианты заданий.................................................... 3
3
5
10
16
21
21
23
26
35
35
36
39
40
53
55
57
Документ
Категория
Без категории
Просмотров
3
Размер файла
4 857 Кб
Теги
krichevskiy
1/--страниц
Пожаловаться на содержимое документа