close

Вход

Забыли?

вход по аккаунту

?

Bogdanova Inzheneriya znanij metod ukazaniya po vypolneniyu laboratorno praktitsheskih zanyatij

код для вставкиСкачать
ФЕДЕРАЛЬНОЕ АГЕНСТВО СВЯЗИ
Федеральное государственное бюджетное образовательное учреждение
высшего образования
«ПОВОЛЖСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
ТЕЛЕКОММУНИКАЦИЙ И ИНФОРМАТИКИ»
Кафедра Экономических и информационных систем
Е.А.Богданова
Инженерия знаний
Методические указания по выполнению лабораторнопрактических занятий
Самара
2016
УДК 004.8
Б73
Рекомендовано к изданию методическим советом ПГУТИ, протокол №30,
от 10.05.2016 г.
Рецензент:
доцент кафедры Информационных систем и технологий, к.т.н. Пальмов С.В.
Богданова, Е.А.
Б
Инженерия
знаний:
методические
указания
по
выполнению
лабораторно-практических занятий / Е.А.Богданова – Самара: ПГУТИ,
2016. – 32 с.
Методические
указания
содержат
теоретические
сведения
и
практические вопросы решения прикладных задач по дисциплине Инженерия
знаний. Разработано в соответствии с ФГОС ВО по направлению подготовки
09.03.01 - Информатика и вычислительная техника и предназначено для
студентов 2 и 2у курсов заочной и дистанционной форм обучения.
ISBN
©, Богданова Е.А., 2016
2
Содержание
1 Нечеткие модели………………………………………………………... 4
1.1 Основные понятия по нечетким моделям………………………… 4
1.2 Пример решения задачи…………………………………………… 5
2 Нейронные сети…………………………………………………………. 8
3 Алгоритмы обучения нейронных сетей……………………………….
12
3.1 Алгоритм обучения по ∆-правилу………………………………… 12
3.2 Пример решения задачи…………………………………………… 13
3.3 Алгоритм обратного распространения ошибки………………….. 16
3.4 Пример решения задачи…………………………………………… 18
4 Последовательно выполнения лабораторно-практических занятий… 22
5 Задачи для самостоятельного выполнения……………………………. 23
5.1 Задача №1 для самостоятельного решения………………………. 23
5.2 Задача №2 для самостоятельного решения………………………. 26
5.3 Задача №3 для самостоятельного решения………………………. 29
3
1 Нечеткие модели
1.1 Основные понятия по нечетким моделям
Нечеткие модели – интеллектуальные системы, в основе которых
лежит формализация нечетких, неполных знаний.
Нечеткое множество – это такое множество, которое образуется
путем введения обобщенного понятия принадлежности, т.е. расширения
двухэлементного множества значений функции принадлежности 0,1 до
отрезка 0,1 .
С точки зрения характеристической функции нечеткие множества
являются естественным обобщением обычных множеств, когда отказываются
от бинарного характера этой функции и предполагается, что она может
принимать любые значения из отрезка 0,1 . В теории нечетких множеств
характеристическая функция называется функцией принадлежности, а ее
значения
 A~ ( x )
- степенью принадлежности элемента
x
нечеткому
~
множеству A .
Функцией принадлежности называется функция, которая позволяет
вычислить степень принадлежности произвольного элемента универсального
множества к нечеткому множеству. По определению 0   A~ ( x )  1 .
Операции над нечеткими множествами можно проводить тремя
способами (таблица 1).
Таблица 1
Виды определений операций над нечеткими множествами
Максиминные
Алгебраические
Ограниченные
Дизъюнкция
 A B ( x)  max A ( x),  B ( x)
Конъюнкция
 A B ( x)  min  A ( x),  B ( x)
Дизъюнкция
 A B ( x )   A ( x )   B ( x )   A ( x )   B ( x )
Конъюнкция
 A B ( x )   A ( x )   B ( x )
Дизъюнкция
 A B ( x)  min 1,  A ( x)   B ( x )
Конъюнкция
 A B ( x)  max0,  A ( x)   B ( x )  1
4
Отрицание нечеткого множества во всех случаях определяется
одинаково:
 A ( x)  1   A ( x) .
При графическом определении функций принадлежности множества,
объединенного дизъюнктивно необходимо в каждой точке множества
выбрать максимальное значение из двух (точку того графика, который выше)
и объединить все полученные точки в график, который и будет
отображением новой функции принадлежности. Конъюнкция аналогична
дизъюнкции, только выбирается минимальное значение в каждой точке. При
построении отрицания необходимо зеркально отобразить график от оси,
параллельной оси абсцисс и проходящей через точку 0,5 оси ординат.
1.2 Пример решения задачи
Задача
Дано 3 нечетких множества
принадлежности).
Построить
А,
функцию
В,
С
(заданы их функции
принадлежности
нечеткого
множества D  А  ( A  C  B) и определить степень принадлежности одного
элемента множеству D , используя метод ограничений.
Рис.1 – Графики исходных данных функций принадлежности
5
Описание процесса решения
Для
построения
функции
принадлежности
нового
множества
необходимо:
1) Определить последовательность выполнения операций в формуле.
2) Построить на отдельных графиках промежуточные множества,
согласно
определенной
последовательности
действий.
Свести
промежуточные множества на одном графике и определить итоговую
функцию принадлежности.
3) Используя определенный в задаче метод, определить аналитически
степень принадлежности элемента, входящего в ядро итогового множества.
4) Проверить аналитические вычисления по построенному графику
функции принадлежности.
Решение
1) Множество D  А  ( A  C  B) , следовательно, последовательность
операций будет следующей: А , A  C  B , А  ( A  C  B) .
2) Построим согласно этой последовательности операций графики
функций принадлежности:
Рис.2 – Графики функций принадлежности после выполнения операций
3) Ядро множества D состоит из элементов на интервале (2, 13).
Выберем элемент 8.
6
 A (8)  0,5 ;
 B (8)  1 ;
 C (8)  0,5 ;
 A (8)  1   A (8)  1  0,5  0,5 ;
 AC (8)  min 1;  C (8)   A (8)  min 1; 0,5  0,5  1 ;
 AC  B (8)  min 1;  AC (8)   B (8)  min 1; 1  1  1 ;
 A( AC B ) (8)  max 0;  A (8)   AC  B (8)  1  max0; 0,5  1  1  0,5 .
4)  D (8)  0,5 .
Рис.3 – Итоговый график функции принадлежности
7
2 Нейронные сети
Искусственная нейронная сеть – математическая модель, реализуемая
программно, построенная по подобию естественных нейронных сетей (сетей
нервных клеток живого организма), представляющая собой соединение
простых взаимодействующих между собой процессоров – искусственных
нейронов.
Схема искусственного нейрона представлена на рис.4, где х1,…,хn –
входы нейрона, w1,…,wn – синапсические веса связей нейрона, Σwixi =S –
взвешенная сумма входных значений нейрона, f(Σwixi)=F(S) – функция
активации, значением которой является Y – выходное значение нейрона.
Рис.4 – Формальный нейрон (математическая модель)
Функция активации (активационная функция, функция возбуждения) –
функция, вычисляющая выходной сигнал искусственного нейрона. В
качестве аргумента принимает сигнал Y , получаемый на выходе входного
сумматора  .
Наиболее распространенные функции активации представлены в
таблице 1.
8
Таблица 1
Основные функции активации
Название
Жесткая
пороговая
ступенька
Формула
1, при S   ,
F (S )  
0, при S   ,
График
F (S )
  const

Линейная
S
F (S )    S
  const
Сигмоидальная
логистическая
F (S ) 
1
1  e  S 
F (S )
  const
S
9
Гиперболически
й тангенс
S

F (S )
S
 S  e  e 
F ( S )  th   S
S

 


e e
  const
Объединение нейронов в общую сеть осуществляется различными
способами.
Существует
множество
нейронных
сетей,
которые
классифицируются по нескольким признакам (таблица 2).
Талица 2
Классификация нейронных сетей
Тип
Описание
По топологии
Полносвязные
Слоистые
Каждый нейрон связан с другим нейроном в сети (из-за
высокой сложности обучения не нашли широкого
использования)
Нейроны располагаются слоями, каждый нейрон
последующего слоя связан с нейронами предыдущего.
Различают однослойные и многослойные сети.
По типу связей
Прямого
распространения
Рекуррентные
Все связи между нейронами идут от выходов нейронов
предыдущего слоя к входам нейронов последующего
Допускаются связи выходов нейронов последующих
слоев с входами нейронов предыдущих
По организации обучения
С учителем
При обучении используются обучающие выборки, в
которых определены требуемые от сети выходные
значения, такие сети используют для решения задач
классификации
Нейронная сеть сама в процессе работы выделяет классы
объектов и относит объект к определенному классу,
такие сети используют для задач кластеризации
Без учителя
10
Продолжение табл.2
Тип
Описание
По типу сигнала
Бинарные
На вход нейронных сетей подают только нули и
единицы
Подаваемые на входы нейронов сигналы могут быть
произвольными (вещественными числами)
По типу структур
Аналоговые
Однородная
Неоднородная
Для
решения
Все нейроны в нейронной сети используют одну
функцию активации
Нейроны в нейронной сети имеют разные функции
активации
конкретной задачи нужно выбрать подходящую
нейронную сеть. При этом нужно учитывать не только перечисленные в
таблице критерии, но и архитектуру сети. Выбор архитектуры подразумевает
определение количества слоев и нейронов в этих слоях. Не существует
формального алгоритма по определению нужной архитектуры, поэтому на
практике выбирают или заведомо маленькую сеть и постепенно ее
наращивают или заведомо большую и постепенно выявляют неиспользуемые
связи и сокращают сеть.
Нейронная сеть, прежде чем использоваться на практике для решения
какой-либо задачи должна быть обучена. Обучение нейронной сети – это
процесс настройки синапсических весов. Существует множество алгоритмов,
ориентированных на определенные типы сетей и на конкретные задачи.
Рассмотрим алгоритмы для однослойной и многослойной сетей.
11
3 Алгоритмы обучения нейронной сети
3.1 Алгоритм обучения сети по  -правилу
Простейшая нейронная сеть – однослойная (рис.5), представляющая из
себя
расположенные
одинаковые
сигналы,
параллельно
нейроны,
но имеющие
получающие
различные
на
входы
синапсические
связи.
Количество входов и выходов такой нейронной сети соответствует
количеству нейронов.
Рис.5 – Однослойная нейронная сеть
Такие нейронные сети можно обучать с помощью алгоритма обучения
по  -правилу.
Алгоритм обучения по  -правилу:
1 шаг: инициализация матрицы весов (и порогов, в случае
использования пороговой функции активации) случайным образом.
2 шаг: предъявление нейронной сети образа (на вход подаются
значения из обучающей выборки – вектор Х ), берется соответствующий
выход (вектор D ).
3 шаг: вычисление выходных значений нейронной сети (вектор Y ).
4 шаг: вычисление для каждого нейрона величины расхождения
реального результата с желаемым:
12
 i  (d i  y i ) ,
где d i - желаемое выходное значение на i -м нейроне,
y i - реальное значение на i -м нейроне.
5 шаг: изменение весов (и порогов при использовании пороговой
функции) по формулам:
wij (t  1)  wij (t )     i  x j ?
 i (t  1)   i (t )     i
где t - номер текущей итерации цикла обучения,
wij - вес связи j -го входа с i -ым нейроном,
 - коэффициент обучения, задается от 0 до 1,
x j - входное значение,
 i - пороговое значение i -го нейрона.
6 шаг: проверка условия продолжения обучения (вычисление значения
ошибки и/или проверки заданного количества итераций). Если обучение не
завершено, то 2 шаг, иначе – заканчиваем обучение.
3.2 Пример решения задачи
Задача
Просчитать одну итерацию цикла обучения по  -правилу однослойной
бинарной неоднородной нейронной сети, состоящей из 2 нейронов и
имеющей функции активации: жесткая ступенька (   0,7 ) и гиперболический
тангенс (   1 ). В качестве обучающей выборки использовать таблицу
истинности для операций эквивалентности и дизъюнкции (не использовать
первую строчку таблицы). Синапсические веса задать случайным образом.
Описание процесса решения
Для обучения нейронной сети по  -правилу необходимо:
1) Графически отобразить структуру нейронной сети. Определить
размерность матрицы синапсических весов.
2) Определить обучающую выборку, представив ее в табличном виде.
13
3) Выбрать входные данные, на которых будет рассматриваться
итерация цикла обучения.
4) Следуя алгоритму обучения по
 -правилу,
просчитать одну
итерацию цикла и представить новые синапсические веса в матричном виде.
Решение
1) По заданию нейронная сеть состоит из двух нейронов, значит,
входов у однослойной нейронной сети будет 2 и выходов 2, а синапсических
весов 4. Первый нейрон имеет функцию активации – жесткая ступенька,
второй – гиперболический тангенс.
Рис.6 – Графическое отображение структуры нейронной сети
2) По заданию нейронная сеть бинарная, поэтому на ее входы могут
подаваться только нули и единицы, так как входа 2, то возможных
комбинаций входных значений будет 4 (обучающая выборка будет состоять
из 4 векторов). Выход первого нейрона согласно заданию соответствует
оператору эквивалентности, а второго – дизъюнкции. Поэтому таблица с
обучающей выборкой будет выглядеть следующим образом:
x1
x2
d1
0
0
1
0
1
0
1
0
0
1
1
1
3) Пусть в качестве вектора обучения
d2
0
1
1
1
будет рассматриваться третья
строка таблицы.
4) Пошагово выполним алгоритм обучения по  -правилу.
1 шаг: зададим матрицу весов случайным образом из интервала [0,1]
14
1
2
1
0,7
0,9
2
0,5
0,2
2 шаг: вектор X  1,0 , вектор D  0,1 .
wij (1)
3 шаг: вычисление выходных значений нейронной сети (вектор Y ).
  0,7 ;
S1  x1  w11  x 2  w21  1  0,7  0  0,5  0,7 ;
1, при S1   1, при 0,7  0,7
Y1  

 1.
0, при S1   0, при 0,7  0,7
  1,
S 2  x1  w12  x 2  w22  1  0,9  0  0,2  0,9 ;
0 ,9
0 ,9
S  e e
Y2  th   0,9
 1,39 .
0 , 9
  e  e
4 шаг:
 1  (d 1  y1 )  (0  1)  `1,
 2  (d 2  y 2 )  (1  1,39)  0,39.
5 шаг: задаем  - коэффициент обучения от 0 до 1 и изменяем веса:
  0,8 ;
w11 (2)  w11 (1)  0,8   1  x1  0,7  0,8  (1)  1  1,5 ;
w21 (2)  w21 (1)  0,8   1  x 2  0,5  0,8  (1)  0  0,5 ;
1 (2)   1 (1)  0,8   1  0,7  0,8  (1)  1,5 ;
w12 (2)  w12 (1)  0,8   2  x1  0,9  0,8  (0,39) 1  1,212 ;
w22 (2)  w22 (1)  0,8   2  x 2  0,2  0,8  (0,39)  0  0,2 .
1
2
1
1,5
1,212
2
0,5
0,2
6 шаг: вычислим среднеквадратическую ошибку (можно выбрать
wij (2)
другие методы оценки ошибки):
N
2
   (d i  y i ) 2    i2   12   22  (1) 2  (0,39) 2  1,1521 ,
i 1
i 1
N - количество нейронов.
15
Так как необходимо было рассмотреть одну итерацию цикла обучения,
то завершаем обучение.
3.3 Алгоритм обратного распространения ошибки
Многослойная искусственная нейронная сеть (рис.7) может содержать
произвольное количество слоев ( K ), каждый слой состоит из нескольких
нейронов, число которых также может быть произвольно ( N k – число
нейронов в слое), количество входов n , количество выходов – N  N k
нейронов в выходном (последнем) слое.
Слои между первым и последним называются промежуточными или
скрытыми. Веса в такой сети имеют три индекса: i – номер нейрона
следующего слоя, для которого связь входная, j – номер входа или нейрона
текущего слоя, для которого связь входная, k - номер текущего слоя в
нейронной сети (для входов вектора X , k  0 ).
Рис.7 – Многослойная нейронная сеть прямого распространения
Многослойные нейронные сети прямого распространения обучаются
методом обратного распространения ошибки.
Алгоритм обучения методом обратного распространения ошибки:
1 шаг: инициализация матриц весов случайным образом (в циклах).
16
2 шаг: предъявление нейронной сети образа (на вход подаются
значения из обучающей выборки – вектор X ) и берется соответствующий
выход (вектор D ).
3 шаг (прямой проход): вычисление в циклах выходов всех слоев и
получение выходных значений нейронной сети (вектор Y ).
N k 1
y ik  f (  wijk  y kj 1 ) ,
j 0
y 0j  x j ,
y 0k 1  1 ,
x0  1 ,
где y ik - выход i -го нейрона k слоя,
f - функция активации,
wijk - синапсическая связь между j -м нейроном слоя k  1 и i -м нейроном
слоя k ,
x j - входное значение.
4 шаг (обратный проход): изменение весов в циклах по формулам:
wijk (t  1)  wijk (t )     ik  y kj 1 .
 ik  (d i  y i )  y i  (1  y i ) - для последнего слоя (выходного) слоя,
N k 1
 ik  y i  (1  y i )    ik 1  wik 1 - для промежуточных слоев,
i 1
где t - номер текущей итерации цикла обучения (номер эпохи),
 - коэффициент обучения задается от 0 до 1,
y ik - выход i -го нейрона k слоя,
wijk - синапсическая связь между
j -ым нейроном слоя k  1 и i -ым
нейроном слоя k ,
d i - желаемое выходное значение на i -ом нейроне,
y i - реальное значение на i -ом нейроне выходного слоя.
5 шаг: проверка условия продолжения обучения (вычисление значения
ошибки и/или проверка заданного количества итераций). Если обучение не
17
завершено, то 2 шаг, иначе заканчиваем обучение. Среднеквадратичная
ошибка вычисляется следующим образом:

1 Q N
  (d i  y i ) 2 ,
Q q 1 i 1
где Q - общее число примеров,
N - количество нейронов в выходном слое,
d i - желаемое выходное значение на i -ом нейроне,
y i - реальное значение на i -ом нейроне выходного слоя.
3.4 Пример решения задачи
Задача
Просчитать одну итерацию цикла обучения методом обратного
распространения ошибки многослойной бинарной неоднородной нейронной
сети, состоящей из 2 слоев, причем в первом слое находится 2 нейрона и
используется сигмоидальная логистическая функция активации (   0,9 ), а во
втором – 1, линейная (   0,7 ) функция. В качестве обучающей выборки
использовать таблицу истинности для операции «штрих Шеффера» (не
использовать первую строчку таблицы).
Синапсические
веса
задать
случайным образом.
Описание процесса решения
Для обучения нейронной сети методом обратного распространения
ошибки необходимо:
1) Графически отобразить структуру нейронной сети. Определить
размерность и количество матриц синапсических весов (для каждого слоя
своя матрица).
2) Определить обучающую выборку, представив ее в табличном виде.
3) Выбрать входные данные, на которых будет рассматриваться
итерация цикла обучения.
18
4) Следуя алгоритму обучения методом обратного распространения
ошибки
просчитать
одну
итерацию
цикла
и
представить
новые
синапсические веса в матричном виде.
Решение
1) По заданию нейронная сеть состоит из трех нейронов: два входных,
один выходной, следовательно, синапсических весов – 6. Первый слой
нейронов имеет сигмоидальную логистическую функцию активации, второй
– линейную.
Рис.8 – Графическое отображение структуры нейронной сети
2) По заданию нейронная сеть бинарная, поэтому на ее входы могут
подаваться только нули и единицы, так как входа 2, то возможных
комбинаций входных значений будет 4 (обучающая выборка будет состоять
из 4 векторов). Выход нейронной сети согласно заданию соответствует
оператору «штрих Шеффера». Поэтому таблица с обучающей выборкой
будет выглядеть следующим образом:
x1
x2
d1
0
0
1
0
1
1
1
0
1
1
1
0
3) Пусть в качестве вектора обучения будет рассматриваться вторая
строка таблицы.
19
4) Следуя алгоритму обучения методом обратного распространения
ошибки, необходимо выполнить 5 шагов.
1 шаг: зададим матрицу весов случайным образом из интервала [0,1]
1
0,6
0,1
2
0,9
0,5
1
1
0,3
2 шаг: вектор X  {0,1} , D  {1} .
2
0,8
wij (1)
1
2
w g (1)
3 шаг (прямой проход): вычисление в циклах выходов всех слоев и
получение выходных значений нейронной сети (вектор Y ).
S1  x1  w11  x 2  w21  0  0,6  1  0,1  0,1 ;
S 2  x1  w12  x 2  w22  0  0,9  1  0,5  0,5 ;
  0,9 ;
Y1 
1
1

 0,5224 ;
 S1 
1  e 0,10,9
1 e
Y2 
1
1

 0,61 ;
 S 2 
1  e 0, 50,9
1 e
S 3  Y1  w1  Y2  w2  0,5224  0,3  0,61  0,8  0,64472 ;
  0,7 ;
Y    S  0,4513 .
4 шаг (обратный проход): изменение весов
  0,7 ;
 2  (d  Y )  Y  (1  Y )  (1  0,4513)  0,4513  (1  0,4513)  0,3587 ;
w1 (2)  w1 (1)     2  Y1  0,3  0,7  0,3587  0,5224  0, 431 ;
w2 (2)  w2 (1)     2  Y2  0,8  0,7  0,3587  0,61  0,953 .
N k 1
 11  Y1 (1  Y1 )    ik 1  wik 1  Y1  (1  Y1 )   2  w1  0,5224  (1  0,5224)  0,3587  0,3  0,0268 ;
i 1
N k 1
 21  Y2 (1  Y2 )    ik 1  wik 1  Y2  (1  Y2 )   2  w2  0,61 (1  0,61)  0,3587  0,8  0,0682 ;
i 1
w11 (2)  w11 (1)    11  x1  0,6  0,7  0,0268  0  0,6 ;
20
w12 (2)  w12 (1)     21  x1  0,9  0,7  0,0682  0  0,9 ;
w21 (2)  w21 (1)    11  x2  0,1  0,7  0,0268 1  0,119 ;
w22 (2)  w22 (1)     21  x2  0,5  0,7  0,0682 1  0,548 .
wij (2)
1
2
wg (2)
1
1
0,6
0,119
2
0,9
0,548
1
0,431
2
0,953
5 шаг:
N
   (d i  yi ) 2  (1  0,4513) 2  0,237 .
i 1
Так как необходимо было рассмотреть одну итерацию цикла обучения,
то завершаем обучение.
21
4 Последовательность выполнения лабораторнопрактических занятий
1) Ознакомится с теоретическим материалом по темам: «Нечеткие
модели»
(раздел
6
учебного
пособия
по
Инженерии
знаний)
и
«Искусственные нейронные сети» (раздел 5 учебного пособия по Инженерии
знаний).
2) Ознакомится с теоретическим материалом данных методических
указаний.
3) Рассмотреть примеры решения задач из данных методических
указаний.
4) Определить индивидуальный вариант согласно таблице 3. Номер
варианта выбирается на основании последних двух цифр шифра зачетной
книжки. Номер варианта определяется на пересечении первой цифры по
строке и второй цифры – по столбцу.
Таблица 3
Выбор индивидуального варианта
0
1
2
3
4
5
6
7
8
9
0
1
2
3
4
5
6
7
8
9
10
1
1
3
5
7
9
2
4
6
8
10
2
1
2
3
4
5
6
7
8
9
10
3
1
3
5
7
9
2
4
6
8
10
4
1
2
3
4
5
6
7
8
9
10
5
1
3
5
7
9
2
4
6
8
10
6
1
2
3
4
5
6
7
8
9
10
Например, номер зачетной книжки: 1332 87
7
1
3
5
7
9
2
4
6
8
10
8
1
2
3
4
5
6
7
8
9
10
9
1
3
5
7
9
2
4
6
8
10
(8 – по строке, 7 – по
столбцу). Номер варианта – 8.
5) Решить три задачи (условие в разделе 5 данных методических
указаний) согласно индивидуальному варианту. Реализовать решение в MS
Excel.
22
5 Задачи для самостоятельного выполнения
5.1 Задача №1 для самостоятельного решения
Вариант 1. Дано 3 нечетких множества А , В , С (заданы их функции
принадлежности).
Построить
функцию
принадлежности
нечеткого
множества D  A  B  C и определить степень принадлежности одного
элемента множеству D , используя максиминный способ.
Вариант 2. Дано 3 нечетких множества А , В , С (заданы их функции
принадлежности).
Построить
функцию
принадлежности
нечеткого
множества D  A  B  C и определить степень принадлежности одного
элемента множеству D , используя алгебраический способ.
μA
1
0,5
0
2
8
13
x
Вариант 3. Дано 3 нечетких множества А , В , С (заданы их функции
принадлежности).
Построить
функцию
принадлежности
нечеткого
множества D  A  B  C и определить степень принадлежности одного
элемента множеству D , используя метод ограничений.
μA
1
0,5
0,25
0
2
89
14 x
23
Вариант 4. Дано 3 нечетких множества А , В , С (заданы их функции
принадлежности).
Построить
функцию
принадлежности
нечеткого
множества D  A  B  C и определить степень принадлежности одного
элемента множеству D , используя максиминный способ.
Вариант 5. Дано 3 нечетких множества А , В , С (заданы их функции
принадлежности).
Построить
функцию
принадлежности
нечеткого
множества D  A  B  C и определить степень принадлежности одного
элемента множеству D , используя алгебраический способ.
μA
1
0,5
0
2
8
13
x
Вариант 6. Дано 3 нечетких множества А , В , С (заданы их функции
принадлежности).
Построить
функцию
принадлежности
нечеткого
множества D  A  B  C и определить степень принадлежности одного
элемента множеству D , используя метод ограничений.
μA
1
0,5
0,25
0
2
89
14 x
24
Вариант 7. Дано 3 нечетких множества А , В , С (заданы их функции
принадлежности).
Построить
функцию
принадлежности
нечеткого
множества D  A  B  C и определить степень принадлежности одного
элемента множеству D , используя максиминный способ.
Вариант 8. Дано 3 нечетких множества А , В , С (заданы их функции
принадлежности).
Построить
функцию
принадлежности
нечеткого
множества D  A  B  C и определить степень принадлежности одного
элемента множеству D , используя алгебраический способ.
μA
1
0,5
0
2
8
13
x
Вариант 9. Дано 3 нечетких множества А , В , С (заданы их функции
принадлежности).
Построить
функцию
принадлежности
нечеткого
множества D  A  B  C и определить степень принадлежности одного
элемента множеству D , используя метод ограничений.
μA
1
0,5
0,25
0
2
89
14 x
25
Вариант 10. Дано 3 нечетких множества А , В , С (заданы их функции
принадлежности).
Построить
функцию
принадлежности
нечеткого
множества D  A  B  C и определить степень принадлежности одного
элемента множеству D , используя максиминный способ.
5.2 Задача №2 для самостоятельного решения
Вариант 1. Просчитать одну итерацию цикла обучения по  -правилу
однослойной бинарной неоднородной нейронной сети, состоящей из 2
нейронов
и
имеющей
функции
активации:
линейную
(   0,7 )
и
сигмоидальную логистическую (   1 ). В качестве обучающей выборки
использовать таблицу истинности для операций конъюнкции и импликации
(не использовать первую строчку таблицы). Синапсические веса задать
случайным образом.
Вариант 2. Просчитать одну итерацию цикла обучения по  -правилу
однослойной бинарной неоднородной нейронной сети, состоящей из 2
нейронов и имеющей функции активации: жесткая ступенька (   0,5 ) и
гиперболический
использовать
тангенс
таблицу
(   2 ).
истинности
В
для
качестве
операций
обучающей
выборки
эквивалентности
и
конъюнкции (не использовать первую строчку таблицы). Синапсические веса
задать случайным образом.
26
Вариант 3. Просчитать одну итерацию цикла обучения по  -правилу
однослойной бинарной неоднородной нейронной сети, состоящей из 2
нейронов
и
имеющей
функции
активации:
линейную
(   0,6 )
и
сигмоидальную логистическую (   1 ). В качестве обучающей выборки
использовать таблицу истинности для операций импликации и конъюнкции
(не использовать первую строчку таблицы). Синапсические веса задать
случайным образом.
Вариант 4. Просчитать одну итерацию цикла обучения по  -правилу
однослойной бинарной неоднородной нейронной сети, состоящей из 2
нейронов и имеющей функции активации: линейную (   0,7 ) и жесткая
ступенька (   0,75 ). В качестве обучающей выборки использовать таблицу
истинности для операций конъюнкции и эквивалентности (не использовать
первую строчку таблицы). Синапсические веса задать случайным образом.
Вариант 5. Просчитать одну итерацию цикла обучения по  -правилу
однослойной бинарной неоднородной нейронной сети, состоящей из 2
нейронов и имеющей функции активации: жесткая ступенька (   0,8 ) и
сигмоидальную логистическую (   1 ). В качестве обучающей выборки
использовать таблицу истинности для операций конъюнкции и импликации
(не использовать первую строчку таблицы). Синапсические веса задать
случайным образом.
Вариант 6. Просчитать одну итерацию цикла обучения по  -правилу
однослойной бинарной неоднородной нейронной сети, состоящей из 2
нейронов и имеющей функции активации: гиперболический тангенс (   2 ) и
линейную (   0,8 ). В качестве обучающей выборки использовать таблицу
истинности для операций дизъюнкции и эквивалентности (не использовать
первую строчку таблицы). Синапсические веса задать случайным образом.
27
Вариант 7. Просчитать одну итерацию цикла обучения по  -правилу
однослойной бинарной неоднородной нейронной сети, состоящей из 2
нейронов и имеющей функции активации: гиперболический тангенс (   2 ) и
сигмоидальную логистическую (   0,9 ). В качестве обучающей выборки
использовать таблицу истинности для операций импликации и дизъюнкции
(не использовать первую строчку таблицы). Синапсические веса задать
случайным образом.
Вариант 8. Просчитать одну итерацию цикла обучения по  -правилу
однослойной бинарной неоднородной нейронной сети, состоящей из 2
нейронов
и
имеющей
гиперболический
тангенс
функции
(   1 ).
активации:
В
качестве
линейную
(   0,6 )
обучающей
и
выборки
использовать таблицу истинности для операций конъюнкции и импликации
(не использовать первую строчку таблицы). Синапсические веса задать
случайным образом.
Вариант 9. Просчитать одну итерацию цикла обучения по  -правилу
однослойной бинарной неоднородной нейронной сети, состоящей из 2
нейронов и имеющей функции активации: сигмоидальную логистическую
(   0,8 ) и линейную (   0,7 ). В качестве обучающей выборки использовать
таблицу истинности для операций эквивалентности и дизъюнкции (не
использовать первую строчку таблицы).
Синапсические
веса
задать
случайным образом.
Вариант 10. Просчитать одну итерацию цикла обучения по  -правилу
однослойной бинарной неоднородной нейронной сети, состоящей из 2
нейронов и имеющей функции активации: сигмоидальную логистическую
(   1 ) и гиперболический тангенс (   2 ). В качестве обучающей выборки
использовать таблицу истинности для операций конъюнкции и дизъюнкции
(не использовать первую строчку таблицы). Синапсические веса задать
случайным образом.
28
5.3 Задача №3 для самостоятельного решения
Вариант 1. Просчитать одну итерацию цикла обучения методом
обратного распространения ошибки многослойной бинарной неоднородной
нейронной сети, состоящей из 2 слоев, причем в первом слое находится 2
нейрона и используется функция активации – гиперболический тангенс
(   2 ), а во втором – 1, функция - жесткая ступенька (   0,6 ). В качестве
обучающей выборки использовать таблицу истинности для операции «штрих
Шеффера» (не использовать первую строчку таблицы). Синапсические веса
задать случайным образом.
Вариант 2. Просчитать одну итерацию цикла обучения методом
обратного распространения ошибки многослойной бинарной неоднородной
нейронной сети, состоящей из 2 слоев, причем в первом слое находится 2
нейрона и используется сигмоидальная логистическая функция активации
(   0,9 ), а во втором – 1, жесткая ступенька (   0,7 ). В качестве обучающей
выборки использовать таблицу истинности для операции «исключающее
или» (не использовать первую строчку таблицы). Синапсические веса задать
случайным образом.
Вариант 3. Просчитать одну итерацию цикла обучения методом
обратного распространения ошибки многослойной бинарной неоднородной
нейронной сети, состоящей из 2 слоев, причем в первом слое находится 2
нейрона и используется линейная функция активации (   0,5 ), а во втором –
1, сигмоидальная логистическая (   0,7 ). В качестве обучающей выборки
использовать
таблицу
истинности
для
использовать первую строчку таблицы).
операции
импликации
Синапсические
веса
(не
задать
случайным образом.
29
Вариант 4. Просчитать одну итерацию цикла обучения методом
обратного распространения ошибки многослойной бинарной неоднородной
нейронной сети, состоящей из 2 слоев, причем в первом слое находится 2
нейрона и используется функция активации – жесткая ступенька (   0,4 ), а
во втором – 1, линейная (   0,6 ). В качестве обучающей выборки
использовать таблицу истинности для операции «штрих Шеффера» (не
использовать первую строчку таблицы).
Синапсические
веса
задать
случайным образом.
Вариант 5. Просчитать одну итерацию цикла обучения методом
обратного распространения ошибки многослойной бинарной неоднородной
нейронной сети, состоящей из 2 слоев, причем в первом слое находится 2
нейрона и используется функция активации – жесткая ступенька (   0,6 ), а
во втором – 1, гиперболический тангенс (   2 ). В качестве обучающей
выборки использовать таблицу истинности для операции «стрелка Пирса»
(не использовать первую строчку таблицы). Синапсические веса задать
случайным образом.
Вариант 6. Просчитать одну итерацию цикла обучения методом
обратного распространения ошибки многослойной бинарной неоднородной
нейронной сети, состоящей из 2 слоев, причем в первом слое находится 2
нейрона и используется линейная функция активации (   0,6 ), а во втором –
1, гиперболический тангенс (   1 ). В качестве обучающей выборки
использовать таблицу истинности для операции «исключающее или» (не
использовать первую строчку таблицы).
Синапсические
веса
задать
случайным образом.
30
Вариант 7. Просчитать одну итерацию цикла обучения методом
обратного распространения ошибки многослойной бинарной неоднородной
нейронной сети, состоящей из 2 слоев, причем в первом слое находится 2
нейрона и используется сигмоидальная логистическая функция активации
(   0,8 ), а во втором – 1, гиперболический тангенс (   2 ). В качестве
обучающей выборки использовать таблицу истинности для операции
«стрелка Пирса» (не использовать первую строчку таблицы). Синапсические
веса задать случайным образом.
Вариант 8. Просчитать одну итерацию цикла обучения методом
обратного распространения ошибки многослойной бинарной однородной
нейронной сети, состоящей из 2 слоев, причем в первом слое находится 2
нейрона, а во втором – 1. Функция активации нейронов сети – сигмоидальная
логистическая (   0,9 ). В качестве обучающей выборки использовать
таблицу истинности для операции «штрих Шеффера» (не использовать
первую строчку таблицы). Синапсические веса задать случайным образом.
Вариант 9. Просчитать одну итерацию цикла обучения методом
обратного распространения ошибки многослойной бинарной однородной
нейронной сети, состоящей из 2 слоев, причем в первом слое находится 2
нейрона, а во втором – 1. Функция активации нейронов сети –
гиперболический
использовать
тангенс
таблицу
(   2 ).
истинности
В
качестве
для
использовать первую строчку таблицы).
обучающей
операции
выборки
импликации
Синапсические
веса
(не
задать
случайным образом.
Вариант 10. Просчитать одну итерацию цикла обучения методом
обратного распространения ошибки многослойной бинарной однородной
нейронной сети, состоящей из 2 слоев, причем в первом слое находится 2
нейрона, а во втором – 1. Функция активации нейронов сети – линейная
(   0,8 ). В качестве обучающей выборки использовать таблицу истинности
для операции «исключающее или» (не использовать первую строчку
таблицы). Синапсические веса задать случайным образом.
31
32
Документ
Категория
Без категории
Просмотров
0
Размер файла
3 510 Кб
Теги
vypolnenie, zanyatia, znanij, laboratory, metod, inzheneriya, ukazaniya, bogdanov, praktitsheskih
1/--страниц
Пожаловаться на содержимое документа