close

Вход

Забыли?

вход по аккаунту

?

ТПР Лабораторная работа №2 (2)

код для вставкиСкачать
Лабораторная работа № 2
ЛИНЕЙНЫЕ МЕТОДЫ КЛАССИФИКАЦИИ
(ЛИНЕЙНАЯ ДИСКРИМИНАНТНАЯ ФУНКЦИЯ)
2.1 Линейный классификатор
Линейный классификатор (или линейное решающее правило) - это простейший алгоритм классификации, основанный на построении линейной разделяющей поверхности. В задачах с двумя классами линейный классификатор представляет собой гиперплоскость, разделяющую пространство на два полупространства. В задачах со многими классами разделяющая поверхность кусочно-линейная.
На рисунке 2.1 представлен пример линейного решающего правила для двух классов по двум информативным признакам. В данном случае двумерного пространства признаков разделяющей гиперплоскостью является прямая линия.
Рисунок 2.1 - Пример линейной классификации по двум признакам
Обучение линейного классификатора заключается в подборе такого положения гиперплоскости, когда классы разделены наилучшим образом. Что значит в данном контексте "наилучшим" - вопрос нетривиальный. Существует несколько подходов, каждый из которых приводит к различным решениям.
Рассмотрим простой пример автоматической классификации образа Х, принадлежащего классу С1 или С2.
Пусть обучающее множество (выборка) прецедентов (множество образов, истинная классификация которых известна) состоит из множества двумерных образов Хij, где i - номер класса, j - номер образа в выборке:
X11 = {5, 5}; X12 = {6, 5}; X13 = {6, 6}; X14 = {6, 7}; X15 = {7; 5}
X21 = {0, 3}; X22 = {-1, 3}; X23 = {-2, 3}; X24 = {-3, 3}; X25 = {-4, 3}
Обозначим и - средние образов, связанные с С1 и С2 соответственно. Тогда имеет место соотношение:
Получим ={6, 5.6} и ={-2, 3}.
Из рисунка 2.2 видно, что наиболее целесообразной решающей границей (линейным решающим правилом) является срединный перпендикуляр к прямой, соединяющей и .
Рисунок 2.2 - Линейное решающее правило
Опишем решающую границу в виде уравнения. Рассмотрим любую точку Х, принадлежащую решающей границе. Так как решающая граница является срединным перпендикуляром к прямой, соединяющей и , имеет место равенство:
.
Возведём обе части равенства в квадрат и получим:
Подставляя значения средних образов, получим уравнение:
8x1+2,6x2=27,18.
Т.е. дискриминантная функция имеет вид:
g(x)= 8x1+2,6x2-27,18.
Решающее правило формулируется следующим образом:
Если g(x)>0, то исследуемый класс относится к классу С1.
Если g(x)<0, то исследуемый класс относится к классу С2.
Такой классификатор называется элементом пороговой логики и реализуется он как показано на рисунке 2.3.
Рисунок 2.3 - Реализация линейного решающего правила
Простейшим обоснование линейного классификатора является его аналогия с нервной клеткой - нейроном. Другие обоснования дают байесовская теория классификации (метод логистической регрессии) и принцип разделяющей гиперплоскости (метод опорных векторов). В данной лабораторной работе мы будем рассматривать способ построения линейного решающего правила на основе обучения одного формального нейрона. 2.2 Модель нейрона
Нейрон представляет собой формализованную модель биологического нейрона. Это простейший процессор, вычислительные возможности которого ограничиваются некоторым правилом комбинирования входных сигналов и правилом активизации, позволяющим вычислить значение выходного сигнала по совокупности входных.
Сигналы посылаются другим элементам нейронной сети по взвешенным связям, с каждой из которых связан весовой коэффициент (или вес). Графически это можно представить следующим образом:
Рисунок 2.4 - Простейший нейрон
В общем виде функционирование нейрона подчиняется следующему выражению:
где: - вектор входного сигнала, - весовой вектор,
T - порог,
f - функция активации.
Весовой вектор, порог и функция активации определяют поведение нейрона, то, как он реагирует на входные данные. Величина веса wi определяет степень влияния i-того входа на выходной сигнал нейрона, а его знак - характер влияния. Связь с положительным весом называют возбуждающей связью, так как она активизирует нейрон, а связь с отрицательным весом - тормозящей.
Функция активации используется для ограничения выхода нейрона в заданном диапазоне, а так же для осуществления нелинейного преобразования взвешенной суммы. На практике широко применяются следующие виды функций активации:
- линейная (вида y=kx) - пороговая - сигмоидальная и др.
Для построения классификаторов лучше всего использовать нелинейные хорошо дифференцируемые функции (вроде сигмоидальной).
Веса и порог конкретного нейрона являются настраиваемыми параметрами. Процесс настройки этих параметров называется обучением.
В целом нейронные сети - совокупности нейронных элементов и связей между ними - широко применяющиеся на практике, могут иметь различную структуру, топологию, алгоритмы обучения. Следует отметить, что для построения линейного решающего правила достаточно всего лишь одного нейрона. Поэтому далее мы рассмотрим принцип обучения одного нейрона, а более сложные нейросетевые структуры будут рассматриваться в курсе ЦОСиИ. 2.3 Принцип обучения нейрона
Существует несколько основных подходов к нейронному обучению. Исторически самый первый подход - правило Хебба, основано на изменении весов нейронов пропорционально произведению его входного и выходного сигналов. При этом на этапе обучения (или в процессе адаптации нейрона) его выходные сигналы не прогнозируются. Такое обучение называется обучением без учителя.
Если для обучения используются эталонные значения выходного сигнала нейрона (результат обучения предопределён заранее заданными значениями обучающей выборки), то такой механизм обучения называется обучением с учителем.
Формула для обучения с учителем, известная так же как дельта-правило, имеет следующий вид:
где и - компоненты весового вектора в моменты времени t+1 и t соответственно, - коэффициент обучения (),
D - эталонное значение выходного сигнала нейрона.
Алгоритм обучения нейрона можно описать следующим образом:
1. Весовые коэффициенты инициализируются случайным образом
2. На входы поочерёдно подаются входные образы из обучающей последовательности и вычисляются выходные значения
3. Если реакция нейрона соответствует требуемой, весовой коэффициент не изменяется
4. Если реакция нейрона не совпадает с эталонной, веса корректируются по дельта-правилу
5. Алгоритм продолжается до тех пор, пока выходные значения для всей выборки не совпадут с эталонными значениями, либо пока коэффициенты не перестанут изменяться.
2.4 Выполнение лабораторной работы
Допуск к лабораторной работе:
1. Прочитать теорию п. 2.1
2. Используя обучающую выборку из предыдущей работы построить линейное решающее правило аналитически.
3. Изобразить линейное решающее правило на графике.
4. Построить граф-схему линейного порогового классификатора (с полученными числовыми значениями).
5. Показать результаты преподавателю и получить одобрение.
Задание на лабораторную работу:
1. Написать программу для обучения нейрона по дельта-правилу на образах из обучающей выборки (в программе предусмотреть возможность варьировать инициализирующие значения весового вектора и параметр скорости обучения, а также возможность подсчитать количество итераций алгоритма обучения нейрона).
2. Продемонстрировать успешное обучение для различных инициализирующих значений и параметра α. 3. Оценить обобщающую способность по контрольным точкам из предыдущей работы.
4. Изобразить обученный нейронный элемент (с полученными числовыми параметрами). 5. Отобразить линейные решающие правила графически.
В отчёте приводятся:
1. Исходные данные (обучающая и контрольная выборки)
2. Расчёт линейного порогового классификатора
3. Алгоритм обучения нейронного элемента
4. Граф-схема линейного порогового классификатора
5. Граф-схема нейронной сети
6. Построенные линейные решающие правила на графике (2 шт. - линейный пороговый классификатор + функция нейронного элемента)
7. Выводы (письменно):
- что общего и в чём отличия изученных способов построения линейного решающего правила
- как влияют инициализирующие значения весового вектора на вид полученного разделяющего правила (с иллюстрацией на графике)
- как влияет параметр скорости обучения нейронного элемента на количество итераций для обучения, при каких значениях обучить классификатор становиться невозможным и почему.
2
Документ
Категория
Рефераты
Просмотров
73
Размер файла
182 Кб
Теги
тпр, работа, лабораторная
1/--страниц
Пожаловаться на содержимое документа