close

Вход

Забыли?

вход по аккаунту

?

Использование нейронных сетей для повышения эффективности переменнозначных логических функций..pdf

код для вставкиСкачать
Информатика, вычислительная техника и управление
УДК 519.716.325
ИСПОЛЬЗОВАНИЕ НЕЙРОННЫХ СЕТЕЙ ДЛЯ ПОВЫШЕНИЯ ЭФФЕКТИВНОСТИ
ПЕРЕМЕННОЗНАЧНЫХ ЛОГИЧЕСКИХ ФУНКЦИЙ
© Д.П. Димитриченко1
Институт прикладной математики и автоматизации,
360000, Россия, Кабардино-Балкарская Республика, г. Нальчик, ул. Шортанова, 89А.
Предложен метод представления переменнозначной логической функции при помощи логической нейронной
сети. Такая логическая нейронная сеть не только позволит сохранить всю совокупность причинно-следственных
связей, выявленных при помощи переменнозначной логической функции в рамках данной предметной области,
но и перенести логический алгоритм по выявлению скрытых закономерностей в заданной предметной области на
случай, когда значения логических переменных являются нечетко заданными или противоречивыми и представляют собой величины, заключенные между нулем и единицей. В этом случае логические операции реализуются
при помощи особых логических нейроэлементов: конъюнкторов и дизъюнкторов.
Ключевые слова: предикат; значность предиката; переменнозначная логическая функция; логическая нейронная сеть; нечеткая логическая переменная.
USE OF NEURAL NETWORKS TO IMPROVE VARIOUS-VALUED LOGIC FUNCTION EFFICIENCY
D.P. Dimitrichenko
Institute of Applied Mathematics and Automation,
89A Shortanov St., Nalchik, the Kabardino-Balkar Republic, 360000, Russia.
A method of various-valued logic function representation by means of a logical neural network is proposed. This logical
neural network will keep the totality of cause-and-effect relationships identified through the use of a various-valued logic
function within a given object domain. Thus, it becomes possible to transfer the use of the logical algorithm detecting
hidden patterns in the specified object domain to the case when the values of logical variables are fuzzy or contradictory
and are values from zero to one. In this case, logical operations are implemented by special logical neural cells: conjunctors and disjunctors.
Keywords: predicate; predicate value; various-valued logical function; logical neural network; fuzzy logical variable.
Логические алгоритмы хорошо зарекомендовали
себя при решении задач по выявлению совокупности
взаимосвязей
между
объектами
в
слабо
формализуемых областях знаний [1].
Применение переменнозначных предикатов в качестве способа описания свойств объектов позволяет
интерпретировать значение построенной на их основе
переменнозначной
логической
функции
как
совокупность
автоматных
состояний
системы
«анализируемое множество объектов». Например,
цвета «синий», «зеленый» и «красный» в рамках
такого подхода будут выражать лишь состояние, в
котором находится объект по характеристике «цвет».
При этом не утверждается, что «красный» самый
лучший цвет, а «синий» или «зеленый» являются плохими. С другой стороны, при построении переменнозначной логической функции происходит автоматическое разбиение совокупности рассматриваемых объектов на подклассы по существующим свойствам. Это
позволяет использовать значение логической функции
для поиска наиболее подходящих (близких к
запрошенной совокупности состояний или характеристик) объектов [2].
Для построения переменнозначной логической
функции в качестве обучающей выборки (ОВ) необхо-
димо располагать конечным числом m проанализированных объектов, каждый из которых характеризуется
набором из не более чем n существенных (актуальных) для целей анализа признаков.
Приведем общую постановку задачи. Формализованное описание объекта представляет собой nкомпонентный вектор, где n – число признаков, используемых для характеристики анализируемого объекта, причем j-я координата этого вектора равна значению j-го признака, j = 1, ..., n. Число таких векторов
равно m в соответствии с количеством анализируемых
объектов. В описании объекта допустимо отсутствие
информации о значении того или иного признака. При
формировании эффективной системы интеллектуального описания объектов следует избегать двух крайностей: избыточности и недостаточности набора признаков. В первом случае важные результаты окажутся
скрытыми в массе второстепенных или малозначительных признаков. Во втором – критерий для однозначного распознавания конкретных объектов останется невыявленным. Предложенный в [2] логический
алгоритм построения переменнозначных функций,
устраняющий избыточность в описании данных и выделяющий наиболее важные причинно-следственные
связи в описании объектов, а также производящий
___________________________
1
Димитриченко Дмитрий Петрович, кандидат технических наук, научный сотрудник отдела интеллектуализации информац ионных и управляющих систем, тел.: 89061896400, e-mail: dimdp@rambler.ru
Dimitrichenko Dmitriy, Candidate of technical sciences, Researcher of the Department of Information and Control Systems Intel lectualization, tel.: 89061896400, e-mail: dimdp@rambler.ru
12
ВЕСТНИК ИрГТУ №10 (105) 2015
ISSN 1814-3520
Информатика, вычислительная техника и управление
разбиение объектов на классы, позволяет решить эту
задачу.
Соответствие множества объектов и характеризующих их признаков удобно представить следующей
таблицей.
Входные данные
x2
x1
x1 ( w1 ) x2 ( w1 )
…
xn
W
…
xn ( w1 )
x ( w2 )
w1
w2
xn ( wm )
wm
x1 ( w2 ) x2 ( w2 )
… n
…………………………….
x1 ( wm ) x2 ( wm )
…
…
X j  x1 ( w j ), x2 ( w j ),..., xn ( w j )} – вектор качественных признаков, каждый элемент которого – фиксированный признак характеризуемого объекта.
W 
m
w j – множество характеризуемых объ-
j 1
ектов.
Каждый соответствующий признак xj(wj) в общем
случае кодируется предикатом значности ki, т.е. переменнозначным предикатом, i[1… n].
f ( x )   j 1( i 1xi ( w j )  w j ) 
m
n
_______
  j 1(  i 1 xi ( w j ) w j ).
m
n
.
Указанный вид функции следует из известного логического тождества:
a  b  a  b,
(1)
где a – конъюнкция характеристик (признаков), определяющих объект; b – предикат, равный единице,
когда w j становится равным соответствующему
определяемому объекту. Такие предикаты будем
называть объектными предикатами, а дизъюнкты, содержащие такие предикаты, – продукционными дизъюнктами.
Таким образом, мы видим, что основой для построения логических функций является совокупность
продукционных правил следующего вида:
(Конъюнкция_признаков_1 → Объект1),
(Конъюнкция _2 → Объект2),
…
(_m → Объектm).
(2)
Эти продукционные правила связываются операцией конъюнкции. Последовательное раскрытие скобок с учетом предложенной в [2] операции отрицания
приводит к построению логической функции вида (1).
Заметим, что в процессе нахождения логической
функции происходит логическая минимизация исход-
ISSN 1814-3520
ной структуры данных путем формирования подклассов объектов в соответствии с определяющими их
признаками. Значением W логической функции F(X)
при ее вычислении в соответствии с некоторым набо*
ром признаков X является дизъюнкция только тех
*
*
подклассов объектов W = F(X ), которые обладают
*
признаками, совпадающими с запросом X хотя бы по
одному из n признаков. В противном случае в качестве
результата будет получен единственный объектный
дизъюнкт, равный конъюнкции всех m объектов, описываемых функцией F(X). Такой логический результат
означает следующее: так как не найден ни один объект, отвечающий набору из n характеристик хотя бы по
*
одному из признаков в рамках запроса X , то без особых предпочтений может быть выбран любой из m
объектов. Это самый неопределенный ответ, получаемый в рамках текущей ОВ. При этом чем более пол*
но объект соответствует логическому запросу X , тем
больше подклассов, в которых присутствует данный
*
объект, окажется в результирующем дизъюнкте W
при вычислении логической функции W = F(X) от nкомпонентного вектора логических переменных x1,
*
*
x2,… , W = F(X ).
В общем случае, рассматривая совокупность значений предикатов в качестве входной информации
для системы принятия решений, необходимо учесть
нечеткость или зашумленность входных данных.
Пусть, например, в процессе анализа множества
объектов W при исследовании некоторой предметной
области был выделен важный критерий классификации – «цвет», формализованный в виде трехзначного
предиката xl, l = {1, …, n}: {«красный», «оранжевый»,
«желтый»}. Kl = 3.
Предположим, что данный предикат xl принял
следующую совокупность значений:
«красный» = 0;
«оранжевый» = 1;
«желтый» = 0.
В этом случае при вычислении логической функции F(X), описывающей данную совокупность объектов W, в качестве результата будет получена дизъюнкция всех подклассов оранжевых объектов, включая объектный дизъюнкт как самый широкий класс,
содержащий все множество объектов W.
Однако, в силу ряда причин (например, погрешности в работе распознающего, передающего или принимающего окончательный сигнал устройств), информация о цветах может восприниматься нечетко:
«красный» = 0,3;
«оранжевый» = 0,4;
«желтый» = 0,3.
Естественно, что такое нечеткое распределение
информации должно оказывать соответствующее
влияние на принимаемое системой управления или
диагностики решение. При этом сохраняется требование к адекватности получаемого результата: искомый
объект должен отвечать предъявляемому образу
наиболее полно, а система управления должна выдать решение, являющееся целесообразным в сложившейся ситуации. Заметим, что в общем случае
значения нечеткости не обязательно должны быть в
ВЕСТНИК ИрГТУ №10 (105) 2015
13
Информатика, вычислительная техника и управление
сумме равными единице. При этом данные могут выглядеть следующим образом:
«красный» = 0,7;
«оранжевый» = 0,4;
«желтый» = 0,8.
В данном случае надо не просто выбрать классы
объектов по соответствующему цвету, но и определить близость к одному из нечетко воспринимаемых
*
внешних сигналов X . Например, невозможно давать
исполняющему устройству две противоположные по
смыслу команды или одновременно двигаться двумя
различными маршрутами. В этих и подобных им случаях необходимо однозначным образом выявить
окончательный результат, несмотря на нечеткость
входной информации.
В [3] был предложен схемотехнический метод построения логической нейронной сети, способной корректно обрабатывать зашумленные или нечетко определенные входные данные (рисунок).
Как и при построении логической функции, сначала устанавливаются причинно-следственные связи
между поступающими на входной слой нейронной сети совокупностями сигналов и принимаемыми на их
основе решениями. В качестве основы для построения
логической нейронной сети выступает следующая
система импликативных высказываний:
Совокупность_сигналов_1 → Решение_1;
Совокупность_сигналов_2 → Решение_2;
…
_m → Решение_m.
(3)
В общем случае одно и то же решение может следовать из различных совокупностей входных сигналов.
Эту систему можно рассматривать как логический способ записи обучающей выборки.
В качестве выходного результата формируется
множество нечетко (или четко) взвешенных решений.
При построении логической нейронной сети, соответствующей приведенному выше множеству имплика-
тивных связей, каждая совокупность входных сигналов
рассматривается как конъюнкция соответствующих
логических переменных. При этом предполагается,
что вычисления в каждом из m импликативных высказываний производятся параллельно в соответствии с
особенностями функционирования нейронной сети.
Для построения логической нейронной сети вводятся два типа нейронов [3]. Веса их входных сигналов выбираются таким образом, чтобы при четких
значениях переменных (входных сигналов) эти нейроны принимали бы значения логических операций
конъюнкции и дизъюнкции соответственно.
Сформированная таким образом нейронная сеть
отражает всю совокупность логических связей, зафиксированных в ОВ. Мы видим, что одна и та же система
продукционных правил (импликативных высказываний) является основой как для построения логических
функций, так и для создания логических нейронных
сетей, обученных для работы с соответствующей базой знаний. При этом свободным знаниям логической
функции соответствуют такие наборы входных сигналов логической нейронной сети, с которыми не сопоставлены никакие выходные сигналы. А с продукционными дизъюнктами логической функции взаимно однозначно сопоставляются нейроны, подающие выходной сигнал на те объекты, которые входят в соответствующий продукционный дизъюнкт.
Таким образом, логическая функция W = F(X)
представима в виде трехслойной нейронной сети, для
которой:
1. В качестве входного слоя выступают предикаты xi значности ki, каждый, i = {1, …, n}.
2. В качестве выходного слоя выступают m
нейронов, обозначающих объекты или выходные сигналы W = {w1, …,}.
3. В качестве промежуточного, скрытого слоя,
производящего вычисления, выступают продукционные дизъюнкты, в которых операции конъюнкции и
дизъюнкции заменены нейронами конъюнктурами и
дизъюнкторами (понятия определены в [3]).
Нейронная сеть
14
ВЕСТНИК ИрГТУ №10 (105) 2015
ISSN 1814-3520
Информатика, вычислительная техника и управление
Если на вход построенной таким образом нейронной сети подать четкие значения логических перемен*
ных в соответствии с некоторым запросом x , то на
выходе будет получена совокупность объектов, полностью или частично соответствующих этому запросу,
взвешенная в соответствии с процедурой частотного
анализа [4]. В этом случае вес объекта равен количеству результирующих подклассов, в которых он присутствует. Это вытекает из того, что каждый выходной
нейрон, обозначающий объект wj, связан со всеми
нейронами, реализующими те продукционные дизъюнкты, в которые он входит, j = 1, …, m.
Учитывая логическую эквивалентность систем (2)
и (3) и соответствия операций конъюнкции и дизъюнкции результатам работы нейронов конъюнкторов и
дизъюнкторов, соответственно, можно сформулировать следующее утверждение.
Всякая переменнозначная логическая функция W
= F(X) представима в виде логической нейронной
сети, совокупность логических связей в которой
взаимно однозначно определяется структурой продукционных дизъюнктов.
Для более точной настройки весов логической
нейронной сети примем во внимание следующее рассуждение: чем более широкий класс объектов будет
найден (получен на выходе нейронной сети) при об*
работке запроса x , тем более неопределенным такой
ответ является. И, наоборот, чем более узким окажется найденный подкласс объектов в соответствии с
*
запрашиваемыми характеристиками X , тем более
четким и ясным является такой ответ. Как отмечалось
выше, самым неопределенным ответом является тот,
в результате которого будет получен единственный
объектный дизъюнкт, равный конъюнкции всех m объ*
*
ектов, описываемых функцией W = F(X ). Иными словами, самый широкий класс, содержащий все m объектов, дает самый неопределенный ответ. Для формализации данного правила в логической нейронной
сети положим вес присутствия каждого объекта в объектном дизъюнкте равным 1/m, где m – общее число
объектов. Рассуждая аналогично, положим вес объекта в каждом нейроне, реализующем соответствующий
продукционный дизъюнкт, равным 1/l, где l – число
объектов, входящих в этот продукционный дизъюнкт.
В процессе работы построенной таким образом
логической нейронной сети все нечеткие веса полученных при формировании окончательного ответа
подклассов объектов в силу свойства дизъюнктора
будут просуммированы.
Очевидно, что наиболее оптимальными в рамках
*
сделанного запроса x являются объекты, обладающие максимальным весом в полученном нечетком
множестве.
Предложенный подход позволяет построить логическую нейронную сеть, не только функционирующую
идентично переменнозначной логической функции W
= F(x) в случае четких значений n переменнозначных
предикатов, но и выявлять наиболее подходящие за*
*
просу x объекты (отвечающие ситуации X оптимальные решения) в случае нечеткой и противоречивой
входной информации.
ISSN 1814-3520
Как отмечалось выше, начальное множество продукционных правил выступает в качестве обучающей
выборки для построения как переменнозначной логической функции W = F(X), так и соответствующей ей
логической нейронной сети. Наличие ОВ предполагает
процедуру обучения логической нейронной сети с учителем. В данном случае сами продукционные правила, в силу их включения в ОВ, уже являются теми базовыми знаниями, с которыми связано решение задачи интеллектуальной обработки данных по выявлению
скрытых закономерностей в исследуемой предметной
области.
В качестве основы для построения процедуры
обучения можно применить логический алгоритм, состоящий из следующих шагов:
1. Сформулировать известные логические взаимосвязи исследуемой предметной области в виде
продукционных правил (импликативных высказываний).
2. Каждое из импликативных высказываний привести к дизъюнктивной форме в соответствии со свойствами логических операций.
3. Полученные логические выражения объединить
операцией конъюнкции в виде мультипликативноаддитивной формы.
4. Преобразовать мультипликативно-аддитивную
форму ОВ в ее аддитивно-мультипликативную форму.
5. Установить совокупность связей логической
нейронной сети в соответствии со структурой полученных продукционных дизъюнктов.
Последний шаг приводит к построению логической
нейронной сети, обученной в соответствии с продукционными правилами, включенными в первоначальную ОВ.
Процесс обучения полученной нейронной сети
может быть возобновлен в любой момент и, как правило, обусловлен следующими случаями:
1. Добавление нового логического правила, соответствующего ранее внесенному в ОВ объекту.
2. Добавление в ОВ объекта, ранее в ней не содержавшегося.
Очевидно, что при умножении логической формы
ОВ на добавляемое продукционное правило добавления новых объектов в выходное множество нейронной
сети не произойдет. Изменится лишь структура некоторых подклассов. Это случай, когда некоторому объекту wj могут соответствовать различные наборы характеристик X1 и X2 таким образом, что:
(X1→wj)(X2→wj), X1 ≠ X2, j = 1, …, m.
Очевидно, что если добавляемое правило уже содержится в ОВ, то по свойству операции конъюнкции
логическая форма ОВ останется неизменной.
Если же добавляемое правило ранее в ОВ не содержалось, то в результате логического умножения будет получена новая форма ОВ с измененной структурой
продукционных дизъюнктов, что сразу отразится в структуре связей соответствующей нейронной сети.
Данный логический алгоритм обучения, повышающий адаптивные свойства получаемой нейронной сети,
применим для каждого из перечисленных выше случаев.
ВЕСТНИК ИрГТУ №10 (105) 2015
Статья поступила 07.09.2015 г.
15
Информатика, вычислительная техника и управление
Библиографический список
1. Развитие и применение многозначных логик и сетевых
3. Барский А.Б. Логические нейронные сети. М.: ИНТУИТ,
потоков в интеллектуальных системах / Л.А. Лютикова, А.В.
БИНОМ, 2007. 352 с.
Тимофеев, В.В. Сгурев [и др.] // Труды СПИИРАН. 2005.
4. Димитриченко Д.П. Многокритериальный поиск топологи№ 2. С. 114–126.
ческих структур для оптимального построения локальных
2. Лютикова Л.А. Моделирование и минимизация баз знаний
вычислительных сетей // Доклады Адыгской (Черкесской)
в терминах многозначной логики предикатов. Нальчик: Премеждународной академии наук. 2012. № 2. Т. 14. С. 68–73.
принт, 2006. 33 с.
УДК 519.6:311
ВЫЧИСЛИТЕЛЬНЫЙ АЛГОРИТМ ЧИСЛЕННОЙ ОЦЕНКИ ПАРАМЕТРА
ПОТОКА ОТКАЗОВ МНОГОКОМПОНЕНТНОГО ОБОРУДОВАНИЯ
© Ю.М. Краковский1, Нго Зюй До2
Иркутский государственный университет путей сообщения,
664017, Россия, г. Иркутск, ул. Чернышевского, 15.
Иркутский государственный аграрный университет имени А.А. Ежевского,
664038, Россия, Иркутская обл., Иркутский р-он, п. Молодежный, ул. Молодежный пос., 1/1.
Предложен вычислительный алгоритм численной оценки параметра потока отказов многокомпонентного оборудования по результатам компьютерного моделирования. Оборудование рассматривается как совокупность последовательно соединенных компонент. Отказ любой компоненты приводит к отказу оборудования в целом. Восстановление отказанной компоненты приводит к восстановлению оборудования. Исследован вариант, когда временем восстановления можно пренебречь, а итоговый процесс создается наложением исходных процессов. Для
линейного распределения наработки четырехкомпонентного оборудования найдены функции, которые совпадают на интервале изменения наработки с параметром потока отказов и функцией отказов. Это позволило провести тестирование предложенного вычислительного алгоритма численной оценки параметра потока отказов многокомпонентного оборудования.
Ключевые слова: многокомпонентное оборудование; время наработки; параметр потока отказов; компьютерное моделирование.
COMPUTATIONAL ALGORITHM FOR NUMERICAL ESTIMATION OF MULTICOMPONENT
EQUIPMENT FAILURE FLOW PARAMETER
Yu. M. Krakovskiy, Ngo Duy Do
Irkutsk State University of Railway Engineering,
15 Chernyshevsky St., Irkutsk, 664017, Russia.
Irkutsk State Agrarian University named after A.A. Ezhevskiy,
Molodezny Settlement, Irkutsk district, Irkutsk region, 664038, Russia.
The article proposes a computational algorithm for numerical estimation of the multicomponent equipment failure flow
parameter based on the computer simulation results. The equipment is treated as a set of connected in series comp onents. If one component fails, the whole equipment set fails. Recovering of the failed component results in the recovering
of the equipment as a whole. The study is given to the option when recovery time can be neglected whereas the final
recovery process is created by the superposition of original processes. For the linear distribution of four-component
equipment operating time, the functions are found which are the same as the failure flow parameter and the failure fun ction in the interval of operating time change. It allowed to test the proposed computational algorithm of numerical estim ation of the multicomponent equipment failure flow parameter.
Keywords: multicomponent equipment; operating time; failure flow parameter; computer simulation.
Введение
Любое оборудование в процессе эксплуатации
подвергается различным воздействиям, приводящим к
его отказу. Это требует развития системы технического обслуживания и ремонта оборудования, включая
совершенствование методов расчета показателей
надежности. К базовым показателям надежности от-
носят вероятность безотказной работы для ресурса и
остаточного ресурса. Зная эти показатели, можно
найти средний ресурс (среднюю наработку оборудования) или средний остаточный ресурс, а также гамма-процентный ресурс или гамма-процентный остаточный ресурс [1, 2, 5]. В работе рассмотрен дополнительный показатель – параметр потока отказов, кото-
___________________________
1
Краковский Юрий Мечеславович, доктор технических наук, профессор кафедры информационных систем и защиты информации, тел.: 89149267772, e-mail: kum@stranzit.ru
Krakovskiy Yuri, Doctor of technical sciences, Professor of the Department of Information Systems and Data Protection,
tel.: 89149267772, e-mail:kum@stranzit.ru
2
Нго Зюи До, аспирант, тел.: 89248288979, e-mail: irkndd@gmail.com
Ngo Duy Do, Postgraduate, tel.: 89248288979, e-mail: irkndd@gmail.com
16
ВЕСТНИК ИрГТУ №10 (105) 2015
ISSN 1814-3520
Документ
Категория
Без категории
Просмотров
8
Размер файла
2 826 Кб
Теги
эффективность, нейронные, переменнозначных, логические, использование, функции, pdf, сетей, повышения
1/--страниц
Пожаловаться на содержимое документа