close

Вход

Забыли?

вход по аккаунту

?

Senchenkov

код для вставкиСкачать
МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ
Федеральное государственное автономное
образовательное учреждение высшего образования
САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
АЭРОКОСМИЧЕСКОГО ПРИБОРОСТРОЕНИЯ
В. И. Сеньченков
КОНТРОЛЬ И ТЕХНИЧЕСКАЯ
ДИАГНОСТИКА.
МЕТОДЫ ОПТИМИЗАЦИИ
В ЗАДАЧАХ РАСПОЗНАВАНИЯ
ТЕХНИЧЕСКИХ СОСТОЯНИЙ
Учебное пособие
УДК 681.326
ББК 32.97
С31
Рецензенты:
доктор технических наук, профессор Б. В. Соколов;
доктор технических наук А. В. Федоров
Утверждено
редакционно-издательским советом университета
в качестве учебного пособия
С31
Сеньченков, В. И.
Контроль и техническая диагностика. Методы оптимизации
в задачах распознавания технических состояний: учеб. пособие /
В. И. Сеньченков. – СПб.: ГУАП, 2018. – 203 с.
ISBN 978-5-8088-1282-6
Излагаются основные понятия, математические модели и алгоритмы дисциплины «Контроль и техническая диагностика». При
этом вопросы контроля и диагностирования раскрываются с позиций теории распознавания образов. Формулируется ряд оптимизационных (экстремальных) задач при распознавании состояний
сложных технических систем, рассматриваются подходы к их решению. В частности, подробно излагается применение метода стохастической аппроксимации, а также базового метода дискретной
оптимизации – динамического программирования для построения
оптимальных алгоритмов распознавания технических состояний
системы. Приводятся примеры, иллюстрирующие практическое
применение теоретических положений.
Рекомендуется специалистам, интересующимся проблемами теории распознавания образов, контроля и технического диагностирования, а также магистрантам для проработки материала дисциплины «Методы оптимизации», а именно: разделов «Оптимизация
на основе дифференциального исчисления» и «Дискретная оптимизация».
УДК 681.326
ББК 32.97
ISBN 978-5-8088-1282-6
© Сеньченков В. И., 2018
© Санкт-Петербургский государственный
университет аэрокосмического
приборостроения, 2018
ОБОЗНАЧЕНИЯ
МАТЕМАТИЧЕСКИХ ОБЪЕКТОВ
≈ – приближенное равенство;
≠ – неравенство;
∩ – пересечение множеств или событий;
∪ – объединение множеств или событий;
\ – разность множеств;
/ – факторизация множеств;
Δ – симметрическая разность множеств;
⊂ – строгое включение одного множества в другое;
⊆ – нестрогое включение одного множества в другое;
⊄ – невключение одного множества в другое;
∈ – квантор принадлежности;
∀ – квантор всеобщности;
∃ – квантор существования;
⇒ – следование из одного утверждения другого;
⇔ – равносильность утверждений;
N – множество натуральных чисел;
R – множество вещественных чисел;
R + – множество неотрицательных вещественных чисел;
Rn – n-мерное вещественное множество (пространство);
∅ – пустое множество;
J\ I – операция вычитания множества I из множества J;
xk , k = 1, l – последовательность элементов x1, x2 , …, xl ;
X<l> = ( x1 , x2 ,..., xl ), или X = ( x1 , x2 ,..., xl ) , – l-мерный векторстрока;
Y<n > = ( y1 , y2 ,..., yn )ò , или Y = ( y1 , y2 ,..., yn )ò , – n-мерный вектор-столбец;
X = {X} – множество векторов X;
X – мощность множества X;
=
E {E
=
i | i 1,m} – конечное множество мощности m векторов Ei ;
U×X =
{(U, X)} – декартово произведение множеств U и X;
Φ:X → Y – отображение Φ из множества X в множество Y;
Φ:X  Y – сопоставление элементов X ∈ X и Y ∈ Y при отображении Φ;
C(Y ) – множество непрерывных функций, заданных на множестве Y;
C2 – пространство непрерывных функций, квадратично интегрируемых по Риману;
H(⋅) – случайная функция;
3
m ! – факториал числа m ( m ! = 1 ⋅ 2 ⋅ ... ⋅ m, 0! = 1 );
i
Cm
– число сочетаний из m элементов по i;
P (Ri /Rf ) – вероятность события Ri при условии, что имело место событие Rf (условная вероятность);
 – окончание примера.
4
ВВЕДЕНИЕ
Значение информации в современном мире непрерывно растет.
Имеется в виду информация не только в самом широком смысле, но
и различные конкретные ее виды. Так, объективная информация
о состоянии сложных технических систем позволяет определять
возможность их применения по назначению, выявлять отклонения
от заданных требований нормативно-технической документации.
На данной основе может быть организован комплекс своевременных ремонтно-профилактических работ и, таким образом, поддерживаться требуемый уровень функциональной пригодности этих
систем. При этом подразумевается определение состояния методами, которые не предполагают выполнения каких-либо демонтажных работ. Это важно для любых систем, особенно дистанционно
управляемых.
Методологической основой решения проблемы получения объективной информации является научная дисциплина «Контроль
и техническая диагностика». Она занимается исследованием состояний систем, формы проявления данных состояний, разрабатывает методы их определения, а также принципы построения и
организацию использования необходимых для этого технических
средств.
Термин «диагностика» происходит от греческого «диагнозис»,
который означает распознавание, определение.
Решение такого спектра задач с единых теоретико-методологических позиций требует опоры на многие направления современного
научного знания – системного анализа и теории систем, технической кибернетики, теории распознавания образов, информатики и
теории алгоритмов с привлечением в качестве аппарата формализации целого ряда разделов математики.
В настоящей книге излагаются некоторые подходы к получению
информации о состоянии сложных технических систем, при этом
основное внимание акцентируется на математическом и алгоритмическом обеспечении указанных подходов. Вопросы контроля и
диагностирования раскрываются с позиций теории распознавания
образов – важнейшего системно-кибернетического направления,
которое занимается проблемами классификации и непосредственно распознавания объектов (процессов, ситуаций) любой природы.
Формулируется ряд оптимизационных (экстремальных) задач при
распознавании состояний сложных технических систем, рассматриваются методы их решения. В частности, подробно излагается
5
применение метода стохастической аппроксимации, а также базового метода дискретной оптимизации – динамического программирования для построения оптимальных алгоритмов распознавания
технических состояний системы.
6
1. ОСНОВНЫЕ ПОНЯТИЯ И ОПРЕДЕЛЕНИЯ.
МЕСТО КОНТРОЛЯ И ДИАГНОСТИРОВАНИЯ
ПРИ УПРАВЛЕНИИ ТЕХНИЧЕСКИМ СОСТОЯНИЕМ СИСТЕМ
Во введении использовалось понятие сложной технической системы. По этой причине целесообразно раскрыть его содержание,
поскольку излагаемый далее материал посвящен рассмотрению
именно таких систем, как объекты контроля и диагностирования.
Под системой в широком смысле понимается совокупность элементов, находящихся в определенных взаимосвязях между собой,
обладающая свойствами, не сводящимися к свойствам этих элементов. Иначе, при объединении элементов в систему имеет место порождение новых свойств, которые и принято называть системными.
Система называется сложной с гносеологических позиций, если
ее изучение требует совместного привлечения целого ряда моделей,
теорий или даже научных дисциплин. В последнем случае организуется междисциплинарное исследование.
Наиболее характерным проявлением гносеологической сложности является многомодельность – проведение исследований системы не на одной модели, а на их комплексе.
Система называется сложной с онтологических позиций, если
существенно проявляется один или несколько следующих видов ее
сложности.
1. Структурная сложность, которая определяется количеством
элементов системы, числом и разнообразием связей между ними,
наличием иерархической соподчиненности в данных связях.
2. Сложность функционирования, определяемая множеством состояний системы, правилами перехода из одного состояния в другое, характеристиками воздействий системы на среду и обратного
воздействия среды на систему, степенью неопределенности данных
характеристик и правил.
3. Сложность выбора поведения в многоальтернативных ситуациях, который определяется гибкостью реакции системы на заранее неизвестные воздействия среды.
Определение системы, а также все приведенные аспекты сложности применимы к любым системам – техническим, организационным и организационно-техническим. Очевидно, что под сложными
техническими системами следует понимать такие, в которых реализуются только физические процессы.
Например, система эксплуатации стартового комплекса ракет
космического назначения включает как все технические средства,
7
входящие в указанный комплекс, так и расчеты обслуживающего
персонала. Следовательно, с такой точки зрения данная система
является организационно-технической. Если же объектом исследования выступают только технические средства, то стартовый комплекс – сложная техническая система.
Элементом в представленном выше определении системы называется ее составная часть, не подлежащая расчленению в рамках
конкретного исследования.
Также следует определить понятие подсистемы как составной
части исследуемой системы, которая сама может рассматриваться
как система.
Так, в составе стартового комплекса ракет космического назначения выделяется целый ряд подсистем – технологическое оборудование подготовки к пуску и непосредственно пуска ракеты, транспортно-установочное оборудование, специальные технические и
жизнеобеспечивающие системы. Все указанные подсистемы, в свою
очередь, могут рассматриваться как сложные технические системы.
Например, специальные технические и жизнеобеспечивающие системы включают систему вентиляции и кондиционирования воздуха, систему технического водоснабжения, систему резервного электроснабжения, систему пожаротушения и др. Каждый из названных
технических объектов может рассматриваться и как система, и как
элемент – все определяется целью проводимого исследования.
Каждая отрасль знаний оперирует своей терминологией, своими понятиями, которые позволяют специалистам данной отрасли
давать однозначное толкование тем или иным процессам, обмениваться информацией. В теории контроля и диагностики одним из
фундаментальных является понятие технического состояния.
Техническим состоянием называется совокупность подверженных изменению в процессе производства и эксплуатации свойств системы, характеризующих степень еe функциональной пригодности
в заданных условиях целевого применения или место дефекта в ней
в случае несоответствия хотя бы одного из свойств установленным
требованиям.
Раскрывая содержание данного определения более подробно, необходимо остановиться на следующих основных моментах.
Во-первых, техническое состояние является характеристикой
функциональной пригодности системы только для заданных условий целевого применения. Это связано с тем, что в разных условиях
применения требования к надежности системы, как правило, различны. Поэтому одно и то же техническое состояние может озна8
чать как ее пригодность к применению, так и необходимость проведения восстановительных работ или даже снятия с эксплуатации.
Например, для потребителей электроэнергии первой категории
(упомянутые выше стартовые комплексы ракет космического назначения, различные вычислительные комплексы, ядерные реакторы и др.) применяются резервные источники электроснабжения –
преимущественно дизель-электрические станции. Они работают
параллельно с электросетью. Дизель-генератор, не обеспечивающий
частоту выходного напряжения 50±0,5 Гц, является функционально непригодным источником электроэнергии для таких потребителей. Однако если частота выходного напряжения данного дизельгенератора не выходит из диапазона 50±1 Гц, то для потребителей
электроэнергии третьей категории (к данной категории относятся
электроприемники бытового назначения) в качестве источника
электроэнергии он может применяться.
Во-вторых, в рассматриваемом определении фигурирует понятие
дефекта. Под дефектом понимается любое несоответствие технического состояния системы установленным требованиям. Различают
конкретные виды дефектов – повреждения и отказы. Более подробно смысл указанных видов дефектов раскрывается ниже.
Определить техническое состояние системы – значит выяснить,
обладает ли она набором требуемых свойств, обеспечивающих ее
пригодность к целевому применению и правильность выполнения
своих функций непосредственно в процессе применения, а если нет,
то по причине каких дефектов.
Основные требования к свойствам системы фиксируются в нормативно-технической документации. Спектр требований охватывает внешние и внутренние свойства. Внешние свойства определяют
наружные характеристики системы (качество и цвет защитных покрытий, герметичность уплотнений и т. д.). Внутренние свойства
непосредственно определяют возможность реализации и эффективность процесса функционирования системы.
Применительно к электронным системам (или подсистемам) в качестве внутренних свойств рассматриваются: сопротивление изоляции различных элементов, переходные сопротивления в штепсельных разъемах, сопротивления запирающих слоев полупроводниковых элементов, емкости конденсаторов, индуктивности обмоток и
т. д. Для механических систем (подсистем) к таким свойствам могут
быть отнесены: зазоры в кинематических парах и подшипниковых
узлах, усилия сжатия или натяжения пружин, отложения из примесей рабочих сред на внутренних поверхностях трубопроводов или
9
воздушных трактов, отложения продуктов сгорания на внутренних
поверхностях газовых трактов и т. д.
Поскольку свойства системы изменяются во времени непрерывно, то и множество технических состояний, в которых она может
находиться, является континуальным1.
На множестве технических состояний системы выделяются подмножества, в рамках которых технические состояния обладают некоторыми общими свойствами. Данные подмножества называются
видами технического состояния. Итак, вид технического состояния – это подмножество технических состояний системы, которые
характеризуют одинаковую степень ее функциональной пригодности или отдельные режимы процесса функционирования. Выделяются следующие основные виды технического состояния: исправность, неисправность, работоспособность, неработоспособность,
правильное функционирование, неправильное функционирование.
Исправность – вид технического состояния, при котором система соответствует всем требованиям нормативно-технической документации (как по внешним, так и по внутренним свойствам).
Неисправность – вид технического состояния, при котором система не соответствует хотя бы одному требованию нормативно-технической документации.
Событие, заключающееся в нарушении исправности системы,
называется повреждением.
Работоспособность – вид технического состояния, при котором
система соответствует всем требованиям нормативно-технической
документации, определяющим ее способность выполнять заданные
функции (количественные характеристики внутренних свойств системы удовлетворяют требуемым значениям).
Неработоспособность – вид технического состояния, при котором система не соответствует хотя бы одному требованию нормативно-технической документации, определяющему ее способность выполнять заданные функции.
Событие, заключающееся в переходе системы в неработоспособное состояние, называется отказом.
1
Континуальными называются множества, элементы которых не представляется возможным пронумеровать (несчетные множества). Общеизвестные примеры – множество R вещественных чисел, множество всех точек отрезка [0; 1]. Другое
название таких множеств, эквивалентное первому, – множества мощности континуума.
10
Неисправная система может быть работоспособна. Например,
если состояние кислородного компрессора удовлетворяет всем требованиям, кроме качества или цвета защитного покрытия его корпуса (все агрегаты, предназначенные для работы с кислородом,
должны быть голубого цвета), то он является неисправным, но работоспособным.
Правильное функционирование – вид технического состояния,
при котором система соответствует всем требованиям нормативнотехнической документации, определяющим ее способность выполнять заданные функции в данный момент времени (количественные характеристики внутренних свойств системы в данный момент
времени удовлетворяют требуемым значениям).
Неправильное функционирование – вид технического состояния,
при котором система не соответствует хотя бы одному требованию
нормативно-технической документации, определяющему ее способность выполнять заданные функции в данный момент времени.
Событие, заключающееся в переходе системы в состояние неправильного функционирования, называется отказом.
Неработоспособная система может быть правильно функционирующей. Например, в системе произошел отказ какой-то составной
части (подсистемы, элемента). Она становится неработоспособной. Но
если алгоритм функционирования системы таков, что в данный момент времени эта составная часть не участвует в реализации рабочего процесса, система является правильно функционирующей. Пусть
в системе (рис. 1.1) имеет место отказ элемента 2. Тогда в момент t0
система неработоспособна, но при этом функционирует правильно,
поскольку элемент 2 в данный момент не задействован в рабочем процессе (не имеет активных связей с другими элементами системы).
Отказы подразделяются на постепенные и внезапные.
2
1
3
5
4
6
Рис. 1.1. Функционирование системы в момент t0:
– отказ элемента;
– активные связи;
– неактивные связи
11
Постепенные отказы возникают в результате плавного изменения свойств системы, характеризующих ее функциональную пригодность в заданных условиях целевого применения.
Недопустимые износы в кинематических парах механизма
вследствие его длительной или неправильной эксплуатации являются примером постепенных отказов. Постепенные отказы снижают эффективность реализации рабочего процесса системы, но не
прекращают его полностью.
Внезапные отказы возникают в результате скачкообразного изменения свойств системы. Примеры внезапных отказов: поломка
коленчатого вала в двигателе внутреннего сгорания; пробой запирающего слоя в транзисторе микросхемы. Причинами таких отказов являются производственные ошибки, отступления от требований нормативно-технической документации в ходе эксплуатации.
Внезапный отказ означает невозможность дальнейшего применения системы по назначению (при отсутствии резервирования).
Значительная часть внезапных отказов представляет собой результат неконтролируемого развития постепенных отказов. Все
методы определения технического состояния ориентированы в основном на предупреждение и выявление постепенных отказов. Это
позволяет одновременно значительно снизить и вероятность возникновения внезапных отказов.
Контроль технического состояния – это процесс определения
исправности, работоспособности или правильности функционирования системы.
Содержание данной книги посвящено вопросам, связанным с
определением работоспособности, правильности функционирования и поиска отказов в системе. Именно эти вопросы охватывают
проблематику получения информации о пригодности или непригодности системы к выполнению заданных функций, в последнем
случае – по причине каких отказов. Поэтому под контролем технического состояния далее понимается процесс определения работоспособности или правильности функционирования системы.
Целью контроля работоспособности как одного из частных
случаев контроля технического состояния является определение
свойств системы, характеризующих ее работоспособное или неработоспособное состояния. При контроле правильности функционирования (второй частный случай контроля технического состояния)
определению подлежат такие свойства, которые характеризуют режимы нормальной работы системы в разные моменты времени или
состояние неправильного функционирования.
12
При нарушении работоспособного состояния или состояния правильного функционирования требуется определение таких свойств
системы, по которым можно найти отказавшую составную часть.
Составная часть системы, характеризующаяся относительно полной структурной и функциональной законченностью, до уровня которой производится поиск отказов, в дальнейшем называется функциональным элементом. Выше было дано самое общее определение
элемента системы как ее составной части, не подвергающейся разбиению в рамках конкретного исследования. Очевидно, что при рассмотрении системы с позиций технической диагностики понятия
элемента и функционального элемента являются эквивалентными.
Техническое диагностирование – это процесс поиска отказавших функциональных элементов в системе.
Контроль или диагностирование реализуются по следующей
схеме: исследователь априори выдвигает ряд гипотез о возможных
видах технического состояния, то есть о таких, в одном из которых
находится система, и по результатам исследования принимает одну
из этих гипотез. Другими словами, исследователь идентифицирует текущее состояние системы с одним из возможных видов ее технического состояния. Такая схема является замкнутой, поскольку
текущее состояние не только определяется количественно, но и отождествляется с одним из диапазонов количественных оценок, которому соответствует определенный вид технического состояния
системы, то есть качественная характеристика ее свойств.
Переход системы из одного вида технического состояния в другой
представляет собой случайное событие. В частности, случайным событием как по месту, так и по моменту возникновения является отказ системы. Отказы возникают и под воздействием внешних факторов, и внутренних необратимых физико-химических процессов,
связанных со старением и износом материалов. Возникает вопрос:
каким образом можно определять место и момент такого случайного события, как отказ? Следует вспомнить философское понимание
соотношения необходимости и случайности: «…где на поверхности
происходит игра случая, там сама эта случайность всегда оказывается подчиненной внутренним, скрытым законам. Все дело лишь в
том, чтобы открыть эти законы».
Опираясь на данное философское толкование, можно сделать вывод, что место и момент появления отказа в системе являются случайными в полном смысле этого слова, если отсутствуют контроль
и диагностирование ее технического состояния. При наличии контроля и диагностирования имеет место увеличение степени локали13
зации отказавшего функционального элемента. Конечно, отказ при
этом не становится событием, которое полностью детерминировано
по месту и моменту появления. Но степень случайности этого события может кардинально снижаться.
Система контроля и диагностирования – это совокупность контролируемой (диагностируемой) системы, средств контроля и диагностирования, исполнителей и соответствующей технической документации.
Средства контроля и диагностирования подразделяются на аппаратурные и программные. К аппаратурным средствам относятся:
датчики (первичные преобразователи информации), вторичные и
передающие преобразователи, устройства обработки информации
(вычислительные блоки, электронно-вычислительные машины).
Программные средства – это программы, которые реализуют заранее разработанные алгоритмы контроля и диагностирования.
Реализация алгоритмов осуществляется с помощью аппаратурных
Управление техническим состоянием объекта
Математическое,
алгоритмическое и
программное обеспечение
контроля и диагностирования
Планирование
ремонтнопрофилактических
мероприятий
Решение
о техническом
состоянии
объекта
Реализация ремонтнопрофилактических
мероприятий
Организационная
подсистема
Наблюдение
состояния объекта
Информационная
подсистема
Объект контроля и диагностирования
Рис. 1.2. Схема управления техническим состоянием
14
средств. Алгоритмы разрабатываются на основе математических
моделей процесса функционирования системы, в которых учитывается изменение технического состояния.
В настоящее время активно разрабатываются и внедряются системы управления техническим состоянием различных объектов.
В каждой такой системе можно выделить две четко выраженные
подсистемы – информационную и организационную. Информационная подсистема обеспечивает получение сведений о техническом
состоянии объекта, в то время как организационная подсистема
предназначена для планирования и реализации необходимых ремонтно-профилактических мероприятий по восстановлению исходного технического состояния на основе данных сведений (рис. 1.2).
То, что на рисунке указано как «наблюдение состояния объекта»,
позволяет получить первичную информацию о его состоянии. Затем
данная информация обрабатывается с помощью заранее синтезированного математического, алгоритмического и программного обеспечения контроля и диагностирования. На основе результатов обработки принимается решение о техническом состоянии объекта. Это
позволяет объективно планировать объемы и сроки ремонтно-профилактических мероприятий, которые затем выполняются на объекте.
Таким образом, информационная подсистема есть не что иное,
как система контроля и диагностирования.
15
2. ТЕОРЕТИКО-МНОЖЕСТВЕННАЯ ИНТЕРПРЕТАЦИЯ ВИДОВ
ТЕХНИЧЕСКОГО СОСТОЯНИЯ И ОТКАЗОВ СИСТЕМЫ
2.1. Разбиение множества технических состояний
на виды технического состояния.
Теоретико-множественное понятие отказа
Для построения математического и алгоритмического обеспечения контроля и диагностирования необходима последовательная формализация понятий, введенных в разд. 1. Первым этапом
формализации является теоретико-множественное описание видов
технического состояния системы. Формализация на основе теории
множеств позволяет более глубоко понять соотношения между видами технического состояния, смысл событий, заключающихся в
переходе текущего состояния системы из одного вида технического
состояния в другой.
Пусть некоторая фигура на плоскости (например, эллипс) охватывает все множество X технических состояний системы (рис. 2.1).
Тогда произвольное техническое состояние трактуется как некоторая точка внутри фигуры. В разд. 1 указывалось, что множество X является континуальным. С другой стороны, множество точек внутри любой фигуры, площадь которой не равна нулю, также
континуальное (согласно теореме Кантора о мощности множеств).
Таким образом, геометрическое представление множества технических состояний системы в виде схемы на рис. 2.1 является вполне
корректным.
На данном множестве могут быть выделены подмножества в
виде составных частей фигуры, представляющие отдельные виды
технического состояния.
X
Xи
X
Повреждение
X2
р
Xф
X ни
X1
Отказ
Xн
X3
Отказ
X4
X нф
Рис. 2.1. Разбиение множества X технических состояний системы
на подмножества, представляющие виды технического состояния
16
1. На множестве Х выделяется подмножество X è технических
состояний, которые характеризуются соответствием всем требованиям нормативно-технической документации, в том числе и по
внешним свойствам. Подмножество X è представляет собой исправный вид технического состояния системы. Технические состояния подмножества X \ X è (где \ – операция вычитания множеств)
характеризуются несоответствием хотя бы одному требованию нормативно-технической документации. Данное подмножество представляет собой неисправный вид технического состояния. В дальнейшем подмножество X \ X è обозначается как X íè :
X\X è = X íè .
В этом случае под повреждением понимается событие, состоящее
в переходе текущего технического состояния системы из подмножества X è в подмножество X íè (см. рис. 2.1).
2. На множестве X также выделяется подмножество X ð технических состояний, которые характеризуются соответствием всем
требованиям нормативно-технической документации, определяющим способность системы выполнять заданные функции (то есть
количественные характеристики внутренних свойств системы
удовлетворяют предъявляемым требованиям). Подмножество X ð
представляет собой работоспособный вид технического состояния.
Технические состояния подмножества X\X ð характеризуются несоответствием хотя бы одному требованию нормативно-технической
документации, определяющему способность системы выполнять заданные функции. Указанное подмножество представляет собой неработоспособный вид технического состояния. Далее подмножество
X\X ð обозначается как X í :
X \ Xð = Xí .
3. Исправная система всегда является работоспособной. Это означает, что подмножество X ð включает в себя подмножество X è :
Xè ⊂ Xð .
(2.1)
4. Неисправная система может быть работоспособной. Из указанного факта следует, что пересечение подмножеств X íè и X ð
является непустым, то есть
X íè ∩ X ð ≠ ∅,
(2.2)
где ∅ – пустое множество.
17
5. Неработоспособная система всегда является неисправной.
Данное утверждение формализуется соотношением
X í ⊂ X íè ,
(2.3)
которое означает, что подмножество неработоспособных состояний
содержится в подмножестве неисправных состояний.
6. Множество X í может разбиваться на подмножества1
Xií , i = 1,m,
(2.4)
что равносильно следующим теоретико-множественным соотношениям:
m
m
i =1
i =1
í
í
Xí =
X1í ∪ X2í ∪ ... ∪ Xm
= Xií , X1í ∩ X2í ∩ ... ∩ Xm
= Xií =
∅. (2.5)
Соотношения (2.5) показывают, что объединение подмножеств
(2.4) образует исходное множество X í , при этом в рамках данного
объединения подмножества (2.4) попарно не пересекаются.
Подмножество Xií представляет собой неработоспособный вид
технического состояния системы, вызванный отказом i-го функционального элемента. Под отказом в теоретико-множественной
формулировке понимается событие, заключающееся в переходе
текущего технического состояния системы из подмножества X ð в
подмножество X í . Если установлен факт перехода текущего состояния в одно из подмножеств (2.4), это означает, что обнаружен i-й
функциональный элемент, отказ которого стал причиной неработоспособного состояния системы. Подмножество Xií может называться и как i-е неработоспособное состояние.
7. Множество X разбивается на два подмножества – X ô и X \ X ô .
Технические состояния подмножества X ô характеризуются соответствием в данный момент времени всем требованиям нормативно-технической документации, определяющим способность системы выполнять заданные функции. Указанное подмножество представляет собой такой вид технического состояния, как правильное
функционирование системы. Технические состояния подмножества
X \ X ô характеризуются несоответствием в данный момент времени хотя бы одному требованию нормативно-технической документации, определяющему способность системы выполнять заданные
1
Запись i = 1,m равносильна записи i = 1, 2,…, m, где m ∈ N (N – множество натуральных чисел).
18
функции. Подмножество X \ X ô представляет вид технического
состояния – неправильное функционирование. Далее подмножество
X \ X ô обозначается как X íô :
X \ X ô = X íô .
Однако теперь разбиение на подмножества не является фиксированным, а меняется во времени и зависит от того, какие функции реализует система в данный момент времени ее применения по
назначению. Именно по этой причине мощность рассматриваемых
подмножеств является функцией времени:
X ô = X ô ( t ), X íô = X íô ( t ),
(2.6)
где ⋅ – мощность множества; t ∈ T, T – множество моментов времени функционирования системы.
Для указания на то, что мощность подмножеств X ô и X íô зависит от времени, линия между ними на рис. 2.1 показана пунктиром.
8. Работоспособная система всегда является правильно функционирующей. Это означает, что подмножество X ô включает в себя
подмножество X ð :
Xð ⊂ Xô .
(2.7)
Однако правильно функционирующая система может быть неработоспособной:
(2.8)
X í ∩ X ô ≠ ∅.
9. Неправильно функционирующая система всегда неработоспособна:
X íô ⊂ X í .
(2.9)
10. В случае необходимости множество X ô разбивается на подмножества
Xkô , k = 1, s,
(2.10)
соответствующие отдельным режимам правильного функционирования системы. Это равносильно следующим теоретико-множественным соотношениям:
s
s
k =1
k =1
Xô =
X1ô ∪ X2ô ∪ ... ∪ Xsô = Xkô , X1ô ∩ X2ô ∩ ... ∩ Xsô = Xkô =
∅. (2.11)
19
Соотношения (2.11) аналогичны (2.5) и показывают, что объединение подмножеств (2.10) образует исходное множество X ô , причем они попарно не пересекаются.
Изменение режимов функционирования может определяться,
например, моментами различных программных переключений в
системе, когда ее состояния существенно изменяются. Также режимы могут изменяться и под воздействием внешних возмущающих
факторов.
Поскольку мощность множеств X ô и X íô является функцией
времени [см. (2.6)], то и мощность подмножеств (2.10) также есть
функция времени:
ô
=
Xkô X
=
k ( t ), k 1, s.
(2.12)
Событие, заключающееся в переходе текущего технического состояния системы из подмножества X ô в подмножество X íô , называется отказом.
Необходимо отметить, что каждое из подмножеств Xií , Xkô
рассматривается как отдельный вид технического состояния системы.
Таким образом, множество X разбивается на подмножества,
которые соответствуют следующим состояниям системы (см. рис.
2.1):
X1 – система исправна, работоспособна и правильно функционирует (подмножество X1 совпадает с X è );
X2 – система неисправна, но работоспособна и правильно функционирует;
X3 – система неисправна, неработоспособна, но правильно
функционирует;
X4 – система неисправна, неработоспособна и неправильно
функционирует.
2.2. Параметры технического состояния
В рамках п. 2.1 элементы множества X технических состояний
системы трактовались как точки внутри некоторой фигуры на плоскости. Однако для последующей формализации задачи контроля и
диагностирования необходимо выбрать математический объект, который адекватно представлял бы при моделировании произвольное
техническое состояние.
20
Каждый элемент множества X допустимо рассматривать как
векторную величину1
X<l′> = ( x1 , x2 ,..., xl′ )ò .
(2.13)
Координаты xk (k = 1, l′) вектора (2.13) представляют собой характеристики свойств системы, о которых говорилось в определении технического состояния. Эти характеристики могут быть как
количественные, так и качественные.
Пусть количественные характеристики рассматриваются как
первые l координат вектора (2.13):
xk , k = 1, l.
(2.14)
Иначе, количественные характеристики составляют вектор
X<l> = ( x1 , x2 ,..., xl )ò ,
(2.15)
размерность которого меньше размерности вектора (2.13), то есть
l < l′.
В качестве примеров количественных характеристик можно назвать значение индуктивности обмотки в системе зажигания, величину зазора в кинематической паре или толщину слоя отложений
на внутренней поверхности газового тракта двигателя внутреннего
сгорания. Очевидно, что координаты любой конкретной реализации вектора (2.15) могут быть записаны как вещественные числа.
Каждое из этих чисел отражает степень обладания системой какимто свойством.
Координаты
xl+1, xl+2 , …, xl′ (èëè xk , k = l + 1, l′)
(2.16)
вектора (2.13) представляют собой качественные характеристики свойств системы. Примерами качественных характеристик
являются: целостность защитного покрытия корпуса механизма
(или отсутствие таковой), наличие или отсутствие герметичности
в каком-то уплотнении, свечение или погасание транспаранта на
пульте управления. Каждая координата (2.16) может быть записана
в виде булевой переменной, то есть имеющей два возможных значения. Одно из значений (например, xk = 1 ) отражает требуемую ка1
В выражении (2.13) указана операция транспонирования, поскольку векторная величина записана строкой. Вектор X<l> может записываться как X, если из
контекста понятно, какова его размерность.
21
чественную характеристику соответствующего свойства, а второе
(например, xk = 0 ) – противоположную ему характеристику.
Качественные характеристики определяют только исправность
или неисправность системы, а на возможность и эффективность
реализации рабочего процесса практически никакого влияния не
оказывают. Поэтому при определении работоспособности или правильности функционирования учитываются только количественные характеристики, определяющие эффективность выполнения
системой своих функций. Это означает, что работоспособность (неработоспособность) или правильное (неправильное) функционирование характеризуются вектором (2.15).
Таким образом, при определении исправности учитываются все
l′ характеристик свойств системы, то есть размерность элементов
множества X принимается равной l′:
X = {X<l′> }.
(2.17)
Естественно, что такую же размерность имеют элементы множеств X è и X íè :
X è ∪ X íè =
{X<l′> }.
Работоспособность системы определяется в предположении, что
размерность элементов равна l:
Xð ∪ Xí =
{X<l> }.
(2.18)
При определении правильности функционирования размерность
элементов также условно принимается равной l:
X ô ∪ X íô =
{X<l> }.
(2.19)
Однако в общем случае для оценки работоспособности и правильности функционирования системы используются различные
количественные характеристики.
Как отмечалось в разд. 1, в данной работе исследуются только
те вопросы, которые связаны с контролем работоспособности, правильности функционирования и поиска отказавших элементов в
системе. Поэтому качественные характеристики xk (k = l + 1, l′) в
дальнейшем из рассмотрения исключаются. В соответствии с этим
не рассматриваются и множества X è , X íè , представляющие исправный и неисправный виды технического состояния системы. Таким образом, множество Х всех возможных технических состояний
в последующем трактуется так, как показано на рис. 2.2.
22
X
X
X1
р
Xф
Отказ
Xн
X2
Отказ
X3
X нф
Рис. 2.2. Разбиение множества X на подмножества работоспособных
и неработоспособных состояний, состояний правильного
и неправильного функционирования
Под множеством Х далее понимается множество работоспособных и неработоспособных состояний или состояний правильного и
неправильного функционирования:
X=
X ð ∪ X í èëè X =
X ô ∪ X íô .
Соответственно, под техническим состоянием в дальнейшем понимается вектор (2.15).
Множество X в рассматриваемой трактовке разбивается на подмножества, которые соответствуют следующим состояниям системы:
X1 – система работоспособна и правильно функционирует;
Х2 – система неработоспособна, но правильно функционирует;
Х3 – система неработоспособна и неправильно функционирует.
Как отмечалось выше, координаты (2.14) вектора (2.15) представляются вещественными числами. Следовательно, диапазонам
изменения данных координат сопоставляются подмножества вещественных чисел. В этом случае X можно рассматривать как подмножество l-мерного вещественного множества: X ⊂ Rl .
Переменные (2.14), являющиеся количественными характеристиками внутренних свойств системы, называются параметрами
технического состояния, переменными состояния или структурными параметрами. Все три указанных названия эквивалентны и
употребляются в равной мере.
Примечание. Необходимо отметить, что рассуждения о качественных и количественных характеристиках свойств системы
приводят к выводу о различной размерности одних и тех же элементов множества X, когда они рассматриваются в структуре разных подмножеств. Например, если утверждается, что X ∈ X íè , то
размерность вектора X следует считать равной l′. Но если этот же
23
элемент X принадлежит множеству X ð (X ∈ X ð ), его размерность
считается равной l. В то же время из рис. 2.1 видно, что X ð ⊂ X íè .
Логическое противоречие имеет место, если этот факт (различная
размерность одного и того же элемента X) трактуется буквально.
В действительности разбиение множества X на подмножества представляет собой только методический прием. В связи с этим вполне
оправданно рассматривать этап разбиения, не всегда обращая внимания на размерность элементов.
24
3. НАБЛЮДАЕМОСТЬ ТЕХНИЧЕСКИХ СОСТОЯНИЙ
И ВИДОВ ТЕХНИЧЕСКОГО СОСТОЯНИЯ СИСТЕМЫ
3.1. Теоретико-множественная интерпретация
видов технического состояния и отказов системы
на множестве наблюдаемых состояний
Непосредственное измерение значений переменных состояния
(2.14) практически невозможно. Для того чтобы произвести такие
измерения на механическом объекте (например, измерить зазоры в
кинематических парах), необходимо выполнить трудоемкие демонтажные работы. Измерить сопротивление запирающего слоя в полупроводниковом элементе электронной системы с учетом его схемной связи с другими элементами в условиях эксплуатации также не
представляется возможным. Кроме этого, физическая природа переменных, определяющих внутренние свойства системы, не всегда
бывает известной. Эти причины входят в перечень важнейших, по
которым контроль и диагностирование должны опираться на технологии, не требующие выполнения демонтажных работ.
Для определения переменных состояния используются косвенные величины – выходные параметры, имеющие с переменными
состояния функциональную или стохастическую взаимосвязь.
В отличие от переменных (2.14), выходные параметры
yj , j = 1,n
(3.1)
можно наблюдать и измерять, поскольку это конкретные физические величины – токи, напряжения, температуры, давления, амплитуды и скорости виброперемещений и т. д. Такие параметры называются контролируемыми параметрами, когда осуществляется
контроль работоспособности или правильности функционирования
системы, и диагностическими параметрами – при реализации
процессов диагностирования (поиска отказавших элементов).
Необходимо иметь в виду, что по результатам контроля сразу же
может следовать и процесс диагностирования. Поэтому в состав диагностических параметров могут включаться все или часть параметров, которые применялись на этапе контроля. Это свидетельствует
об условности приведенных названий, отсутствии четкого разграничения между ними. В дальнейшем при изложении общих вопросов, касающихся и контроля, и диагностирования, будет использоваться термин «контролируемые параметры».
25
Значения контролируемых параметров, измеренных в заданный
момент времени, образуют вектор
Y<n > = ( y1 , y2 ,..., yn )ò ,
(3.2)
который называется наблюдаемым состоянием системы.
Переменные (3.1) в конкретных реализациях вектора (3.2) представляют собой вещественные числа, что вытекает из их физического смысла. Тогда диапазонам изменения данных переменных
соответствуют подмножества вещественных чисел, а все множество
наблюдаемых состояний Y = {Y<n > } будет подмножеством n Y ⊂ Rn .
Множество контролируемых параметров должно быть достаточным, чтобы фиксировать все значимые изменения переменных состояния. В общем случае зависимость значений контролируемых
параметров от состояния системы постулируется, а в каждом конкретном случае она устанавливается и описывается в виде математических соотношений на основе анализа структуры и процессов
функционирования системы. Текущие значения контролируемых
параметров регистрируются на выходах, которые принято называть контрольными точками системы.
Множество наблюдаемых состояний Y = {Y<n > }, так же как и
множество технических состояний X = {X<l> }, может быть разбито на подмножества, соответствующие различной степени функциональной пригодности системы или различным режимам ее правильного функционирования:
Y ð – подмножество наблюдаемых состояний, соответствующее
работоспособному состоянию системы;
– Y í – подмножество, соответствующее неработоспособному состоянию;
Y ô – подмножество, соответствующее состоянию правильного
функционирования системы;
– Y íô – подмножество, соответствующее состоянию неправильного функционирования.
Представленное разбиение означает, что на множестве Y выделяются подмножества, которые определяют следующие состояния
системы:
– Y1 – система работоспособна и правильно функционирует;
– Y2 – система неработоспособна, но правильно функционирует;
– Y3 – система неработоспособна и неправильно функционирует.
Все выделенные подмножества показаны на рис. 3.1.
При этом имеет место взаимно однозначное соответствие между
следующими подмножествами множеств Х и Y:
26
X ð ↔ Y ð , X í ↔ Y í , X ô ↔ Y ô , X íô ↔ Y íô .
(3.3)
Необходимо отметить, что выражения вида (3.3) не означают,
что мощности соответствующих друг другу подмножеств равны.
В общем случае имеют место неравенства
X ð ≠ Y ð , X í ≠ Y í , X ô ≠ Y ô , X íô ≠ Y íô .
Мощность подмножеств Y ô и Y íô , так же как мощность X ô и
X , есть функция времени:
íô
Y ô = Y ô ( t ), Y íô = Y íô ( t ).
(3.4)
Для отражения данного факта линия между этими подмножествами на рис. 3.1 показана пунктиром.
Подмножество Y í наблюдаемых состояний аналогично подмножеству X í может подвергаться разбиению на подмножества
Yií (i = 1,m), которые представляют неработоспособные состояния
системы по причине отказа того или иного функционального элемента. Тогда имеет место взаимно однозначное соответствие
Xií ↔ Yií , i = 1,m.
(3.5)
В общем случае мощности соответствующих подмножеств в выражении (3.5) также не равны:
Xií ≠ Yií , i = 1,m.
Подмножество Y ô подвергается разбиению аналогично X ô на
подмножества Ykô (k = 1, s). Пусть подмножество Ykô , так же как и
Y
Y1
Yр
Yф
Отказ
Yн
Y2
Отказ
Y3
Y нф
Рис. 3.1. Разбиение множества Y наблюдаемых состояний
системы на подмножества, представляющие виды
технического состояния
27
Xkô , соответствует k-му режиму правильного функционирования
системы. Тогда имеет место взаимно однозначное соответствие
Xkô ↔ Ykô , k = 1, s.
(3.6)
Мощности подмножеств в левой и правой части выражения (3.6)
в общем случае не равны:
Xkô ≠ Ykô , k = 1, s.
При этом необходимо отметить, что мощность подмножеств
Ykô – функция времени:
Ykô = Ykô ( t ).
(3.7)
Указанный факт вытекает из того, что функцией времени является мощность подмножеств Xkô , Y ô , Y íô [см. выражения (2.12) и
(3.4)].
В левой части выражений (3.3), (3.5) и (3.6) находятся подмножества, представляющие собой виды технического состояния. В силу
взаимно однозначного соответствия между ними и подмножествами, которые находятся в правой части, последние также принято
называть видами технического состояния системы. Таким образом,
подмножества Y ð, Y í, Y ô , Y íô , Yií , Ykô называют видами технического состояния.
Аналогичные соответствия имеют место между подмножествами X1 и Y1, X2 и Y2, X3 и Y3.
Теоретико-множественные соотношения (2.5), (2.7)–(2.9), (2.11),
которые были определены на множестве Х, справедливы и на множестве Y. Соотношения на множестве Y, подобные (2.18) и (2.19) на
множестве Х, принимают вид
Yð ∪ Yí =
{Y<n > }, Y ô ∪ Y íô =
{Y<n > }.
Исходя из вышеизложенного, представляется естественным
трактовку отказов системы на множестве Y производить так же,
как и на множестве X. Под отказом понимается событие (рис. 3.1),
состоящее в переходе наблюдаемого состояния системы:
– из подмножества Y ð в подмножество Y í (при контроле работоспособности);
– из подмножества Y ô в подмножество Y íô (при контроле правильности функционирования).
28
Разбиение множества Y на подмножества, представляющие
виды технического состояния, а также определение понятия отказа
на множестве Y важны по причине того, что вся доступная информация о техническом состоянии системы аккумулирована в данном множестве. Поэтому алгоритмы контроля и диагностирования
строятся на обработке данных, полученных из множества наблюдаемых состояний.
3.2. Требования к контролируемым параметрам
Контролируемые (диагностические) параметры (3.1) должны
удовлетворять требованиям однозначности и чувствительности, какова бы ни была их физическая природа. На рис. 3.2, а показана
однозначная 1 и неоднозначная 2 зависимости контролируемого параметра от переменной состояния.
Под однозначностью понимается соответствие каждому значению контролируемого параметра только одного значения переменной состояния. При неоднозначной зависимости существуют такие
значения контролируемого параметра, каждому из которых соответствует два или более значения переменной состояния. В примере
на рис. 3.2, а (кривая 2) значению y 1 контролируемого параметра
соответствуют два значения x1′ и x2′ переменной состояния:
′ ).
∃ y 1, x1′ , x2′ , x1′ ≠ x2′ : y=
1 y ( x1′ ), y=
1 y ( x2
Чувствительность заключается в наличии отклонения контролируемого параметра при изменении переменной состояния. Количественно чувствительность определяется как отношение приращеб)
а)
y
y1 y2
2
y1
1
y2
0
∆y1
1
∆y2
xʹ1
x2
xʹʹ1
x
0
2
∆x
x
Рис. 3.2. Зависимости контролируемого параметра
от переменной состояния
29
ния Δy контролируемого параметра к приращению Δx переменной
состояния. На рис. 3.2, б показаны зависимости более чувствительного y1 и менее чувствительного y2 контролируемых параметров от
переменной состояния:
Δ y1 Δ y2
>
.
Δx
Δx
3.3. Полная наблюдаемость технических состояний
В процессе применения системы по назначению на нее имеют
место внешние воздействия, которые в заданный момент времени
определяются количественными характеристиками
u p , p = 1, h.
(3.8)
Внешние воздействия делятся на два вида.
1. Поступают от средств контроля и диагностирования и являются специально организованными воздействиями с целью получения
наиболее полной и объективной информации о состоянии системы.
Такие воздействия называются тестовыми. Их можно изменять в
зависимости от специфики решаемых задач. Контроль и диагностирование при тестовых воздействиях называются тестовыми (тестовый контроль, тестовое диагностирование).
2. Являются внешними по отношению к системе контроля и диагностирования, определяются как рабочим алгоритмом функционирования системы, так и окружающей средой (рабочие воздействия). Контроль и диагностирование при рабочих воздействиях
называются функциональными (функциональный контроль, функциональное диагностирование).
В качестве воздействий среды, которые могут оказывать существенное влияние на процесс функционирования системы, можно
указать температуру, давление и влажность окружающего воздуха,
виброакустическое воздействие от других систем, электромагнитные и тепловые излучения и т. д.
Вектор переменных (3.8), то есть
U<h > = ( u1 , u2 ,...,uh )ò
(3.9)
в дальнейшем называется входным воздействием на систему.
Переменные (3.8) в конкретных реализациях вектора (3.9) могут
быть представлены вещественными числами, которые определяют
30
интенсивность внешнего воздействия на систему. Тогда диапазонам
изменения данных переменных соответствуют подмножества вещественных чисел, а все множество входных воздействий U = {U<h > }
будет подмножеством h U ⊂ Rh .
Таким образом, система как объект контроля и диагностирования рассматривается в виде преобразователя множества U = {U<h > }
входных воздействий и множества X = {X<l> } технических состояний во множество Y = {Y<n > } наблюдаемых состояний, а структурная схема системы представляется так, как показано на рис. 3.3.
Очевидно, что переменные (2.14), (3.1) и (3.8) изменяются во
времени. Пусть в какой-либо форме установлены функциональные
или стохастические зависимости
yj = ϕ j ( x1 , x2 ,..., xl , u1 , u2 ,...,uh ,t ), j = 1,n,
или в векторном виде
Y<n > = Φ(X<l> , U<h > ,t ),
(3.10)
(3.11)
где t – момент времени, в который производится наблюдение системы, t ∈ T, T – множество моментов времени, в которые наблюдается
система.
Если функция Ф имеет обратную функцию Φ −1, то для каждого фиксированного момента времени t0 и фиксированного входного
воздействия U<h >0 можно найти состояние системы при любом наблюдаемом состоянии Y<n > :
X<l> = Φ −1 (Y<n > , U<h >0 ,t0 ).
(3.12)
Существование обратной функции (3.12) указывает на то, что
отображение
(3.13)
Φ:U × X × T → Y
является инъективным (вложением). В левой части отображения
(3.13) – декартово произведение множеств U, X и T, которое опре-
U〈h〉
Y 〈n〉
X 〈l〉
Рис. 3.3. Структурная схема системы как объекта контроля
и диагностирования
31
деляется (как известно из теории математических структур) в виде
множества упорядоченных троек:
U × X × T =U
{( <h > , X<l> , t )}.
(3.14)
Произвольный элемент множества (3.14) – это сочетание некоторого входного воздействия U<h > , технического состояния системы
X<l> и момента времени t, в который указанные значения имеют место.
Каждому элементу множества в левой части инъективного отображения соответствует один и только один элемент множества в
правой части, то есть определенное наблюдаемое состояние. Следовательно, при отображении (3.13) элементы множеств сопоставляются следующим образом:
Φ:(U< h > ,X< l > , t )  Y< n > .
(3.15)
В теории систем и управления отображение (3.13) называется
оператором выхода. Если данный оператор обладает свойством
инъективности, система называется полностью наблюдаемой.
При полной наблюдаемости всякому изменению вектора выхода
Y( t ) ∈ Y в условиях фиксированного входного воздействия U( t ) ∈ U
соответствует определенное изменение технического состояния системы X( t ) ∈ X:
Y( t1 ) ≠ Y( t2 ) ⇒ X( t1 ) ≠ X( t2 ), ∀ t1 , t2 ∈ T.
(3.16)
Следует отметить, что условия (3.12), (3.15) и (3.16) эквивалентны
в смысле описания полной наблюдаемости системы.
Если предположить, что выбранная совокупность контрольных
точек (а следовательно, соответствующее множество контролируемых параметров) обеспечивает полную наблюдаемость произвольной системы, то любое из ее технических состояний может быть
определено по результатам измерений этих параметров.
3.4. Глубина диагностирования
О полной наблюдаемости технических состояний системы можно рассуждать только лишь теоретически. В реальных условиях ее
обеспечить невозможно, и, что самое важное, в этом нет никакой
практической необходимости. Например, при диагностировании
полная наблюдаемость означает определение отказа на уровне эле32
ментарной составной части (например, резистора или транзистора),
которая характеризуется только одной переменной состояния. Для
обеспечения полной наблюдаемости системы может потребоваться
неограниченно большое множество контролируемых параметров.
В реальных системах поиск отказавших функциональных элементов выполняется до определенного уровня, например до уровня
сменных модулей. Это означает, что нет необходимости различать
состояния системы, обусловленные изменениями внутри таких
функциональных элементов. Указанный подход значительно упрощает ремонтные работы, которые заключаются в том, чтобы заменить отказавший модуль на работоспособный. Очевидно, что далеко
не все системы состоят из сменных модулей. Особенно это касается
механических и электромеханических систем. Но в любом случае
выбор функциональных элементов, отказы которых необходимо
определять, производится так, чтобы они обладали максимально
возможной структурной законченностью. Это позволяет более оперативно осуществлять их замену в случае отказа.
Таким образом, текущее наблюдаемое состояние должно идентифицироваться с некоторым подмножеством, соответствующим тому
или иному виду технического состояния (при диагностировании –
неработоспособному состоянию системы, обусловленному отказом
какого-то функционального элемента):
Y< n > → Yií , i = 1,m.
(3.17)
В силу (3.5) соответствие (3.17) означает, что наблюдаемое состояние Y< n > опосредованно идентифицируется и с подмножеством
Xií . Тем самым достигается конечная цель диагностирования. Отказы внутри данного элемента на множестве имеющихся контролируемых параметров являются неразличимыми.
Аналогичная ситуация и при контроле правильности функционирования. В процессе проверки выполнения команд и отработки
режимов работы системы нет практической необходимости в определении каждого состояния. В рамках одного и того же режима
между состояниями не делается различий. Текущее наблюдаемое
состояние идентифицируется с каким-либо подмножеством Ykô :
Y< n > → Ykô , k = 1, s.
(3.18)
Поскольку имеет место (3.6), соответствие (3.18) указывает на то,
что наблюдаемое состояние Y< n > опосредованно сопоставляется и
с подмножеством Xkô , которое представляет k-й режим функциони33
рования системы. Таким образом, достигается конечная цель контроля правильности функционирования.
Только в этих случаях задача определения технического состояния становится обозримой и практически разрешимой.
Очевидно, что разбиение множества технических состояний на
подмножества, соответствующие видам технического состояния,
может быть различным.
Пусть задано разбиение (рис. 3.4) множества наблюдаемых состояний Y на подмножества, соответствующие работоспособному и
неработоспособному состоянию системы:
Y ð ,Y í : Y =
Y ð ∪ Y í; Y ð ∩ Y í =
∅.
(3.19)
Если требуется определить, в какое из этих подмножеств попадает текущее наблюдаемое состояние Y, то производится контроль
работоспособности системы. Если установлено, что Y ∈ Y í , то есть
система неработоспособна, может производиться диагностирование
(поиск отказавшего функционального элемента). Для этого на множестве Y í должны быть выделены подмножества, которые представляют неработоспособные состояния системы по причине отказа
того или иного функционального элемента.
Пусть задано некоторое разбиение
Yií , i = 1,m1:
(3.20)
m1
m1
i =1
i =1
Yí =
Y1í ∪ Y2í ∪ ... ∪ Ymí1 =
∅, (3.21)
 Yií ; Y1í ∩ Y2í ∩ ... ∩ Ymí1 = Yií =
представленное на рис. 3.5.
Каждое подмножество (3.20) представляет i-е неработоспособное
состояние системы по причине отказа функционального элемента
qi. Если в результате диагностирования установлено, что наблюдаеYр
Y
Система работоспособна
.
Y
Система неработоспособна
Рис. 3.4. Разбиение множества Y
при контроле работоспособности системы
34
Yн
Y
Yр
.
Y1н
Y2н
……………………………………
Yн
Y
н
Ym1
Рис. 3.5. Разбиение множества Y í на m1 подмножеств
мое состояние системы принадлежит подмножеству Yií (например,
Y ∈ Y2í , как показано на рис. 3.5), то найден отказавший элемент qi
(в данном случае – элемент q2).
Пусть также задано согласованное с (3.20) разбиение того же
множества Y í :
=
Yilí , i 1,=
m1, l 1, hi ,
(3.22)
где hi – количество подмножеств, которые получаются при разбиении подмножества Yií .
Согласованность разбиений означает, что подмножества, образованные предыдущим разбиением исходного множества, представляют собой объединение какой-либо совокупности непересекающихся между собой подмножеств, которые образованы его последующим разбиением:
hi
hi
l =1
l =1
Yií =
Yií1 ∪ Yií2 ∪ ... ∪ Yiíh i =
∅. (3.23)
 Yiíl , Yií1 ∩ Yií2 ∩ ... ∩ Yiíh i = Yiíl =
Иначе, вначале выполняется разбиение вида (3.20), а затем полученные подмножества подвергаются дополнительному разбиению
(3.22), как показано, например, на рис. 3.6. При указанном понимании согласованности разбиений, естественно, что разбиения (3.19) и
(3.20) также будут согласованными.
Yр
Y
н
Y11
н
Y21
н
Y12
н
Y22
н
Y13
н
Y23
н
Y24
……………………………………
н
Ym11
.
Yн
Y
н
Ym12
Рис. 3.6. Разбиение множества Y í на m2 подмножеств
35
Пусть общее количество подмножеств (3.22) равно m2 ( m1 < m2 ).
Очевидно, что
m2 = h1 + h2 + ... + hm1 =
m1
∑ h i.
(3.24)
i =1
Применительно к разбиению на рис. 3.6 слагаемые в выражении
(3.24) имеют следующие значения:
h1 = 3; h2 = 4;…; hm1 = 2,
а выражения (3.23) принимают вид
3
3
l =1
l =1
í
í
í
Y1í =
Y11
∪ Y12
∪ Y13
=
∅;
 Y1íl , Y11í ∩ Y12í ∩ Y13í =
 Y1íl =
4
Y2í =  Y2íl ,
4
 Y2íl = ∅;
(3.25)
=l 1=l 1
...................................................
2
Ymí1 =
Ymí1 1 ∪ Ymí1 2 =
 Ymí1 l,
l =1
2
Ymí1 1 ∩ Ymí1 2 =
∅.
 Ymí1 l =
l =1
í
í
í
, Y12
Подмножества Y11
и Y13
представляют неработоспособные
состояния из-за отказов функциональных элементов q11 , q12 и q13 ,
которые структурно входят в функциональный элемент q1 . Таким
образом, q11 , q12 и q13 являются функциональными элементами
более низкого уровня иерархии по сравнению с q1 . Аналогично
í
(l = 1, 4) есть неработоспособные состояния по
подмножества Y2l
причине отказов функциональных элементов q2l (l = 1, 4). Данные
элементы структурно входят в функциональный элемент q2 . В свою
очередь, подмножества Ymí1 l ( l = 1, 2) представляют неработоспособные состояния, вызванные отказами элементов qm1 l ( l = 1, 2), которые структурно входят в функциональный элемент qm1 . Если в
í
результате диагностирования установлено, что, например, Y ∈ Y24
(как показано на рис. 3.6), то найден отказавший элемент q24 . Это
указывает на более глубокую локализацию отказов по сравнению с
тем, что представлено на рис. 3.5.
Разбиениям множества Y, а затем и множества Y í , которые заданы выражениями (3.19)–(3.21) и отражены на рис. 3.4–3.6, может
быть сопоставлена иерархическая структура системы, рис. 3.7.
36
Система
1
q1
2
3
q11
q12
q2
q13
q21
q22
qm11
q23
q24
qm11
qm12
Рис. 3.7. Иерархическая структура системы,
соответствующая разбиениям (3.19)–(3.21)
Это трехуровневая структура, которая отражает иерархическую
взаимосвязь системы и функциональных элементов, составляющих
данную систему. Причем функциональные элементы показаны с
двумя вариантами детализации (соответственно второй и третий
уровни). Указанная структура позволяет наглядно представить,
как реализуется процесс контроля работоспособности и диагностирования системы при движении от верхнего (первого) уровня
иерархической структуры к нижнему (третьему). На первом уровне производится контроль работоспособности и, если система неработоспособна, осуществляется переход на следующий уровень. На
втором уровне имеет место локализация отказа, то есть определяется, какой из элементов – q1 , q2 , …, qm1 отказал. На третьем уровне
производится более глубокая локализация отказа до функциональных элементов q11 , q12 , q13 , q21 , q22 , q23 , q24 , …, qm1 1 , qm1 2 .
Таким образом, иерархическая структура позволяет дать содержательную интерпретацию теоретико-множественного подхода к описанию степени локализации отказа.
Представление системы в виде иерархической структуры есть
результат ее декомпозиции. В общем случае под декомпозицией понимается процесс выделения в системе функциональных элементов
различного уровня и выявление иерархической соподчиненности
между ними.
Пример 3.1. Пусть выполнено разбиение (3.19) множества Y
(рис. 3.4). Также подвергнуто разбиению
Yií , i = 1, 3
(3.26)
37
подмножество Y í , полученное из (3.19). В данном случае m1 = 3
[см. (3.20)], а выражения (3.21) принимают вид
Yí =
Y1í ∪ Y2í ∪ Y3í ,
Y1í ∩ Y2í ∩ Y3í =
∅.
Разбиение (3.26) показано на рис. 3.8.
Также выполнено разбиение вида (3.22):
Y1íl , l = 1, 2; Y2íl , l = 1, 3; Y3íl , l = 1, 2,
(3.27)
согласованное с (3.26). Выражения (3.23), задающие согласованность разбиений, представляются следующим образом:
í
í
Y1í =
Y11
∪ Y12
,
í
í
í
Y2í =
Y21
∪ Y22
∪ Y23
,
í
í
Y3í =
Y31
∪ Y32
,
í
í
Y11
∩ Y12
=
∅;
í
í
í
Y21
∩ Y22
∩ Y23
=
∅;
í
í
Y31
∩ Y32
=
∅.
Разбиение (3.27) представлено на рис. 3.9. Общее количество подмножеств (3.22) в рассматриваемом случае определяется из выражения (3.24):
m2 = h1 + h2 + h3 = 2 + 3 + 2 = 7,
но это видно и непосредственно из (3.27).
Разбиениям (3.19), (3.26) и (3.27) сопоставляется трехуровневая
иерархическая структура системы, которая показана на рис. 3.10.
Разбиения множества Y í , в которых каждое последующее разбиение согласовано с предыдущим, могут выполняться и далее. Так,
пусть задано очередное разбиение множества Y í , согласованное с
(3.27):
í
í
í
Y12
(3.28)
v , v = 1, 2; Y22 v , v = 1, 3; Y32 v , v = 1, 2.
Yр
Y
Yн
Y1н
Y2н
Y3н
Рис. 3.8. Разбиение множества Y í наблюдаемых состояний системы,
m1 = 3
38
Yр
Y
н
Y12
н
Y11
н
Y21
н
Y22
н
Y31
н
Y23
.
Yн
Y
н
Y32
Рис. 3.9. Разбиение множества Y í наблюдаемых состояний системы,
m2 = 7
Система
1
2
q1
q2
q3
3
q11 q12
q21 q22 q23
q31 q32
Рис. 3.10. Иерархическая структура системы,
соответствующая разбиениям (3.19), (3.26), (3.27)
Выражения, задающие согласованность разбиений (3.27) и (3.28),
имеют вид
í
í
í
í
í
Y12
=
Y121
∪ Y122
, Y121
∩ Y122
=
∅;
í
í
í
í
í
í
í
Y22
=
Y221
∪ Y222
∪ Y223
, Y221
∩ Y222
∩ Y223
=
∅;
í
í
í
í
í
Y32
=
Y321
∪ Y322
, Y321
∩ Y322
=
∅.
Из (3.28) следует, что в данном случае разбиению подвергаются
три подмножества (3.27) из семи. Рисунок, отражающий разбиение (3.28), можно без затруднений воспроизвести. Иерархическая
структура, которая сопоставляется разбиениям (3.19), (3.26)–(3.28),
показана на рис. 3.11.
Это уже четырехуровневая структура, поскольку она построена
на основе четырех вариантов разбиения множества наблюдаемых
состояний.

39
Система
1
q1
2
3
4
q11
q121
q12
q13
q122
q2
q21
q22
q23
q3
q24
q221 q222 q223
q31
q32
q321
q322
Рис. 3.11. Иерархическая структура системы,
соответствующая разбиениям (3.19), (3.26)–(3.28)
В общем случае допустимо определить, сколько угодно вариантов разбиения множества Y í , когда каждый последующий вариант
согласован с предыдущим:
m0 < m1 < m2 < ... < mi < ... < mr ,
(3.29)
где mi – количество подмножеств Yií , которые получаются в i-м варианте разбиения (i = 0, r ). При этом m0 соответствует разбиению
(3.19), в котором подмножество Y í рассматривается как единое
целое ( m0 = 1).
Очевидно, что иерархическая структура системы, которая сопоставляется ( r + 1) разбиениям (3.29), имеет ( r + 1) уровней. Вариант
m0 соответствует первому (верхнему) уровню иерархической структуры, на котором производится только контроль работоспособности
системы, а вариант mr – нижнему уровню.
Таким образом, вводится понятие глубины диагностирования.
Из вышеизложенного следует, что определение этого понятия может быть дано как в теоретико-множественной, так и содержательной интерпретации.
В теоретико-множественной интерпретации под глубиной диагностирования понимается степень разбиения множества неработоспособных состояний системы на подмножества, соответствующие
различимым между собой отказам отдельных функциональных
элементов.
Чем больше степень разбиения множества Y í , тем больше глубина диагностирования системы. Другими словами, при увеличении
r мощность подмножеств Yií (i = 0, r ) уменьшается. Если степень
40
разбиения неограниченно возрастает, то мощность получаемых подмножеств стремится к единице (одному наблюдаемому состоянию):
lim (Yií )i =0,r = 1.
r →∞
(3.30)
Иначе, в предельном случае имеет место полная наблюдаемость
системы1:
lim (Yií )i =0,r = Y .
r →∞
(3.31)
В содержательной интерпретации глубина диагностирования
определяется степенью детализации системы до функциональных
элементов, отказы которых необходимо определять.
Применительно к иерархической структуре системы на рис. 3.11
глубина диагностирования задается одним из трех возможных вариантов – до функциональных элементов второго, третьего или четвертого уровней. В общем случае максимально возможная глубина диагностирования определяется элементами системы, которые
характеризуются одной переменной состояния. Это соответствует
предельному случаю – полной наблюдаемости системы, которая
определяется равносильными выражениями (3.30) и (3.31).
Важнейшим понятием теории контроля и технической диагностики является понятие наблюдаемости видов технического состояния системы. При контроле работоспособности наблюдаемость видов технического состояния определяется возможностью различать
работоспособное и неработоспособное состояния системы на множестве имеющихся контролируемых параметров.
В случае диагностирования речь идет о наблюдаемости отказов
функциональных элементов системы. Она тесно связана с глубиной
диагностирования и определяется степенью детализации системы на
функциональные элементы, отказы которых возможно определять
на множестве используемых диагностических параметров. Если
множество диагностических параметров таково, что различимы отказы функциональных элементов только второго уровня, значит,
имеет место наблюдаемость отказов второго уровня. При наличии
1
При неограниченном возрастании степени разбиения множества Y í (r→∞) размерность элементов Y<n> подмножеств Yií также неограниченно возрастает (n→∞),
поскольку увеличивается множество диагностических параметров, необходимых
для определения отказавших элементов. Указанный факт в выражении (3.31) непосредственно не просматривается.
41
возможностей различать отказы функциональных элементов третьего уровня имеет место наблюдаемость отказов третьего уровня и т. д.
Следует отметить, что наблюдаемость видов технического состояния определяется не только иерархической структурой системы,
но и разбиениями множества технических состояний. Из разбиений
в примере 3.1 видно, какие виды технического состояния предполагаются наблюдаемыми. Так, при разбиении (3.27) наблюдаемыми
предполагаются семь видов технического состояния, соответствующих всем выделенным подмножествам указанного разбиения, а
í
í
(l = 1, 3), Y3l
именно: Y1lí ( l = 1, 2), Y2l
( l = 1, 2). Аналогично понимание наблюдаемости и при других разбиениях.
В подразд. 3.5 приводится другой частный случай наблюдаемости видов технического состояния – режимов правильного функционирования системы и состояния неправильного функционирования. Дальнейшее развитие понятия наблюдаемости видов технического состояния, его формализация и представление на математическом уровне рассматриваются в разд. 6.
Выше исследовались согласованные разбиения множества наблюдаемых состояний системы. Но разбиения могут быть и несогласованными. Пусть задано два варианта разбиения множества Y í :
Yií , i = 1, m1;
(3.32)
Yrí , r = 1, m2 .
(3.33)
Если m1 < m2, то несогласованность разбиений определяется условием
∃=
r ∈ { r | r 1,m2 }: Yrí ⊄ Yií =
∀ i ∈ { i | i 1,m1 }.
(3.34)
Выражение (3.34) означает, что при разбиении (3.33) существует
(найдется) такое подмножество, которое не содержится ни в одном
из подмножеств (3.32).
Условие (3.34) можно записать и более кратко:
∃r : Yrí ⊄ Yií ∀ i,
так как из (3.32) и (3.33) видно, какие значения принимают индексные переменные i и r.
Пример 3.2. На рис. 3.12 представлено разбиение множества Y í
на 4 подмножества ( m1 = 4).
На рис. 3.13 показано разбиение этого же множества на 6 подмножеств ( m2 = 6).
42
Yр
Y
Yн
Y1н
Y2н
Y3н
Y4н
Рис. 3.12. Разбиение множества Y í
наблюдаемых состояний системы, m1 = 4
Yр
Y
Yн
Y′2í
Y′1í
Y′3í
Y′4í
Y′5í
Y′6í
Рис. 3.13. Разбиение множества Y í
наблюдаемых состояний системы, m2 = 6
Из приведенных рисунков видно, что только одно подмножество
первого разбиения (рис. 3.12) представляет собой объединение двух
непересекающихся подмножеств второго разбиения (рис. 3.13):
Y1í =
Y1′í ∪ Y2′í ,
Y1′í ∩ Y2′í =
∅.
Для остальных подмножеств второго разбиения справедливо условие (3.34):
Y3′í ⊄ Yií ∀ i ∈ { i | i =1, 4}; Y4′í ⊄ Yií ∀ i ; Y5′í ⊄ Yií ∀ i ;
Y6′í ⊄ Yií ∀ i .
Таким образом, разбиения (рис. 3.12) и (рис. 3.13) являются несогласованными.

Каждое разбиение, несогласованное с другими, следует рассматривать как самостоятельный вариант декомпозиции системы,
предназначенный для анализа вне взаимосвязи с другими вариантами.
43
3.5. Глубина контроля правильности
функционирования
Аналогично понятию глубины диагностирования вводится понятие глубины контроля правильности функционирования системы. Речь идет о системах, в рамках рабочего процесса которых
могут быть выделены отдельные режимы функционирования.
Смена режимов происходит в соответствии с заранее заданным алгоритмом реализации рабочего процесса системы и может сопровождаться скачкообразным изменением переменных наблюдаемых
состояний.
Пусть задано разбиение (рис. 3.14) множества наблюдаемых состояний Y на подмножества, соответствующие состояниям правильного и неправильного функционирования системы:
Y ô , Y íô : Y =
Y ô ∪ Y íô ; Y ô ∩ Y íô =
∅.
(3.35)
Как и ранее, линии между подмножествами на рис. 3.14 и всех
последующих рисунках в рамках подразд. 3.5 показаны пунктиром. Это указывает на зависимость мощности данных подмножеств
от времени [см. рис. 2.1, 2.2, 3.1].
Если текущее наблюдаемое состояние Y принадлежит подмножеству Y ô , система правильно функционирует. В противном случае, когда Y ∈ Y íô , имеет место неправильное функционирование
системы. Процесс определения принадлежности наблюдаемого состояния одному из двух подмножеств Y ô или Y íô в дальнейшем
называется проверкой функционирования системы. С целью идентификации отдельных режимов работы необходимо разбиение Y ô
на подмножества, соответствующие данным режимам.
Y
Система правильно функционирует
Yф
Система неправильно
функционирует
.
Y
Y нф
Рис. 3.14. Разбиение множества Y на подмножества,
соответствующие состояниям правильного и неправильного
функционирования системы
44
Пусть задано некоторое разбиение множества Yф состояний правильного функционирования системы
Ykô , k = 1, s1:
(3.36)
s1
s1
Yô =
Y1ô ∪ Y2ô ∪ ... ∪ Ysô =
∅.
 Ykô ; Y1ô ∩ Y2ô ∩ ... ∩ Ysô = Ykô =
1
k =1
1
k =1
Разбиение (3.36) показано на рис. 3.15.
Каждое подмножество Ykô соответствует определенному виду
технического состояния, то есть какому-либо режиму gk функционирования системы. Но если в результате контроля установлено,
что наблюдаемое состояние системы принадлежит подмножеству
Ykô (например, Y ∈ Y1ô , как показано на рис. 3.15), то это еще не
означает, что идентифицирован режим gk (в данном случае – g1).
Причина заключается в том, что подмножества Ykô являются
функциями времени. Поэтому для полной идентификации необходимо учесть временную расстановку событий.
Так, на множестве T моментов времени функционирования системы выделяются опорные моменты tk* , в которые должна происходить смена режимов работы (смена видов технического состояния). Это моменты существенного изменения состояний системы,
которые определяются алгоритмом реализации ее рабочего процесса. Между опорными моментами tk* и tk*+1 система находится в k-м
режиме функционирования. Заданный временной интервал
[ tk* ; tk*+1 ) ⊂ T
k-го режима необходимо сопоставить с множеством Tk (Tk ⊂ T)
моментов времени реального наблюдения данного режима. Указанные множества должны совпадать с допустимой погрешностью
Ysô
1
Y
………………………………………
Y2ô
Yф
Y1ô
.
Y
Y нф
Рис. 3.15. Разбиение множества Y ô
на s1 подмножеств
45
программной отработки режимов правильного функционирования
системы. Степень совпадения наиболее полно оценивается мощностью множества, которое представляет симметрическую разность
множеств Tk и [ tk* ; tk*+1 ). Указанная мощность не должна превышать нормативного значения:
Tk Δ[ tk* ; tk*+1 ) ≤ δk , k = 1,s1 ,
(3.37)
где δk ∈R + ( R + – множество неотрицательных вещественных чисел), величины δk задаются в нормативно-технической документации на систему, также они могут быть и результатом экспертных
оценок; Δ – операция симметрической разности множеств.
На рис. 3.16 показано, что понимается под симметрической разностью множеств Tk и [ tk* ; tk*+1 ).
Как известно, симметрическая разность множеств определяется
следующим выражением:
Tk Δ[tk* ;tk*=
+1 )
(Tk \[tk* ;tk*+1) ) ∪ ([tk* ;tk*+1)\Tk ).
(3.38)
Из рис. 3.16 видно, что результатом вычитания множества
[tk* ;tk*+1 ) из Tk является множество T′:
Tk \[tk* ;tk*+1 ) = T ′.
T ′′:
При вычитании множества Tk из [tk* ;tk*+1 ) получается множество
[tk* ; tk*+1 )\Tk = T ′′.
Тогда
Tk Δ[tk* ; tk*+1 ) =
T ′ ∪ T ′′.
Tk
T′
tk*
Рис. 3.16. Геометрическая интерпретация
симметрической разности множеств
46
(3.39)
T′′
tk*+1 t
Из (3.37)–(3.39) следует, что
T ′ ∪ T ′′ ≤ δk .
(3.40)
Левая часть выражения (3.40) представляет собой суммарную
длину отрезков T′ и T′′ на оси времени t.
С учетом (3.37) условие правильного функционирования системы представляется следующим образом:
Y ∈ Y ô ;
k


* *
k
 Tk Δ[ tk ; tk +1 ) ≤ δ ;

k = 1, s1.
(3.41)
Применительно к разбиению на рис. 3.15 условие (3.41) принимает вид
Y ∈ Y ô ;
1

(3.42)

* *
1
 T1Δ[ t1 ; t2 ) ≤ δ .
Если какое-либо из неравенств (3.37) не выполняется, то есть
когда
∃k ∈
=
{i | i 1,s}: Tk Δ[tk* ; tk*+1 ) >δk ,
(3.43)
имеет место отклонение k-го режима функционирования от заданного временного интервала его отработки на величину, превышающую допустимое значение. Это указывает на неправильное функционирование системы.
Опираясь на рис. 3.15, условие (3.43) можно проиллюстрировать
следующим образом. Пусть
T1Δ[t1* ; t2* ) >δ1,
(3.44)
тогда граница (пунктирная линия) между подмножествами Y1ô и
Y íô меняет свое положение и в рассматриваемый момент времени
проходит так, как показано на рис. 3.17.
При этом текущее наблюдаемое состояние Y свое положение на
множестве Y (то есть в рамках эллипса) хотя и не изменяет, но оказывается в подмножестве Y íô :
Y ∈ Y íô .
(3.45)
47
Ysô
1
Y
………………………………………
Yф
Y1ô
Y2ô
.
Y
Y нф
Рис. 3.17. Разбиение множества Y в случае несовпадения текущего
и заданного интервалов отработки первого режима
функционирования системы
Кроме того, текущее наблюдаемое состояние Y может находиться в стационарной части подмножества Y íô , то есть в той его части, которая не окажется в подмножестве Y ô при любых режимах
функционирования системы. Это означает, что система функционирует неправильно, то есть выполняется условие (3.45) в любой момент времени наблюдения ее состояния.
Пусть также задано согласованное с (3.36) разбиение того же
множества Y ô :
ô
(3.46)
Y=
s1, l 1, hk ,
kl , k 1,=
где hk – количество подмножеств, которые получаются при разбиении подмножества Ykô .
Пусть общее количество подмножеств (3.46) равно s2 (s1 < s2 ).
Очевидно, что
s2 = h1 + h2 + ... + hs1 =
s1
∑ hk.
(3.47)
k =1
Разбиение (3.46) показано на рис. 3.18.
Применительно к разбиению на рис. 3.18 слагаемые в выражении (3.47) имеют следующие значения:
=
h1 3;=
h2 2;...=
; hs1 1.
ô
ô
ô
Подмножества Y11
, Y12
и Y13
соответствуют режимам функционирования g11, g12 и g13, которые охватываются режимом g1.
Иначе, временные интервалы отработки режимов g11, g12 и g13
являются подмножествами временного интервала функционироваô
ô
ния системы в режиме g1. Аналогично подмножества Y21
и Y22
соответствуют режимам функционирования g21 и g22. Каждый из
48
Y
Ysô
1
………………………………………
ô
Y21
Yф
ô
Y11
ô
Y22
ô
Y12
ô
Y13
.
Y
Y нф
Рис. 3.18. Разбиение множества Y ô на s2 подмножеств
этих режимов является составной частью режима g2. Поскольку
разбиение подмножества Ysô не производилось, то и соответствую1
щий ему режим g s1 декомпозиции не подвергался. Пусть в результате контроля правильности функционирования установлено, что,
например
Y ∈ Y ô ;
13

(3.48)

*
*
13
 T13 Δ[ t13 ;t21 ) ≤ δ ,
где T13 – временной интервал (подмножество моментов времени) ре* *
ального наблюдения режима g13; [t13
;t21 ) – заданный временной
*
интервал функционирования в режиме g13; t21
– заданный момент
перехода системы в следующий режим функционирования g21.
Выполнение условий (3.48) означает, что идентифицирован режим g13 (рис. 3.18). Это указывает на более глубокую идентификацию режимов функционирования системы по сравнению с тем, что
представлено на рис. 3.15.
Разбиениям множества Y, а затем и множества Y ô , которые заданы выражениями (3.35), (3.36), (3.46) и отражены на рис. 3.14,
3.15, 3.18, может быть сопоставлена иерархическая структура режимов функционирования системы (рис. 3.19).
Это трехуровневая структура, которая отражает иерархическую
взаимосвязь рабочего процесса системы в целом и отдельных режимов ее функционирования. Причем режимы функционирования показаны с двумя вариантами детализации (соответственно
второй и третий уровни). Указанная структура позволяет наглядно представить, как реализуется процесс контроля правильности
функционирования системы при движении от верхнего (первого)
уровня иерархической структуры к нижнему (третьему). На первом
уровне осуществляется проверка функционирования и, если система функционирует правильно, происходит переход на следующий
49
Рабочий процесс системы
(совокупность режимов
функционирования)
1
3
g2
g1
2
g11
g12
g13
g21
gs1
g22
Рис. 3.19. Иерархическая структура режимов
функционирования системы, соответствующая разбиениям
(3.35), (3.36), (3.46)
уровень. На втором уровне имеет место идентификация одного из
режимов g1, g2, … , gs1 . На третьем уровне производится более глубокая декомпозиция того режима, который был идентифицирован
на предыдущем уровне. Иначе, идентифицируется один из режимов
g11, g12, g13, g21, g22, …. Таким образом, иерархическая структура позволяет дать содержательную интерпретацию теоретико-множественного подхода к описанию последовательности идентификации режимов функционирования системы.
В общем случае можно задать целый ряд вариантов разбиения
множества Y ô , когда каждый последующий вариант согласован с
предыдущим:
s0 < s1 < s2 < ... < sk < ... < sr ,
(3.49)
где sk – количество подмножеств Ykô , которые получаются в k-м варианте разбиения ( k = 0, r ). При этом s0 соответствует разбиению
(3.35), когда множество Y ô рассматривается как единое целое (s0=1).
Очевидно, что иерархическая структура режимов функционирования, которая сопоставляется ( r + 1 ) разбиениям (3.49), имеет (r+1)
уровней. Вариант s0 соответствует первому (верхнему) уровню иерархической структуры, на котором производится только проверка
правильности функционирования системы, а вариант sr – нижнему уровню.
Таким образом, в теоретико-множественной интерпретации под
глубиной контроля правильности функционирования понимается
степень разбиения множества состояний правильного функциони50
рования системы на подмножества, соответствующие отдельным
режимам ее работы.
Чем больше степень разбиения множества Y ô , тем больше глубина контроля правильности функционирования. Иначе, при увеличении r мощность подмножеств Ykô ( k = 0, r ) уменьшается. Если
степень разбиения неограниченно возрастает, то мощность получаемых подмножеств стремится к единице (одному наблюдаемому состоянию):
lim (Ykô )k=0,r = 1.
r →∞
(3.50)
Условие (3.50) равносильно тому, что в предельном случае имеет
место полная наблюдаемость функционирования системы1:
lim (Ykô )k=0,r = Y .
r →∞
(3.51)
В содержательной интерпретации глубина контроля правильности функционирования определяется степенью детализации рабочего процесса системы на режимы функционирования, до уровня которых производится идентификация текущего состояния системы.
Важно затронуть вопрос о наблюдаемости видов технического
состояния при контроле правильности функционирования системы. На этапе проверки функционирования наблюдаемость видов
технического состояния определяется возможностью различать состояния правильного и неправильного функционирования системы
на множестве имеющихся контролируемых параметров.
Наблюдаемость отдельных режимов правильного функционирования тесно связана с глубиной контроля правильности функционирования и определяется степенью детализации рабочего процесса системы на отдельные режимы, до уровня которых возможна
идентификация текущего технического состояния системы. Если
множество контролируемых параметров таково, что различимы режимы только второго уровня, значит, имеет место наблюдаемость
режимов указанного уровня (см., например, рис. 3.19). При наличии возможностей различать режимы третьего уровня имеет место
наблюдаемость режимов, выделенных на данном уровне и т. д.
1
При неограниченном возрастании степени разбиения множества Y ô (r→∞)
размерность элементов Y<n> подмножеств Ykô также возрастает (n→∞), поскольку
увеличивается множество параметров, необходимых для идентификации режимов
функционирования системы. Указанный факт в выражении (3.51) непосредственно
не отражается.
51
4. МЕТОД АЛГЕБРАИЧЕСКОГО АГРЕГИРОВАНИЯ
В ЗАДАЧАХ КОНТРОЛЯ И ДИАГНОСТИРОВАНИЯ
Для описания видов технического состояния как подмножеств
наблюдаемых состояний необходимо найти признаки, общие по отношению ко всем этим состояниям. Имеется ввиду формальное описание в виде математических конструкций (а не вербальное).
Общеметодологической основой решения данной задачи является
метод алгебраического агрегирования, сущность которого заключается в построении моделей на множествах обобщенных элементов.
Обобщенный элемент (агрегат) – это элемент модели, то есть идеальная, математическая конструкция. Каждый из обобщенных элементов заменяет определенное подмножество элементов исходной системы
в соответствии с заданным критерием эквивалентности. Элемент исходной системы – реальный элемент (материальное образование).
Модели, построенные на множествах обобщенных элементов
(агрегатов), называются агрегированными. В агрегированной модели обеспечивается сохранение основных свойств исходной системы,
которые важны для решаемой задачи.
Применительно к задачам контроля и диагностирования основу
агрегированной модели составляет множество агрегированных состояний. Для того чтобы раскрыть понятие агрегированного состояния, необходимо провести некоторые предварительные рассуждения.
На множестве Y может быть задано отношение эквивалентности
Σ, под которым понимается бинарное отношение
Σ ⊂ Y × Y,
(4.1)
где Y × Y =
{(Yk ,Y p )} – декартово произведение множества Y на себя,
которое включает всевозможные пары элементов Yk , Yp ∈ Y.
Отношение (4.1) обладает свойствами:
– рефлексивности:
∀ Y ∈ Y: (Y,Y) ∈Σ;
– симметричности:
∀ Y1,Y2 ∈ Y: (Y1,Y2 ) ∈Σ ⇒ (Y2,Y1 ) ∈Σ;
– транзитивности:
∀ Y1,Y2 ,Y3 ∈ Y: (Y1,Y2 ) ∈Σ, (Y2 ,Y3 ) ∈Σ ⇒ (Y1,Y3 ) ∈Σ 1.
Выражение (Yk, Yp) ∈ Σ означает, что наблюдаемые состояния Yk и Yp находятся
между собой в отношении эквивалентности Σ.
1
52
Данные свойства показывают, что на множестве Y могут быть
выделены подмножества эквивалентных (неразличимых) по отношению Σ элементов. Эти подмножества не пересекаются между собой. Иначе, множество Y подвергается разбиению, под которым и
понимается выделение непересекающихся подмножеств. Эти подмножества называются также классами эквивалентности.
Например, разбиение (3.19) означает, что на множестве Y задано
отношение эквивалентности
Σ ð ⊂ Y × Y,
(4.2)
по которому образуется подмножество Y ð элементов, эквивалентных в том смысле, что они характеризуют один и тот же вид технического состояния – работоспособное состояние системы. Оставшиеся элементы множества Y также образуют подмножество Y \ Y ð
эквивалентных элементов. Их эквивалентность заключается в том,
что они характеризуют неработоспособное состояние системы:
Y \ Y ð = Y í.
Аналогичным образом можно утверждать, что разбиение (3.19)
означает задание на множестве Y отношения эквивалентности
Σ í ⊂ Y × Y,
(4.3)
í
по которому образуется подмножество Y элементов, эквивалентных в смысле их характеристики неработоспособного состояния системы. Оставшиеся элементы множества Y образуют подмножество
Y \ Y í эквивалентных элементов, характеризующих работоспособное состояние:
Y \ Y í = Y ð.
Разбиение произвольного множества по отношению эквивалентности Σ в теории математических структур называется факторизацией данного множества. Результатом факторизации является фактор-множество Y / Σ, элементами которого являются образованные
при факторизации подмножества (классы эквивалентности).
В случае с разбиением множества Y по отношению эквивалентности (4.2) получается фактор-множество
Y / Σð =
{Y ð , Y í },
(4.4)
p
н
которое включает два элемента – подмножества Y и Y наблюдаемых состояний, представляющих работоспособное и неработоспособное состояния системы соответственно.
53
Очевидно, что разбиение множества Y по отношению эквивалентности (4.3) дает такое же фактор-множество:
Y / Σí =
{Y ð , Y í }.
Если имеется разбиение множества Y í на m подмножеств, это
означает задание на данном множестве отношений эквивалентности Σi ( i = 1,m ). По каждому из этих отношений образуется подмножество Yií наблюдаемых состояний, эквивалентных в том смысле,
что они характеризуют неработоспособное состояние системы по
причине отказа i-го функционального элемента. Результатом задания отношений эквивалентности Σi является фактор-множество
í
í
Y=
/ Σi {Yi=
}, i 1,m.
(4.5)
В дальнейшем потребуется следующий вариант факторизации
всего множества наблюдаемых состояний Y:
Y=
/ Σi {Yi=
}, i 0,m,
(4.6)
где Y0 = Y ð – подмножество, представляющее работоспособное состояние системы; Yi = Yií ( i = 1,m ) – подмножества из фактор-множества (4.5).
В общем случае используется и более упрощенная запись выражения (4.6):
(4.7)
Y=
/ Σ {Y
=
i | i 0,m}.
Разбиение множества Y ô состояний правильного функционирования на s подмножеств, соответствующих отдельным режимам нормальной работы системы, указывает на задание отношений эквивалентности
Σk ( k = 1, s ). По каждому из этих отношений образуется подмножество
Ykô эквивалентных наблюдаемых состояний. Их эквивалентность заключается в том, что они характеризуют один и тот же режим нормальной работы системы. В результате получается фактор-множество
ô
Yô
=
/ Σk {Yk=
}, k 1, s.
(4.8)
По аналогии с фактор-множеством (4.7) применяется факторизация всего множества наблюдаемых состояний Y следующего вида:
Y=
/ Σ {Y
=
k | k 0, s},
(4.9)
где Y0 = Y íô – подмножество состояний неправильного функционирования системы; Yk = Ykô ( k = 1, s ) – подмножества из фактор-множества (4.8).
54
Таким образом, все разбиения множества X и его подмножеств,
которые рассматриваются в разд. 2, а также разбиения множества
Y и его подмножеств (разд. 3) производятся по соответствующим отношениям эквивалентности.
Из предшествующего изложения следует, что критерием отношения эквивалентности Σ является принадлежность одному из подмножеств всех элементов множества Y, относительно которых в процессе
контроля или диагностирования принимается одно и то же решение.
В общем случае операция факторизации множества Y по отношению эквивалентности представляется отображением
η:Y → Y / Σ .
(4.10)
Отображение вида (4.10), которое задает преобразование континуального множества Y в конечное множество непересекающихся подмножеств (то есть в фактор-множество Y / Σ), в теории математических
структур называется наложением (естественным гомоморфизмом).
Введение отношения эквивалентности при формировании подмножеств, представляющих собой виды технического состояния,
означает некоторое упрощение физических процессов в сложных
системах. В действительности сложность структуры и многообразие режимов функционирования систем могут приводить к частичному пересечению данных подмножеств.
Следовательно, при разработке моделей контроля и диагностирования необходимо также вводить отношение толерантности. Отношением толерантности называется бинарное отношение
Ω ⊂ Y × Y,
(4.11)
обладающее следующими свойствами:
– рефлексивности:
∀ Y ∈ Y: (Y,Y) ∈Ω;
– симметричности:
∀ Y1,Y2 ∈ Y: (Y1,Y2 ) ∈Ω ⇒ (Y2,Y1 ) ∈Ω;
– антитранзитивности:
∃ Y1,Y2 ,Y3 ∈ Y: (Y1,Y2 ) ∈Ω, (Y2 ,Y3 ) ∈Ω ⇒ (Y1,Y3 ) ∉Ω 1.
1
Выражение (Yk, Yp) ∈ Ω означает, что наблюдаемые состояния Yk и Yp находятся
между собой в отношении толерантности Ω, а (Yk, Yp) ∉ Ω указывает, что данные
состояния в отношении Ω не находятся.
55
Свойство антитранзитивности схематически демонстрируется на
рис. 4.1.
Из рисунка следует, что Y1 ∈ Yi , элемент Y2 находится в зоне пересечения подмножеств Yi и Yi +1, следовательно, Y2 ∈ Yi , Y2 ∈ Yi +1, а
Y3 ∈ Yi +1 . В этом случае Y1 и Y2 находятся в отношении толерантности, поскольку принадлежат одному подмножеству Yi : (Y1,Y2 ) ∈Ω.
Элементы Y2 и Y3 также находятся в отношении толерантности,
они принадлежат одному подмножеству Yi +1: (Y2,Y3 ) ∈Ω . При этом
Y1 и Y3 в отношении толерантности не находятся, так как принадлежат разным подмножествам: (Y1,Y3 ) ∉Ω .
Разбиение произвольного множества по отношению толерантности Ω также называется факторизацией данного множества. Результатом факторизации является фактор-множество Y /Ω, элементами которого являются образованные при факторизации частично
пересекающиеся подмножества (классы толерантности).
Варианты факторизации множества Y и его подмножеств по отношению эквивалентности, заданные выражениями (4.4), (4.5), (4.7)–
(4.9), могут быть выполнены и по отношению толерантности. Ниже
показаны все фактор-множества по отношению Ω, соответствующие
перечисленным вариантам факторизации по отношению Σ:
Y /Ωð =
{Y ð ,Y í };
í
Y í=
/Ωi {Yi=
}, i 1,m;
Y /=
Ω {Y
=
i |i 0,m};
ô
Y ô=
/Ωk {Yk=
}, k 1, s;
Y=
/Ω {Y
=
k |k 0, s}.
Y1
Yi–1
Yi
Y2
Y3
Yi+1
Рис. 4.1. Схематичная интерпретация
свойства антитранзитивности
56
Y
В общем случае операция факторизации множества Y по отношению толерантности представляется отображением
γ:Y → Y /Ω.
(4.12)
Отображение вида (4.12), задающее преобразование континуального множества Y в конечное множество частично пересекающихся
подмножеств (то есть в фактор-множество Y /Ω ), называется наложением (гомоморфизмом). Если Y / Σ является разбиением исходного множества Y, то Y /Ω представляет собой покрытие данного множества. Следовательно, множество Y /Ω имеет значительно более
сложную структуру, чем Y / Σ .
Из существа рассматриваемой задачи вытекает, что фактор-множества Y / Σ и Y /Ω находятся во взаимно однозначном соответствии, то есть отображение
µ:Y / Σ → Y /Ω
(4.13)
является биекцией. Взаимная однозначность указывает на то, что
каждому элементу множества-прообраза Y / Σ соответствует один
элемент множества-образа Y /Ω и наоборот.
В соответствии с известной теоремой о гомоморфизме множеств
можно построить диаграмму отображений, которая отражает одну
из составных частей задачи агрегирования состояний:
γ
Y
Y/Ω
η
µ
Y/Σ
(4.14)
Из диаграммы (4.14) следует, что справедливо равенство
µ·η = γ.
(4.15)
Содержательный смысл гомоморфного отображения γ состоит в
том, что оно сохраняет свойство исходного множества Y наблюдаемых состояний, заключающееся в его способности характеризовать
изменения текущего состояния системы, но не сколь угодно малые
изменения, а только при переходе данного состояния из одного вида
технического состояния Yi (класса толерантности) в другой. Аналогично содержательная интерпретация естественного гомоморфизма
ε также заключается в сохранении вышеприведенного свойства
множества Y, но уже при переходе текущего состояния системы из
57
одного класса эквивалентности Yi в другой. Данное отображение
описывает несколько идеализированную ситуацию, поскольку в
реальной системе непересекающихся подмножеств наблюдаемых
состояний в общем случае нет.
В силу того, что отображение µ является взаимно однозначным,
для первоначального анализа множества Y /Ω следует использовать
фактор-множество Y / Σ как имеющее более простую структуру. Из
взаимной однозначности отображения µ вытекает зависимость отношения толерантности Ω от Σ. Смысл указанной зависимости в
том, что любые изменения отношения эквивалентности Σ приводят
к такому изменению Ω, чтобы взаимная однозначность отображения µ не нарушалась.
Следует отметить, что именно на этапе гомоморфного преобразования множества Y производится задание глубины диагностирования или контроля правильности функционирования системы
путем соответствующего формирования отношения эквивалентности Σ. Можно принимать различные варианты отношений эквивалентности, фактически это означает разную степень детализации
неработоспособных состояний системы или режимов правильного
функционирования.
Процесс отнесения текущего состояния системы к тому или иному виду технического состояния Yi в покрытии Y /Ω характеризуется значительной неопределенностью из-за наличия пересечений
подмножеств и может давать ошибочные результаты. Поэтому каждое подмножество Yi в модели необходимо заменить одним элементом Ei , который интегрально описывает свойства всего подмножества и представляет собой агрегированное состояние i-го вида технического состояния.
В дальнейшем под агрегированным состоянием Ei понимается
совокупность признаков, характеризующих общие свойства наблюдаемых состояний, относящихся к i-му виду технического состояния.
По этим признакам состояния объединяются в рамках отдельных видов технического состояния. В процессе контроля и диагностирования наблюдаемое состояние идентифицируется с одним из
полученных заранее агрегированных состояний.
Агрегированные состояния образуют множество, которое для
различных целевых задач определения технического состояния системы формируется по-разному:
– E = {E0 , E1 } – при контроле работоспособности, где E0 , E1 –
агрегированные состояния работоспособного и неработоспособного
видов технического состояния соответственно;
58
–
=
E {E
=
i | i 1,m} – при диагностировании, где Ei – агрегированное состояние, характеризующее неработоспособность системы изза отказа i-го функционального элемента;
– E {E
=
=
k | k 0, s} – при контроле правильности функционирования, где E0 – агрегированное состояние неправильного функционирования; Ek (k = 1, s ) – агрегированные состояния отдельных режимов нормальной работы системы.
Способы построения агрегированных состояний при решении
задач диагностирования рассматриваются в разд. 6.
В общем виде задание агрегированных состояний представляется биективным отображением
ρ:Y /Ω → E,
(4.16)
которое ставит в соответствие каждому виду технического состояния его агрегированное состояние:
ρ:Yi  Ei , i = 1,m.
Заключительный этап алгебраического агрегирования заключается в реализации отображения (биекции)
p: E → R.
(4.17)
При отображении (4.17) сопоставляются множество E агрегированных состояний и множество R возможных решений о техническом состоянии системы. На уровне элементов данное отображение
ставит в соответствие агрегированному состоянию Ei конкретное
решение Rf о принадлежности текущего состояния системы какому-либо виду технического состояния:
p:Ei  Rf , i, f = 1,m.
(4.18)
Если i = f в выражении (4.18), решение правильное, в противном
случае ( i ≠ f ) – ошибочное. Ошибки при контроле и диагностировании
обусловлены многими факторами, в том числе методическими и метрологическими погрешностями измерений контролируемых параметров.
С учетом выражения (3.13), а также выражений (4.14), (4.16) и (4.17)
все этапы построения модели контроля и диагностирования в совокупности могут быть представлены обобщенной диаграммой отображений:
U X T
Φ
γ
Y
η
Y/Ω
ρ
E
π
R
µ
Y/Σ
(4.19)
59
Диаграмма (4.19) отражает метод алгебраического агрегирования.
Этапы построения модели контроля и диагностирования, которые состоят в выборе переменных состояния, входных воздействий,
контролируемых параметров, задании глубины контроля (диагностирования) и формировании множества видов технического состояния системы, определяют структуру модели. Данные этапы описываются отображениями Φ, η, µ и γ. Отображение ρ описывает этап
параметризации модели на основе априорной информации о моделируемых системах.
60
5. КОНТРОЛЬ И ДИАГНОСТИРОВАНИЕ
КАК ЗАДАЧА РАСПОЗНАВАНИЯ ОБРАЗОВ
Теория распознавания образов – это междисциплинарное системно-кибернетическое направление, в котором рассматриваются
методологические основы распознавания объектов любой природы
по каким-либо косвенным признакам. Как будет показано в рамках
данного раздела, одним из частных приложений теории распознавания образов являются задачи контроля и технической диагностики. Ниже в сжатой форме рассматриваются две базовые, относительно самостоятельные задачи данной теории – классификация и
непосредственно распознавание.
1. Классификация (кластеризация) некоторого множества объектов (процессов, ситуаций).
Класс (кластер) – это подмножество объектов, обладающих какими-либо общими свойствами. В дальнейшем для указания на такое подмножество будет использоваться термин «класс», хотя некоторые авторы оперируют и термином «кластер».
Под классификацией (кластеризацией) понимается процесс отнесения объектов из рассматриваемой группы к одному из классов
на основе заданных критериев (заданных требований). Для указания на этот процесс далее применяется термин «классификация».
Критерии формируются таким образом, чтобы в каждом классе
оказались объекты с интересующими исследователя общими свойствами. О таких свойствах и говорилось в определении класса.
Очевидно, что результатом классификации является множество
классов, которые образованы на основе исходного множества объектов.
Простейший подход к классификации – по внешним признакам.
Пример 5.1. Классификация по цвету. Объекты одного цвета объединяются в один класс. Количество классов будет совпадать с количеством цветов объектов, имеющихся в классифицируемом множестве.
Классификация по габаритам, когда объекты, имеющие внешне
приблизительно одинаковые габариты, относятся к одному классу.
В качестве критериев классификации могут быть предложены и
другие внешние признаки.

Однако более совершенный подход заключается в том, чтобы
классификацию проводить на основе измерений значимых характеристик объектов. Эти характеристики в теории распознавания об61
разов называются признаками, или параметрами объекта. Предполагается следующее:
– количество параметров достаточно для правильной классификации всех объектов;
– параметры малочувствительны к варьированию объектов,
принадлежащих одному классу;
– параметры объектов, принадлежащих разным классам, принимают различные значения, по крайней мере, некоторые из них.
В противном случае классификация с помощью выбранных параметров оказалась бы невозможной.
Множество параметров, используемых для классификации, а
впоследствии и для распознавания вновь предъявляемых объектов,
называется словарем параметров. Набор измеренных значений параметров yj из заданного словаря называется образом объекта. Образ представляется вектором
Y<n > = (y1, y2,,yn )ò .
Образы всех объектов составляют множество
Y = {Y<n > },
(5.1)
(5.2)
которое и необходимо классифицировать.
По результатам классификации формируется множество классов, мощность которого для определенности принята равной m:

(5.3)
=
Y {Y
=
i | i 1, m},
где Yi – i-й класс, который выделяется на множестве (5.2).
Множество (5.3) называется алфавитом классов.
Если известно, что образ принадлежит i-му классу, он обозначается как
Y<n >i = (yi1, yi2,,yin )ò .
(5.4)
В результате классификация объектов производится посредством классификации их образов.
Пример 5.2. Выше приводился пример 5.1 классификации на
основе приблизительной качественной оценки габаритов объектов
(оценки «на глаз»). Но классификация будет более совершенной,
если производить измерения габаритных характеристик объектов –
длины y1, ширины y2 и высоты y3. При этом формируется образ
каждого объекта в виде трехмерного вектора:
Y<3> = (y1, y2, y3 )ò .
62
(5.5)
Объекты, которые характеризуются несущественным разбросом
значений одноименных координат вектора (5.5), объединяются в
один класс. Конкретное значение разброса, который подпадает под
категорию «несущественный», задается в каждом случае в зависимости от требований к классификации.
Если объекты имеют какую-то неправильную форму, то для их
корректной классификации могут потребоваться дополнительные
измерения. Очевидно, что размерность образа объекта в таком случае возрастает.

Каждый класс
Yi = {Yi }
(5.6)
включает определенное количество образов (5.4), которые доступны
для наблюдения. Для каждой координаты yij ( i = 1, m, j = 1, n ) этих
образов можно найти ее усредненное в каком-либо смысле значение
eij , которое характеризует свойства объектов, относящихся к i-му
классу по j-му параметру. Совокупность таких значений дает формальное описание i-го класса Yi , называемое его изображением.
Каждое изображение может быть представлено вектором
=
E<n >i (ei1, ei2,…, ei n )ò .
(5.7)
Поскольку изображение (5.7) аккумулирует в себе свойства всех
элементов соответствующего класса (5.6), оно выполняет роль эталона данного класса. Использование эталонов при построении распознающих систем позволяет кардинально упростить задачу распознавания.
Изображения всех классов образуют множество
=
E {E
=
i |i 1, m}.
(5.8)
2. Распознавание (отнесение одному из классов) вновь предъявляемого объекта.
Процесс распознавания заключается в следующем: при известном алфавите классов (5.3), для каждого из которых построено изображение (5.7), необходимо принять решение о принадлежности

вновь предъявляемого образа (5.1) одному из классов Yi ∈ Y.
Чтобы производить распознавание, необходимо ввести некоторую меру, позволяющую сравнивать образы объектов как между
собой, так и с изображениями классов. На данной основе определяется степень их совпадения или, наоборот, различия. Такой мерой
63
может служить расстояние в некотором пространстве. Известно,
что любому вектору в конечномерном пространстве соответствует
точка, верно и обратное утверждение – каждой точке пространства
соответствует вектор.
Если на множестве векторов вида (5.1) задать структуру
n-мерного евклидова пространства1, то появляется возможность в
полной мере использовать его свойства для решения задач распознавания образов. Очевидно, что векторы (5.7) также будут принадлежать данному пространству, которое в дальнейшем обозначается
как Y. В приложении 1 показано, что расстояние
d: Y × Y → R+
между элементами евклидова пространства вводится через скалярное произведение и определяется выражением (П1.15). Из данного выражения следует, что расстояние между образом (5.1) вновь
предъявляемого объекта и изображением i-го класса находится по
формуле
 n

d(=
Y,Ei )  ∑ (yi − ei j )2 
 j =1



0,5
, i = 1, m.
(5.9)
Чем меньше расстояние (5.9), тем больше степень совпадения
между Y и Ei. Минимальное значение (5.9) указывает на принадлежность образа (а следовательно, и самого объекта) i-му классу. Иначе,
решение о принадлежности объекта i-му классу принимается по критерию минимума метрического различия в конечномерном евклидовом пространстве между его образом и изображением i-го класса:
Y ∈ Yi , если d(Y,Ei ) = min {d(Y, Ek )}, i = 1, m.
k =1,m
(5.10)
Пример 5.3. На рис. 5.1 схематически показаны классы, изображения данных классов и расстояния между изображениями.
На схеме (рис. 5.1) видно, что минимальным является расстояние d(Y,E2 ). Это указывает на принадлежность распознаваемого
образа Y классу Y2. Иначе, в соответствии с (5.10) можно записать:
d(Y,E2 ) = min {d(Y,Ek )} ⇒ Y ∈ Y2.
k =1,m
(5.11)

1
64
Свойства евклидовых пространств рассматриваются в приложении 1.
Y2
Y1
E1
d(Y, E1)
E2
d(Y, E2 )
Ym
.............
d(Y, Em )
Em
Y
Рис. 5.1. Неформальное представление классификации образов
Таким образом, по своей постановке и принципам решения сформулированная задача распознавания образов с точностью до терминологических обозначений совпадает с задачей определения технических состояний. Это позволяет использовать аппарат теории
распознавания образов при разработке моделей контроля и диагностирования. При этом объектом распознавания, то есть распознаваемым образом является текущее техническое состояние системы.
В качестве алфавита классов выступает фактор-множество Y /Ω
видов технического состояния. Словарь параметров представляет
собой совокупность контролируемых параметров системы. Изображения классов есть не что иное, как агрегированные состояния системы, о которых говорилось в разд. 4.
С учетом введенных терминов задачу контроля и диагностирования можно называть задачей распознавания технических состояний. Как отмечалось выше, диагностические задачи в рамках
данной книги рассматриваются с позиций теории распознавания
образов. Это касается и терминологии, поэтому в дальнейшем агрегированные состояния называются изображениями видов технического состояния системы. Если же речь идет только о задачах диагностирования (в последующих разделах рассматриваются именно
они), то агрегированные состояния могут называться изображениями неработоспособных состояний системы.
65
6. ПРОЦЕДУРЫ ОБУЧЕНИЯ В МОДЕЛЯХ РАСПОЗНАВАНИЯ
ТЕХНИЧЕСКИХ СОСТОЯНИЙ НА ОСНОВЕ МЕТОДОВ
НЕПАРАМЕТРИЧЕСКОЙ СТАТИСТИКИ
6.1. Уровни определенности априорной информации
об объекте распознавания технических состояний
В теории систем выделяются три уровня априорной определенности статистической информации об исследуемом объекте. Ниже
дается характеристика этих уровней применительно к теории распознавания образов.
1. Полная определенность. Объем и содержание информации в
данном случае позволяет строить модели распознавания технических состояний на основе методов детерминированной математики. Реализация данного случая применительно к сложным техническим системам практически невозможна, поскольку требования
к объему и качеству информации о техническом состоянии чрезмерно высокие.
2. Вероятностная определенность, которая заключается в следующем:
– статистическая информация является однородной (получена в
одинаковых условиях);
– известны допустимые диапазоны изменения контролируемых
параметров для каждого вида технического состояния системы1:
Δ ij =
[ yijí ; yijâ ], i = 1,m, j = 1,n,
(6.1)
где yijí , yijâ – соответственно предельно допустимое нижнее и верхнее значения j-го контролируемого параметра в i-м виде технического состояния;
– известны законы распределения контролируемых параметров
на диапазонах (6.1) или же могут быть выдвинуты обоснованные
гипотезы о законах распределения в рамках указанных диапазонов.
Чаще всего такой уровень определенности априорной информации может быть достигнут о работоспособном состоянии, а также
о состоянии правильного функционирования системы. Формиро-
1
В соответствии с обозначениями, принятыми в разд. 2, через m обозначается
мощность множества неработоспособных состояний, обусловленных отказами
функциональных элементов системы.
66
вание статистических данных по неработоспособным состояниям –
это значительно более трудная задача, особенно применительно к
сложным и уникальным системам. Поэтому вероятностная определенность информации по таким состояниям возможна только в
отдельных частных случаях, когда исследуемые системы производятся в больших количествах, имеется богатый опыт их эксплуатации, в ходе которой формируются и регулярно пополняются базы
данных по отказам таких систем.
Вероятностный уровень определенности информации позволяет
применять для построения моделей распознавания технических состояний методы параметрической статистики. Эти методы хорошо
разработаны и относительно просты как в методологическом, так
и в алгоритмическом отношении. К числу таких методов относится
регрессионный анализ.
3. Множественная определенность, которая имеет два варианта
особенностей. В первом из них:
– статистическая информация является неоднородной, характеризуется малыми объемами;
– известны диапазоны (6.1) изменения контролируемых параметров для каждого вида технического состояния;
– законы распределения контролируемых параметров в рамках
диапазонов (6.1) неизвестны.
При данном уровне определенности информации построение моделей возможно только на основе методов непараметрической статистики. Эти методы позволяют обрабатывать неоднородную статистическую информацию малых объемов.
Для второго варианта особенностей характерна еще более сложная ситуация, когда известны диапазоны
Δ0 j =
[ y0íj ; y0â j ], j = 1,n
(6.2)
изменения контролируемых параметров только для работоспособного состояния системы. При соответствующей доработке методы
непараметрической статистики могут применяться и в данной ситуации.
Множественная определенность характерна именно для информации по отказам систем. Поэтому для такого случая рассматриваются только модели распознавания неработоспособных состояний.
В рамках таких моделей виды технического состояния – это неработоспособные состояния системы, а информативные параметры, как
указывалось ранее, называются диагностическими.
67
6.2. Постановка задачи построения изображений
неработоспособных состояний системы на основе
неоднородной априорной информации малых объемов
Исследование сложных технических систем практически всегда
приходится проводить в условиях крайней ограниченности априорной информации об этих системах. Неполнота информации обуславливается сложностью их построения и функционирования, недостаточной степенью изученности в процессе эксплуатации, неопределенностью влияющих факторов. Разработка математического обеспечения диагностирования всегда сопровождается необходимостью
преодоления следующих факторов сложности и неопределенности.
1. Переход системы из одного вида технического состояния в
другой определяется множеством различных воздействий, из которых выбор и учет наиболее значимых представляет собой сложную
задачу.
2. Поиск отказавших функциональных элементов производится
с точностью до некоторого уровня, который определяется, с одной
стороны, заданными требованиями к глубине поиска, а с другой –
составом имеющихся диагностических параметров. Отказы внутри
этих функциональных элементов являются неразличимыми. В результате истинная причина перехода системы в неработоспособное
состояние остается неизвестной.
3. В связи с ограниченным количеством диагностических параметров отдельные неработоспособные состояния характеризуются
низкой степенью различимости между собой.
Важнейшей задачей при разработке моделей распознавания
является построение изображений неработоспособных состояний
системы. В связи с тем, что статистическая информация о техническом состоянии сложных систем в большинстве случаев характеризуется неоднородностью и малыми объемами, ниже рассматриваются вопросы построения изображений на основе одного из методов
непараметрического статистического анализа – метода стохастической аппроксимации. В рамках указанного метода формулируется
задача обучения.
Обучение – это определение (оценка) параметров математической
модели известной структуры на основе статистических данных,
которые называются обучающей выборкой. Иначе, обучение – это
этап моделирования, заключающийся в идентификации модели
для конкретного класса систем, на базе которого сформирована обучающая выборка.
68
Как уже указывалось в разд. 4, этапы построения модели, предшествующие обучению, определяют ее структуру. Данные этапы на
диаграмме (4.19) описываются отображениями Φ, η, µ и γ. В то же
время сама процедура обучения описывается отображением ρ.
Таким образом, для реализации обучающей процедуры необходима следующая исходная информация:
– перечень всех неработоспособных состояний, обусловленных
отказами отдельных функциональных элементов системы
Y=
/Ω {Y=
i | i 1,m};
(6.3)
– состав диагностических параметров, представленный вектором наблюдаемого состояния
Y = ( y1 , y2 ,, yn )ò ;
(6.4)
– ограниченная по объему обучающая выборка реализаций наблюдаемых состояний, принадлежность которых каждому виду
технического состояния системы известна:
1
1
1
=
Y 1 {Y
=
k | k 1, N } ⊂ Y ;
2
2
2
=
Y 2 {Y
=
k | k 1, N } ⊂ Y ;
...........................................
(6.5)
m
m
m
=
Y m {Y
=
k | k 1, N } ⊂ Y ,
где Y i ( i = 1,m ) – подмножество наблюдаемых состояний, представляющее i-й вид технического состояния системы; N i – объем (мощность) обучающей выборки по i-му виду технического состояния.
Предполагается, что обучающая выборка (6.5) характеризуется
первым вариантом множественной определенности информации о
техническом состоянии системы. В рамках этого варианта должны
быть известны диапазоны (6.1) изменения диагностических параметров для всех видов технического состояния. Если же указанные
диапазоны точно неизвестны, то в первом приближении в качестве
предельно допустимых значений yijí и yijâ в выражениях (6.1) могут
быть приняты соответственно минимальное и максимальное значения j-го диагностического параметра из обучающей выборки (6.5)
по i-му виду технического состояния.
На множестве Y наблюдаемых состояний системы задается
структура n-мерного евклидова пространства. Тогда подмножества
Y i (i = 1,m ) с топологической точки зрения представляют собой частично пересекающиеся области в евклидовом пространстве Y.
69
Процесс отнесения текущего состояния системы к той или иной
области Y i в данном пространстве характеризуется значительной
неопределенностью из-за наличия пересечений областей и может
давать ошибочные результаты. Поэтому каждую область Y i в модели необходимо заменить одним элементом – изображением соответствующего вида технического состояния.
Следовательно, на основе исходных данных (6.3)–(6.5) требуется
построить изображения
Ei = ( ei 1 , ei 2 ,, ei n )ò , i = 1,m,
(6.6)
которые наиболее точно описывают свойства соответствующих видов технического состояния Y i ( i = 1,m ). Указанное требование к
изображениям представляет собой необходимое условие повышения достоверности распознавания текущего состояния системы.
Известно, что на евклидовых пространствах реализуется принцип сжимающих отображений. В соответствии с данным принципом всегда может быть найдена та или иная вычислительная схема, которая позволяет выразить целую область изображением вида
(6.6). Далее рассматривается одна из таких схем.
6.3. Схема итеративного градиентного поиска.
Алгоритм Роббинса – Монро
На математическом уровне метод стохастической аппроксимации сводится к схеме итеративного градиентного поиска.
Данная схема применительно к рассматриваемой проблеме состоит в следующем.
1. Для каждой области Yi существует разделяющая гиперповерхность hi в n-мерном евклидовом пространстве Y. В аналитическом виде
данная гиперповерхность представляет собой непрерывную функцию:
hi = hi (Y), hi ∈ C(Y ),
(6.7)
где C(Y) – множество непрерывных функций, заданных на Y.
В дальнейшем (6.7) называется разделяющей функцией.
2. Разделяющая функция обеспечивает максимальную точность
при распознавании текущих технических состояний, но является неизвестной. Поэтому следует выбрать аппроксимирующую функцию
h = h (Ei ,Y),
(6.8)
с помощью которой ищется приближение к разделяющей функции.
70
3. Мера отклонения аппроксимирующей функции (6.8) от аппроксимируемой (6.7) определяется как математическое ожидание
случайной выпуклой функции Ĥ от разности hi − h (Ei ,Y):
=
L (Ei ) M [ Hˆ ( hi − h (Ei ,Y))].
(6.9)
4. Оптимальная аппроксимация соответствует получению такого вектора Ei = E*i , при котором достигается минимум функционала (6.9):
L (E* ) = min { M [ Hˆ ( h − h (E ,Y))]}.
(6.10)
i
Ei ∈Rn
i
i
В выражении (6.10) указывается, что вектор E*i отыскивается
в n-мерном вещественном пространстве Rn (которое, как известно,
является евклидовым). В дальнейшем множество, на котором производится поиск указанного вектора, будет конкретизировано.
5. Функционал (6.9) невозможно задать в явном виде, так как неизвестен ни закон распределения функции Ĥ (⋅), ни ее числовые характеристики, в частности математическое ожидание. По этой причине искомый вектор E*i может быть получен только на основе отдельных реализаций функционала (6.9) в процессе использования
обучающих образов из выборки (6.5).
6. Процесс обучения обеспечивает получение изображений со
статистически независимыми (некоррелированными) координатами в случае разложения аппроксимирующей функции с помощью
ортогональной системы функций1
G (Y) = ( g1 (Y), g2 (Y),..., gn (Y))ò
(6.11)
в соответствии с выражением
ò
h=
(Ei ,Y) E=
i G (Y)
n
∑ eij gj (Y).
(6.12)
j =1
С учетом (6.11) и (6.12) функционал (6.9) принимает вид
=
L (Ei ) M [ Hˆ ( hi − Eiò G (Y))].
(6.13)
Далее система функций (6.11) называется G-преобразованием
вектора Y.
1
Понятия ортогональной системы и ортогонального базиса даются в приложении 2.
71
Так как выражение функционала (6.13) неизвестно, для поиска
его минимума используются измеренные градиенты реализаций
функции Ĥ (⋅). Иначе, минимум выражения (6.13) может быть найден решением градиентного уравнения
ò
ˆ
grad L (E=
= 0,
i ) M [grad H ( hi − Ei G(Y))]
(6.14)
 ∂ L (Ei ) ∂ L (Ei )
∂ L (Ei ) 
,
,...,
где grad L (Ei ) = 
;
e
e
∂
∂
∂ ein 
i1
i2

 ∂ H (Ei ) ∂ H (Ei )
∂ H (Ei ) 
grad Ĥ (⋅) =
,
,...,
;
∂ ei 2
∂ ein 
 ∂ ei 1
∂(⋅)
– частная производная по координате eij .
∂ eij
Если функционал (6.13) выпуклый (имеет единственный экстремум), корень уравнения (6.14) дает оптимальное значение вектора
Ei = E*i . Единственность экстремума функционала (6.13) имеет место, если использовать квадратичную меру отклонения аппроксимирующей функции от аппроксимируемой:
) ( hi − Eiò G (Y))2 .
Ĥ (Ei , Y=
(6.15)
Последнее утверждение очевидно, поскольку графически каждая
реализация функции (6.15) представляет собой параболу. В случае
использования функции вида (6.15) минимум функционала (6.13) может быть найден с помощью алгоритма Роббинса – Монро. Данный
алгоритм представляется в виде рекуррентных соотношений
E i ( k=
) Ei ( k− 1) − bk [Ei ( k− 1) − G (Y i ( k ))], i = 1,m,
(6.16)
где bk , k = 2, 3..., – последовательность, удовлетворяющая следующим требованиям:
lim bk = 0,
k→∞
∞
∞
k =1
k =1
∑ bk = ∞, ∑ bk2 < ∞.
Данные соотношения показывают, что последовательность
должна быть сходящейся, сумма ее элементов является неограниченной, а сумма квадратов элементов – ограниченная величина.
72
Наиболее простым вариантом такой последовательности является гармонический ряд
1   1 1 
(6.17)
  =  , , ... ,
k  2 3 
который и применяется в дальнейшем.
С учетом (6.17) рекуррентные соотношения (6.16) принимают вид
1
E i ( k=
) Ei ( k− 1) − [Ei ( k− 1) − G (Y i ( k ))], i = 1,m,
k
(6.18)
а для каждой координаты eij вектора Ei соотношения представляются как
1
eij ( k=
) eij ( k− 1) − [ eij ( k− 1) − gj (Y i ( k ))], j = 1,n.
(6.19)
k
Выражения (6.18) и (6.19) позволяют формировать изображение
Ei ( k ) на последующем шаге через это же изображение Ei ( k− 1) на
предыдущем шаге и очередной обучающий образ Y i ( k ) из выборки (6.5). Все алгебраические операции, которые предусмотрены в
выражениях (6.18) и (6.19), определены аксиоматикой евклидовых
пространств.
В качестве вектора начального приближения используется
произвольный обучающий образ Y i из выборки (6.5) после его
G-преобразования:
Ei (1) = G (Y i (1)).
(6.20)
Выражение (6.20) реализует первый шаг обучающей процедуры,
соотношения (6.18) применяются со второго шага. Поэтому в (6.17) и
не указан первый элемент гармонического ряда – единица. Известно, что исключение из ряда любого конечного числа элементов на
его сходимость или расходимость не оказывает никакого влияния.
Следовательно, исключение единицы не влияет на свойства гармонического ряда.
Следует подчеркнуть, что на множестве всех G-преобразованных
элементов пространства Y порождается новое евклидово пространство G (Y ) . В нем также выделяются частично пересекающиеся
между собой области G (Y i ). Множество
=
E {E
=
i | i 1,m}
построенных изображений содержится именно в данном пространстве: E ⊂ G (Y ).
73
6.4. Обучающая процедура на основе ортогонального
тригонометрического базиса
Возникает вопрос о формировании ортогональной системы
функций (6.11), которая была бы применима для построения изображений в условиях первого варианта множественной определенности информации о техническом состоянии системы (известны
диапазоны (6.1) изменения диагностических параметров для всех
видов технического состояния). Рядом достоинств обладает подход,
который базируется на применении ортогонального тригонометрического базиса в пространстве C2 непрерывных функций, квадратично интегрируемых по Риману:
1, sin lx , cos lx , x ∈ R, l =
1,2...
(6.21)
где R – множество вещественных чисел.
Начальные элементы этого базиса принимаются в качестве основы построения системы функций (6.11). Данная система будет
ортогональна, если базисная функция gr(Y) задается следующими
соотношениями:
( j + 1)/2, j − íå÷åòíî;
δrj sin lyj , l =

j − ÷åòíî;
δrj cos lyj , l = j /2,

gr (Y) = l = 1,( n + 1)/2,
n − íå÷åòíî;
(6.22)

n − ÷åòíî;
l = 1,n /2,
r , j = 1,n.

1, åñëè r = j ;
где δrj =
– дельта-функция (символ Кронекера).

0, åñëè r ≠ j.
Ортогональность системы (6.11) следует из того, что каждая
функция (6.22) определяется только одним элементом базиса (6.21).
Влияние других элементов исключается введением в соотношения
(6.22) символа Кронекера.
Пример 6.1. Выполнить G-преобразование наблюдаемого состояния
Y = ( y1 , y2 , y3 , y4 , y5 , y6 )ò .
(6.23)
Поскольку вектор (6.23) имеет шесть координат ( n = 6), ортогональная система (6.11) принимает вид
G (Y) = ( g1 (Y), g2 (Y), g3 (Y), g4 (Y), g5 (Y), g6 (Y))ò .
74
(6.24)
Так как n четно, в соответствии с выражением (6.22) коэффициент l изменяется от 1 до 3: l = 1, 3 . Координатные функции вектора
(6.24) определяются следующим образом:
 δ11sin y1   1 ⋅ sin y1   sin y1 

 
 

 δ12 cos y2   0 ⋅ cos y2   0

 δ13sin2 y3   0 ⋅ sin2 y3   0

g1 (Y) = 
=
=
;
 δ14 cos2 y4   0 ⋅ cos2 y4   0

 δ sin3 y   0 ⋅ sin3 y   0

15
5
5

 
 

 δ cos3 y   0 ⋅ cos3 y   0

6 
6 
 16

 δ21sin y1   0 

 

 δ22 cos y2   cos y2 
 δ23sin2 y3   0 
g2 (Y) = 
=
;
 δ24 cos2 y4   0 
 δ sin3 y   0 
5
 25
 

 δ cos3 y   0 
6 
 26

 0

 0

 0







 0

 0

 0

 sin2 y3 
 0

 0

g3 (Y) = 
; g4 (Y) = 
; g5 (Y) = 
;
 0

 cos2 y4 
 0

 0

 0

 sin3 y 
5






 0

 0

 0







 0



 0

 0

g6 (Y) = 
.
 0

 0



 cos3 y 
6

Тогда
G (Y) = (sin y1 , cos y2 , sin2 y3 , cos2 y4 , sin3 y5 , cos3 y6 )ò .

75
Тригонометрические функции в выражении (6.22) ограничивают значения координат eij интервалом [ − 1;1]. Ограниченность координат значительно упрощает алгоритмическую реализацию процесса построения изображений, а также вычислительные операции
при диагностировании.
Как уже отмечалось выше, на множестве G-преобразованных
элементов пространства Y порождается новое евклидово пространство G (Y ) . В случае использования базиса (6.21) для построения системы функций (6.11) пространство G (Y ) будет замкнутым и ограниченным. Каждая его координата принимает значения из интервала [ − 1;1] на вещественной оси.
При неограниченном увеличении числа шагов ( k → ∞ ) достигается сходимость процесса обучения к оптимальному вектору E*i :
lim ρ(Ei ( k ), E*i ) =
0,
k→∞
0,5
 n

*
*
2
 ( eij − eij ( k ))  –
где ρ(Ei ( k ), Ei ) =
 j =1



G (Y ) между векторами Ei (k) и E*i .
∑
(6.25)
расстояние в пространстве
Ранее указывалось, что оптимальным изображением является
такой вектор E*i , при котором функционал (6.13) принимает минимальное значение. Учитывая, что в структуре данного функционала в дальнейшем используется функция (6.15), условие его минимума запишется как
L (E*i ) = min { M ( hi − Eiò G (Y))2 }.
Ei ∈G (Y i )
(6.26)
Также ранее отмечалось [см. (6.10)], что вектор E*i отыскивается в пространстве Rn . На данном этапе очевидно, что этот вектор
формируется на основе G-преобразованных элементов области Yi и,
следовательно, принадлежит области G (Y i ). Указанный факт отражен в (6.26), а поскольку G (Y i ) ⊂ Rn , это является существенной
конкретизацией области определения функционала L (Ei ).
Одной из частных реализаций экстремума (6.26) является минимум суммарного расстояния между оптимальным изображением
E*i и всеми элементами области G (Y i ):
∑
p : Yp ∈Y i
76
(Yp ))
ρ(E*i , G
=




(
E
(
k
),
G
(
Y
))
ρ
 ∑
i
p . (6.27)
Ei ( k )∈G (Y i )  p : Y ∈Y i

p

min
Соотношения (6.25)–(6.27) отражают теоретически возможный
результат обучения. Очевидно, что в конкретных алгоритмах количество шагов при построении изображений ограничено объемом N i
выборки (6.5). На заключительном шаге обучения рекуррентные соотношения (6.18) принимают вид
i
Ei ( N=
) Ei ( N i − 1) −
1
Ni
[Ei ( N i − 1) − G (Y i ( N i ))], i = 1,m. (6.28)
Поэтому изображения Ei, полученные в результате заключительного шага (6.28), будут в общем случае отличаться от E*i . Но в
силу того, что обучающая выборка исчерпана, принимается
E*i = Ei ( N i ).
(6.29)
В отдельных случаях объем обучающей выборки может оказаться достаточным для продолжения обучения до выполнения условий
насыщения. Указанные условия задаются различными способами.
Ниже рассматриваются два таких способа.
В первом из них процедура обучения заканчивается, когда максимальное различие между одноименными координатами изображения Ei на предыдущем и последующем шагах не превышает предельно допустимого значения:
max | eij ( k+ 1) − eij ( k ) |≤ a1 , a1 ∈ R + , i = 1, m, j = 1,n,
j
(6.30)
где | ⋅ | – модуль выражения.
Второй способ заключается в задании предельно допустимого
расстояния в пространстве G (Y ) между векторами изображения на
предыдущем и последующем шагах обучения:
+
ρ(Ei ( k ), Ei ( k+ 1)) ≤ a2 , a2 ∈ R , i = 1, m,
(6.31)
0,5
 n

где ρ(Ei ( k ), Ei (=
k+ 1))  ∑ ( eij ( k+ 1) − eij ( k ))2  .
 j =1



Величины а1 и а2 в выражениях (6.30) и (6.31) выбираются исходя из требований решаемой задачи. Чем они меньше, тем точнее
изображения описывают свойства соответствующих видов технического состояния системы. При выполнении условия (6.30) или (6.31)
принимается, что
=
E*i Ei ( k+ 1).
(6.32)
77
Пример 6.2. Пусть наблюдаемое состояние системы определяется вектором
Y = ( y1 , y2 , y3 , y4 , y5 )ò .
(6.33)
Известны диапазоны изменения диагностических параметров
(координат вектора (6.33)) для всех видов технического состояния,
в том числе i-го вида:
[yií1; yiâ1 ] = [4,9; 5,5], [yií2 ; yiâ2 ] = [5,5; 6,5], [yií3 ; yiâ3 ] = [0,9;1,4],
(6.34)
[yií4 ; yiâ4 ] = [1,6; 2,2], [yií5 ; yiâ5 ] = [2,4; 2,8].
Сформирована обучающая выборка по данному виду технического состояния ( N i = 24 ):
5 
 5,5 
 5,3 
 4,9 
 5,2 










6
6
6,5
5,5








 6,3 
Y1i =  1 ; Y2i =  1,2 ; Y3i =  0,9 ; Y4i =  1,4 ; Y5i =  1,3 ;










 1,6 
 1,7 
 1,8 
 2,1 
 1,7 
 2,8 
 2,6 
 2,5 
 2,7 
 2,7 










 5,1 


6 
Y6i =  1,1 ;


2 
 2,5 


 5,4 
 5,3 
5 
 5,2 
 5,1 










 6,2 
 6,2 
 6,1 
 6,3 
6 
i
i
Y7i =  1 ; Y8i =  1,2 ; Y9i =  1,1 ; Y10
=  1 ; Y11
=  1,3 ;










 1,6 
 2,1 
 2,2 
 2 
 1,8 
 2,5 
 2,7 
 2,4 
 2,7 
 2,8 










 5,5 


 5,7 
i
Y12
=  0,9 ;


 1,6 
 2,4 


78
(6.35)
 5,2 
5 
 4,9 
 5,1 
 5,1 










 5,6 
6 
 5,9 
 5,7 
 5,9 
i
i
i
i
i
Y13
=  1,1 ; Y14
=  1,3 ; Y15
=  1,3 ; Y16
=  1 ; Y17
=  1,1 ;










 1,9 
 1,8 
 1,7 
 2 
2 
 2,7 
 2,5 
 2,5 
 2,4 
 2,5 










5 


 5,8 
i
Y18
=  0,9 ;


 1,9 
 2,6 


 5,5 
 5,1 
 5 
 5,2 
 5,3 










 5,7 
 5,8 
 5,8 
6 
 6,5 
i
i
i
i
i
Y19
=  1 ; Y20
=  1 ; Y21
=  1,3 ; Y22
=  1,1 ; Y23
=  0,9 ;










 1,8 
 2,1 
 1,9 
 2,1 
2 
 2,6 
 2,6 
 2,4 
 2,5 
 2,7 










 5,3 


 6,5 
i
Y24
=  1 .


 2 
 2,7 


Из сопоставления координат элементов выборки и диапазонов
(6.34) следует, что все диагностические параметры попадают в соответствующие диапазоны.
Обучающие образы пронумерованы с целью установить очередность их использования в процессе обучения. Номер образа совпадает с номером шага обучения, на котором данный образ используется: Yki = Y i ( k ).
Требуется построить изображение i-го вида технического состояния в двух вариантах. В первом процесс обучения заканчивается,
когда будет выполняться условие
max | eij ( k+ 1) − eij ( k ) |≤ 0,01, j = 1, 5.
j
(6.36)
79
Неравенство (6.36) – это частный случай условия (6.30) для
a1 = 0,01, n = 5. При выполнении данного условия считается, что
справедливо (6.32).
В рамках второго варианта изображение должно удовлетворять
условию
ρ(Ei ( k ),Ei ( k+ 1)) ≤ 0,01.
(6.37)
Неравенство (6.37) представляет собой конкретизацию условия
(6.31) для a2 = 0,01, n = 5.
Из (6.20) и (6.22) следует, что первый шаг обучения представляется выражением
 sin5   − 0,96 

 

 cos6   0,96 
  0,91  .
=
=
(Y i (1))  sin2
Ei (1) G=

 

 cos3,6   − 0,90 
 sin7,5   0,94 

 

Второй шаг предполагает G-преобразование следующего обучающего образа и нахождение изображения Ei (2):
 sin5,5 


 cos6 
G=
(Y i (2)) =
sin2,4 


 cos4,2 
 sin8,1 


 −0,71 


 0,96 
 0,68 ;


 −0, 49 
 0, 97 


в соответствии с выражением (6.18):
1
Ei (2) =
Ei (1) − Ei (1) − G (Y i (2))  =

2
 −0,96   −0,71    −0,96 
 −0,96 
 −0,25   −0,83 

 



 
 


 0,96   0,96    0,96 
 0   0,96 
 0,96 
1
1
= 0,91  −  0,91  −  0,68   = 0,91  −  0,23  =  0,79 .
 


 2 
 
 
 2
 −0,90   −0,49    −0,90 
 −0,41   −0,69 
 −0,90 
 0,94   0,97    0,94 
 −0,03   0,95 
 0,94 
 



 
 



Условие (6.36) после второго шага обучения не выполняется:
max | eij (2) − eij (1) |=
| ei 4 (2) − ei 4 (1) |=
| −0,69 − ( − 0,90) |=>
0,21 0,01.
j
80
Условие (6.37) также не выполняется:
(
ρ(Ei (1), Ei (2)) =
( − 0,83 − ( − 0,96))2 + (0,96 − 0,96)2 + (0,79 − 0,91)2 +
)
0,5
+( − 0,69 − ( − 0,90))2 + (0,95 − 0,94)2 = 0,267 > 0,01.
Третий шаг обучающей процедуры:
 sin5,3 


 cos6,5 
(Y i (3)) =
sin1,8 
G=


 cos3,2 
 sin8,4 


 −0,83 


 0,98 
 0,97 ;


 −1 
 0,85 


1
Ei (3) =
Ei (2) − Ei (2) − G (Y i (3))  =

3
 −0,83   −0,83  
 −0,83 



 

 0,96   0,98  
 0,96 
1

=  0,79  −  0,79  −  0,97
=

 3 
 

 −0,69   − 1  
 −0,69 
 0,95   0,85  
 0,95 


 


 −0,83 
 0   −0,83 
 




 0,96 
 −0,02   0,97 
 0,79  − 1  −0,18  =  0,85 .
 


 3
 −0,69 
 0,31   −0,80 

 

 0,95 


 0,10   0,92 
Условие (6.36) после третьего шага не выполняется:
max | eij (3) − eij (2) |=| ei 4 (3) − ei 4 (2) |=−
| 0,80 − ( − 0,69) |=0,11 > 0,01.
j
Не выполняется и условие (6.37):
(
ρ(Ei (2), Ei (3)) = ( − 0,83 − ( − 0,83))2 + (0,97 − 0,96)2 + (0,85 − 0,79)2 +
)
0,5
+( − 0,80 − ( − 0,69))2 + (0,92 − 0,95)2 = 0,123 > 0,01.
Аналогичным образом обучающая процедура продолжается до
выполнения соответствующих условий.
Промежуточные и конечные результаты обучения сведены в
табл. 6.1. В данной таблице также показаны значения расстояний
ρ(Ei ( k ), Ei ( k+ 1)), что необходимо для проверки условия (6.37).
81
Таблица 6.1
Промежуточные и конечные результаты обучения
на основе выборки (6.35)
Yi(1)
G(Yi(1))
Yi(2)
G(Yi(2))
Ei(2)
Yi(3)
G(Yi(3))
Ei(3)
5
–0,96
5,5
–0,71
–0,83
5,3
–0,83
–0,83
6
0,96
6
0,96
0,96
6,5
0,98
0,97
1
0,91
1,2
0,68
0,79
0,9
0,97
0,85
1,8
–0,90
2,1
–0,49
–0,69
1,6
–1,00
–0,80
0,94
2,7
0,97
0,95
2,8
0,85
0,92
2,5
ρ(Ei(2),Ei(3))=0,123
ρ(Ei(1),Ei(2))=0,267
Yi(4)
G(Yi(4))
Ei(4)
Yi(5)
G(Yi(5))
Ei(5)
Yi(6)
G(Yi(6))
Ei(6)
4,9
–0,98
–0,87
5,2
–0,88
–0,87
5,2
–0,88
–0,87
5,5
0,71
0,90
6,3
1,00
0,92
6,3
1,00
0,93
1,4
0,33
0,72
1,3
0,52
0,68
1,3
0,52
0,65
1,7
–0,97
–0,84
1,7
–0,97
–0,86
1,7
–0,97
–0,88
2,6
1,00
0,94
2,7
0,97
0,95
2,7
0,97
0,95
ρ(Ei(3),Ei(4))=0,157
ρ(Ei(4),Ei(5))=0,053
ρ(Ei(5),Ei(6))=0,035
Yi(7)
G(Yi(7))
Ei(7)
Yi(8)
G(Yi(8))
Ei(8)
Yi(9)
G(Yi(9))
Ei(9)
5,4
–0,77
–0,86
5,3
–0,83
–0,86
5
–0,96
–0,87
6,2
1,00
0,94
6,2
1,00
0,95
6,1
0,98
0,95
1
0,91
0,69
1,2
0,68
0,69
1,1
0,81
0,70
2,2
–0,31
–0,80
1,6
–1,00
–0,82
2,1
–0,49
–0,78
2,4
0,79
0,93
2,5
0,94
0,93
2,7
0,97
0,93
ρ(Ei(6),Ei(7))=0,094
ρ(Ei(7),Ei(8))=0,026
ρ(Ei(8),Ei(9))=0,046
Yi(10)
G(Yi(10))
Ei(10)
Yi(11)
G(Yi(11))
Ei(11)
Yi(12)
G(Yi(12))
Ei(12)
5,2
–0,88
–0,87
5,1
–0,93
–0,87
5,5
–0,71
–0,86
6,3
1,00
0,96
6
0,96
0,96
5,7
0,83
0,95
1
0,91
0,72
1,3
0,52
0,71
0,9
0,97
0,73
2
–0,65
–0,77
1,8
–0,90
–0,78
1,6
–1,00
–0,80
2,7
0,97
0,94
2,8
0,85
0,93
2,4
0,79
0,92
ρ(Ei(10),Ei(11))=0,024
ρ(Ei(11),Ei(12))=0,036
Yi(13)
G(Yi(13))
Ei(13)
Yi(14)
G(Yi(14))
Ei(14)
Yi(15)
G(Yi(15))
Ei(15)
5,2
–0,88
–0,86
5
–0,96
–0,87
4,9
–0,98
–0,88
5,6
0,78
0,94
6
0,96
0,94
5,9
0,93
0,94
ρ(Ei(9),Ei(10))=0,025
82
1,1
0,81
0,73
1,3
0,52
0,72
1,3
0,52
0,70
1,9
–0,79
2,7
0,97
–0,80
1,8
–0,90
–0,81
1,7
–0,97
–0,82
0,92
2,5
0,94
0,92
2,5
0,94
0,92
ρ(Ei(12),Ei(13))=0,015
ρ(Ei(13),Ei(14))=0,019
ρ(Ei(14),Ei(15))=0,019
Yi(16)
G(Yi(16))
Ei(16)
Yi(17)
G(Yi(17))
Ei(17)
Yi(18)
G(Yi(18))
Ei(18)
5,1
–0,93
–0,88
5,1
–0,93
–0,88
5
–0,96
–0,89
5,7
0,83
0,93
5,9
0,93
0,93
5,8
0,89
0,93
1
0,91
0,72
1,1
0,81
0,72
0,9
0,97
0,74
2
–0,65
–0,81
2
–0,65
–0,80
1,9
–0,79
–0,80
2,4
0,79
0,92
2,5
0,94
0,92
2,6
1,00
0,92
ρ(Ei(15),Ei(16))=0,020
ρ(Ei(16),Ei(17))=0,011
ρ(Ei(17),Ei(18))=0,015
Yi(19)
G(Yi(19))
Ei(19)
Yi(20)
G(Yi(20))
Ei(20)
Yi(21)
G(Yi(21))
Ei(21)
5,5
–0,71
–0,88
5,1
–0,93
–0,88
5
–0,96
–0,88
5,7
0,83
0,92
5,8
0,89
0,92
5,8
0,89
0,92
1
0,91
0,75
1
0,91
0,75
1,3
0,52
0,74
1,8
–0,90
–0,80
2,1
–0,49
–0,79
1,9
–0,79
–0,79
2,6
1,00
0,93
2,6
1,00
0,93
2,4
0,79
0,92
ρ(Ei(18),Ei(19))=0,016
ρ(Ei(19),Ei(20))=0,018
ρ(Ei(20),Ei(21))=0,014
Yi(22)
G(Yi(22))
Ei(22)
Yi(23)
G(Yi(23))
Ei(23)
Yi(24)
G(Yi(24))
Ei(24)
5,2
–0,88
–0,88
5,3
–0,83
–0,88
5,3
–0,83
–0,88
6
0,96
0,92
6,5
0,98
0,92
6,5
0,98
0,93
1,1
0,81
0,75
0,9
0,97
0,76
1
0,91
0,76
2,1
–0,49
–0,77
2
–0,65
–0,77
2
–0,65
–0,76
2,5
0,94
0,92
2,7
0,97
0,93
2,7
0,97
0,93
ρ(Ei(21),Ei(22))=0,014
ρ(Ei(22),Ei(23))=0,012
ρ(Ei(23),Ei(24))=0,009
Из табл. 6.1 видно, что 14-й шаг обучающей процедуры представляется как
 sin5 


 cos6 
(Y i (14)) =
sin2,6 
G=


 cos3,6 
 sin7,5 


 −0,96 


 0,96 
 0,52 ;


 −0,90 
 0,94 


83
1 
Ei (13) − G (Y i (14))  =

14 
 −0,86   −0,96    −0,87 
 −0,86 




 
 
 0,94   0,96    0,94 
 0,94 
 0,72  .
 0,73  − 1  0,73  −  0,52   =


 14 
 
 
 −0,80   −0,90    −0,81 
 −0,80 
 0,92   0,94    0,92 
 0,92 



 
 

Ei (14) =
Ei (13) −
После реализации данного шага условие (6.36) выполняется:
| ei 1 (14) − ei 1 (13) |=−
| 0,87 − ( − 0,86) |=0,01;
| ei 2 (14) − ei 2 (13) |=| 0,94 − 0,94 |= 0;
| ei 3 (14) − ei 3 (13) |=| 0,72 − 0,73 |= 0,01;
| ei 4 (14) − ei 4 (13) |=−
| 0,81 − ( − 0,80) |=0,01;
| ei 5 (14) − ei 5 (13) |=| 0,92 − 0,92 |= 0.
Таким образом, построение изображения по первому варианту
на 14-м шаге завершается. Иначе, считается справедливым (6.32):
ò
=
E*i E=
i (14) ( − 0,87, 0,94, 0,72, − 0, 81, 0,92) .
Для построения изображения по второму варианту процесс обучения необходимо продолжать, так как после 14-го шага условие
(6.37) не выполняется:
ρ(Ei (13), Ei (14)) =
0,019 > 0,01.
Из табл. 6.1 также следует, что 24-й шаг обучающей процедуры
представляется следующим образом:
 sin5,3 


 cos6,5 
G (=
Y i (24)) =
sin2 


 cos4 
 sin8,1 


84
 − 0,83 


 0,98 
 0,91 ;


 − 0,65 
 0,97 


1 
Ei (23) − G (Y i (24))  =

24 
 −0,88   −0,83    −0,88 
 −0,88 




 
 
 0,92   0,98    0,93 
 0,92 
1 
0,76  −  0,91   = 0,76  .
= 0,76  −


 24 
 
 
 −0,77   −0,65    −0,76 
 −0,77 
 0,93   0,97    0,93 
 0,93 



 
 

Ei (24) =
Ei (23) −
После реализации данного шага условие (6.37) выполняется:
ρ(Ei (23), Ei (24)) =
0,009 < 0,01.
Таким образом, при построении изображения по второму варианту
ò
=
E*i E=
i (24) ( − 0, 88, 0,93, 0,76, − 0,76, 0,93) .
(6.38)
Поскольку объем выборки составляет 24 образа, равенство (6.38)
одновременно представляет собой выражения (6.29) и (6.32).

Из-за ограниченности объема обучающей выборки продолжать
обучение до выполнения условий насыщения возможно далеко не
всегда. Поэтому в ряде случаев необходимо производить дообучение
модели на основе дополнительной информации о техническом состоянии системы, полученной на более поздних этапах, в частности
на этапе применения системы диагностирования.
Пусть выборка (6.5) по i-му отказу дополнена N i обучающими
образами:
{Yki | k= N i + 1, N i + 1 + N i } ⊂ Y i .
Тогда рекуррентные соотношения (6.18) позволяют продолжить
процесс обучения без изменения предыдущих результатов:
1
1) Ei ( N i ) − i [Ei ( N i ) − G (Y i ( N i + 1))];
Ei ( N i +
=
N +1
1
2) Ei ( N i + 1) − i
[Ei ( N i + 1) − G (Y i ( N i + 2))];
Ei ( N i + =
N +2
..............................................................
i
Ei ( N i + 1 + N
=
) Ei ( N i + N i ) −
_
1
i
N + 1 + Ni
[Ei ( N i + N i ) − G (Y i ( N i + 1 + N i ))].
85
После дообучения модели вместо (6.29) принимается, что
=
E*i Ei ( Ni + 1 + N i ).
Если и еще будут получены обучающие образы, следующий этап
дообучения реализуется аналогичным образом.
Возможность реализовать процесс дообучения на базе предыдущих результатов (полученных на этапе обучения) указывает на
адаптивность разрабатываемой модели. Под адаптивностью понимается приспособленность модели к уточнению при получении
дополнительной информации о техническом состоянии системы.
В данном случае имеет место параметрическая адаптивность, то
есть уточняются параметры модели (но не структура).
Каждый из векторов E*i , который в дальнейшем обозначается как
Ei, может трактоваться и как точка в n-мерном евклидовом пространстве G (Y ), и как набор коэффициентов уравнения гиперповерхности,
отделяющей данную область G (Y i ) от других областей в пространстве
G (Y ). При этом каждая координата eij показывает степень сходства
(подобия) наблюдаемых состояний, принадлежащих i-му виду технического состояния системы, по j-му контролируемому параметру.
6.5. Процедура группировки обучающих образов
и ранжирования групп
Анализ структуры рекуррентных соотношений показывает, что
по мере увеличения числа шагов значимость обучающих образов
для формируемого изображения снижается. Указанный факт связан с тем, что коэффициент 1/ k в соотношениях (6.18) на предыдущем шаге обучения больше, чем на последующем. Поэтому каждый предыдущий образ более значим, чем последующий. Если на
начальных шагах обучения используются типичные образы для
данного вида технического состояния, то увеличивается скорость
сходимости процесса обучения к оптимальному вектору E*i .
Понятие скорости сходимости может быть дано при сравнении
двух вариантов процесса обучения, которые реализуются с различной последовательностью использования элементов выборки. Тот
вариант, при котором требуется меньше обучающих образов для
достижения заданного условия насыщения (то есть выполнения неравенства (6.30) или (6.31) при фиксированном значении a1 или a2),
характеризуется большей скоростью сходимости. Представляется,
86
что в качестве показателя изменения скорости сходимости процесса
обучения целесообразно использовать относительную величину

Ni − Ni
=
θ 100  1 −

Ni


,


(6.39)
где N i – количество элементов выборки, не использованных при
обучении (из общего числа N i ).
Величина (6.39) позволяет сравнивать изменение (в процентах)
скорости сходимости различных вариантов процесса обучения на
основе одной и той же выборки.
Одним из возможных способов повышения скорости сходимости
является группировка обучающих образов и ранжирование полученных групп для определения очередности их использования в
процессе обучения.
При группировке рассматривается выборка по i-му виду технического состояния [см. (6.5)]:
i
i
=
Y i {Y
=
k | k 1, N }.
(6.40)
Пусть J – индексное множество обучающих образов из Y i
( | J |= N i , где | J | – мощность множества J). На первом этапе в выборке (6.40) необходимо найти подмножество эквивалентных (неразличимых) между собой элементов. Обучающие образы следует
считать эквивалентными, если расстояние между ними по метрике
евклидова пространства Y не превышает погрешности δ их регистрации в контрольных точках системы:
∀ Yki , Yri ∈ Y i : d (Yki , Yri ) ≤ δ,
где
i
i
=
d (Y
k , Yr )
 n

i
i 2
 ∑ ( yjk
− yjr
)
 j =1



(6.41)
0,5
– расстояние между Yki и Yri в про-
странстве Y.
Для определения такого подмножества в выборке (6.40) выделя i , которое рассматриется произвольное наблюдаемое состояние Y
1
i
вается как эталонное для Y . Затем находится группа элементов
(Yki )k∈J1 , J1 ⊂ J
(6.42)
 i c радиусом
в замкнутой окрестности наблюдаемого состояния Y
1
δ / 2:
 i ,Yi )
d (Y
(6.43)
1 k k∈J1 ≤ δ / 2.
87
Под замкнутой окрестностью в данном случае понимается шар в
 i . Граничные точки
евклидовом пространстве Y c центром в точке Y
1
шара охватываются окрестностью, в связи с этим неравенство (6.43)
является нестрогим. Поскольку диаметр шара равен δ, в дальнейi и
шем такая окрестность называется δ-окрестностью элемента Y
1
i

обозначается δ(Y1 ).
 i находятЭлементы подмножества (6.42) совместно с эталоном Y
1
i
i

ся в окрестности δ(Y1 ) и образуют группу Y1 эквивалентных обучающих образов:
 i } = (Y i )
Y1i = {(Yki )k∈J1 , Y
1
k k∈I1 ,
(6.44)
где I1 – индексное множество эквивалентных обучающих образов
первой группы, I1 ⊆ J ; | I1=| | J1 | + 1= N1i – мощность подмножества
(6.44), N1i ≤ N i .
Очевидно, что для любой пары элементов Yki и Yri из группы
(6.44) условие (6.41) выполняется. Если имеет место предельный
случай данного условия ( d (Yri , Yki ) = δ) , это свидетельствует, что элементы Yki и Yri принадлежат множеству граничных точек окрест i ) и находятся на противоположных концах какогоности δ(Y
1
либо ее диаметра.
При N1i = N i (или I1 = J ) группировка носит вырожденный характер, так как вся обучающая выборка (6.40) представляет собой
одну группу эквивалентных образов. Когда
N1i < N i ,
(6.45)
следует переходить ко второму этапу группировки. На данном этапе
анализируется разность множеств Y i и Y1i , то есть подмножество
Y i \Y1i .
(6.46)
 i , который рассмаВ (6.46) выделяется произвольный элемент Y
2
тривается как эталонный для данного подмножества. Находится
группа элементов
(Yki )k∈J2 , J2 ⊂ J\ I1 ,
(6.47)
 i:
которые эквивалентны Y
2
 i ,Yi )
d (Y
2 k k∈J2 ≤ δ / 2.
88
(6.48)
 i находятЭлементы подмножества (6.47) совместно с эталоном Y
2
i
i

ся в окрестности δ(Y2 ) и образуют группу Y2 эквивалентных обучающих образов:
 i } = (Y i )
Y2i = {(Yki )k∈J2 , Y
2
k k∈I2 ,
(6.49)
где I2 – индексное множество эквивалентных обучающих образов
второй группы, I2 ⊆ J\ I1 ; | I2=| | J2 | + 1= N2i – мощность подмножества (6.49), N2i ≤ N i − N1i .
i
i
i
При N=
2 N − N1 (или I2 = J\ I1 ) обучающая выборка (6.40) состоит из двух групп эквивалентных элементов. Когда
N2i < N i − N1i ,
(6.50)
осуществляется переход к третьему этапу группировки. На данном
этапе анализируется подмножество
Y i \(Y1i ∪ Y2i ).
(6.51)
 i,
Y
3
В (6.51) выделяется произвольный элемент
который рассматривается как эталонный для данного подмножества. Находится
группа элементов
(Yki )k∈J3 , J3 ⊂ J\ ( I1 ∪ I2 ),
(6.52)
 i ,Yi )
 i : d (Y
которые эквивалентны Y
3 k k∈J3 ≤ δ / 2.
3
 i находятЭлементы подмножества (6.52) совместно с эталоном Y
3
i
i
 ) и образуют группу Y эквивалентных обуся в окрестности δ(Y
3
3
чающих образов:
 i } = (Y i )
Y3i = {(Yki )k∈J3 , Y
3
k k∈I3 ,
(6.53)
где I3 – индексное множество эквивалентных обучающих образов
третьей группы, I3 ⊆ J\ ( I1 ∪ I2 ); | I3=| | J3 | + 1= N3i – мощность подмножества (6.53), N3i ≤ N i − ( N1i + N2i ).
При N3i < N i − ( N1i + N2i ) реализуется следующий этап группировки.
Таким же образом формируются все остальные группы эквивалентных обучающих образов. На заключительном этапе анализируется подмножество
Y i \(Y1i ∪ Y2i ∪ ... ∪ Ypi −1 ).
(6.54)
89
 i , который рассмаВ (6.54) выделяется произвольный элемент Y
p
тривается как эталонный для данного подмножества. Все элементы
группы
(Yki )k∈J p , J p ⊂ J\
p −1
 Il
(6.55)
l =1
i:
эквивалентны Y
p
 i ,Yi )
∀ Yri ∈(Yki )k∈J p : d (Y
p r r∈J p ≤ δ / 2.
Элементы подмножества (6.55) совместно с эталоном Y pi находят i ) и образуют группу Y i эквивалентных обуся в окрестности δ(Y
p
p
чающих образов:
 i } = (Y i )
(6.56)
Y i = {(Y i )
,Y
.
p
k k∈J p
p
k k∈I p
В выражении (6.56) индексное множество I p эквивалентных
обучающих образов p-й группы определяется как
I p = J\
p −1
 Il ,
(6.57)
l =1
1 N ip – мощность подмножества (6.56).
где | I p=| | J p | + =
Равносильной записью выражения (6.57) является
i
i
N=
p N −
p −1
∑ Nli .
(6.58)
l =1
Равенства (6.57) и (6.58) указывают на то, что выборка (6.40) разбита на группы эквивалентных обучающих образов, а подмножества (6.54) и (6.56) совпадают между собой:
Y i \(Y1i ∪ Y2i ∪ ... ∪ Ypi −1 ) =
Ypi .
После того как все группы сформированы, они ранжируются.
Пусть
N1i ≥ N2i ≥ N3i ≥ ... ≥ N ip .
(6.59)
В неравенствах (6.59) мощность групп снижается по мере возрастания их номеров. Соотношения между мощностью могут быть и
другие, но в любом случае ранжирование выполнимо с присвоением
группам номеров в порядке их возрастания.
90
Таким образом, результаты группировки обучающих образов и
ранжирования полученных групп можно представить в следующем
виде:
Y1i =
(Yki )k∈I1 , I1 ⊂ J ,
| I1 | =
N1i , N1i < N i ;
=
Y2i (Yki )k∈I2 , I2 ⊂ J\ I1 ,
|=
I2 | N2i , N2i < N i − N1i ;
=
Y3i (Yki )k∈I3 , I3 ⊂ J\ ( I1 ∪ I2 ), | =
I3 | N3i , N3i < N i − ( N1i + N2i ); (6.60)

Ypi = (Yki )k∈I p , I p = J\
p −1
 Il ,
l =1
i
i
| I p=| N ip , N=
p N −
p −1
∑ Nli .
l =1
Указанные действия выполняются для каждого подмножества
Y i ( i = 1,m ) из обучающей выборки (6.5).
Фактически выражения (6.60) означают задание на множествах
обучающих образов по всем видам технического состояния отношений эквивалентности Ξ i ( i = 1,m ), которые обеспечивают объединение в рамках одной группы эквивалентных элементов. В результате
для обучающей выборки по каждому виду технического состояния
формируется упорядоченное фактор-множество
Y i / Ξ i ={Y1i ,Y2i ,,Ypi }, i = 1,m.
(6.61)
Элементами фактор-множества являются полученные группы
обучающих образов. Порядок использования групп в процессе обучения совпадает с их номером (рангом) в выражении (6.61). Последовательность применения данных образов в рамках одной и той же
группы произвольна. Таким образом, при выполнении группировки обучающих образов и ранжировании групп изображение Ei (1)
на первом шаге формируется не в соответствии с условием (6.20), а
на основе выражения
Ei (1) = G (Y1i (1)), i = 1,m.
(6.62)
Равенство (6.62) указывает, что в качестве Ei (1) берется произвольный элемент первой группы после его G-преобразования.
Пример 6.3. Рассматривается обучающая выборка из примера
6.2. Требуется выполнить группировку обучающих образов и ранжирование групп при δ =0,9, а также провести обучение на основе
полученных результатов.
91
Пусть в
Y6i , то есть
качестве эталонного обучающего образа принимается
 i = Y i . Тогда условие (6.43) запишется как
Y
1
6
d (Y6i , Yki )k∈J1 ≤ 0,45.
(6.63)
Расстояния между Y6i и другими элементами обучающей выборки показаны в табл. 6.2.
Первая группа эквивалентных обучающих образов представляет
собой следующее подмножество:
i
i
i
i
i
i
i
i
i
i
Y1i = {Y1i , Y6i , Y7i , Y9i ,Y10
,Y11
,Y14
,Y15
,Y16
,Y17
,Y18
,Y20
,Y21
,Y22
}. (6.64)
Именно элементы данного подмножества удовлетворяют условию (6.63), что видно из табл. 6.2. Мощность группы (6.64) составляет 14 образов ( N1i = 14 ). Поскольку справедливо неравенство (6.45),
необходимо переходить к формированию второй группы. Далее рассматривается разность вида (6.46):
i
i
i
i
i
Y i \Y1i = {Y2i , Y3i , Y4i , Y5i ,Y8i ,Y12
,Y13
,Y19
,Y23
,Y24
}.
(6.65)
В качестве эталонного обучающего образа для подмножества (6.65)
i
 i = Y i . Тогда условие (6.48) запишется как
: Y
принимается Y19
2
19
i
d (Y19
, Yki )k∈J2 ≤ 0,45.
(6.66)
i
Расстояния между Y19
и остальными элементами подмножества
(6.65) показаны в табл. 6.3.
Таблица 6.2
Расстояния в евклидовом пространстве Y
между обучающим образом Y i и другими элементами выборки (6.35)
6
d (Y6i ,Y1i )
d (Y6i ,Y2i )
d (Y6i ,Y3i )
d (Y6i ,Y4i )
d (Y6i ,Y5i )
d (Y6i ,Y7i )
0,245
0,469
0,762
0,693
0,520
0,436
d (Y6i ,Y9i )
i
d (Y6i ,Y10
)
i
d (Y6i ,Y11
)
i
d (Y6i ,Y12
)
i
d (Y6i ,Y13
)
0,500
0,265
0,387
0,412
0,678
0,469
i
d (Y6i ,Y14
)
i
d (Y6i ,Y15
)
i
d (Y6i ,Y16
)
i
d (Y6i ,Y17
)
i
d (Y6i ,Y18
)
i
d (Y6i ,Y19
)
0,300
0,424
0,332
0,100
0,332
0,557
i
d (Y6i ,Y20
)
i
d (Y6i ,Y21
)
i
d (Y6i ,Y22
)
i
d (Y6i ,Y23
)
i
d (Y6i ,Y24
)
0,265
0,332
0,141
0,608
0,583
d (Y6i ,Y8i )
92
Таблица 6.3
Расстояния в евклидовом пространстве Y между обучающим
i
образом Y19
и другими элементами подмножества (6.65)
i
d (Y19
,Y2i )
i
d (Y19
,Y3i )
i
d (Y19
,Y4i )
i
d (Y19
,Y5i )
i
d (Y19
,Y8i )
0,480
0,877
0,755
0,748
0,616
i
i
d (Y19
,Y12
)
i
i
d (Y19
,Y13
)
i
i
d (Y19
,Y23
)
i
i
d (Y19
,Y24
)
0,300
0,361
0,860
0,854
Из табл. 6.3 следует, что условию (6.66) удовлетворяют элеменi
i
. Следовательно, вторая группа эквивалентных обучаты Y12
и Y13
ющих образов представляется как
i
i
i
Y2i = {Y12
, Y13
, Y19
}.
Поскольку справедливо неравенство (6.50), следует переходить к
формированию третьей группы. Аналогично в соответствии с соотношениями (6.60) формируются все последующие группы:
i
i
Y3i = {Y3i , Y23
, Y24
}; Y4i = {Y5i , Y8i }; Y5i = {Y2i }; Y6i = {Y4i }.
Таким образом, фактор-множество вида (6.61) запишется как
Y i / Ξ i ={Y1i , Y2i , Y3i , Y4i , Y5i , Y6i }.
Для реализации процесса обучения на основе полученных результатов необходимо переиндексировать обучающие образы в соответствии с номером шага, на котором они используются. В итоге
формируется следующая последовательность применения обучающих образов в рекуррентных соотношениях (6.18):
i
Y i (1) = Y1i ; Y i (2) = Y6i ; Y i (3) = Y7i ; Y i (4) = Y9i ; Y i (5) = Y10
;
i
i
i
Y i (6) = Y11
; Y i (7) = Y14
; Y i (8) = Y15
;
i
i
i
i
i
Y i (9) = Y16
; Y i (10) = Y17
; Y i (11) = Y18
; Y i (12) = Y20
; Y i (13) = Y21
;
i
i
Y i (14) = Y22
; Y i (15) = Y12
;
i
i
i
i
Y i (16) = Y13
; Y i (17) = Y19
; Y i (18) = Y3i ; Y i (19) = Y23
; Y i (20) = Y24
;
93
Y i (21) = Y5i ; Y i (22) = Y8i ;
Y i (23) = Y2i ; Y i (24) = Y4i .
При реализации обучения на основе указанной последовательности неравенство (6.37) выполняется после 20-го шага:
ρ(Ei (19), Ei (20)) =
0,01.
Тогда в соответствии с выражением (6.39):

Ni − Ni 
24 − 4 

=
θ 100  1 −
=
 100  1 − =
 16,7(%).
i


24 

N


Скорость сходимости процесса обучения увеличивается на 16,7%
по сравнению с вариантом без группировки и ранжирования (пример
6.1). В использовании последних четырех обучающих образов (N i = 4)
нет необходимости для выполнения заданного условия насыщения
a2 = 0, 01 . Указанные образы могут быть использованы для достижения более высоких требований к сходимости процесса обучения.

6.6. Модифицированный алгоритм
Роббинса – Монро
Множественная определенность априорной информации о
cистеме включает случай, когда известны только диапазоны (6.2)
изменения диагностических параметров для работоспособного состояния. В реальных ситуациях этот случай имеет место, когда:
– системы еще только находятся в стадии разработки, а к моменту ввода их в эксплуатацию необходимо, чтобы средства диагностирования были готовы к применению;
– системы уже эксплуатируются, но в единичных экземплярах и
непродолжительное время.
В этих ситуациях объем и качество априорной информации о
системе могут оказаться недостаточными даже для приближенной
оценки диапазонов изменения диагностических параметров в различных видах технического состояния. В этом случае наиболее
конструктивным является подход, основанный на информации о
фактах выхода значений диагностических параметров за допустимые интервалы (6.2).
94
При реализации такого подхода используются бинарные значения диагностических параметров, которые определяются выражением
 1, åñëè yj ∈ Δ0 j ;
zj = 
−1, åñëè yj ∉ Δ0 j .
(6.67)
Тогда в качестве G-преобразования может применяться ортогональная система функций вида (6.11), компоненты которой задаются выражением
gr (Y) = δrj zj , r , j = 1,n,
(6.68)
1, åñëè r = j ;
где δrj =
– дельта-функция (символ Кронекера).

0, åñëè r ≠ j .
Пример 6.4. Выполнить G-преобразование наблюдаемого состояния
Y = ( y1 , y2 , y3 , y4 , y5 )ò .
(6.69)
Поскольку вектор (6.69) имеет пять координат ( n = 5 ), ортогональная система (6.11) принимает вид
G (Y) = ( g1 (Y), g2 (Y), g3 (Y), g4 (Y), g5 (Y))ò .
(6.70)
Из выражения (6.68) следует, что координатные функции вектора (6.70) определяются следующим образом:
 δ11 z1   1 ⋅ z1   z1 
 δ21 z1   0 ⋅ z1   0 

 
  

 
  
 δ12 z2   0 ⋅ z2   0 
 δ22 z2   1 ⋅ z2   z2 
 δ13 z3  =
 0 ⋅ z3  =
 0 ; g2 (Y) =
 δ23 z3  =
 0 ⋅ z3  =
 0 ;
g1 (Y) =

 
  

 
  
 δ14 z4   0 ⋅ z4   0 
 δ24 z4   0 ⋅ z4   0 
δ z  0⋅z  0 
δ z  0⋅z  0 
5  
5 
 15 5  
 25 5  

0 
0 
0 
 
 
 
0 
0 
0 
g3 (Y) =  z3 ; g4 (Y) =  0 ; g5 (Y) =  0 .
 
 
 
0 
 z4 
0 
0 
0 
z 
 
 
 5
95
Тогда
G (Y) = ( z1 , z2 , z3 , z4 , z5 )ò = Z.

Очевидно, что в общем случае вектор диагностических параметров в бинарной форме (или вектор бинарных признаков) представляется как
Z = ( z1 , z2 , ... , zn )ò .
(6.71)
Вектор (6.71) называется наблюдаемым состоянием системы в бинарной форме.
Обучающая выборка вида (6.5) в случае бинарного представления диагностических параметров записывается как
1
1
1
G=
(Y1 ) {Z
=
k | k 1, N } ⊂ G (Y );
2
2
2
G=
=
(Y 2 ) {Z
k | k 1, N } ⊂ G (Y );
...........................................
(6.72)
m
m
m
(Y m ) {Z
G=
=
k | k 1, N } ⊂ G (Y ),
где G (Y i ), i = 1,m – подмножество G-преобразованных наблюдаемых состояний, представляющее i-й вид технического состояния
системы; N i – мощность обучающей выборки по i-му виду технического состояния.
Аппроксимирующая функция (6.12) записывается в форме
h (Ei ,Y) = Eòi G (Y) = Eòi ⋅ Z =
n
∑ eij zj .
(6.73)
j =1
Рекуррентные соотношения (6.18) для реализации процесса обучения принимают форму
1
(6.74)
E i ( k=
) Ei ( k− 1) − [Ei ( k− 1) − Zi ( k )], i = 1,m,
k
а для каждой координаты eij вектора Ei соотношения представляются как
1
eij ( k=
) eij ( k− 1) − [ eij ( k− 1) − zij ( k ))], j = 1,n.
(6.75)
k
Изображения, полученные в результате обучения на основе выборки (6.72), имеют форму (6.6):
Ei = ( ei 1 , ei 2 ,, ei n )ò , i = 1,m.
96
(6.76)
При этом как и в случае G-преобразования на основе ортогонального тригонометрического базиса (6.21) значения координат eij в
выражении (6.76) ограничиваются интервалом [ − 1;1], но их содержание будет принципиально иным.
Положительное значение координаты eij вектора (6.76) указывает на то, что в обучающей выборке (6.72) преобладают такие наблюдаемые состояния, при которых значения j-го диагностического
параметра в i-м виде технического состояния системы не выходят
за допустимый интервал (6.2), и наоборот в случае отрицательного
значения.
В рассматриваемом контексте всякая координата в (6.76) представляется как произведение
eij = zij pij .
(6.77)
Первый сомножитель в выражении (6.77) представляет собой
обобщенный символ
zij = sign eij ,
(6.78)
где sign(⋅) – функция, которая задается следующим образом:
 1, åñëè x ≥ 0;
sign x = 
−1, åñëè x < 0 .
(6.79)
Применение функции (6.79) означает, что символ (6.78) имеет два
возможных значения: zij ∈ { − 1,1}.
Второй сомножитель в (6.77) представляет весовое значение символа (6.78):
(6.80)
pij = eij .
Cимвол zij выполняет роль индикатора попадания (или непопадания) j-го диагностического параметра в допустимый интервал
(6.2). Совокупность обобщенных символов образует вектор
Zi = ( zi 1 , zi 2 , ... , zin )ò ,
(6.81)
который является наблюдаемым состоянием в бинарной форме для
i-го вида технического состояния системы.
Вес pij ( pij ∈[0,1] ) в данном случае может трактоваться как
вероятностная оценка принадлежности (или непринадлежности)
значения j-го диагностического параметра допустимому интервалу
(6.2).
97
Например, eij = −0,81 означает, что j-й диагностический параметр выходит за допустимый интервал в i-м виде технического состояния системы с вероятностью 0,81. Выход из допустимого интервала указывает на отрицательное значение индикатора ( zij = −1 ) в
формуле (6.78), а его вес (6.80) составляет pij = 0,81.
На множестве всевозможных элементов (6.71), (6.76) порождается структура n-мерного евклидова пространства Z, каждая координата которого ограничена интервалом [ − 1;1]. Расстояние между
элементами в данном пространстве также будет обозначаться через
ρ. Например, расстояние между наблюдаемым состоянием (6.71) системы и изображениями (6.76) задается формулой
0,5
 n

ρ(Z, Ei ) =  ∑ ( eij − zj )2 
 j =1



, i = 1,m.
(6.82)
Очевидно, что результатом обучения с применением тригонометрического базиса (6.21) являются координаты eij изображения в
виде таких абстрактных величин, которым не представляется давать вероятностную интерпретацию.
Из предварительного сравнения подходов к построению изображений на основе первого и второго вариантов множественной определенности априорной информации о системе (подразд. 6.4 и настоящий подраздел) может показаться, что подход на основе второго
варианта имеет преимущество. Прежде всего, подобный вывод напрашивается вследствие того, что координаты изображения (6.76)
характеризуются весовыми значениями в виде вероятностных оценок. Это упрощает анализ полученной модели распознавания технических состояний.
Однако следует иметь в виду, что преобразование (6.67) ведет
к огрублению имеющейся информации о состоянии системы. На
рис. 6.1 показаны интервалы изменения произвольного диагностического параметра, которым соответствует отрицательное или положительное значения бинарного признака.
Δ0j
R \ Δ0 j (zj = −1)
í
y0j
zj = 1
R \ Δ0 j (zj = −1) yj
â
y0j
Рис. 6.1. Значения бинарного признака на различных интервалах
изменения диагностического параметра
98
Из рис. 6.1 видно, что вне зависимости от величины диагностического параметра в рамках интервала Δ0j значение бинарного
признака одно и то же – zj = 1. Кроме того, в случае выхода диагностического параметра за допустимый интервал ( yj ∉ Δ0 j или, что
равносильно yj ∈ R\Δ0 j ) не учитывается, с какой стороны (слева
или справа) от Δ0j на вещественной оси находится значение данного параметра и на каком расстоянии от Δ0j оно находится. В данном
случае бинарный признак имеет значение zj = −1. Указанные причины свидетельствуют, что подход, основанный на бинарном представлении диагностических параметров, следует применять, когда
другие подходы неприменимы.
Пример 6.4. Пусть наблюдаемое состояние системы определяется вектором
Y = ( y1 , y2 , y3 , y4 )ò .
(6.83)
Сформирована обучающая выборка (6.72) по i-му виду технического состояния ( N i = 12 ):
 1
 −1 
 1
 1
 1
 1
 
 
 
 
 
 
1
−1
−1
−1
−1
−1
Z1i =  ; Z2i =  ; Z3i =  ; Z4i =  ; Z5i =  ; Z6i =  ; (6.84)
 1
 −1 
 −1 
 −1 
 1
 −1 
 
 
 
 
 
 
 −1 
 1
 −1 
 −1 
 1
 1
 1
 1
 1
 1
 1
 1
 
 
 
 
 
 
1
1
1
1
1
−
−
−
−
−
−1
i
i
i
Z7i =  ; Z8i =  ; Z9i =  ; Z10
=  ; Z11
=  ; Z12
=  .
 1
 1
 1
 1
 1
 1
 
 
 
 
 
 
 −1 
 −1 
 −1 
 −1 
 −1 
 −1 
Номер образа в выборке (6.84) совпадает с номером шага обучения, на котором данный образ используется: Zik = Zi ( k ).
Требуется построить изображение i-го вида технического состояния, используя все элементы выборки.
Из (6.20) и (6.68) следует, что первый шаг обучения представляется выражением
 1
 
i
 −1 .
=
E=
Z
(1)
(1)
i
 1
 
 −1 
99
Начиная со второго шага обучающая процедура реализуется на
основе выражения (6.74):
 1   −1    0 
 1
      
 
−1 1 −1
−1
−1
1
Ei (2) =Ei (1) − Ei (1) − Zi (2)  =  −   −    = ;











1 2
1
−1
0
2
      
 
 −1 
 −1   −1    −1 
 0   1    0,33 
 0
     
 

−1  1  −1   1    −0,33 
1
i


Ei (3) =Ei (2) − Ei (2) − Z (3) =
.
−
−
=
  0  3  0   −1    −0,33 
3
     
 

 −1 
 −1   1    −0,33 
Таким же образом выполняются последующие шаги обучающей
процедуры. Промежуточные и конечные результаты обучения сведены в табл. 6.4.
Таблица 6.4
Промежуточные и конечные результаты обучения
на основе выборки (6.84)
Zi(1)
Ei(1)
Zi(2)
Ei(2)
Zi(3)
Ei(3)
Zi(4)
Ei(4)
1
1
–1
0
1
0,33
1
0,50
–1
–1
–1
–1
1
–0,33
–1
–0,50
1
1
–1
0
–1
–0,33
–1
–0,50
1
–1
–1
–1
1
–0,33
–1
–0,50
Zi(5)
Ei(5)
Zi(6)
Ei(6)
Zi(7)
Ei(7)
Zi(8)
Ei(8)
1
0,60
1
0,67
1
0,71
1
0,75
–1
–0,60
–1
–0,67
–1
–0,71
–1
–0,75
1
–0,20
–1
–0,33
1
–0,14
1
0,00
1
–0,20
1
0,00
–1
–0,14
–1
–0,25
Zi(9)
Ei(9)
Zi(10)
Ei(10)
Zi(11)
Ei(11)
Zi(12)
Ei(12)
1
0,78
1
0,80
1
0,82
1
0,83
–1
–0,78
–1
–0,80
–1
–0,82
–1
–0,83
1
0,11
1
0,20
1
0,27
1
0,33
–1
–0,33
–1
–0,40
–1
–0,45
–1
–0,50
100
Из табл. 6.4 следует, что, например, восьмой шаг обучающей
процедуры определяется выражением
 0,71   1    0,75 
 0,71 



   

−0,71  1  −0,71   −1    −0,75 
1
i


Ei (8) =Ei (7) − Ei (7) − Z (8) =
−
−
=
.
  −0,14  8  −0,14   1    0,00 
8



    

 −0,14 
 −0,14   −1    −0,25 
Заключительным шагом процесса обучения является двенадцатый:
1
Ei (12) =Ei (11) − Ei (11) − Zi (12)  =

12 
 0,82   1  
 0,82 



  
−0,82  1  −0,82   −1  
= 
−
−
=
 0,27  12  0,27   1  



   
 −0,45 
 −0,45   −1  
 0,83 


 −0,83 .
 0,33 


 −0,50 
В соответствии с (6.29) в качестве оптимального принимается
изображение, полученное на заключительном шаге:
E*i =
Ei (12) =
(0,83, − 0,83, 0,33, − 0,50)ò .
(6.85)

Необходимо отметить, что в случае применения модифицированного алгоритма Роббинса – Монро также может быть реализована процедура группировки обучающих образов и ранжирования
групп (подразд. 6.5).
101
7. МЕТОДЫ РАСПОЗНАВАНИЯ
ТЕХНИЧЕСКИХ СОСТОЯНИЙ СИСТЕМЫ
Множество изображений всех видов технического состояния является основой для распознавания текущего состояния системы,
которое не входит в обучающую выборку. Под распознаванием понимается идентификация (или отождествление) текущего состояния с
одним из изображений. Иначе, требуется определить, какому виду
технического состояния принадлежит текущее состояние системы.
Для всестороннего раскрытия проблемы распознавания необходимо
ввести важнейшее понятие проверки диагностического параметра.
Проверкой p j ∈Π называется совокупность действий по измерению j-го диагностического параметра и нахождению интервала из
заданного множества, в котором находится измеренное значение
(где Π – множество проверок, используемых для распознавания технического состояния системы).
Наблюдаемое состояние
Y = ( y1 , y2 ,, yn )ò
(7.1)
есть результат измерения диагностических параметров системы.
При этом измерение значения yj является первой составной частью
действий, которые охватываются понятием проверки p j .
Нахождение интервала, в котором находится измеренное значение
yj – это вторая составная часть действий, входящих в понятие проверки. Если значение j-го диагностического параметра попадает в интервал (6.2), считается, что проверка имеет положительный исход p1j :
yj ∈ Δ0 j ⇒ p j = p1j .
(7.2)
Условие (7.2) показывает, что найден интервал Δ0 j , в котором
находится значение yj.
В случае попадания измеренного значения за пределы интервала
(6.2) предполагается отрицательный исход проверки:
yj ∉ Δ0 j ⇒ p j = p2j .
(7.3)
Фактически условие (7.3) означает, что найден интервал R \ Δ0 j ,
в котором находится значение yj. Такой интервал показан на рис. 6.1.
Если использовать рассмотренные выше бинарные обозначения,
то можно записать:
p1j =
1, p2j =−1.
102
(7.4)
В зависимости от последовательности выполнения проверок выделяются методы последовательного и комбинационного распознавания.
7.1. Комбинационный метод распознавания
технических состояний
Комбинационный метод распознавания заключается в получении решения о текущем состоянии системы на основе результатов
анализа всех проверок из заданного множества, которые могут выполняться в произвольном порядке.
При комбинационном распознавании под проверкой часто понимается только измерение соответствующего диагностического
параметра. Тогда результатом выполнения всех проверок является
наблюдаемое состояние (7.1).
Если получен вектор (7.1), то текущее техническое состояние может определяться по критерию минимума метрического различия
в конечномерном евклидовом пространстве вида (5.10). Поскольку обучающие образы при построении изображений подвергаются
G-преобразованию, распознавание производится по метрике замкнутого и ограниченного евклидова пространства G ( Y ). Следовательно,
указанный критерий трансформируется следующим образом:
min {ρ(G (Y), Ek )}, i = 1,m,
Y ∈ Y i , если ρ(G (Y), Ei ) =
k =1, m
 n

 ∑ ( eij − gj (Y))2 
где ρ(G (Y), Ei ) =
 j =1



(7.5)
0,5
.
(7.6)
В выражениях (7.5) и (7.6) используются результаты всех проверок, причем порядок использования этих результатов не имеет
никакого значения (в каком порядке будут следовать слагаемые в
данном выражении – безразлично).
Пример 7.1. Пусть на основе реализации процедуры обучения с
использованием ортогонального тригонометрического базиса построены изображения трех видов технического состояния системы:
Ei −1 = ( − 0,85, 0,98, 0,68, − 0,71, 0,96)ò ;
Ei = ( − 0,88, 0,93, 0,76, − 0,76, 0,93)ò ;
(7.7)
Ei +1 = ( − 0,79, 0,96, 0,77, − 0, 81, 0,90)ò .
103
При этом Ei – это изображение (6.38), которое построено в рамках примера 6.2.
Имеется текущее наблюдаемое состояние
Y = (5, 6,6, 1,3, 5,2, 4,6)ò .
(7.8)
Требуется определить, какому виду технического состояния –
Y i −1 , Y i или Y i +1 принадлежит текущее состояние системы.
В результате G-преобразования вектора (7.8) на основе выражения (6.22) получается следующий вектор:
G (Y) = (sin5, cos6,6, sin2,6, cos10,4, sin13,8)
ò
=
= ( − 0,96, 0,95, 0,52, − 0,56, 0,94)ò .
(7.9)
Расстояния между вектором (7.9) и изображениями (7.7) в евклидовом пространстве G ( Y ):
 5

ρ(G (Y), Ei −1 ) = ∑ ( ei −1, j − gj (Y))2 
 j =1



0,5
=
2
=
( ( − 0,85+0,96) + (0,98 − 0,95)2 +
+(0,68 − 0,52)2 +( − 0,71+0,56)2 + (0,96 − 0,94)2
)
0,5
=
0,25;
ρ(G (Y), Ei ) =
0,32; ρ(G (Y), Ei +1 ) =
0,39.
Тогда по аналогии с условием (5.11) формируется критерий минимума метрического различия между векторами наблюдаемого состояния и изображений в конечномерном евклидовом пространстве G ( Y ):
ρ(G (Y), Ei −1 ) =ρ
min{ (G (Y), Ei −1 ), ρ(G (Y), Ei ), ρ(G (Y), Ei +1 )}=
= min{0,25, 0,32, 0,39} = 0,25.
В соответствии с данным критерием система находится в (i –1)-м
виде технического состояния ( Y ∈ Y i −1 ).

Пример 7.2. Пусть на основе модифицированного алгоритма Роббинса – Монро построены изображения двух видов технического состояния системы:
Ei =
(0,83, − 0,83, 0,33, − 0, 50)ò ;
Ei +1 = (0,89, − 0,72, − 0,27, − 0,76)ò .
104
(7.10)
При этом Ei – это изображение (6.85), которое получено в примере 6.4.
Имеется текущее наблюдаемое состояние Y системы, на основе
которого сформировано состояние в бинарной форме вида (6.71):
=
Z (1, 1, − 1, − 1)ò .
(7.11)
Требуется определить, какому виду технического состояния системы – Y i или Y i +1 – принадлежит Y.
Расстояния между вектором (7.11) и изображениями (7.10) в евклидовом пространстве Z в соответствии с выражением (6.82):
 4

ρ(Z, Ei ) =  ∑ ( eij − zj )2 
 j =1



=
0,5
=
((0,83 − 1)2 + ( − 0,83 − 1)2 + (0,33+1)2 + ( − 0,50+1)2 )
0,5
= 2,32;
ρ(Z, Ei+1 ) =
1,89.
Тогда
ρ(Z, Ei +1 =
) min{ρ(Z, Ei ), ρ(Z, Ei +1 )} ⇒ Y ∈ Y i +1.

Недостатком комбинационного метода распознавания является
то, что в решение о текущем состоянии системы закладываются погрешности всех измерений.
7.2. Последовательный метод распознавания
технических состояний
7.2.1. Построение алгоритма распознавания
технических состояний
При последовательном методе распознавания соблюдается некоторая очередность выполнения проверок. Совокупность правил,
определяющих состав проверок и последовательность их выполнения, называется алгоритмом распознавания технических состояний системы.
Для построения алгоритма распознавания необходимы следующие исходные данные.
105
1. Множество изображений всех видов технического состояния
=
E {E
=
i | i 1,m},
где Ei = ( ei 1 , ei 2 ,, ei n )ò , eij ∈ [ − 1;1].
(7.12)
(7.13)
Изображения (7.13) построены на основе ортогональной системы
функций, которые задаются соотношениями (6.22) или (6.68).
2. Множество векторов в бинарной форме
=
S {S
=
i | i 1,m},
(7.14)
где
Si = (si 1, si 2 ,, si n )ò , sij ∈ { − 1,1}.
(7.15)
Координаты векторов (7.15) выделяются из соответствующих
координат изображений (7.13) посредством применения функции
(6.79). Иначе, можно записать
Si = (sign ei 1 , sign ei 2 ,, sign ei n )ò = (si 1, si 2 ,, si n )ò .
В дальнейшем (7.14) условно называется множеством видов технического состояния, а элементы (7.15) данного множества – видами технического состояния системы.
3. Множество проверок
Π = {p j | j = 1,n},
(7.16)
на котором все виды технического состояния попарно различимы
между собой, то есть выполняется условие
∀Si , Sf ∈ S, i ≠ f, ∃p j ∈Π: sij ≠ sfj .
(7.17)
Условие (7.17) означает, что для любой пары рассматриваемых
видов технического состояния системы на множестве (7.16) найдется хотя бы одна проверка, которая дает разные исходы. В общем
случае множество (7.16) может содержать избыточные проверки, исключение которых не приводит к нарушению (7.17).
В процессе построения алгоритма все множество S делится на
подмножества
(7.18)
Rk ⊆ S, k = 0,1, 2,...
которые называются информационными состояниями процесса
распознавания технических состояний. Для получения всех воз106
можных информационных состояний необходимо рассмотреть булеан Λ S множества S. Как известно, булеан – это множество всех
подмножеств, которые могут быть выделены из S, включая пустое
множество. Мощность булеана вычисляется по формуле
ΛS =
2m ,
где m – мощность множества, для которого находится булеан ( S = m ).
Все непустые подмножества булеана ΛS и составляют множество
Λ возможных информационных состояний процесса распознавания:
Λ = Λ S \ {∅}.
(7.19)
Очевидно, что мощность множества информационных состояний определяется как
Λ= 2m − 1.
(7.20)
С другой стороны, мощность множества (7.19) может быть найдена на основе следующего комбинаторного выражения:
2
Λ= C1m + Cm
+ ... + Cm
m.
(7.21)
Каждое слагаемое в (7.21) определяется как число сочетаний из
m элементов по i:
m!
i
Cm
=
, i = 1,m,
(7.22)
i !( m− i )!
где m ! – факториал числа m ( m !=1 ⋅ 2 ⋅ ... ⋅ m, 0! = 1).
Действительно, множество (7.19) включает C1m одноэлементных
подмножеств, C2m двухэлементных и так далее, в том числе само
множество S. Поскольку данное множество содержит m элементов,
m
его наличие в (7.19) учитывается слагаемым Cm
m ( Cm = 1 ).
Начальное информационное состояние R0 процесса распознавания совпадает с множеством S:
R0 = S.
(7.23)
Именно в силу равенства (7.23) в выражении (7.18) применяется
знак нестрогого включения одного множества в другое. Промежуточные информационные состояния
Rk ⊂ S, k = 1, 2,...
(7.24)
формируются при выборе проверок в некоторой последовательности и анализе их исходов.
107
Отдельная проверка p j при ее r-м исходе переводит алгоритм
распознавания из некоторого информационного состояния Rk в соr
, то есть реализует отображение
стояние Rkj
r
p j : Rk → Rkj
,
(7.25)
r
={Si | Si ∈ Rk , p j =prj , r ∈ {1, 2}}.
(7.26)
где Rkj
Очевидно, что по мере выполнения проверок информация о
техническом состоянии системы должна накапливаться. Для этого необходимо, чтобы одно из подмножеств (7.26) при реализации
проверки p j не оказалось пустым, а второе, соответственно, не совпадало с исходным множеством Rk . Иначе, должно выполняться
условие
r
r
∀ r : Rkj
≠ ∅, Rkj
⊂ Rk .
(7.27)
Данное выражение показывает, что каждая последующая проверка обеспечивает повышение определенности информации о состоянии системы. Только при выполнении условия (7.27) снижается мощность множества видов технического состояния, в одном
из которых находится система. Следовательно, в промежуточных
информационных состояниях (7.24) могут использоваться не любые
проверки из множества (7.16), а только те, при которых (7.27) выполняется. Такие проверки называются допустимыми в состоянии
Rk , они образуют множество Π k . Условие (7.27) равносильно следующему:
(7.28)
∀p j ∈Π k , ∃ Si , Sf ∈ Rk , i ≠ f: sij ≠ sfj .
Выражение (7.28) по аналогии с (7.17) показывает, что для любой
допустимой проверки на множестве Rk найдутся два различимых
элемента (вида технического состояния). Иначе множество допустимых проверок в информационном состоянии Rk представляется в
виде
(7.29)
Π k =p
{ j | ∃ Si , Sf ∈ Rk , i ≠ f: sij ≠ sfj }.
Как известно, под равносильностью двух условий понимается
тот факт, что из одного условия вытекает второе, и наоборот.
Действительно, из выражения (7.28) следует, что для любой допустимой проверки найдутся такие виды технического состояния
Si и Sf , в которых она дает различные исходы. Поскольку в процессе реализации отображения (7.25) в каждое из подмножеств
108
(7.26) попадают элементы только с одинаковым исходом проверки
p j , справедливо условие (7.27). Обратное утверждение, что из (7.27)
следует (7.28), также очевидно.
До начала выполнения проверок неизвестно, какому виду технического состояния принадлежит текущее состояние системы,
именно поэтому справедливо равенство (7.23). При первой проверке
p j1 ∈Π из множества R0 выделяются два информационных состояния – R01 j1 и R02 j1 . Подмножество R01 j1 объединяет элементы Si ∈ S,
для которых первая проверка имеет положительный исход:
p1j1 : R0 → R01 j1 ,
где R01 j1 ={ Si ∈ S | sij1 =1}.
(7.30)
(7.31)
R02 j1
Подмножеством
охватываются элементы с отрицательным
исходом данной проверки:
p2j1 : R0 → R02 j1 ,
где R02 j1 ={ Si ∈ S | sij1 = − 1}.
(7.32)
(7.33)
Отображения (7.30) и (7.32) представляют собой частные случаи
(7.25), когда реализуется начальная проверка. В состоянии R0 любая проверка из множества (7.16) является допустимой в силу (7.17).
Далее подмножества (7.31) и (7.33) обозначаются как
R01 j1 = Rk1 , R02 j1 = Rk2 ,
(7.34)
что соответствует принятой индексации промежуточных информационных состояний (7.24).
Следующий этап построения алгоритма заключается в выборе
проверок, которые делят информационные состояния Rk1 и Rk2 .
Естественно, что в каждом из этих состояний могут использоваться
только допустимые проверки. Пусть Π k1 – множество допустимых
проверок в состоянии Rk1 , тогда в соответствии с выражением (7.29)
Π k1 =
{p j | ∃ Si , Sf ∈ Rk1 , i ≠ f: sij ≠ sfj }.
(7.35)
Если в качестве второй проверки алгоритма распознавания выбирается p j2 ∈Π k1 , то
p1j2 : Rk1 → Rk11j2 ,
где Rk11 j2 ={ Si ∈ Rk1 | sij2 =1};
(7.36)
(7.37)
109
p2j2 : Rk1 → Rk21j2 ,
(7.38)
где Rk21 j2 ={ Si ∈ Rk1 | sij2 = − 1}.
(7.39)
В дальнейшем, учитывая (7.24), для подмножеств (7.37) и (7.39)
используются обозначения
Rk11j2 =Rk3 , Rk21j2 =Rk4 .
(7.40)
Пусть Π k2 – множество допустимых проверок в состоянии Rk2 :
Π k2 =
{p j | ∃ Si , Sf ∈ Rk2 , i ≠ f: sij ≠ sfj }.
(7.41)
Третья проверка p j3 алгоритма распознавания, выбранная из
множества (7.41), также обеспечивает получение информационных
состояний:
p1j3 : Rk2 → Rk12 j3 ,
где Rk12 j3 ={ Si ∈ Rk2 | sij3 =1};
p2j3 : Rk2 → Rk22 j3 ,
(7.42)
(7.43)
(7.44)
(7.45)
где Rk22 j3 ={ Si ∈ Rk2 | sij3 = − 1}.
По аналогии с (7.34) и (7.40) в дальнейшем используются следующие обозначения подмножеств (7.43) и (7.45):
Rk12 j3 =Rk5 , Rk22 j3 =Rk6 .
(7.46)
Таким же образом формируются множества допустимых проверок для состояний Rk3 , Rk4 , Rk5 и Rk6 . Из данных множеств выбираются проверки алгоритма распознавания, с помощью которых
выделяются последующие информационные состояния.
Процесс выбора проверок продолжается до получения конечных
информационных состояний, каждое из которых содержит единственный элемент Si . В дальнейшем указанное информационное
состояние обозначается Ri (Ri = Si), а через Rk (k = 0,1, 2,...), как и
ранее, обозначаются информационные состояния, содержащие не
менее двух элементов.
Определение текущего технического состояния системы по готовому алгоритму заключается в том, чтобы получить конкретное
информационное состояние Ri (а следовательно, и Si ) путем сопоставления признаков sij с реальными исходами проверок. Для это110
го требуется определенное количество раз выполнить отображение
(7.25), используя при этом разные проверки p j ∈Π . В совокупности
эти проверки составляют упорядоченное подмножество
Π i ⊂Π ,
такое, что
∏
p j ∈Π
i
p j : S → Ri , i = 1,m.
(7.47)
(7.48)
Упорядоченность каждого подмножества (7.47) понимается в
том смысле, что последовательность расположения проверок в нем
не произвольная, а соответствует заданной очередности их выполнения в процессе распознавания. Композиции отображений вида
(7.48) и являются формализованным представлением распознавания технических состояний системы на основе построенного алгоритма.
Очевидно, что множество
Π* =
m
 Πi
(7.49)
i=1
будет содержать необходимые проверки для распознавания всех
m видов технического состояния. Возникает вопрос о соотношении
множеств (7.16) и (7.49) между собой. В общем случае не все проверки из множества (7.16) требуются для построения алгоритма, поэтому справедливо соотношение
Π* ⊆ Π .
(7.50)
Множество проверок (7.49) в сочетании с правилами, определяющими порядок их выполнения, информационными состояниями
Rk ( k = 0,1, 2,... ) и образует алгоритм распознавания технических
состояний системы.
В качестве формы представления алгоритма используется ориентированный древовидный граф. Вершинам граф-дерева соответствуют информационные состояния Ri , Rk , а дугам – исходы проверок p j , причем начальное информационное состояние R0 = S обозначается корневой вершиной, промежуточные вершины обозначают промежуточные информационные состояния Rk ⊂ S, а висячие
вершины – конечные информационные состояния Ri ( i = 1,m). Путь
от корневой вершины R0 к висячей вершине Ri является i-й ветвью
111
алгоритма. Подмножество (7.47) включает проверки, входящие в
i-ю ветвь алгоритма, а выражение (7.48) – это последовательность
переходов по i-й ветви от состояния R0 к конечному состоянию Ri .
Следует отметить, что не все промежуточные информационные
состояния из множества (7.19) возможно получить при самых различных вариантах ветвления граф-дерева, поскольку на каждом
шаге построения алгоритма не любые проверки являются допустимыми. Формирование множества (7.19) позволяет только иметь в
виду, какие промежуточные информационные состояния принципиально возможны.
Для того чтобы получить множество промежуточных информационных состояний, которые действительно будут иметь место при
построении алгоритма, необходимо реализовать все допустимые последовательности проверок.
7.2.2. Функциональная модель системы
Построение алгоритмов существенно упрощается, если использовать функциональные модели систем.
Функциональная модель – это графическое изображение системы в виде совокупности функциональных элементов (ФЭ), каждый
из которых имеет сколь угодно большое число входов и один выход.
На рис. 7.1 показан такой элемент функциональной модели.
Связи между функциональными элементами обозначаются линиями со стрелками, показывающими направление прохождения
материальных потоков, энергии или информации – в зависимости
от физической природы процессов в данных элементах.
Поскольку функциональный элемент модели имеет один выход,
очевидно, что он может представлять собой результат декомпозиции (мысленного расчленения) функционального элемента моделируемой системы. В таком случае реальный функциональный элемент, имеющий несколько выходных переменных, представляется
таким же количеством элементов модели.
…
ФЭ
Рис. 7.1. Функциональный элемент
модели
112
Основные предположения, на которых базируется построение
функциональных моделей.
1. Каждый функциональный элемент может находиться в одном
из двух несовместных состояний – работоспособном или неработоспособном.
2. Функциональный элемент работоспособен, если при допустимом входном воздействии его реакция (значение выходной переменной) является допустимой.
3. Выход за пределы допустимых значений хотя бы одного из
входных воздействий приводит к недопустимой реакции.
4. Внешние входные воздействия всегда являются допустимыми. Внешним является вход, не соединенный ни с одним выходом.
5. Связи между функциональными элементами абсолютно надежны. Реальные связи (соединительные провода, штепсельные
разъемы и т. д.) можно включать в модель в качестве самостоятельных функциональных элементов и тем самым учитывать их возможные отказы.
6. В системе имеют место только одиночные отказы. Это означает, что в заданный момент времени в неработоспособном состоянии
может находиться только один функциональный элемент модели.
В действительности отклонения в системе, как правило, начинаются с одиночного отказа. Если он не подвержен бесконтрольному
развитию, а своевременно обнаруживается и устраняется, то эффекта «размножения» отказов не будет. Другими словами, указанное
предположение имеет реальное обоснование.
На основе функциональной модели строится модель распознавания технических состояний системы (табл. 7.1). Она называется
усеченной моделью, поскольку в ней не отражается информация,
Таблица 7.1
Усеченная модель распознавания технических состояний системы
S
Исходы проверок pj
p1
p2
…
pj
…
pn
S1
s11
s12
…
s1j
…
s1n
S2
s21
s22
…
s2j
…
s2n
…
Si
…
…
…
…
…
…
si1
si2
…
sij
…
sjn
…
…
…
…
…
…
sm1
sm2
…
smj
…
smn
…
Sm
113
необходимая для построения оптимальных алгоритмов. Модели, на
основе которых строятся оптимальные алгоритмы, рассматриваются в разд. 8.
В строках табл. 7.1 представлены виды технического состояния
системы (элементы множества (7.14)), а в каждом столбце – исходы
одной из проверок во всех m видах технического состояния. Как
формируется усеченная модель, изложено в примере 7.3.
Пример 7.3. Дана функциональная модель системы (рис. 7.2).
Необходимо построить алгоритм распознавания технических состояний данной системы.
При наличии функциональной модели векторы вида (7.15) могут быть получены не только из изображений (7.13), но и упрощенно – путем анализа исходов проверок. Например, в случае отказа
второго функционального элемента (ФЭ-2) на выходах ФЭ-2 и ФЭ-4
реакция будет недопустимой. Следовательно, исходы проверок p2 и
p4 будут отрицательными (выполняется условие (7.3)). Тогда, учитывая (7.4), можно записать p22 =−1, p24 =−1.
Выходные переменные остальных функциональных элементов
находятся в допустимых интервалах (выполняется условие (7.2)),
следовательно
p11 =
1, p13 =
1, p15 =
1.
Тогда вектор, определяющий неработоспособное состояние системы по причине отказа ФЭ-2, представляется как
S2 = (s21, s22 , s23 , s24 , s25 )ò =(1, − 1, 1, − 1, 1)ò .
Аналогичным образом формализуются другие виды технического состояния и формируется множество вида (7.14):
=
S {S
=
i | i 1,5}.
(7.51)
2
4
1
3
5
Рис. 7.2. Функциональная модель системы
114
Таблица 7.2
Усеченная модель распознавания технических состояний системы
(к примеру 7.3)
S
Исходы проверок pj
p1
p2
p3
p4
p5
S1
S2
–1
–1
–1
–1
–1
1
–1
1
–1
1
S3
1
1
–1
1
–1
S4
1
1
1
–1
1
S5
1
1
1
1
–1
Все полученные результаты сведены в табл. 7.2. В строках данной таблицы представлены виды технического состояния системы
(элементы множества (7.51)), а в каждом столбце – исходы одной из
проверок во всех видах технического состояния.
Множество всех возможных информационных состояний вида
(7.19) содержит пять конечных состояний R1 − R5 . Это очевидно в
силу того, что рассматривается пять возможных видов технического состояния системы S1 − S5 . Но в соответствии с общим подходом
определения количества информационных состояний заданной
мощности может быть использована формула (7.22):
=
C15
5!
5!
1⋅2 ⋅ 3 ⋅ 4 ⋅5
= =
= 5.
1!(5 − 1)! 1! ⋅ 4! 1 ⋅ 1 ⋅ 2 ⋅ 3 ⋅ 4
Таким же образом находится количество информационных состояний с мощностью два, три, четыре и пять элементов:
=
C25
5!
1⋅2 ⋅ 3 ⋅ 4 ⋅5
=
= 10, C53 = 10, C54 = 5, C55 = 1.
2!(5 − 2)! 1 ⋅ 2 ⋅ 1 ⋅ 2 ⋅ 3
(7.52)
Из выражений (7.52) следует, что множество вида (7.19) содержит
десять информационных состояний с двумя элементами ( R6 − R15 ),
десять состояний с тремя элементами ( R16 − R25 ) и пять состояний
с четырьмя элементами ( R26 − R30 ).
Таким образом, мощность множества информационных состояний согласно выражению (7.21) составляет
Λ= C15 + C25 + C53 + C54 + C55 =5+10+10+5+1=31.
Все эти состояния показаны в табл. 7.3.
115
Таблица 7.3
Информационные состояния процесса распознавания
технических состояний системы (к примеру 7.3)
Информационные состояния Rk
R0 = {S1,S2 ,S3 ,S4 ,S5 }
R11 = {S2 ,S4 }
R22 = {S2 ,S3 ,S4 }
R1 = {S1 }
R12 = {S2 ,S5 }
R23 = {S2 ,S3 ,S5 }
R2 = {S2 }
R13 = {S3 ,S4 }
R24 = {S2 ,S4 ,S5 }
R3 = {S3 }
R14 = {S3 ,S5 }
R25 = {S3 ,S4 ,S5 }
R4 = {S4 }
R15 = {S4 ,S5 }
R26 = {S1,S2 ,S3 ,S4 }
R5 = {S5 }
R16 = {S1,S2 ,S3 }
R27 = {S1,S2 ,S3 ,S5 }
R6 = {S1,S2 }
R17 = {S1,S2 ,S4 }
R28 = {S1,S2 ,S4 ,S5 }
R7 = {S1,S3 }
R18 = {S1,S2 ,S5 }
R29 = {S1,S3 ,S4 ,S5 }
R8 = {S1,S4 }
R19 = {S1,S3 ,S4 }
R30 = {S2 ,S3 ,S4 ,S5 }
R9 = {S1,S5 }
R20 = {S1,S3 ,S5 }
R10 = {S2 ,S3 }
R21 = {S1,S4 ,S5 }
Если к алгоритму распознавания технических состояний не
предъявляется каких-либо требований по оптимальности, то последовательность выбора проверок для анализа их исходов может быть
произвольной.
Начальное информационное состояние процесса распознавания
совпадает с множеством (7.51):
R0 = {S1,S2 ,S3 ,S4 ,S5 }.
(7.53)
Пусть первой проверкой будет p4 : p j1 =
p4 . Из табл. 7.2 видно,
что она дает положительный исход в состояниях S3 и S5 , а отрицательный – в S1, S2 и S4 .
Следовательно, в соответствии с выражениями (7.30)–(7.34) и с
учетом данных, содержащихся в табл. 7.3:
p14 : R0 → R14 ,
где R=
14 R=
k1 {S3 , S5 };
116
(7.54)
p24 : R0 → R17 ,
где R=
17 R=
k2 {S1, S2 , S4 }.
(7.55)
В информационном состоянии (7.54) множество допустимых
проверок включает одну проверку p3 :
Π14 =p
{ 3 }.
Только данная проверка удовлетворяет требованиям (7.35):
s33 ≠ s53 (s53 = 1, s33 = −1),
что следует из табл. 7.2.
Остальные проверки являются недопустимыми, так как
s=
31 s=
51 1, s=
32 s=
52 1, s=
34 s=
54 1, s35 = s55 = −1.
Проверка p3 и будет следующей в рамках алгоритма: p j2 =
p3 .
Тогда выражения (7.36)–(7.40) принимают вид
p13 : R14 → R5 ,
где =
R5 R=
k3 { S5 };
(7.56)
p23 : R14 → R3 ,
где =
R3 R=
k4 { S3 }.
(7.57)
Информационные состояния (7.56) и (7.57) являются конечными
(висячими вершинами граф-дерева).
Далее находится множество допустимых проверок в информационном состоянии (7.55):
Π17 ={p1, p2 , p3 , p5 }.
(7.58)
Из табл. 7.2 следует, что каждая проверка из множества (7.58)
удовлетворяет требованиям (7.41).
Пусть очередной проверкой будет p1: p j3 =
p1. Тогда информационное состояние (7.55) делится в соответствии с (7.42)–(7.46) следующим образом:
p11: R17 → R11,
где R=
11 R=
k5 {S2 , S4 };
(7.59)
117
p12 : R17 → R1,
где =
R1 R=
k6 {S1 }.
(7.60)
Информационное состояние (7.60) является конечным. Остается
найти множество допустимых проверок в состоянии (7.59):
Π11 =p
{ 2 }.
Таким образом, заключительной является проверка p2 . Она дает
следующие результаты:
p12 : R11 → R4 ,
где R4 = {S4 };
(7.61)
p22 : R11 → R2 ,
где R2 = {S2 }.
(7.62)
Информационные состояния (7.61) и (7.62) являются конечными.
Таким образом, в результате выбора проверок и анализа их исходов
получены все конечные информационные состояния. Это указывает на завершение построения алгоритма, граф-дерево которого показано на рис. 7.3.
Принятый состав и очередность реализации проверок (рис. 7.3)
приводит к получению девяти информационных состояний процесса распознавания технических состояний.
S1,
S2, S3, S4, S5
p24
p14
S3, S5
p13
S5
S1, S2, S4
p23
p1
1
S3
p12
S2, S4
p12
S4
S1
p2
2
S2
Рис. 7.3. Граф-дерево алгоритма распознавания
технических состояний системы (к примеру 7.3)
118
Упорядоченные подмножества вида (7.47), необходимые для распознавания технических состояний по готовому алгоритму:
Π1 =
{p4 , p1 }; Π2 =
{p4 , p1, p2 }; Π 3 =
{p4 , p3 };
Π4 =
{p4 , p1, p2 }; Π5 =
{p4 , p3 }.
(7.63)
Поскольку в процессе распознавания реализуется какая-либо
одна ветвь алгоритма, из выражений (7.63) следует, что для получения информации о техническом состоянии системы каждый раз
требуется выполнять не более трех проверок. Пусть, например, при
выполнении проверки p4 она дает отрицательный исход, тогда следующей проверкой будет p1. В случае положительного исхода p1
выполняется проверка p2 и при ее отрицательном исходе распознается техническое состояние системы – она находится в неработоспособном состоянии S2 .
Множество (7.49) проверок, необходимых для распознавания
всех технических состояний, принимает вид
Π* =p
{ 1, p2 , p3 , p4 }.
В выполнении проверки p5 необходимости нет. В этом заключается преимущество последовательного метода распознавания по
сравнению с комбинационным, когда в любом случае требуется выполнять все проверки. Очевиден и недостаток последовательного
метода, заключающийся в огрублении результатов обучения при
переходе от векторов (7.13) к векторам (7.15) с бинарным представлением координат. Какой из методов – комбинационный или последовательный более предпочтителен, решается в каждом конкретном
случае отдельно.
Если очередность реализации проверок изменить, то будут получены и другие промежуточные информационные состояния процесса распознавания из числа содержащихся в табл. 7.3. Иначе,
будет синтезирован другой алгоритм. Естественно, что начальное
и конечные информационные состояния будут в любом случае. На
рис. 7.4 показано граф-дерево, в котором проверки реализованы с
измененной очередностью по сравнению с алгоритмом на рис. 7.3.
В табл. 7.4 представлены все упорядоченные подмножества допустимых проверок, позволяющие получить в рамках данного примера промежуточные информационные состояния процесса распознавания, которые будут иметь место при том или ином варианте
ветвления граф-дерева.
119
Например, при построении граф-дерева на рис. 7.3 реализовано подмножество, которое включает проверки p4 и p1 (табл. 7.3,
строка 14). В результате получены все промежуточные информационные состояния ( R11, R14 , R17 ) при любом варианте ветвления
граф-дерева, который начинается с данных проверок в качестве первой p4 и второй p1. Для завершения конкретного варианта графдерева необходимо выполнение еще двух проверок, но с их помощью
выделяются уже конечные информационные состояния.
Аналогично граф-дерево на рис. 7.4 начинается с проверок p2 и
p3 (табл. 7.4, строка 8). Их реализация приводит к информационным состояниям R6 , R15 и R25 , которые будут при всех вариантах
ветвления граф-дерева, содержащих в качестве начальных данные
проверки. Для получения всех промежуточных информационных
состояний при некоторых вариантах ветвления требуется выполнить три проверки (табл. 7.4, строки 1–5).
Таким образом, на основе модели (табл. 7.2) могут быть получены не все возможные промежуточные информационные состояния
R6 − R30 (табл. 7.3), а только те, которые выделяются в результате
реализации упорядоченных подмножеств допустимых проверок.
Из табл. 7.4 видно, что это следующие состояния: R6 , R7 , R11, R14 ,
R15 , R17 , R20 , R24 , R25 , R30 .

S1,
S2, S3, S4, S5
p2
2
p12
S1, S2
S3, S4, S5
p23
p13
S3
S4, S5
p15
S4
p1
1
S2
p12
S1
p25
S5
Рис. 7.4. Граф-дерево алгоритма распознавания
технических состояний системы
с измененной очередностью проверок (к примеру 7.3)
120
Таблица 7.4
Упорядоченные подмножества допустимых проверок и соответствующие
промежуточные информационные состояния процесса распознавания
(к примеру 7.3)
Информационные состояния
№ Подмножества
пп
проверок
с четырьмя элементами с тремя элементами с двумя элементами
1
{p1, p2 , p3 }
R30 = {S2 ,S3 ,S4 ,S5 }
R25 = {S3 ,S4 ,S5 }
R15 = {S4 ,S5 }
2
{p1, p2 , p4 }
R30 = {S2 ,S3 ,S4 ,S5 }
R25 = {S3 ,S4 ,S5 }
R14 = {S3 ,S5 }
3
{p1, p2 , p5 }
R30 = {S2 ,S3 ,S4 ,S5 }
R25 = {S3 ,S4 ,S5 }
R14 = {S3 ,S5 }
4
{p1, p3 , p4 }
R30 = {S2 ,S3 ,S4 ,S5 }
R24 = {S2 ,S4 ,S5 }
R11 = {S2 ,S4 }
5
{p1, p3 , p5 }
R30 = {S2 ,S3 ,S4 ,S5 }
R24 = {S2 ,S4 ,S5 }
R11 = {S2 ,S4 }
6
{p1, p4 }
R30 = {S2 ,S3 ,S4 ,S5 }
–
7
{p1, p5 }
R30 = {S2 ,S3 ,S4 ,S5 }
–
8
{p2 , p3 }
–
R25 = {S3 ,S4 ,S5 }
9
{p2 , p4 }
–
R25 = {S3 ,S4 ,S5 }
10
{p2 , p5 }
–
R25 = {S3 ,S4 ,S5 }
11
{p3 , p2 }
–
R24 = {S2 ,S4 ,S5 }
12
{p3 , p4 }
–
R24 = {S2 ,S4 ,S5 }
13
{p3 , p5 }
–
R24 = {S2 ,S4 ,S5 }
R11 = {S2 ,S4 },
R14 = {S3 ,S5 }
R11 = {S2 ,S4 },
R14 = {S3 ,S5 }
R6 = {S1,S2 },
R15 = {S4 ,S5 }
R6 = {S1,S2 },
R14 = {S3 ,S5 }
R6 = {S1,S2 },
R14 = {S3 ,S5 }
R7 = {S1,S3 },
R15 = {S4 ,S5 }
R7 = {S1,S3 },
R11 = {S2 ,S4 }
R7 = {S1,S3 },
R11 = {S2 ,S4 }
121
Окончание табл. 7.4
Информационные состояния
№ Подмножества
пп
проверок
с четырьмя элементами с тремя элементами с двумя элементами
14
{p4 , p1 }
–
R17 = {S1,S2 ,S4 }
15
{p4 , p2 }
–
R17 = {S1,S2 ,S4 }
16
{p4 , p3 }
–
R17 = {S1,S2 ,S4 }
17
{p4 , p5 }
–
R17 = {S1,S2 ,S4 }
18
{p5 , p1 }
–
R20 = {S1,S3 ,S5 }
19
{p5 , p2 }
–
R20 = {S1,S3 ,S5 }
20
{p5 , p3 }
–
R20 = {S1,S3 ,S5 }
21
{p5 , p4 }
–
R20 = {S1,S3 ,S5 }
122
R11 = {S2 ,S4 },
R14 = {S3 ,S5 }
R6 = {S1,S2 },
R14 = {S3 ,S5 }
R11 = {S2 ,S4 },
R14 = {S3 ,S5 }
R11 = {S2 ,S4 },
R14 = {S3 ,S5 }
R11 = {S2 ,S4 },
R14 = {S3 ,S5 }
R11 = {S2 ,S4 },
R14 = {S3 ,S5 }
R11 = {S2 ,S4 },
R14 = {S3 ,S5 }
R11 = {S2 ,S4 },
R14 = {S3 ,S5 }
8. ОПТИМАЛЬНЫЕ АЛГОРИТМЫ РАСПОЗНАВАНИЯ
ТЕХНИЧЕСКИХ СОСТОЯНИЙ СИСТЕМЫ
Важно отметить, что на доверие к результатам распознавания технических состояний оказывают влияние погрешности контрольно-измерительных приборов, помехи в трактах передачи измерительной информации, а также различные допущения при задании интервалов изменения диагностических параметров. Указанные факторы являются
причиной ошибок первого и второго рода при выполнении проверок.
Ошибка первого рода имеет место, если в результате проверки
принимается, что измеренное значение диагностического параметра не входит в допустимый интервал ( yj ∉ Δ0 j ), а в действительности оно соответствует данному интервалу ( yj ∈ Δ0 j ).
Ошибка второго рода возникает, когда в результате проверки
принимается, что измеренное значение диагностического параметра входит в допустимый интервал ( yj ∈ Δ0 j ), а в действительности
оно не соответствует данному интервалу ( yj ∉ Δ0 j ).
Для количественной характеристики погрешностей используются вероятности ошибок первого и второго рода производимых проверок, они обозначаются a j и b j соответственно. Указанные вероятности образуют множества
Α = {a j | j = 1,n}, Β = {b j | j = 1,n},
(8.1)
которые включаются в модель распознавания технических состояний в качестве ее элементов. Способы определения вероятностей a j
и b j являются предметом метрологии.
Предполагается также, что для каждого вида технического состояния найдена соответствующая вероятность P(Si ) пребывания
системы в этом состоянии. Множество
=
P {P
=
(Si ) | i 1,m}
(8.2)
является составной частью модели.
Включение в модель множеств (8.1) и (8.2) позволяет придавать
необходимые свойства процессу распознавания технических состояний системы, в том числе и оптимальные.
8.1. Постановка задачи оптимизации процесса распознавания
технических состояний
В соответствии с основными положениями теории эффективности целенаправленных процессов одним из фундаментальных
123
свойств любого процесса является эффективность, под которой понимается его приспособленность к достижению поставленной цели,
результативность данного процесса.
Целью распознавания технических состояний является правильное определение того вида технического состояния, в котором
в действительности находится система. Поэтому в качестве эффективности процесса распознавания технических состояний следует
рассматривать его достоверность.
Под достоверностью понимается соответствие реального технического состояния системы тому решению, которое принимается по
результатам распознавания.
Для того чтобы определить меру обладания процессами распознавания технических состояний свойством достоверности, ему
следует придать количественную характеристику. Такая характеристика называется показателем эффективности процесса, или
целевой функцией.
Показатель эффективности должен удовлетворять следующим
важнейшим требованиям:
– критичность, чувствительность к изменениям исследуемых
свойств (в данном случае свойства достоверности);
– комплексность (возможность исследования эффективности без
привлечения других показателей);
– стохастичность, возможность учета неопределенности при реализации процесса (распознавание технических состояний связано с
выполнением ряда проверок, исходы которых заранее непредсказуемы, следовательно, непредсказуем и результат);
– простота математического представления;
– представительность (в показателе эффективности должна находить свое прямое отображение цель исследуемого процесса).
После выбора показателя должен быть сформулирован критерий
эффективности, по которому оцениваются различные варианты реализации алгоритма распознавания технических состояний. Из трех
известных видов критериев – пригодности, оптимальности и превосходства – в рассматриваемой задаче целесообразно использовать второй. В соответствии с критерием оптимальности должен быть найден
такой вариант ветвления граф-дерева, на котором выбранный показатель эффективности принимает экстремальное значение.
Универсальным показателем эффективности, отвечающим всем
изложенным выше требованиям, является вероятность достижения цели, применительно к данной задаче – вероятность правильного распознавания технических состояний системы, или, что
124
равносильно, вероятность получения правильного решения о техническом состоянии. Естественно, что оптимизация должна выполняться по критерию максимума данного показателя.
В подразд. 7.2 представлены исходные данные (7.12)–(7.17), необходимые для построения алгоритма распознавания технических
состояний системы. Очевидно, что для синтеза оптимального алгоритма требуются дополнительные данные. Прежде всего, это учет
вероятностей ошибок первого и второго рода (8.1), а также априорных вероятностей видов технического состояния системы (8.2).
Ниже представлен полный перечень исходных данных при построении оптимального алгоритма.
1. Множество возможных видов технического состояния системы
=
S {S
=
i | i 1,m}.
(8.3)
2. Дискретное распределение вероятностей на множестве видов
технического состояния
=
P {P
=
(Si ) | i 1,m}.
(8.4)
3. Множество проверок
Π = {p j | j = 1,n},
(8.5)
на котором все виды технического состояния попарно различимы
между собой, то есть выполняется условие (7.17).
4. Множество вероятностей ошибок первого рода производимых
проверок
Α = {a j | j = 1,n}.
(8.6)
5. Множество вероятностей ошибок второго рода производимых
проверок
Β = {b j | j = 1,n}.
(8.7)
Исходные данные (8.3)–(8.7) представлены в виде модели распознавания технических состояний, табл. 8.1.
На основе модели (табл. 8.1) требуется найти для каждого вида
технического состояния упорядоченное подмножество проверок
(7.47), чтобы выполнялось условие (7.48). Кроме того, необходимо,
чтобы это подмножество содержало проверки, обеспечивающие
максимальное значение вероятности правильного распознавания
технического состояния системы.
125
Таблица 8.1
Модель распознавания технических состояний системы
S
Исходы проверок pj
P(Si )
p1
p2
…
pj
…
pn
S1
s11
s12
…
s1j
…
s1n
P(S1 )
S2
s21
s22
…
s2j
…
s2n
P(S2 )
…
…
…
…
…
…
…
…
Si
si1
si2
…
sij
…
sjn
P(Si )
…
…
…
…
…
…
…
…
Sm
sm1
sm2
…
smj
…
smn
P(Sm )
Α
a1
a2
…
aj
…
an
Β
b1
b2
…
bj
…
bn
∑ P(Si ) = 1
m
i =1
8.2. Целевая функция процесса распознавания
технических состояний
Возникает задача, как сформировать структуру целевой функции (или показателя эффективности) в виде вероятности правильного распознавания технических состояний системы.
Событие, заключающееся в том, что система находится в i-м виде
технического состояния, далее обозначается как Ri (Ri = Si ) . Множество (8.4) вероятностей P(Ri ) таких событий полагается заданным. Событие, заключающееся в том, что в результате выполнения
проверок в соответствии с алгоритмом распознавания зафиксирован i-й вид технического состояния, обозначается Ri* .
Пусть средствами распознавания зафиксирован i-й вид технического состояния – произошло событие Ri* . Этот результат не вполне
достоверен из-за ограниченной точности контрольно-измерительных приборов, наличия помех и ошибок при выполнении проверок.
По этим причинам средствами распознавания может быть зафиксирован i-й вид технического состояния, в то время как в действительности система находится в f-м виде технического состояния.
Поскольку система может находиться в любом из рассматриваемых
видов технического состояния, то m событий Rf ( f = 1,m ) допустимо рассматривать как m несовместных гипотез, априорные вероят126
ности которых равны P(Rf ). Событие Ri* может произойти одновременно с любой из этих гипотез, а поэтому в соответствии с формулой полной вероятности
m
P(Ri* ) = ∑ P(Rf )P(Ri* /Rf ), i = 1,m,
(8.8)
f =1
где Ri* /Rf – вероятность фиксирования средствами распознавания
i-го вида технического состояния при условии, что в действительности система находится в f-м виде технического состояния.
Для того чтобы судить о достоверности распознавания, необходимо ввести в рассмотрение ситуации, характеризующиеся совместным наступлением событий Ri и Ri* . По формуле умножения
вероятностей
P(Ri ∩ Ri* ) =
P(Ri )P(Ri* /Ri ),
(8.9)
где P(Ri ∩ Ri* ) – вероятность совместного наступления событий Ri
и Ri* .
Очевидно, что отношение (8.9) к (8.8) характеризует вероятность
правильного распознавания i-го вида технического состояния по
выбранному алгоритму:
Di =
P(Ri ∩ Ri* )
P(Ri* )
P(Ri )P(Ri* /Ri )
= m
, i = 1,m.
*
∑ P(Rf )P(Ri /Rf )
(8.10)
f =1
Выражение (8.10) есть формула Байеса, из которой следует, что
Di = P(Ri /Ri* ), i = 1,m.
(8.11)
Таким образом, вероятность правильного распознавания i-го
вида технического состояния по выбранному алгоритму количественно оценивается вероятностью пребывания системы в данном
виде технического состояния при условии, что средствами распознавания именно он и зафиксирован.
Но система может находиться в любом из рассматриваемых видов технического состояния, которые охватываются множеством
(8.3). Поэтому необходимо учитывать возможность движения по
любой ветви ориентированного граф-дерева (движение по конкретной ветви – это процесс распознавания конкретного вида технического состояния). Следовательно, характеристикой достоверности
127
распознавания технических состояний по выбранному алгоритму в
целом будет условная вероятность (8.11), усредненная по всему множеству видов технического состояния:
=
D MD
=
i
m
∑ P(Si )P(Ri /Ri* ).
(8.12)
i =1
Таким образом, целевая функция (8.12) процесса распознавания
технических состояний – это средняя вероятность (или математическое ожидание вероятности) получения правильного решения о
техническом состоянии системы.
Например, если данная вероятность стремится к единице, то
мера обладания свойством достоверности у процесса распознавания
технических состояний приближается к максимально возможной.
Если же указанная вероятность стремится к нулю, то мера обладания свойством достоверности у данного процесса приближается к
минимально возможной. Для любых промежуточных диапазонов
вероятности (8.12) также может быть дана характеристика меры обладания свойством достоверности у рассматриваемого процесса.
8.3. Оптимизация процесса распознавания
технических состояний методом
динамического программирования
Распознавание технических состояний есть управляемый с помощью проверок дискретный многошаговый процесс, что вытекает
из его описания (разд. 7). Он обладает свойствами марковского процесса, так как любое его последующее состояние полностью определяется предыдущим состоянием и выбранной в нем проверкой. Кроме этого задача распознавания допускает декомпозицию на относительно самостоятельные подзадачи меньшей размерности. Это означает, что любой алгоритм распознавания технических состояний
может быть представлен как композиция отдельных алгоритмов,
начинающихся с промежуточных информационных состояний.
На рис. 8.1 показаны примеры алгоритмов распознавания технических состояний, которые входят в состав алгоритма на рис. 7.4.
Каждый из этих алгоритмов может рассматриваться как самостоятельный, если информационное состояние, с которого производится ветвление, считать начальным.
Для оптимизации таких процессов применяются различные методы дискретного программирования. Но наиболее общим методом оп128
S1, S2
S3, S4, S5
p23
p13
S2
S3
S4, S5
p15
p1
1
p12
S1
p25
S5
S4
Рис. 8.1. Алгоритмы распознавания технических состояний системы,
начинающиеся с информационных состояний R25 и R6 соответственно
(к примеру 7.3)
тимизации процесса, обладающего свойствами марковского и допускающего декомпозицию, является динамическое программирование.
Для применения метода динамического программирования целевую функцию необходимо преобразовать к виду, пригодному для
определения достоверности распознавания на основе алгоритмов,
начинающихся с любого промежуточного информационного состояния Rk , k = 1, 2,... . Далее они называются Rk -алгоритмами.
Реализация Rk -алгоритмов начинается с какой-либо проверки
из множества Π k (где Π k – множество (7.29) допустимых проверок в
информационном состоянии Rk ). При этом вероятность правильного распознавания будет зависеть от того, какая именно проверка p j
из числа допустимых будет выбрана в состоянии Rk . По аналогии с
выражением (8.12) формула для определения вероятности правильного распознавания по Rk-алгоритму, начинающемуся с проверки
p j , может быть представлена как
(
)
Dk (p j ) =
∑ Pk (Si )Pk Ri /Ri* (pj ) ,
i∈Ik
(8.13)
где Ik – индексное множество, которое включает номера элементов
из Rk ;
Pk Ri /Ri* (p j ) – вероятность пребывания системы в i-м виде
технического состояния при условии, что в процессе реализации
Rk-алгоритма, начинающегося с проверки p j , средствами распознавания зафиксирован именно этот вид;
Pk (Si ) – априорная вероятность i-го вида технического состояния системы, уточненная по результатам предыдущих проверок, с
помощью которых реализован переход из начального информационного состояния R0 к рассматриваемому состоянию Rk .
(
)
129
В дальнейшем Rk-алгоритм, начинающийся с проверки p j , обозначается как Rk (p j )-алгоритм.
Смысл вероятности Pk (Si ) состоит в том, что множество Rk видов технического состояния, с одним из которых впоследствии отождествляется текущее состояние системы, по мере выполнения
проверок уменьшается, поэтому их исходная априорная вероятность P(Si ) повышается. Следовательно, в каждом вновь получаемом подмножестве Rk требуется пересчет вероятностей входящих
в него событий Si с тем, чтобы выполнялось условие
∑ Pk (Si ) = 1.
i∈Ik
Данное условие отражает тот факт, что если в результате выполнения проверок получено подмножество Rk , включающее ряд
видов технического состояния, то среди них обязательно найдется
такой, с которым впоследствии отождествляется текущее состояние системы. Введенное условие есть не что иное, как условие нормировки априорных вероятностей видов технического состояния,
а следовательно, уточненная вероятность определяется по формуле
P(Si )
, f ∈ Ik .
∑ Pk (Sf )
Pk (Si ) =
(8.14)
f∈Ik
Далее проверка p j называется оптимальной, если вероятность
(8.13) при реализации данной проверки принимает максимальное
значение:
D=
(8.15)
k (p j ) max Dk (ps ).
ps∈Π k
(
)
Условные вероятности Pk Ri /Ri* (p j ) в выражении (8.13) определяются по формуле Байеса аналогично тому, как это производится
для всего алгоритма распознавания (выражения (8.11) и (8.12)):
(
Pk Ri /Ri* (p j )
)
(
f∈Ik
(
)
P(Si )Pk Ri* (p j )/Ri
=
, i ∈ Ik .
*
S
P
(
)
P
R
(
p
)/
R
∑ f k i j f
)
(
)
(8.16)
Величины Pk Ri* (p j )/Rf в выражении (8.16) характеризуют вероятности или правильных (i = f ) , или ошибочных решений (i ≠ f )
при распознавании технических состояний. В последнем случае по
130
результатам проверок вместо f-го вида технического состояния, в
котором находится система, фиксируется i-й вид (вместо f-й ветви
Rk-алгоритма реализуется его i-я ветвь). Указанные вероятности
находятся как
(
)
Pk Ri* (p j )/Rf=
∏
p j ∈Π k
γ if (p j ),
(8.17)
где величины γ if (p j ) определяются через вероятности ошибок первого и второго рода производимых проверок p j следующим образом:
*
1 − a j , åñëè=
sij
1,=
sfj 1;

*
1 − b j , åñëè sij
= −1, sfj = −1;

γ if (p j ) =

*
1;
−1, sfj =
 a j , åñëè sij =

*
−1.
1, sfj =
 b j , åñëè sij =
(8.18)
*
*
Запись sij
= 1 ( sij
= −1 ) в выражении (8.18) означает, что в результате j-й проверки в i-м виде технического состояния системы
средствами распознавания зафиксировано попадание (непопадание) соответствующего диагностического параметра в допустимый
интервал; sfj = 1 ( sfj = −1 ) указывает, что значение j-го диагностического параметра в f-м виде технического состояния в действительности входит (не входит) в допустимый интервал. Таким образом,
выражение (8.18) полностью соответствует определениям ошибок
первого и второго рода, которые даны в начале настоящего раздела.
Когда i = f, то в выражение (8.17) для вычисления Pk Ri* (p j )/Ri
будут входить либо только сомножители
(
)
γ ii (p j )=1 − a j ,
либо только сомножители
γ ii (p j )=1 − b j ,
либо те и другие вместе.
В соответствии с методом динамического программирования процесс выбора оптимальных проверок начинается с промежуточных
информационных состояний, содержащих минимальное количество
элементов. Таковыми являются состояния, которые включают по
два элемента. Каждая проверка находится из условия (8.15), то есть
условия обеспечения максимального значения целевой функции.
131
После нахождения оптимальных проверок во всех информационных состояниях с двумя элементами осуществляется переход к
состояниям, включающим три, четыре и так далее элементов, а также начальное состояние R0 с m элементами.
Так, в информационных состояниях, включающих три элемента, к уже найденной оптимальной проверке добавляется новая, которая также выбирается из условия (8.15). В аналогичном порядке
процесс выбора проверок, а следовательно, и диагностических параметров продолжается до начального состояния R0. Следует иметь в
виду, что в каждом информационном состоянии оптимальные проверки могут выбираться только из множества (7.29) допустимых
проверок. Если в конкретном состоянии допустимая проверка только одна, она и принимается в качестве оптимальной.
Затем, согласно методу динамического программирования, осуществляется обратный проход из начального информационного состояния к конечным. В процессе обратного прохождения непосредственно формируется последовательность оптимальных проверок,
а следовательно, и оптимальный алгоритм распознавания технических состояний системы.
На данном этапе оптимальная проверка для начального информационного состояния R0 берется в качестве первой проверки синтезируемого алгоритма. По формулам (7.30)–(7.34) находятся новые состояния, и соответствующие этим состояниям оптимальные
проверки также включаются в синтезируемый алгоритм. По этим
проверкам находятся последующие состояния с использованием
формул (7.36)–(7.40), (7.42)–(7.46), и в аналогичном порядке процесс
продолжается до получения всех конечных состояний Ri (i = 1,m).
В результате найдутся m упорядоченных подмножеств Π i (подмножества (7.47)), каждое из которых задает i-ю ветвь граф-дерева алгоритма распознавания.
Пересечение полученных подмножеств не является пустым:
m
 Π i ≠ ∅,
i=1
так как первая проверка является общей для всего алгоритма (всякая проверка в каждом последующем состоянии Rk является общей для соответствующего Rk -алгоритма). Возможно также повторение одной проверки в различных ветвях граф-дерева, но в одной и
той же ветви проверки не повторяются. Все это справедливо как для
оптимального, так и для любого произвольного алгоритма.
132
Теперь становится очевидным, что целевая функция (8.12) изменяет свои значения в зависимости от того, какая проверка выбрана
в начальном информационном состоянии R0. Следовательно, (8.12)
может быть записана в виде
m
(
)
D = ∑ P(Si )P Ri /Ri* (p j ) ,
(
)
i =1
(8.19)
где P Ri /Ri* (p j ) – вероятность нахождения системы в i-м виде технического состояния при условии, что в процессе реализации алгоритма распознавания, начинающегося с проверки p j , зафиксирован этот же вид технического состояния.
Тогда оптимизационная (экстремальная) задача по определению
максимального значения средней вероятности правильного распознавания технических состояний представляется как
 m
D* = max  ∑ P(Si )P Ri /Ri* (p j )
p j ∈Π 
i =1
(

).
(8.20)
Соотношение (8.20) означает, что на множестве Π найдется проверка p j , использование которой в состоянии R0 обеспечивает максимально возможное значение средней вероятности правильного
распознавания.
Приведенная формулировка оптимизационной задачи позволяет
в любом из рассматриваемых информационных состояний Rk выбрать наиболее эффективную проверку в смысле выбранного критерия. Такая возможность вытекает из принципа оптимальности
Беллмана, согласно которому проверка, выбираемая в конкретном
информационном состоянии, должна быть оптимальной вне зависимости от того, каковы были предшествующее информационное
состояние и выбранная в нем проверка.
Пример 8.1. Построить алгоритм, оптимальный по критерию
максимума средней вероятности правильного распознавания технических состояний системы, функциональная схема которой
представлена на рис. 7.2.
Исходные данные (8.3)–(8.7) для построения оптимального алгоритма приведены в табл. 8.2.
1. Представление исходных данных в виде модели распознавания технических состояний.
По аналогии с табл. 8.1 исходные данные представлены в табл. 8.3.
2. Формирование множества всех принципиально возможных
информационных состояний.
133
Таблица 8.2
Исходные данные для построения оптимального алгоритма
распознавания технических состояний системы
S
P(Si )
S1
Π
Α
Β
0,125
p1
0,07
0,10
S2
0,174
p2
0,04
0,06
S3
0,349
p3
0,01
0,02
S4
0,269
0,083
p4
0,03
0,02
0,04
0,05
S5
p5
Таблица 8.3
Модель распознавания технических состояний системы
(к примеру 8.1)
S
p1
p2
Исходы проверок pj
p3
p4
P(Si )
p5
S1
p2
–1
–1
–1
–1
0,125
S2
p3
–1
1
–1
1
0,174
S3
p4
1
–1
1
–1
0,349
S4
p5
S5
1
1
1
1
1
–1
1
1
–1
0,269
0,083
Α
0,07
0,04
0,01
0,03
0,02
Β
0,10
0,06
0,02
0,04
0,05
5
∑ P(Si ) = 1
i =1
В разд. 7 рассматривался вопрос формирования такого множества, применительно к данному примеру оно показано в табл. 7.3.
3. Формирование множества промежуточных информационных
состояний при реализации всевозможных последовательностей допустимых проверок (табл. 7.4).
Данные состояния, упорядоченные по возрастанию количества содержащихся в них элементов, занесены в табл. 8.4, графа 2. Кроме того
в указанную таблицу внесено начальное информационное состояние.
4. Определение подмножеств допустимых проверок в промежуточных и начальном информационных состояниях.
Для каждого информационного состояния (табл. 8.4, графа 2)
требуется найти подмножество допустимых проверок. Такие подмножества сформированы на основе условия (7.29) и занесены
в табл. 8.4, графа 3.
134
Таблица 8.4
Информационные состояния, подмножества допустимых проверок
и результаты определения оптимальных проверок (к примеру 8.1)
№
пп
1
Информационные
состояния
Подмножества
допустимых проверок
Оптим.
проверка pj
Dk (p j )
2
3
4
5
1
R6 = {S1,S2 }
Π 6 ={p1, p3 , p5 }
p3
0,9858
2
R7 = {S1,S3 }
Π7 ={p1, p2 , p4 }
p4
0,9681
3
R11 = {S2 ,S4 }
Π11 =p
{ 2}
p2
0,9521
4
R14 = {S3 ,S5 }
Π14 =p
{ 3}
p3
0,9830
5
R15 = {S4 ,S5 }
Π15 =p
{ 4 , p5 }
p5
0,9731
6
R17 = {S1,S2 ,S4 }
Π17 ={p1, p2 , p3 , p5 }
p3
0,9509
7
R20 = {S1,S3 ,S5 }
Π20 ={p1, p2 , p3 , p4 }
p3
0,9560
8
R24 = {S2 ,S4 ,S5 }
Π24 =p
{ 2 , p4 , p5 }
p2
0,9386
9
R25 = {S3 ,S4 ,S5 }
Π25 =p
{ 3 , p4 , p5 }
p3
0,9728
10
R30 = {S2 ,S3 ,S4 ,S5 }
Π 30 =p
{ 2 , p3 , p4 , p5 }
p3
0,9508
11
R0 = {S1,S2 ,S3 ,S4 ,S5 }
Π = {p1, p2 , p3 , p4 , p5 }
p3
0,9383
5. Определение оптимальных проверок в каждом информационном состоянии.
Оптимальные проверки находятся по критерию (8.15).
Вначале такие проверки определяются для промежуточных информационных состояний R6 , R7 , R11, R14 , R15 , имеющих по два
элемента (см. табл. 8.4). Поскольку в состояниях R11 и R14 допустимые проверки только p2 и p3 соответственно, то они и принимаются в качестве оптимальных.
Состояние R6 характеризуется множеством Π 6 допустимых
проверок p1 p3 и p5 . Необходимо найти вероятности правильного
распознавания по всем R6-алгоритмам.
Первым рассматривается R6 (p1 ) -алгоритм.
135
1. В соответствии с выражениями (7.25) и (7.26) проверка p1 дает
информационные состояния:
p11: R6 → R2 ,
где R2 = {S2 };
p12 : R6 → R1,
где R1 = {S1 }.
2. Из выражений (8.17) и (8.18) следует:
(
)
P6 R1* (p1 )/R1 = 1 − b1 = 0,90;
(
)
P6 ( R2* (p1 )/R1 ) =b1 =0,10;
P6 ( R2* (p1 )/R2 ) = 1 − a1 = 0,93.
P6 R1* (p1 )/R2 =a1 =0,07;
3. Формула (8.16) дает следующие результаты:
(
)
P(S1 )P6 R1* (p1 )/R1
P6 R1 /R1* (p1 ) =
=
*
S
P
(
)
P
R
(
p
)/
R
∑ f 6 1 1 f
(
)
f∈I6
=
(
)
(
)
=
P(S1 )P6 ( R1* (p1 )/R1 ) + P(S2 )P6 ( R1* (p1 )/R2 )
P(S1 )P6 R1* (p1 )/R1
=
(
0,125 ⋅ 0,90
= 0,9023;
0,125 ⋅ 0,90 + 0,174 ⋅ 0,07
P6 R2 /R2* (p1 )
)
(
)
P(S2 )P6 R2* (p1 )/R2
=
=
∑ P(Sf )P6 R2* (p1 )/Rf
f∈I6
(
)
(
)
=
P(S1 )P6 ( R2* (p1 )/R1 ) + P(S2 )P6 ( R2* (p1 )/R2 )
P(S2 )P6 R2* (p1 )/R2
=
136
0,174 ⋅ 0,93
= 0,9283.
0,125 ⋅ 0,10 + 0,174 ⋅ 0,93
Полученные выражения сформированы исходя из того, что индексное множество I6 содержит номера элементов множества R6 :
I6 = {1, 2}.
4. Уточненные вероятности видов технического состояния S1 и
S2 согласно выражению (8.14):
=
P6 (S1 )
P(S1 )
P(S1 )
0,125
=
=
= 0,4181;
∑ P(Sf ) P(S1 )+P(S2 ) 0,125 + 0,174
f∈I6
=
P6 (S2 )
P(S2 )
P(S2 )
0,174
=
=
= 0,5819.
∑ P(Sf ) P(S1 )+P(S2 ) 0,125 + 0,174
f∈I6
5. По формуле (8.13) вычисляется вероятность правильного распознавания по R6 (p1 )-алгоритму:
(
)
D6 (p1 ) =
∑ P6 (Si )P6 Ri /Ri* (p1 ) =
(
i∈I6
)
(
)
= P6 (S1 )P6 R1 /R1* (p1 ) + P6 (S2 )P6 R2 /R2* (p1 ) =
= 0,4181 ⋅ 0,9023 + 0,5819 ⋅ 0,9283 = 0,9174.
Расчет вероятностей правильного распознавания технических
состояний по R6 (p3 )- и R6 (p5 )-алгоритмам показан в приложении 3,
табл. П3.1. Номера строк в данной таблице совпадают с номерами
соответствующих позиций при вычислениях по R6 (p1 )-алгоритму.
Из табл. П3.1 видно, что
D6 (p3 ) =
0,9858; D6 (p5 ) =
0,9675.
Критерий (8.15) указывает, что в качестве оптимальной проверки в информационном состоянии R6 следует принимать p3 :
D6=
(p3 ) max{D6 (p1 ), D6 (p3 ), D6=
(p5 )}
= max{0,9174, 0,9858, 0,9675} = 0,9858.
Полученный результат заносится в табл. 8.4 (строка 1, графы 4 и 5).
Аналогично выполняются расчеты для других информационных
состояний – R7 , R11, R14 и R15 , которые содержат по два элемента.
Промежуточные и конечные результаты данных расчетов сведены
в табл. П3.2–П3.5. Из указанных таблиц следует, что в состояни137
ях R7 , R11, R14 и R15 оптимальными являются проверки соответственно p4 , p2 , p3 , p5 :
D7 (p4 ) =
0,9681; D11 (p2 ) =
0,9521; D14 (p3 ) =
0,9830;
D15 (p5 ) =
0,9731.
Эти результаты также заносятся в табл. 8.4.
Далее в соответствии с методом динамического программирования рассматриваются информационные состояния, включающие
по три элемента.
В состоянии R17 допустимыми являются четыре проверки из множества Π17 (табл. 8.4). Вначале рассматривается R17 (p1 ) -алгоритм.
1. Проверка p1 дает информационные состояния:
p11: R17 → R11,
где R11 = {S2 , S4 };
p12 : R17 → R1,
где R1 = {S1 }.
Поскольку состояние R11 является промежуточным, в структуру R17 (p1 ) -алгоритма будет входить алгоритм ветвления указанного состояния. На данном этапе уже известно, что оптимальной проверкой в информационном состоянии R11 является p2 . Именно она
и включается в R17 (p1 )-алгоритм:
p12 : R11 → R4 ,
где R4 = { S4 };
p22 : R11 → R2 ,
где R2 = {S2 }.
Граф-дерево R17 (p1 )-алгоритма показано на рис. 8.2.
2. С учетом изложенных рассуждений и согласно формулам
(8.17) и (8.18):
(
)
P17 R1* (p1 )/R1 = 1 − b1 = 0,90;
(
)
P17 ( R1* (p1 )/R4 ) =a1 =0,07;
P17 R1* (p1 )/R2 =a1 =0,07;
138
S1, S2, S4
p21
p11
S1
S2, S4
p12
p22
S2
S4
Рис. 8.2. Граф-дерево R17 (p1 ) -алгоритма
(к примеру 8.1)
(
)
P17 R2* (p1 )/R1 = b1 (1 − b2 ) = 0,10 ⋅ 0,94 = 0,094;
(
)
P17 R2* (p1 )/R2 = (1 − a1 )(1 − b2 )= 0,93 ⋅ 0,94= 0,8742;
(
)
P17 R2* (p1 )/R4 = (1 − a1 )a2= 0,93 ⋅ 0,04= 0,0372;
(
)
P17 R4* (p1 )/R1 =b1b2 =0,10 ⋅ 0,06 =0,006;
(
)
P17 R4* (p1 )/R2 = (1 − a1 )b2= 0,93 ⋅ 0,06= 0,0558;
(
)
P17 R4* (p1 )/R4 = (1 − a1 )(1 − a2 )= 0,93 ⋅ 0,96= 0,8928.
3. В соответствии с формулой (8.16) и с учетом того, что I17 = {1, 2, 4}:
(
P17 R1 /R1* (p1 )
)
(
f∈I17
=
(
(
)
(
)
=
*
) + P(S2 )P17 ( R1 (p1)/R2 ) + P(S4 )P17 ( R1* (p1)/R4 )
P(S1 )P17 R1* (p1 )/R1
P(S1 )P17 R1* (p1 )/R1
=
)
P(S1 )P17 R1* (p1 )/R1
=
=
∑ P(Sf )P17 R1* (p1 )/Rf
0,125 ⋅ 0,90
= 0,7839;
0,125 ⋅ 0,90 + 0,174 ⋅ 0,07 + 0,269 ⋅ 0,07
139
(
P17 R2 /R2* (p1 )
)
(
f∈I17
=
(
)
(
)
=
P(S1 )P17 ( R2* (p1 )/R1 ) + P(S2 )P17 ( R2* (p1 )/R2 ) + P(S4 )P17 ( R2* (p1 )/R4 )
P(S2 )P17 R2* (p1 )/R2
=
0,174 ⋅ 0,8742
= 0,8749;
0,125 ⋅ 0,094 + 0,174 ⋅ 0,8742 + 0,269 ⋅ 0,0372
(
P17 R4 /R4* (p1 )
)
(
)
P(S4 )P17 R4* (p1 )/R4
=
=
∑ P(Sf )P17 R4* (p1 )/Rf
f∈I17
=
)
P(S2 )P17 R2* (p1 )/R2
=
=
∑ P(Sf )P17 R2* (p1 )/Rf
(
)
(
)
=
P(S1 )P17 ( R4* (p1 )/R1 ) + P(S2 )P17 ( R4* (p1 )/R2 ) + P(S4 )P17 ( R4* (p1 )/R4 )
P(S4 )P17 R4* (p1 )/R4
=
0,269 ⋅ 0,8928
= 0,9583.
0,125 ⋅ 0,006 + 0,174 ⋅ 0,0558 + 0,269 ⋅ 0,8928
4. Уточненные вероятности S1, S2 и S4 на основе выражения (8.14):
P17 (S1 ) =
P(S1 )
P(S1 )
=
=
∑ P(Sf ) P(S1 ) + P(S2 ) + P(S4 )
f∈I17
=
0,125
= 0,2201;
0,125 + 0,174 + 0,269
P17 (S2 ) =
P(S2 )
P(S2 )
=
=
(
S
)
(
S
)
(S2 ) + P(S4 )
P
P
+
P
∑
1
f
f∈I17
=
0,174
= 0,3063;
0,125 + 0,174 + 0,269
P17 (S4 ) =
P(S4 )
P(S4 )
=
=
+
(
S
)
(
S
)
(S2 ) + P(S4 )
P
P
P
∑
1
f
f∈I17
=
140
0,269
= 0,4736.
0,125 + 0,174 + 0,269
5. Вероятность правильного распознавания по R17 (p1 )-алгоритму на основе (8.13):
(
)
D17 (p1 ) =∑ P17 (Si )P17 Ri /Ri* (p1 ) =
i∈I17
(
)
(
)
= P17 (S1 )P17 R1 /R1* (p1 ) + P17 (S2 )P17 R2 /R2* (p1 ) +
(
)
+ P17 (S4 )P17 R4 /R4* (p1 ) =
= 0,2201 ⋅ 0,7839 + 0,3063 ⋅ 0,8749 + 0,4736 ⋅ 0,9583 = 0,8943.
Расчет вероятностей правильного распознавания технических
состояний по R17 (p2 )-, R17 (p3 )- и R17 (p5 ) -алгоритмам представлен
в табл. П3.6. Результаты расчета показывают, что
D17 (p2 ) =
0,9432; D17 (p3 ) =
0,9509; D17 (p5 ) =
0,9372.
В соответствии с критерием (8.15) оптимальной проверкой в информационном состоянии R17 является p3 :
D17
=
(p3 ) max{D17 (p1 ), D17 (p2 ), D17 (p3 ), D17
=
(p5 )}
= max{0,8943, 0,9432, 0,9509, 0,9372} = 0,9509.
Аналогично выполняются расчеты для информационных состояний R20 , R24 и R25 , содержащих по три элемента (см. табл. 8.4).
Промежуточные и конечные результаты данных расчетов сведены в
табл. П3.7–П3.9. Из указанных таблиц следует, что в данных состояниях оптимальными являются проверки соответственно p3 , p2 , , p3 :
D20 (p3 ) =
0,9560; D24 (p2 ) =
0,9386; D25 (p3 ) =
0,9728.
Эти результаты также заносятся в табл. 8.4.
Далее рассматриваются информационные состояния, включающие четыре элемента. В рамках данного примера таким является состояние R30 . Оно характеризуется допустимыми проверками из множества Π 30 (табл. 8.4). Первоначально рассматривается
R30 (p2 )-алгоритм.
1. Проверка p2 дает информационные состояния:
p12 : R30 → R25 ,
где R25 = {S3 , S4 , S5 };
141
p22 : R30 → R2 ,
где R2 = {S2 }.
Состояние R25 промежуточное, поэтому R30 (p2 )-алгоритм включает оптимальные проверки для ветвления данного состояния.
Оптимальной проверкой в состоянии R25 является p3 (табл. 8.4,
строка 9):
p13 : R25 → R15 ,
где R15 = { S4 , S5 };
p23 : R25 → R3 ,
где R3 = {S3 }.
В свою очередь оптимальной проверкой в состоянии R15 является p5 :
p15 : R15 → R4 ,
где R4 = {S4 };
p25 : R15 → R5 ,
где R5 = {S5 }.
2. С учетом всех проверок и информационных состояний, которые имеют место в структуре R30 (p2 ) -алгоритма, и согласно формулам (8.17) и (8.18):
(
)
P30 R2* (p2 )/R2 = 1 − b2 = 0,94;
(
)
P30 ( R2* (p2 )/R4 ) =a2 =0,04;
P30 ( R2* (p2 )/R5 ) =a2 =0,04;
P30 ( R3* (p2 )/R2 ) = b2 (1 − b3 ) = 0,06 ⋅ 0,98 = 0,0588;
P30 ( R3* (p2 )/R3 =
) (1 − a2 )(1 − b3 )= 0,96 ⋅ 0,98= 0,9408;
P30 ( R3* (p2 )/R4 )= (1 − a2 )a3= 0,96 ⋅ 0,01= 0,0096;
P30 R2* (p2 )/R3 =a2 =0,04;
142
(
)
P30 R3* (p2 )/R5 = (1 − a2 )a3= 0,96 ⋅ 0,01= 0,0096;
(
)
P30 R4* (p2 )/R2 =b2b3b5 =0,06 ⋅ 0,02 ⋅ 0,05 ≈ 0,0001;
(
)
P30 R4* (p2 )/R3 = (1 − a2 )b3b5= 0,96 ⋅ 0,02 ⋅ 0,05= 0,001;
(
)
P30 R4* (p2 )/R4 = (1 − a2 )(1 − a3 )(1 − a5 )= 0,96 ⋅ 0,99 ⋅ 0,98= 0,9314;
(
)
P30 R4* (p2 )/R5 = (1 − a2 )(1 − a3 )b5= 0,96 ⋅ 0,99 ⋅ 0,05= 0,0475;
(
)
P30 R5* (p2 )/R2 = b2b3 (1 − b5 ) = 0,06 ⋅ 0,02 ⋅ 0,95 = 0,0011;
(
)
P30 ( R5* (p2 )/R4 )= (1 − a2 )(1 − a3 )a5= 0,96 ⋅ 0,99 ⋅ 0,02= 0,019;
P30 ( R5* (p2 )/R5 )= (1 − a2 )(1 − a3 )(1 − b5 )= 0,96 ⋅ 0,99 ⋅ 0,95= 0,9029.
P30 R5* (p2 )/R3 = (1 − a2 )b3 (1 − b5 )= 0,96 ⋅ 0,02 ⋅ 0,95= 0,0182;
3. Учитывая, что I30 = {2, 3, 4, 5}, из формулы (8.16) следует:
(
P30 R2 /R2* (p2 )
)
(
f∈I30
=
(
)
(
)
P(S2 )P30 ( R2* (p2 )/R2 ) + P(S3 )P30 ( R2* (p2 )/R3 ) +
P(S2 )P30 R2* (p2 )/R2
1
(
+ P(S4 )P30 R2* (p2 )/R4
=
)
P(S2 )P30 R2* (p2 )/R2
=
=
∑ P(Sf )P30 R2* (p2 )/Rf
) + P(S5 )P30 ( R2* (p2 )/R5 )
=
0,174 ⋅ 0,94
= 0,8537;
0,174 ⋅ 0,94 + 0,349 ⋅ 0,04 + 0,269 ⋅ 0,04 + 0,083 ⋅ 0,04
(
P30 R3 /R3* (p2 )
)
(
)
P(S3 )P30 R3* (p2 )/R3
=
=
∑ P(Sf )P30 R3* (p2 )/Rf
f∈I30
(
)
143
=
(
)
P(S2 )P30 ( R3* (p2 )/R2 ) + P(S3 )P30 ( R3* (p2 )/R3 ) +
P(S3 )P30 R3* (p2 )/R3
1
(
)
(
+ P(S4 )P30 R3* (p2 )/R4 + P(S5 )P30 R3* (p2 )/R5
=
)
=
0,349 ⋅ 0,9408
= 0,9602;
0,174 ⋅ 0,0588 + 0,349 ⋅ 0,9408 + 0,269 ⋅ 0,0096 + 0,083 ⋅ 0,0096
(
P30 R4 /R4* (p2 )
)
(
f∈I30
=
)
(
)
P(S2 )P30 ( R4* (p2 )/R2 ) + P(S3 )P30 ( R4* (p2 )/R3 ) +
1
(
) + P(S5 )P30 ( R4* (p2 )/R5 )
=
0,269 ⋅ 0,9314
= 0,9831;
0,174 ⋅ 0,0001 + 0,349 ⋅ 0,001 + 0,269 ⋅ 0,9314 + 0,083 ⋅ 0,0475
(
P30 R5 /R5* (p2 )
)
(
=
)
P(S5 )P30 R5* (p2 )/R5
=
=
∑ P(Sf )P30 R5* (p2 )/Rf
f∈I30
(
)
(
)
P(S2 )P30 ( R5* (p2 )/R2 ) + P(S3 )P30 ( R5* (p2 )/R3 ) +
P(S5 )P30 R5* (p2 )/R5
(
+ P(S4 )P30 R5* (p2 )/R4
=
(
P(S4 )P30 R4* (p2 )/R4
+ P(S4 )P30 R4* (p2 )/R4
=
)
P(S4 )P30 R4* (p2 )/R4
=
=
∑ P(Sf )P30 R4* (p2 )/Rf
1
) + P(S5 )P30 ( R5* (p2 )/R5 )
=
0,083 ⋅ 0,9029
= 0,8654.
0,174 ⋅ 0,0011 + 0,349 ⋅ 0,0182 + 0,269 ⋅ 0,019 + 0,083 ⋅ 0,9029
144
4. Уточненные вероятности S2 , S3 , S4 и S5 на основе выражения (8.14):
P30 (S2 ) =
P(S2 )
P(S2 )
=
=
+
(
S
)
(
S
)
(
S
P
P
P
∑
2
3 ) + P(S4 )+P(S5 )
f
f∈I30
=
0,174
= 0,1989;
0,174 + 0,349 + 0,269 + 0,083
P30 (S3 ) =
P(S3 )
P(S3 )
=
=
∑ P(Sf ) P(S2 ) + P(S3 ) + P(S4 ) + P(S5 )
f∈I30
=
0,349
= 0,3988;
0,174 + 0,349 + 0,269 + 0,083
P30 (S4 ) =
P(S4 )
P(S4 )
=
=
P
P
+
P
(
S
)
(
S
)
(
S
∑
2
3 ) + P(S4 ) + P(S5 )
f
f∈I30
0,269
= 0,3074;
0,174 + 0,349 + 0,269 + 0,083
P30 (S5 ) =
P(S5 )
P(S5 )
=
=
∑ P(Sf ) P(S2 ) + P(S3 ) + P(S4 ) + P(S5 )
f∈I30
=
0,083
= 0,0949.
0,174 + 0,349 + 0,269 + 0,083
5. Вероятность правильного распознавания по R30 (p2 )-алгоритму в соответствии с формулой (8.13):
(
)
D30 (p2 ) =∑ P30 (Si )P30 Ri /Ri* (p2 ) =
i∈I30
(
)
(
)
*
*
+ P30 (S4 )P30 ( R4 /R4 (p2 ) ) + P30 (S5 )P30 ( R5 /R5 (p2 ) ) =
= P30 (S2 )P30 R2 /R2* (p2 ) + P30 (S3 )P30 R3 /R3* (p2 ) +
= 0,1989 ⋅ 0,8537 + 0,3988 ⋅ 0,9602 + 0,3074 ⋅ 0,9831 +
+0,0949 ⋅ 0,8654 =
0,9371.
145
Расчет вероятностей правильного распознавания технических
состояний по R30 (p3 )-, R30 (p4 )- и R30 (p5 ) -алгоритмам показан в
табл. П3.10, из которой следует, что
D30 (p3 ) =
0,9508; D30 (p4 ) =
0,9357; D30 (p5 ) =
0,9359.
В соответствии с критерием (8.15) оптимальной проверкой в информационном состоянии R30 является p3 :
D30
=
(p3 ) max{D30 (p2 ), D30 (p3 ), D30 (p4 ), D30
=
(p5 )}
= max{0,9371, 0,9508, 0,9357, 0,9359} = 0,9508.
На заключительном этапе рассматривается начальное информационное состояние R0 . В этом состоянии все проверки из множества
(8.5) будут допустимыми. Первым рассматривается R0 (p1 )-алгоритм.
1. Проверка p1 дает информационные состояния:
p11: R0 → R30 ,
где R30 = {S2 , S3 , S4 , S5 };
p12 : R0 → R1,
где R1 = {S1 }.
Оптимальной проверкой в состоянии R30 является p3 (табл. 8.4,
строка 10):
p13 : R30 → R24 ,
где R24 = {S2 , S4 , S5 };
p23 : R30 → R3 ,
где R3 = {S3 }.
В свою очередь оптимальной проверкой в состоянии R24 является p2 :
p12 : R24 → R15 ,
где R15 = { S4 , S5 };
p22 : R24 → R2 ,
где R2 = { S2 }.
146
Оптимальной в состоянии R15 является проверка p5 :
p15 : R15 → R4 ,
где R4 = { S4 };
p25 : R15 → R5 ,
где R5 = { S5 }.
2. С учетом всех проверок и информационных состояний, которые включает R0 (p1 ) -алгоритм, и в соответствии с (8.17) и (8.18):
(
)
P0 R1* (p1 )/R1 = 1 − b1 = 0,90;
(
)
P0 ( R1* (p1 )/R3 ) =a1 =0,07;
P0 ( R1* (p1 )/R4 ) =a1 =0,07;
P0 ( R1* (p1 )/R5 ) =a1 =0,07;
P0 ( R2* (p1 )/R1 ) = b1b3 (1 − b2 ) = 0,10 ⋅ 0,02 ⋅ 0,94 = 0,0019;
P0 ( R2* (p1 )/R2 )= (1 − a1 )(1 − a3 )(1 − b2 )= 0,93 ⋅ 0,99 ⋅ 0,94= 0,8655;
P0 ( R2* (p1 )/R3 =
) (1 − a1)b3 (1 − b2 )= 0,93 ⋅ 0,02 ⋅ 0,94= 0,0175;
P0 ( R2* (p1 )/R4 )= (1 − a1 )(1 − a3 )a2= 0,93 ⋅ 0,99 ⋅ 0,04= 0,0368;
P0 ( R2* (p1 )/R5 )= (1 − a1 )(1 − a3 )a2= 0,93 ⋅ 0,99 ⋅ 0,04= 0,0368;
P0 ( R3* (p1 )/R1 ) = b1 (1 − b3 ) = 0,10 ⋅ 0,98 = 0,098;
P0 ( R3* (p1 )/R2 ) = b2 (1 − b3 ) = 0,06 ⋅ 0,98 = 0,0588;
P0 ( R3* (p1 )/R3 =
) (1 − a1)(1 − b3 )= 0,93 ⋅ 0,98= 0,9114;
P0 ( R3* (p1 )/R4 )= (1 − a1 )a3= 0,93 ⋅ 0,01= 0,0093;
P0 R1* (p1 )/R2 =a1 =0,07;
147
(
)
P0 R3* (p1 )/R5 = (1 − a1 )a3= 0,93 ⋅ 0,01= 0,0093;
(
)
P0 R4* (p1 )/R1 =b1b3b2b5 =0,10 ⋅ 0,02 ⋅ 0,06 ⋅ 0,05 ≈ 0;
(
)
P0 R4* (p1 )/R2 = (1 − a1 )(1 − a3 )b2b5= 0,93 ⋅ 0,99 ⋅ 0,06 ⋅ 0,05= 0,0028;
(
)
P0 R4* (p1 )/R3 = (1 − a1 )b3b2b5= 0,93 ⋅ 0,02 ⋅ 0,06 ⋅ 0,05= 0,0001;
(
)
P0 R4* (p1 )/R4 = (1 − a1 )(1 − a3 )(1 − a2 )(1 − a5 )=
= 0,93 ⋅ 0,99 ⋅ 0,96 ⋅ 0,98 = 0,8662;
(
)
P0 R4* (p1 )/R5 = (1 − a1 )(1 − a3 )(1 − a2 )b5=
= 0,93 ⋅ 0,99 ⋅ 0,96 ⋅ 0,05 = 0,0442;
(
)
P0 R5* (p1 )/R1 = b1b3b2 (1 − b5 ) = 0,10 ⋅ 0,02 ⋅ 0,06 ⋅ 0,95 = 0,0001;
(
)
P0 R5* (p1 )/R2 = (1 − a1 )(1 − a3 )b2 (1 − b5 )=
= 0,93 ⋅ 0,99 ⋅ 0,06 ⋅ 0,95 = 0,0525;
(
)
P0 R5* (p1 )/R3 = (1 − a1 )b3b2 (1 − b5 )= 0,93 ⋅ 0,02 ⋅ 0,06 ⋅ 0,95= 0,0011;
(
)
P0 R5* (p1 )/R4 = (1 − a1 )(1 − a3 )(1 − a2 )a5=
= 0,93 ⋅ 0,99 ⋅ 0,96 ⋅ 0,02 = 0,0177;
(
)
P0 R5* (p1 )/R5 = (1 − a1 )(1 − a3 )(1 − a2 )(1 − a5 )=
= 0,93 ⋅ 0,99 ⋅ 0,96 ⋅ 0,98 = 0,8662.
3. Согласно формуле (8.16):
(
P0 R1 /R1* (p1 )
)
f∈I0
=
(
)
P(S1 )P0 R1* (p1 )/R1
=
=
∑ P(Sf )P0 R1* (p1 )/Rf
(
)
0,125 ⋅ 0,90
=
0,125 ⋅ 0,90 + 0,174 ⋅ 0,07 + 0,349 ⋅ 0,07 + 0,269 ⋅ 0,07 + 0,083 ⋅ 0,07
= 0,6475;
148
(
P0 R2 /R2* (p1 )
)
(
f∈I0
=
)
P(S2 )P0 R2* (p1 )/R2
=
=
∑ P(Sf )P0 R2* (p1 )/Rf
(
)
0,174 ⋅ 0,8655
0,125 ⋅ 0,0019 + 0,174 ⋅ 0,8655 + 0,349 ⋅ 0,0175 +
1
= 0,8864;
+0,269 ⋅ 0,0368 + 0,083 ⋅ 0,0368
(
P0 R3 /R3* (p1 )
)
(
f∈I0
=
)
P(S3 )P0 R3* (p1 )/R3
=
=
∑ P(Sf )P0 R3* (p1 )/Rf
(
)
0,349 ⋅ 0,9114
0,125 ⋅ 0,098 + 0,174 ⋅ 0,0588 + 0,349 ⋅ 0,9114 +
1
= 0,9251;
+0,269 ⋅ 0,0093 + 0,083 ⋅ 0,0093
(
)
P(S4 )P0 R4* (p1 )/R4
P0 R4 /R4* (p1 ) =
=
*
S
P
(
)
P
R
(
p
)/
R
∑ f 0 4 1 f
(
)
f∈I0
=
)
0,269 ⋅ 0,8662
0,125 ⋅ 0 + 0,174 ⋅ 0,0028 + 0,349 ⋅ 0,0001 +
1
= 0,9823;
+0,269 ⋅ 0,8662 + 0,083 ⋅ 0,0442
(
P0 R5 /R5* (p1 )
)
(
)
P(S5 )P0 R5* (p1 )/R5
=
=
∑ P(Sf )P0 R5* (p1 )/Rf
f∈I0
=
(
(
)
0,083 ⋅ 0,8662
0,125 ⋅ 0,0001 + 0,174 ⋅ 0,0525 + 0,349 ⋅ 0,0011 +
1
= 0,8342.
+0,269 ⋅ 0,0177 + 0,083 ⋅ 0,8662
149
4. Поскольку рассматривается начальное информационное состояние, в R0-алгоритмах используются исходные вероятности видов технического состояния (табл. 8.2).
5. Вероятность правильного распознавания по R0 (p1 )-алгоритму
согласно формуле (8.13):
(
)
D0 (p1 ) =
∑ P(Si )P0 Ri /Ri* (p1 ) =
i∈I
=0,125 ⋅ 0,6475 + 0,174 ⋅ 0,8864 + 0,349 ⋅ 0,9251 +
+0,269 ⋅ 0,9823 + 0,083 ⋅ 0,8342 =
0,8915.
Расчет вероятностей правильного распознавания технических
состояний по R0 (p2 )-, R0 (p3 )-, R0 (p4 )- и R0 (p5 )-алгоритмам показан в табл. П3.11, из которой следует, что
D0 (p2 ) =
0,9272; D0 (p3 ) =
0,9383; D0 (p4 ) =
0,9345; D0 (p5 ) =
0,9219.
В соответствии с критерием (8.15) оптимальной проверкой в информационном состоянии R0 является p3 :
D0=
(p3 ) max{D0 (p1 ), D0 (p2 ), D0 (p3 ), D0 (p4 ), D30=
(p5 )}
= max{0,8915, 0,9272, 0,9383, 0,9345, 0,9219} = 0,9383.
Таким образом, оптимальные проверки для всех промежуточных и начального информационных состояний найдены.
6. Формирование оптимального алгоритма распознавания технических состояний системы.
Оптимальный алгоритм формируется в рамках обратного прохода. Первой проверкой такого алгоритма является p3 , которая определена как оптимальная в начальном информационном состоянии
R0 . Поскольку
p13 : R0 → R24 , p23 : R0 → R7 ,
в составе алгоритма будут информационные состояния R24 и R7 .
В состоянии R24 оптимальной является проверка p2 , а в состоянии
R7 – проверка p4 , которые также включаются в состав алгоритма.
При выполнении p4 выделяются конечные информационные состояния:
p14 : R7 → R3 , p24 : R7 → R1.
150
Это означает, что для определения неработоспособных состояний
системы по причине отказов первого или третьего функциональных
элементов необходимо одно и то же упорядоченное подмножество
проверок вида (7.47):
Π1 =Π 3 ={p3 , p4 }.
Проверка p2 дает информационные состояния R15 и R2 :
p12 : R24 → R15 , p22 : R24 → R2 .
Оптимальной проверкой в состоянии R15 является p2 , которая
также войдет в искомый алгоритм:
p15 : R15 → R4 , p52 : R15 → R5 .
Таким образом, формируется граф-дерево оптимального алгоритма, которое показано на рис. 8.3.
Очевидно, что построен R0 (p3 )-алгоритм, средняя вероятность
правильного распознавания технических состояний по данному алгоритму составляет
D0 (p3 ) =
0,9383.
Из выражения (8.20) следует, что это максимальное значение
данной вероятности:
D* = 0,9383.
S1,
S2, S3, S4, S5
p2
3
p13
S1, S3
S2, S4, S5
p22
p12
S2
S4, S5
p15
S4
p1
4
S3
p42
S1
p25
S5
Рис. 8.3. Граф-дерево оптимального алгоритма
распознавания технических состояний системы (к примеру 8.1)
151
С другой стороны, представленный результат полностью согласуется с общей постановкой оптимизационной задачи. Иначе, выражение (8.20) в рассматриваемом случае принимает вид
 5
D* = max  ∑ P(Si )P Ri /Ri* (p1 ) ,
i =1
5
5

*
*
 ∑ P(Si )P Ri /Ri (p2 ) , ∑ P(Si )P Ri /Ri (p3 ) ,
i =1
i =1
(
(
)
)
(
)
5
5

i =1
5
i =1

∑ P(Si )P ( Ri /Ri* (p4 ) ), ∑ P(Si )P ( Ri /Ri* (p5 ) )  =
(
)
0,9383.
= ∑ P(Si )P Ri /Ri* (p3 ) =
i =1
Поскольку индексное множество I включает номера всех видов
технического состояния системы:
I = {1, 2, 3, 4, 5},
выражения
5
∑ P(Si )P ( Ri /Ri* (pj ) )
i =1
эквивалентны друг другу.
152
и
∑ P(Si )P ( Ri /Ri* (pj ) )
i∈I
БИБЛИОГРАФИЧЕСКИЙ СПИСОК
1. Беллман Р., Калаба Р. Динамическое программирование и современная теория управления: пер. с англ. / под ред. Б. С. Разумихина. М.: Наука, 1969. 118 с.
2. Биргер И. А. Техническая диагностика. М.: Машиностроение,
1978. 240 с.
3. Бусленко Н. П. Моделирование сложных систем. М.: Наука,
1978. 399 с.
4. Воронов А. А. Устойчивость, управляемость, наблюдаемость.
М.: Наука, 1979. 336 с.
5. Гмурман В. Е. Теория вероятностей и математическая статистика. М.: Высшая школа, 2004. 479 с.
6. Дмитриев А. К., Мальцев П. А. Основы теории построения и
контроля сложных систем. Л.: Энергоатомиздат, 1988. 192 с.
7. Зорич В. А. Математический анализ. Ч. 2. М.: МЦНМО, 2002.
802 с.
8. Кириллов Н. П. Функциональное состояние технического объекта. Дефиниция понятия // Авиакосмическое приборостроение.
2010. № 10. С. 43–47.
9. Колмогоров А. Н., Фомин С. В. Элементы теории функций и
функционального анализа. М.: Физматлит, 2009. 572 с.
10. Петухов Г. Б., Якунин В. И. Методологические основы внешнего проектирования целенаправленных процессов и целеустремленных систем. М.: АСТ, 2006. 501 с.
11. Анализ современного состояния и тенденции развития имитационного моделирования в Российской Федерации (по матер.
конф. «Имитационное моделирование. Теория и практика» (ИММОД)) / А. М. Плотников, Ю. И. Рыжиков, Б. В. Соколов, Р. М. Юсупов // Тр. СПИИРАН. 2013. Вып. 25. C. 42–112.
12. Резников Б. А. Системный анализ и методы системотехники.
Ч. 1. Методология системных исследований. Моделирование сложных систем. МО, 1989. 522 с.
13. Сеньченков В. И. Процедура обучения при разработке моделей
контроля технического состояния сложных систем // Изв. вузов.
Приборостроение. 2010. Т. 53. № 1. С. 3–8.
14. Сеньченков В. И., Абсалямов Д. Р. Формальное описание отказов и выбор минимального множества контролируемых признаков в технических системах // Авиакосмическое приборостроение.
2011. № 3. С. 36–41.
153
15. Сеньченков В. И. Модели, методы и алгоритмы анализа технического состояния. Saarbrücken: LAP LAMBERT Academic
Publishing, 2013. 377 с.
16. Сеньченков В. И., Моторин В. М., Грушковский П. А. Построение оптимальных алгоритмов диагностирования с ограничениями
методом динамического программирования // Изв. вузов. Приборостроение, 2015. Т. 58, № 10. С. 783–791.
17. Сеньченков В. И. Математический аппарат диагностирования
сложных технических систем // Изв. вузов. Приборостроение. 2016.
Т. 59. № 7. С. 547–557.
18. Сеньченков В. И., Шишкин Е. В. Совершенствование процессов обучения в диагностических моделях сложных технических
систем // Приборы и системы. Управление, контроль, диагностика.
2017. № 4. С. 33–43.
19. Таха Х. Введение в исследование операций. Кн. 2. М.: Вильямс, 2006. 901 с.
20. Ту Дж., Гонсалес Р. Принципы распознавания образов. М.:
Мир, 1978. 411 с.
154
ПРИЛОЖЕНИЕ 1
АКСИОМАТИКА И СВОЙСТВА ЕВКЛИДОВЫХ
ПРОСТРАНСТВ
Любое пространство – это множество, над элементами которого
определены действия, удовлетворяющие заданной аксиоматике.
Размерность пространства определяется размерностью его элементов. Если структура пространства задана на множестве векторов
Y<n > размерности n, то пространство будет n-мерным. В рамках
данного приложения предполагается, что все рассматриваемые
пространства конечномерные. В общем случае размерность данных
пространств составляет n, в примерах размерность принимает конкретные значения.
В обозначениях элементов пространства их размерность может не указываться, если из контекста очевидно, какова эта размерность. Например, Y<6> – элемент 6-мерного пространства, но
если это понятно из контекста, может использоваться обозначение Y.
Евклидовым пространством называется линейное пространство c фиксированным в нем скалярным произведением.
Предварительно необходимо раскрыть понятие линейности пространства.
Линейным пространством называется структура на множестве
Y, заданная двумя всюду определенными алгебраическими действиями, внутренним – сложением
Y ×Y → Y
(П1.1)
и внешним – умножением на вещественные числа:
Y × R → Y,
(П1.2)
где R – множество вещественных чисел.
В дальнейшем пространство, заданное на множестве Y, также будет обозначаться через Y.
Из выражения (П1.1) следует, что если слагаемые являются элементами пространства, то их сумма также будет элементом данного
пространства:
∀ Y1, Y2 ∈ Y ⇒ Y1 + Y2 ∈ Y.
Для того чтобы получить суммарный вектор, необходимо сложить одноименные координаты векторов-слагаемых:
155
если
 y11 
 y21 
 y11 + y21 






y12 
y22 
y12 + y22 



Y1 =
, Y2 =
, то Y1 + Y2 =
.
  
  
 







 y1n 
 y2 n 
 y1n + y2 n 
(П1.3)
Пример П1.1. Пусть имеются два вектора, которые являются элементами линейного пространства Y:
 −1 
 1
 
 
3
 
 −2 
Y<5>1 =  2 , Y<5>2 =  1 : Y1, Y2 ∈ Y.
 
 
 1
 −1 
 0
 1
 
 
Тогда, учитывая (П1.3):
 −1   1 
   
 3   −2 
Y1 + Y2=  2  +  1 =
   
 1   −1 
 0  1 
   
0
 
 1
 3 ; Y1 + Y2 ∈ Y.
 
0 
1 
 

Выражение (П1.2) указывает, что при умножении элемента пространства на число произведение также является элементом пространства:
∀a ∈ R, ∀ Y ∈ Y ⇒ aY ∈ Y.
Для получения вектора-произведения необходимо умножить на
число каждую координату вектора-сомножителя:
если
156
 y1 
 a y1 
 


y2
 a y2  .
Y =   , то aY =
  
  
 


 yn 
 a yn 
(П1.4)
Пример П1.2. Пусть
 1,5 


1

,
a = −2, Y<4> =
 0,5  Y<4> ∈ Y.


 −2 
Тогда, учитывая (П1.4):
 1,5   −3 

  
1   −2 

−2Y =−2 ⋅
=
, −2Y ∈ Y.
 0,5   −1 

  
 −2   4 

Сложение (П1.1) в линейном пространстве удовлетворяет следующим аксиомам:
1) ∀Y1,Y2 ∈ Y: Y1 + Y2 = Y2 + Y1 (коммутативность);
2) ∀Y1,Y2 ,Y3 ∈ Y: Y1 + (Y2 + Y3 ) = (Y1 + Y2 ) + Y3 (ассоциативность);
3) ∃ 0 <n > ∈ Y, ∀Y ∈ Y: 0 + Y =
Y (существование нулевого элемента), где 0 <n > = (0, 0,..., 0)ò – вектор с нулевыми координатами (нульвектор). Таким образом, нулем в n-мерном пространстве является
нуль-вектор размерности n;
4) ∀Y ∈ Y, ∃ − Y ∈ Y: Y + ( − Y) = 0 (существование противоположного элемента).
Умножение (П1.2) в линейном пространстве удовлетворяет аксиомам:
(ассоциативность относи1) ∀a, b∈ R, ∀Y ∈ Y: a (bY) = a b(Y)
тельно вещественных чисел);
Y (тождественность произведения и сомно2) 1 ∈ R, ∀Y ∈ Y: 1 ⋅ Y =
жителя при умножении его на 1);
3) ∀a, b∈ R, ∀Y ∈ Y: (a + b)Y = aY + bY (дистрибутивность относительно вещественных чисел);
4) ∀a ∈ R, ∀Y1,Y2 ∈ Y: a(Y1 + Y2 ) = aY1 + aY2
(дистрибутивность
относительно элементов пространства).
Среди линейных пространств важный класс образуют нормированные пространства. Норма – это функционал
⋅ : Y × Y → R,
(П1.5)
определенный на пространстве Y.
157
Из выражения (П1.5) следует, что нормированное значение элемента пространства является вещественным числом:
∀ Y ∈ Y: Y = a, a ∈ R.
Норма представляет собой числовую (скалярную) характеристику вектора.
Функционал (П5) удовлетворяет следующим аксиомам:
1) ∀Y ∈ Y: Y ≥ 0; Y = 0 ⇔ Y = 0 <n > ;
2) ∀Y1,Y2 ∈ Y: Y1 + Y2 ≤ Y1 + Y2 ;
(П1.6)
3) ∀a ∈ R, ∀Y ∈ Y: aY = |a| ⋅ Y , где |a| – модуль a.
Пусть для вектора
Y<n > = ( y1 , y2 ,..., yn )ò
справедливо
Y<n > =
n
∑ y2j .
(П1.7)
j =1
Все аксиомы нормы для выражения (П1.7) выполняются. Таким
образом, нормированное значение (П1.7) элемента конечномерного
линейного пространства определяется как корень квадратный из
суммы квадратов его координат.
Пример П1.3. Проверка аксиом нормы на частных случаях.
1) Пусть
ò
Y<6> = (1,5, 2, − 1, 1,2, − 3, 0,4 ) .
Необходимо показать, что
Y <6> ≥ 0.
(П1.8)
В соответствии с выражением (П1.7):
Y<6=
>
2
1,52 + 22 + ( − 1)2 + 1,22 + ( − 3)2 + 0,4=
17,85
= 4,22 > 0.
Неравенство (П1.8) выполняется.
Необходимо показать, что
Y =0 ⇔ Y =0 <n >.
158
(П1.9)
Норма вектора равна нулю тогда и только тогда, когда в нуль обращаются все координаты данного вектора (является нуль-вектором):
Y<6> = 02 + 02 + 02 + 02 + 02 + 02 =0 ⇔ Y<6> =0 <6>.
Справедливость (П1.9) показана.
Первая аксиома выполняется.
2) Пусть
Y1 =
( 3,
ò
2, − 1, 1, − 3, =
2 ) ; Y2
( 4,
ò
3, 1, − 2, 0, 3 ) .
Необходимо показать, что
Y1 + Y2 ≤ Y1 + Y2 .
Y1=
Y2=
(П1.10)
2
32 + 22 + ( − 1)2 + 12 + ( − 3)2 + 2=
28
= 5,3;
2
42 + 32 + 12 + ( − 2)2 + 02 + 3=
39
= 6,2;
Y1 + Y2 = 5,3 + 6,2 = 11,5;
Y=
1 + Y2
Y1 + Y2=
(7,
ò
5, 0, − 1, − 3, 5 ) ;
2
72 + 52 + 02 + ( − 1)2 + ( − 3)2 + 5=
109 ≈ 10,4.
Так как 10,4 < 11,5, неравенство (П1.10) справедливо.
Вторая аксиома выполняется.
3) Пусть
ò
a = −3, Y<7> = ( 2, − 3, − 1, 1, 3, − 2, 4 ) .
Необходимо показать, что −3Y =⋅
3 Y.
Y=
2
22 + ( − 3)2 + ( − 1)2 + 12 + 32 + ( − 2)2 + 4=
44
= 6,63;
ò
−3Y =
( −6, 9, 3, − 3, − 9, 6, − 12) ;
−3Y =
( − 6)2 + 92 + 32 + ( − 3)2 + ( − 9)2 + 62 + ( − 12)2 =
396 = 19,89.
Очевидно, что 19,89 = 3·6,63.
159
Третья аксиома выполняется.

Один из способов введения нормы в линейном пространстве – это
задание в нем скалярного произведения:
(⋅,⋅) : Y × Y → R.
(П1.11)
Из выражения (П1.11) следует, что скалярное произведение элементов пространства является вещественным числом:
∀Y1,Y2 ∈ Y: (Y1,Y2 ) = a, a ∈ R.
Скалярное произведение (П1.11) как функционал, определенный
для каждой пары элементов пространства, удовлетворяет аксиомам:
1) ∀Y1,Y2 ∈ Y: (Y1,Y2 ) =
(Y2 ,Y1 );
2) ∀Y1,Y2 ,Y3 ∈ Y: (Y1 + Y2 ,Y3 ) = (Y1,Y3 ) + (Y2 ,Y3 );
3) ∀a ∈ R, ∀Y1,Y2 ∈ Y: (aY1,Y2 ) = a(Y1,Y2 );
4) ∀Y ∈ Y: (Y,Y) ≥ 0; (Y,Y) = 0 ⇔ Y = 0 <n >.
В линейных пространствах конечной размерности скалярное
произведение двух элементов определяется как сумма произведений их одноименных координат:
n
∀Y1,Y2 ∈ Y: (Y1,Y2 ) =
∑ y1 j y2 j .
(П1.12)
j =1
Пример П1.4. Проверка аксиом скалярного произведения на
частных случаях.
1) Пусть
Y=
1
( 0,1,
ò
ò
2, − 1, 1, − 3, 0,5 ) , Y2 = ( 5, 0, 1, − 1, 2, 3 ) .
Требуется показать, что
(Y1,Y2 ) = (Y2 ,Y1 ).
В соответствии с выражением (П1.12):
(Y1,Y2 ) =0,1 ⋅ 5 + 2 ⋅ 0 + ( − 1) ⋅ 1 + 1 ⋅ ( − 1) + ( − 3) ⋅ 2 + 0,5 ⋅ 3 =−6;
(Y2 ,Y1 ) =5 ⋅ 0,1 + 0 ⋅ 2 + 1 ⋅ ( − 1) + ( − 1) ⋅ 1 + 2 ⋅ ( − 3) + 3 ⋅ 0,5 =−6.
Первая аксиома выполняется.
160
2) Пусть
ò
ò
Y1 = (1, 2, − 1, 0, − 3, 5 ) , Y2 =
(5, 1, − 2, 1, 2, − 3) ,
ò
Y3 = ( 2, 1, 0, 3, − 1, 4 ) .
Необходимо показать, что
(Y1 + Y2 ,Y3 ) = (Y1,Y3 ) + (Y2 ,Y3 ).
Сумма векторов Y1 и Y2 :
Y1 + Y
=
2
( 6,
ò
3, − 3, 1, − 1, 2 ) .
Тогда:
(Y1 + Y2 ,Y3 ) = 6 ⋅ 2 + 3 ⋅ 1 + ( − 3) ⋅ 0 + 1 ⋅ 3 + ( − 1) ⋅ ( − 1) + 2 ⋅ 4 = 27;
(Y1,Y3 ) = 1 ⋅ 2 + 2 ⋅ 1 + ( − 1) ⋅ 0 + 0 ⋅ 3 + ( − 3) ⋅ ( − 1) + 5 ⋅ 4 = 27;
(Y2 ,Y3 ) = 5 ⋅ 2 + 1 ⋅ 1 + ( − 2) ⋅ 0 + 1 ⋅ 3 + 2 ⋅ ( − 1) + ( − 3) ⋅ 4 = 0.
Вторая аксиома выполняется.
3) Пусть
ò
, Y2
a = −4, Y1 =
( −1, 2, − 3, 1) =
(1,
ò
2, − 1, 3 ) .
Необходимо показать, что
( − 4Y1,Y2 ) =
−4(Y1,Y2 ).
ò
−4Y1 = ( 4, − 8, 12, − 4 ) ;
( − 4Y1,Y2 ) =4 ⋅ 1 + ( − 8) ⋅ 2 + 12 ⋅ ( − 1) + ( − 4) ⋅ 3 =−36;
(Y1,Y2 ) = ( − 1) ⋅ 1 + 2 ⋅ 2 + ( − 3) ⋅ ( − 1) + 1 ⋅ 3 = 9;
−4(Y1,Y2 ) =−4 ⋅ 9 =−36.
Третья аксиома выполняется.
4) Пусть
ò
Y=
(2, − 3, 1, − 2, 4 ) .
161
Необходимо показать, что
(Y,Y) ≥ 0.
(П1.13)
(Y,Y) = 2 ⋅ 2 + ( − 3) ⋅ ( − 3) + 1 ⋅ 1 + ( − 2) ⋅ ( − 2) + 4 ⋅ 4 = 34 > 0.
Неравенство (П1.13) выполняется.
Необходимо показать, что
(Y,Y) =0 ⇔ Y =0 <n >.
Скалярное произведение равно нулю, если в нуль обращаются
все слагаемые в выражении данного произведения. Следовательно,
скалярное произведение вектора на себя равно нулю тогда и только
тогда, когда все его координаты нулевые:
(Y,Y) = 0 ⋅ 0 + 0 ⋅ 0 + 0 ⋅ 0 = 0 ⇔ Y = 0 <3>.
Четвертая аксиома выполняется.

Норма в линейном пространстве задается через скалярное произведение следующей формулой:
∀Y ∈ Y: Y =(Y,Y).
(П1.14)
Все аксиомы нормы (П1.6) при этом выполняются.
Выше было дано определение евклидова пространства как линейного пространства с фиксированным в нем скалярным произведением. Теперь можно дать уточненное определение.
Евклидово пространство – это нормированное линейное пространство, в котором норма (П1.14) вводится через скалярное произведение.
Расстояние между элементами (метрика) евклидова пространства определяется выражением
∀Y1,Y2 ∈ Y: d (Y1,Y2 ) = Y2 − Y1 = (Y2 − Y1,Y2 − Y1 ) =
−
n
∑ ( y2 j − y1 j )2 .
(П1.15)
j =1
Пример П1.5. Найти расстояние между векторами
=
Y1
( 4,2,
ò
1,3, − 2,1, 3, 1,6 ) , Y2 =
( −2,7, − 1, 2, − 3,5, − 4 )
в пятимерном евклидовом пространстве Y.
162
ò
y2
Y2
y22
d(Y1 ,Y2 )
y12
Y1
y21
y11
y1
Рис. П1.1. Расстояние между точками
в двухмерном евклидовом пространстве
Из формулы (П15) следует:
d (Y1,Y2 ) =
=
( − 2,7 − 4,2)2 + ( − 1 − 1,3)2 + (2 + 2,1)2 + ( − 3,5 − 3)2 + ( − 4 − 1,6)2 ≈ 12.

Пример П1.6. На рис. П1.1 показаны точки Y1 = ( y11 , y12 )ò и
Y2 = ( y21 , y22 )ò в двухмерном пространстве. В соответствии с выражением (П1.15) расстояние между ними определяется как
d (Y1,Y2 ) =
( y21 − y11 )2 + ( y22 − y12 )2 .
163
ПРИЛОЖЕНИЕ 2
ОРТОГОНАЛЬНАЯ СИСТЕМА ФУНКЦИЙ.
ОРТОГОНАЛЬНЫЙ БАЗИС
Под системой функций понимается некоторое множество функций, которые обладают какими-либо общими свойствами, интересующими исследователя в рамках конкретной задачи.
Система функций является ортогональной на области их определения, если попарные скалярные произведения элементов данной
системы на этой области равны нулю.
Далее рассматривается случай, когда область определения [a;
b] – подмножество множества вещественных чисел (отрезок на вещественной оси): [ a; b ] ⊂ R.
Пусть
(П2.1)
g1 ( x ), g2 ( x ),..., gn ( x )
некоторая система функций, a < x < b; предполагается, что все функции системы (П2.1) тождественно не равны нулю на отрезке [ a; b ]:
gj ( x ) ≠ 0, j = 1,n.
Тогда скалярное произведение двух произвольных функций
gj ( x ) и gk ( x ) из системы (П2.1) определено и задается выражением
b
( gj , gk ) = ∫ gj gk dx.
(П2.2)
a
В правой части выражения (П2.2) – интеграл Римана от произведения функций.
В соответствии с определением, которое дано выше, ортогональной является система, если
=
( gj , gk )
b
gj gk dx
∫=
0, j = 1,n, k = 1,n, j ≠ k.
a
Ортогональные системы существуют в функциональных пространствах, в частности в пространстве непрерывных функций,
квадратично интегрируемых по Риману (общепринятое обозначение – C2 ). Квадратичная интегрируемость по Риману означает, что
выполняется условие
∀ g ( x ) ∈C2 :
b
∫g
a
164
2
dx < ∞.
(П2.3)
Неравенство (П2.3) указывает на конечное значение интеграла
Римана от квадрата функции на области ее определения.
Ортогональная система в пространстве называется ортогональным базисом, если всевозможные линейные комбинации элементов
системы порождают данное пространство:
{ b1 g1 ( x ) + b2 g2 ( x ) + ... + bn gn ( x )} =
C2 ,
где bj ∈R, j = 1,n.
Ортогональным базисом в пространстве C2 является, например,
тригонометрический ортогональный базис, который используется в
разд. 6 для построения изображений неработоспособных состояний
системы.
165
ПРИЛОЖЕНИЕ 3
ОПТИМИЗАЦИЯ ПРОЦЕССА РАСПОЗНАВАНИЯ
ТЕХНИЧЕСКИХ СОСТОЯНИЙ СИСТЕМЫ МЕТОДОМ
ДИНАМИЧЕСКОГО ПРОГРАММИРОВАНИЯ
(к примеру 8.1)
Таблица П3.1
Расчет вероятностей правильного распознавания
технических состояний по R6-алгоритмам
Расчет вероятности правильного распознавания технических состояний
по R6 (p3 ) -алгоритму
1
2
p13 : R6 → R2 ;
p23 : R6 → R1,
где R2 = {S2 },
R1 = {S1 }
(
)
(
)
P6 ( R2* (p3 )/R1 ) =b3 =0,02; P6 ( R2* (p3 )/R2 ) = 1 − a3 =
P (S1 ) P6 ( R1* (p3 )/R1 )
P6 ( R1 /R1* (p3 ) ) =
=
∑ P (Sf ) P6 ( R1* (p3 )/Rf )
f∈I
P6 R1* (p3 )/R1 = 1 − b3 = 0,98; P6 R1* (p3 )/R2 =a3 =0,01;
0,99
6
3
0,125 ⋅ 0,98
= 0,9860;
0,125 ⋅ 0,98 + 0,174 ⋅ 0,01
(
(
)
f∈I6
=
4
5
)
P (S2 ) P6 R2* (p3 )/R2
P6 R2 /R2* (p3 ) =
=
∑ P (Sf ) P6 R2* (p3 )/Rf
(
)
0,174 ⋅ 0,99
= 0,9857
0,125 ⋅ 0,02 + 0,174 ⋅ 0,99
P6 (S1 ) = 0,4181; P6 (S2 ) = 0,5819
(
)
D6 (p3 ) =
∑ P6 (Si ) P6 Ri /Ri* (p3 ) =
i∈I6
= 0,4181 ⋅ 0,9860 + 0,5819 ⋅ 0,9857 = 0,9858
Расчет вероятности правильного распознавания технических состояний
по R6 (p5 )-алгоритму
1
166
p15 : R6 → R2 ; p25 :R6 → R1
Окончание табл. П3.1
2
(
)
(
)
P6 ( R2* (p5 )/R1 ) =b5 =0,05; P6 ( R2* (p5 )/R2 ) = 1 − a5 =
P6 R1* (p5 )/R1 = 1 − b5 = 0,95; P6 R1* (p5 )/R2 =a5 =0,02;
(
)
0,98
P (S1 ) P6 R1* (p5 )/R1
P6 R1 /R1* (p5 ) =
=
∑ P (Sf ) P6 R1* (p5 )/Rf
(
)
f∈I6
=
3
(
)
(
5
)
P (S2 ) P6 R2* (p5 )/R2
=
=
∑ P (Sf ) P6 R2* (p5 )/Rf
f∈I6
4
)
0,125 ⋅ 0,95
= 0,9715;
0,125 ⋅ 0,95 + 0,174 ⋅ 0,02
P6 R2 /R2* (p5 )
=
(
(
)
0,174 ⋅ 0,98
= 0,9646
0,125 ⋅ 0,05 + 0,174 ⋅ 0,98
P6 (S1 ) = 0,4181; P6 (S2 ) = 0,5819
(
)
D6 (p5 ) =
∑ P6 (Si ) P6 Ri /Ri* (p5 ) =
i∈I6
= 0,4181 ⋅ 0,9715 + 0,5819 ⋅ 0,9646 = 0,9675
Таблица П3.2
Расчет вероятностей правильного распознавания
технических состояний по R7-алгоритмам
Расчет вероятности правильного распознавания
технических состояний по R7 (p1 )-алгоритму
1
p11:R7 → R3 ; p12 :R7 → R1, где R3 = {S1 }, R1 = {S1 }
(
)
P7 ( R3* (p1 )/R1 ) =b1 =0,10;
P7 R1* (p1 )/R1 = 1 − b1 = 0,90;
2
(
)
P7 R1* (p1 )/R3 =a1 =0,07;
(
)
P7 R3* (p1 )/R3 = 1 − a1 = 0,93
167
Продолжение табл. П3.2
(
P7 R1 /R1* (p1 )
)
(
f∈I7
=
(
)
0,125 ⋅ 0,90
= 0,8216;
0,125 ⋅ 0,90 + 0,349 ⋅ 0,07
3
(
P7 R3 /R3* (p1 )
)
(
)
P (S3 ) P7 R3* (p1 )/R3
=
=
∑ P (Sf ) P7 R3* (p1 )/Rf
f∈I7
=
)
P (S1 ) P7 R1* (p1 )/R1
=
=
∑ P (Sf ) P7 R1* (p1 )/Rf
(
)
0,349 ⋅ 0,93
= 0,9629
0,349 ⋅ 0,93 + 0,125 ⋅ 0,10
=
P7 (S1 )
P (S1 )
0,125
=
= 0,2637;
P
(
S
)
0,125
+ 0,349
∑ f
f∈I7
4
=
P7 (S3 )
P (S3 )
0,349
=
= 0,7363
∑ P (Sf ) 0,125 + 0,349
f∈I7
5
(
)
D7 (p1 ) =
∑ P7 (Si ) P7 Ri /Ri* (p1 ) =
i∈I7
= 0,2637 ⋅ 0,8216 + 0,7363 ⋅ 0,9629 = 0,9256
Расчет вероятности правильного распознавания
технических состояний по R7 (p2 ) -алгоритму
1
2
3
p12 : R7 → R3 ;
p22 :R7 → R1
(
)
(
)
P7 ( R3* (p2 )/R1 ) =b2 =0,06; P7 ( R3* (p2 )/R3 ) = 1 − a2 =
P (S1 ) P7 ( R1* (p2 )/R1 )
P7 ( R1 /R1* (p2 ) ) =
=
∑ P (Sf ) P7 ( R1* (p2 )/Rf )
f∈I
P7 R1* (p2 )/R1 = 1 − b2 = 0,94; P7 R1* (p2 )/R3 =a2 =0,04;
7
0,125 ⋅ 0,94
=
= 0,8938;
0,125 ⋅ 0,94 + 0,349 ⋅ 0,04
168
0,96
Окончание табл. П3.2
(
P7 R3 /R3* (p2 )
)
(
f∈I7
=
)
P (S3 ) P7 R3* (p2 )/R3
=
=
∑ P (Sf ) P7 R3* (p2 )/Rf
(
)
0,349 ⋅ 0,96
= 0,9781
0,125 ⋅ 0,06 + 0,349 ⋅ 0,96
P7 (S1 ) = 0,2637; P7 (S3 ) = 0,7363
4
(
)
D7 (p2 ) =
∑ P7 (Si ) P7 Ri /Ri* (p2 ) =
5
i∈I7
= 0,2637 ⋅ 0,8938 + 0,7363 ⋅ 0,9781 = 0,9559
Расчет вероятности правильного распознавания
технических состояний по R7 (p4 )-алгоритму
p14 : R7 → R3 ; p24 :R7 → R1
1
2
(
)
(
)
P7 ( R3* (p4 )/R1 ) =b4 =0,04; P7 ( R3* (p4 )/R3 ) = 1 − a4 =
P7 R1* (p4 )/R1 = 1 − b4 = 0,96; P7 R1* (p4 )/R3 =a4 =0,03;
(
P7 R1 /R1* (p4 )
)
(
P (S1 ) P7 R1* (p4 )/R1
=
=
∑ P (Sf ) P7 R1* (p4 )/Rf
f∈I7
=
3
)
0,125 ⋅ 0,96
= 0,9198;
0,125 ⋅ 0,96 + 0,349 ⋅ 0,03
(
)
f∈I7
=
5
(
)
P (S3 ) P7 R3* (p4 )/R3
P7 R3 /R3* (p4 ) =
=
∑ P (Sf ) P7 R1* (p4 )/Rf
(
4
)
0,97
(
)
0,349 ⋅ 0,97
= 0,9854
0,349 ⋅ 0,97 + 0,125 ⋅ 0,04
P7 (S1 ) = 0,2637; P7 (S3 ) = 0,7363
(
)
D7 (p4 ) =
∑ P7 (Si ) P7 Ri /Ri* (p4 ) =
i∈I7
= 0,2637 ⋅ 0,9198 + 0,7363 ⋅ 0,9854 = 0,9681
169
Таблица П3.3
Расчет вероятностей правильного распознавания
технических состояний по R11-алгоритмам
Расчет вероятности правильного распознавания технических состояний
по R11 (p2 )-алгоритму
1
2
p12 : R11 → R4 ; p22 : R11 → R2 , где R4 = {S4 }, R2 = {S2 }
(
)
(
)
P11 ( R4* (p2 )/R2 ) =b2 =0,06; P11 ( R4* (p2 )/R4 ) = 1 − a2 =
P11 R2* (p2 )/R2 = 1 − b2 = 0,94; P11 R2* (p2 )/R4 =a2 =0,04;
(
)
P (S2 ) P11 R2* (p2 )/R2
P11 R2 /R2* (p2 ) =
=
∑ P (Sf ) P11 R2* (p2 )/Rf
(
)
f∈I11
=
3
0,174 ⋅ 0,94
= 0,9383;
0,174 ⋅ 0,94 + 0,269 ⋅ 0,04
(
P11 R4 /R4* (p2 )
)
(
)
)
P (S4 ) P11 R4* (p2 )/R4
=
=
∑ P (Sf ) P11 R2* (p2 )/Rf
f∈I11
=
(
(
)
0,269 ⋅ 0,96
= 0,9611
0,174 ⋅ 0,06 + 0,269 ⋅ 0,96
P11 (S2 ) =
P (S2 )
0,174
=
= 0,3928;
P
(
S
)
0,174
+ 0,269
∑
f
f∈I11
4
P11 (S4 ) =
P (S4 )
0,269
=
= 0,6072
∑ P (Sf ) 0,174 + 0,269
f∈I11
5
(
)
D11 (p2 ) =∑ P11 (Si ) P11 Ri /Ri* (p2 ) =
i∈I11
= 0,3928 ⋅ 0,9383 + 0,6072 ⋅ 0,9611 = 0,9521
170
0,96
Таблица П3.4
Расчет вероятностей правильного распознавания
технических состояний по R14-алгоритмам
Расчет вероятности правильного распознавания технических состояний
по R14 (p3 )-алгоритму
p13 : R14 → R5 ; p23 :R14 → R3 , где R5 = {S5 }, R3 = {S3 }
1
(
)
(
)
P14 R3* (p3 )/R3 = 1 − b3 = 0,98; P14 R3* (p3 )/R5 =a3 =0,01;
2
(
(
)
)
P14 R5* (p3 )/R3 =b3 =0,02; P14 R5* (p3 )/R5 = 1 − a3 = 0,99
(
)
P (S3 ) P14 R3* (p3 )/R3
P14 R3 /R3* (p3 ) =
=
∑ P (Sf ) P14 R3* (p3 )/Rf
(
)
f∈I14
=
3
0,349 ⋅ 0,98
= 0,9976;
0,349 ⋅ 0,98 + 0,083 ⋅ 0,01
(
P14 R5 /R5* (p3 )
)
(
)
)
P (S5 ) P14 R5* (p3 )/R5
=
=
∑ P (Sf ) P14 R3* (p3 )/Rf
f∈I14
=
(
(
)
0,083 ⋅ 0,99
= 0,9217
0,349 ⋅ 0,02 + 0,083 ⋅ 0,99
P14 (S3 ) =
P (S3 )
0,349
=
= 0,8079;
(
)
0,349
P
S
+ 0,083
∑
f
f∈I14
4
P14 (S5 ) =
P (S5 )
0,083
=
= 0,1921
∑ P (Sf ) 0,083 + 0,349
f∈I14
5
(
)
D14 (p3 ) =∑ P14 (Si ) P14 Ri /Ri* (p3 ) =
i∈I14
= 0,8079 ⋅ 0,9976 + 0,1921 ⋅ 0,9217 = 0,9830
171
Таблица П3.5
Расчет вероятностей правильного распознавания
технических состояний по R15-алгоритмам
Расчет вероятности правильного распознавания технических состояний
по R15 (p4 ) -алгоритму
1
2
p14 : R15 → R5 ; p24 : R15 → R4 , где R5 = {S5 }, R4 = {S4 }
(
)
(
)
P15 ( R5* (p4 )/R4 ) =b4 =0,04; P15 ( R5* (p4 )/R5 ) = 1 − a4 =
P15 R4* (p4 )/R4 = 1 − b4 = 0,96; P15 R4* (p4 )/R5 =a4 =0,03;
(
)
P (S4 ) P15 R4* (p4 )/R4
P15 R4 /R4* (p4 ) =
=
∑ P (Sf ) P15 R4* (p4 )/Rf
(
)
f∈I15
=
3
(
0,269 ⋅ 0,96
= 0,9904;
0,269 ⋅ 0,96 + 0,083 ⋅ 0,03
(
)
)
P (S5 ) P14 R5* (p4 )/R5
P15 R5 /R5* (p4 ) =
=
∑ P (Sf ) P15 R4* (p4 )/Rf
(
)
f∈I15
=
(
)
0,083 ⋅ 0,97
= 0,8821
0,269 ⋅ 0,04 + 0,083 ⋅ 0,97
P15 (S4 ) =
P (S4 )
0,269
=
= 0,7642;
∑ P (Sf ) 0,269 + 0,083
f∈I15
4
P15 (S5 ) =
P (S5 )
0,083
=
= 0,2358
P
(
S
)
0,269
+ 0,083
∑
f
f∈I15
5
(
)
D15 (p4 ) =
∑ P15 (Si ) P15 Ri /Ri* (p4 ) =
i∈I15
= 0,7642 ⋅ 0,9904 + 0,2358 ⋅ 0,8821 = 0,9649
Расчет вероятности правильного распознавания
технических состояний по R15 (p5 ) -алгоритму
1
172
p15 : R15 → R4 ; p25 :R15 → R5
0,97
Окончание табл. П3.5
2
(
)
(
)
P15 ( R5* (p5 )/R4 ) =a5 =0,02; P15 ( R5* (p5 )/R5 ) = 1 − b5 =
P15 R4* (p5 )/R4 = 1 − a5 = 0,98; P15 R4* (p5 )/R5 =b5 =0,05;
(
P15 R4 /R4* (p5 )
)
(
P (S4 ) P15 R4* (p5 )/R4
=
=
∑ P (Sf ) P15 R4* (p5 )/Rf
f∈I15
=
3
(
)
)
P (S5 ) P14 R5* (p5 )/R5
P15 R5 /R5* (p5 ) =
=
∑ P (Sf ) P15 R4* (p5 )/Rf
(
)
=
5
(
0,269 ⋅ 0,98
= 0,9845;
0,269 ⋅ 0,98 + 0,083 ⋅ 0,05
f∈I15
4
)
0,95
(
)
0,083 ⋅ 0,95
= 0,9361
0,269 ⋅ 0,02 + 0,083 ⋅ 0,95
P15 (S4 ) = 0,7642; P15 (S5 ) = 0,2358
(
)
D15 (p5 ) =∑ P15 (Si ) P15 Ri /Ri* (p5 ) =
i∈I15
= 0,7642 ⋅ 0,9845 + 0,2358 ⋅ 0,9361 = 0,9731
Таблица П3.6
Расчет вероятностей правильного распознавания
технических состояний по R17-алгоритмам
Расчет вероятности правильного распознавания
технических состояний по R17 (p2 ) -алгоритму
1
2
p12 : R17 → R4 ; p22 : R17 → R6 , где R4 = {S4 }, R6 = {S1, S2 }
(
)
P17 R1* (p2 )/R1 = (1 − b2 )(1 − b3 )= 0,9212;
(
)
P17 R1* (p2 )/R2 = (1 − b2 )a3= 0,0094;
173
Продолжение табл. П3.6
(
)
(
)
P17 R1* (p2 )/R4 =a2a3 =0,0004; P17 R2* (p2 )/R1 = (1 − b2 )b3= 0,0188;
(
)
P17 ( R2* (p2 )/R4 ) = a2 (1 − a3 ) = 0,0396; P17 ( R4* (p2 )/R1 ) =b2 =0,06;
P17 ( R4* (p2 )/R2 ) =b2 =0,06; P17 ( R4* (p2 )/R4 ) = 1 − a2 = 0,96
P17 R2* (p2 )/R2 = (1 − b2 )(1 − a3 )= 0,9306;
(
)
P (S1 ) P17 R1* (p2 )/R1
P17 R1 /R1* (p2 ) =
=
∑ P (Sf ) P17 R1* (p2 )/Rf
(
)
f∈I17
=
)
0,125 ⋅ 0,9212
= 0,9851;
0,125 ⋅ 0,9212 + 0,174 ⋅ 0,0094 + 0,269 ⋅ 0,0004
(
P17 R2 /R2* (p2 )
)
3
(
)
P (S2 ) P17 R2* (p2 )/R2
=
=
∑ P (Sf ) P17 R2* (p2 )/Rf
f∈I17
=
(
(
)
0,174 ⋅ 0,9306
= 0,9257;
0,125 ⋅ 0,0188 + 0,174 ⋅ 0,9306 + 0,269 ⋅ 0,0396
(
)
P (S4 ) P17 R4* (p2 )/R4
P17 R4 /R4* (p2 ) =
=
∑ P (Sf ) P17 R4* (p2 )/Rf
(
)
f∈I17
=
4
5
(
)
0,269 ⋅ 0,96
= 0,9350
0,125 ⋅ 0,06 + 0,174 ⋅ 0,06 + 0,269 ⋅ 0,96
P17 (S1 ) = 0,2201; P17 (S2 ) = 0,3063; P17 (S4 ) = 0,4736
(
)
D17 (p2 ) =∑ P17 (Si ) P17 Ri /Ri* (p2 ) =
i∈I17
= 0,2201 ⋅ 0,9851 + 0,3063 ⋅ 0,9257 + 0,4736 ⋅ 0,9350 = 0,9432
Расчет вероятности правильного распознавания технических состояний
по R17 (p3 ) -алгоритму
1
174
p13 :R17 → R11; p23 :R17 → R1, где R11 = {S2 , S4 }, R1 = {S1 }
Продолжение табл. П3.6
(
)
(
)
P17 R1* (p3 )/R1 = 1 − b3 = 0,98; P17 R1* (p3 )/R2 =a3 =0,01;
(
)
(
)
P17 ( R2* (p3 )/R2 )= (1 − a3 )(1 − b2 )= 0,9306;
P17 ( R2* (p3 )/R4 )= (1 − a3 )a2= 0,0396; P17 ( R4* (p3 )/R1 ) =b3b2 =0,0012;
P17 ( R4* (p3 )/R2 )= (1 − a3 )b2= 0,0594;
P17 ( R4* (p3 )/R4 )= (1 − a3 )(1 − a2 )= 0,9504
P17 R1* (p3 )/R4 =a3 =0,01; P17 R2* (p3 )/R1 = b3 (1 − b2 ) = 0,0188;
2
(
P17 R1 /R1* (p3 )
)
(
f∈I17
=
(
)
0,125 ⋅ 0,98
= 0,9651;
0,125 ⋅ 0,98 + 0,174 ⋅ 0,01 + 0,269 ⋅ 0,01
(
)
P (S2 ) P17 R2* (p3 )/R2
P17 R2 /R2* (p3 ) =
=
∑ P (Sf ) P17 R2* (p3 )/Rf
(
3
)
f∈I17
=
(
)
)
(
)
P (S4 ) P17 R4* (p3 )/R4
=
=
∑ P (Sf ) P17 R4* (p3 )/Rf
f∈I17
=
(
0,174 ⋅ 0,9306
= 0,9257;
0,125 ⋅ 0,0188 + 0,174 ⋅ 0,9306 + 0,269 ⋅ 0,0396
P17 R4 /R4* (p3 )
4
)
P (S1 ) P17 R1* (p3 )/R1
=
=
∑ P (Sf ) P17 R1* (p3 )/Rf
(
)
0,269 ⋅ 0,9504
= 0,9606
0,125 ⋅ 0,0012 + 0,174 ⋅ 0,0594 + 0,269 ⋅ 0,9504
P17 (S1 ) = 0,2201; P17 (S2 ) = 0,3063; P17 (S4 ) = 0,4736
(
)
D17 (p3 ) =∑ P17 (Si ) P17 Ri /Ri* (p3 ) =
5
i∈I17
= 0,2201 ⋅ 0,9651 + 0,3063 ⋅ 0,9257 + 0,4736 ⋅ 0,9606 = 0,9509
175
Окончание табл. П3.6
Расчет вероятности правильного распознавания технических состояний
по R17 (p5 )-алгоритму
p15 : R17 → R11; p25 :R17 → R1
1
(
)
(
)
P17 R1* (p5 )/R1 = 1 − b5 = 0,95; P17 R1* (p5 )/R2 =a5 =0,02;
(
)
(
)
P17 ( R2* (p5 )/R2 )= (1 − a5 )(1 − b2 )= 0,9212;
P17 ( R2* (p5 )/R4 )= (1 − a5 )a2= 0,0392;
P17 ( R4* (p5 )/R1 ) =b5b2 =0,003; P17 ( R4* (p5 )/R2 )= (1 − a5 )b2=
P17 ( R4* (p5 )/R4 )= (1 − a5 )(1 − a2 )= 0,9408
P (S1 ) P17 ( R1* (p5 )/R1 )
P17 ( R1 /R1* (p5 ) ) =
=
∑ P (Sf ) P17 ( R1* (p5 )/Rf )
f∈I
P17 R1* (p5 )/R4 =a5 =0,02; P17 R2* (p5 )/R1 = b5 (1 − b2 ) = 0,047;
2
0,0588;
17
0,125 ⋅ 0,95
=
= 0,9306;
0,125 ⋅ 0,95 + 0,174 ⋅ 0,02 + 0,269 ⋅ 0,02
(
P17 R2 /R2* (p5 )
)
3
(
f∈I17
=
)
P (S2 ) P17 R2* (p5 )/R2
=
=
∑ P (Sf ) P17 R2* (p5 )/Rf
(
)
0,174 ⋅ 0,9212
= 0,9071;
0,125 ⋅ 0,047 + 0,174 ⋅ 0,9212 + 0,269 ⋅ 0,0392
(
)
P (S4 ) P17 R4* (p5 )/R4
P17 R4 /R4* (p5 ) =
=
∑ P (Sf ) P17 R4* (p5 )/Rf
(
)
f∈I17
=
4
5
(
)
0,269 ⋅ 0,9408
= 0,9598
0,125 ⋅ 0,003 + 0,174 ⋅ 0,0588 + 0,269 ⋅ 0,9408
P17 (S1 ) = 0,2201; P17 (S2 ) = 0,3063; P17 (S4 ) = 0,4736
(
)
D17 (p5 ) =∑ P17 (Si ) P17 Ri /Ri* (p5 ) =
i∈I17
= 0,2201 ⋅ 0,9306 + 0,3063 ⋅ 0,9071 + 0,4736 ⋅ 0,9598 = 0,9372
176
Таблица П3.7
Расчет вероятностей правильного распознавания
технических состояний по R20-алгоритмам
Расчет вероятности правильного распознавания технических состояний
по R20 (p1 ) -алгоритму
1
p11: R20 → R14 ; p12 : R20 → R1, где R14 = {S3 , S5 }, R1 = {S1 }
(
)
(
)
P20 R1* (p1 )/R1 = 1 − b1 = 0,90; P20 R1* (p1 )/R3 =a1 =0,07;
(
)
(
)
P20 ( R3* (p1 )/R3 )= (1 − a1 )(1 − b3 )= 0,9114;
P20 ( R3* (p1 )/R5 )= (1 − a1 )a3= 0,0093;
P20 ( R5* (p1 )/R1 ) =b1b3 =0,002;
P20 ( R5* (p1 )/R3 )= (1 − a1 )b3=
P20 ( R5* (p1 )/R5 )= (1 − a1 )(1 − a3 )= 0,9207
P (S1 ) P20 ( R1* (p1 )/R1 )
P20 ( R1 /R1* (p1 ) ) =
=
∑ P (Sf ) P20 ( R1* (p1 )/Rf )
f∈I
P20 R1* (p1 )/R5 =a1 =0,07; P20 R3* (p1 )/R1 = b1 (1 − b3 ) = 0,098;
2
0,0186;
20
0,125 ⋅ 0,90
=
= 0,7881;
0,125 ⋅ 0,90 + 0,349 ⋅ 0,07 + 0,083 ⋅ 0,07
(
(
3
)
f∈I20
=
(
)
)
(
)
P (S5 ) P20 R5* (p1 )/R5
=
=
∑ P (Sf ) P20 R5* (p1 )/Rf
f∈I20
=
(
0,349 ⋅ 0,9114
= 0,9607;
0,125 ⋅ 0,098 + 0,349 ⋅ 0,9114 + 0,083 ⋅ 0,0093
P20 R5 /R5* (p1 )
4
)
P (S3 ) P20 R3* (p1 )/R3
P20 R3 /R3* (p1 ) =
=
∑ P (Sf ) P20 R3* (p1 )/Rf
(
)
0,083 ⋅ 0,9207
= 0,9189
0,125 ⋅ 0,002 + 0,349 ⋅ 0,0186 + 0,083 ⋅ 0,9207
P20 (S1 ) =
P (S1 )
0,125
=
= 0,2244;
P (Sf ) 0,125 + 0, 349 + 0,083
∑
f∈I20
177
Продолжение табл. П3.7
P20 (S3 ) =
P (S3 )
0,349
=
= 0,6266;
P (Sf ) 0,125 + 0, 349 + 0,083
∑
f∈I20
P20 (S5 ) =
P (S5 )
0,083
=
= 0,1490
P
(
S
)
0,125
+
0
, 349 + 0,083
∑
f
f∈I20
(
)
D20 (p1 ) =∑ P20 (Si ) P20 Ri /Ri* (p1 ) =
i∈I20
5
= 0,2244 ⋅ 0,7881 + 0,6266 ⋅ 0,9607 + 0,1490 ⋅ 0,9189 = 0,9157
Расчет вероятности правильного распознавания технических состояний
по R20 (p2 )-алгоритму
1
p12 : R20 → R14 ; p22 :R20 → R1, где R20 = {S3 , S5 }, R1 = {S1 }
(
)
(
)
P20 R1* (p2 )/R1 = 1 − b2 = 0,94; P20 R1* (p2 )/R3 =a2 =0,04;
(
)
(
)
P20 ( R3* (p2 )/R3 )= (1 − a2 )(1 − b3 )= 0,9408;
P20 ( R3* (p2 )/R5 )= (1 − a2 )a3= 0,0096;
P20 ( R5* (p2 )/R1 ) =b2b3 =0,0012; P20 ( R5* (p2 )/R3 )= (1 − a2 )b3=
P20 ( R5* (p2 )/R5 )= (1 − a2 )(1 − a3 )= 0,9504
P (S1 ) P20 ( R1* (p2 )/R1 )
*
P20 ( R1 /R1 (p2 ) ) =
=
∑ P (Sf ) P20 ( R1* (p2 )/Rf )
f∈I
P20 R1* (p2 )/R5 =a2 =0,04; P20 R3* (p2 )/R1 = b2 (1 − b3 ) = 0,0588;
2
0,0192;
20
0,125 ⋅ 0,94
=
= 0,8718;
0,125 ⋅ 0,94 + 0,349 ⋅ 0,04 + 0,083 ⋅ 0,04
3
(
(
)
f∈I20
=
178
)
P (S3 ) P20 R3* (p2 )/R3
P20 R3 /R3* (p2 ) =
=
∑ P (Sf ) P20 R3* (p2 )/Rf
(
)
0,349 ⋅ 0,9408
= 0,9758;
0,125 ⋅ 0,0588 + 0,349 ⋅ 0,9408 + 0,083 ⋅ 0,0096
Продолжение табл. П3.7
(
P20 R5 /R5* (p2 )
)
(
f∈I20
=
)
P (S5 ) P20 R5* (p2 )/R5
=
=
∑ P (Sf ) P20 R5* (p2 )/Rf
(
)
0,083 ⋅ 0,9504
= 0,9201
0,125 ⋅ 0,0012 + 0,349 ⋅ 0,0192 + 0,083 ⋅ 0,9504
P20 (S1 ) = 0,2244; P20 (S3 ) = 0,6266; P20 (S5 ) = 0,1490
4
(
)
D20 (p2 ) =∑ P20 (Si ) P20 Ri /Ri* (p2 ) =
i∈I20
5
= 0,2244 ⋅ 0,8718 + 0,6266 ⋅ 0,9758 + 0,1490 ⋅ 0,9201 = 0,9442
Расчет вероятности правильного распознавания технических состояний
по R20 (p3 )-алгоритму
p13 :R20 → R5 ; p22 :R20 → R7 , где R5 = {S5 }, R7 = {S1, S3 }
1
(
)
P20 R1* (p3 )/R1 = (1 − b3 )(1 − b4 )= 0,9408;
(
)
P20 R1* (p3 )/R3 =
(
)
(1 − b3 )a4= 0,0294; P20 R1* (p3 )/R5 =a3a4 =0,0003;
(
)
P20 R3* (p3 )/R1 = (1 − b3 )b4= 0,0392;
2
(
)
P20 R3* (p3 )/R3 = (1 − b3 )(1 − a4 )= 0,9506;
(
) = a3 (1 − a4 ) = 0,0097; P20 ( R5* (p3 )/R1 ) =b3 =0,02;
P20 ( R5* (p3 )/R3 ) =b3 =0,02;
P20 ( R5* (p3 )/R5 ) = 1 − a3 = 0,99
P (S1 ) P20 ( R1* (p3 )/R1 )
P20 ( R1 /R1* (p3 ) ) =
=
∑ P (Sf ) P20 ( R1* (p3 )/Rf )
f∈I
P20 R3* (p3 )/R5
20
3
0,125 ⋅ 0,9408
=
= 0,9196;
0,125 ⋅ 0,9408 + 0,349 ⋅ 0,0294 + 0,083 ⋅ 0,0003
(
)
P (S3 ) P20 R3* (p3 )/R3
P20 R3 /R3* (p3 ) =
=
∑ P (Sf ) P20 R3* (p3 )/Rf
(
)
f∈I20
=
(
)
0,349 ⋅ 0,9506
= 0,9831;
0,125 ⋅ 0,0392 + 0,349 ⋅ 0,9506 + 0,083 ⋅ 0,0097
179
Продолжение табл. П3.7
(
)
P (S5 ) P20 R5* (p3 )/R5
P20 R5 /R5* (p3 ) =
=
∑ P (Sf ) P20 R5* (p3 )/Rf
(
)
f∈I20
=
(
)
0,083 ⋅ 0,99
= 0,8966
0,125 ⋅ 0,02 + 0,349 ⋅ 0,02 + 0,083 ⋅ 0,99
P20 (S1 ) = 0,2244; P20 (S3 ) = 0,6266; P20 (S5 ) = 0,1490
4
(
)
D20 (p3 ) =∑ P20 (Si ) P20 Ri /Ri* (p3 ) =
i∈I20
5
= 0,2244 ⋅ 0,9196 + 0,6266 ⋅ 0,9831 + 0,1490 ⋅ 0,8966 = 0,9560
Расчет вероятности правильного распознавания технических состояний
по R20 (p4 )-алгоритму
1
p14 : R20 → R14 ; p24 : R20 → R1,
(
)
где
R20 = {S3 , S5 }, R1 = {S1 }
(
)
P20 R1* (p4 )/R1 = 1 − b4 = 0,96; P20 R1* (p4 )/R3 =a4 =0,03;
(
)
(
)
*
P20 ( R3 (p4 )/R3 )= (1 − a4 )(1 − b3 )= 0,9506;
P20 ( R3* (p4 )/R5 )= (1 − a4 )a3= 0,0097;
P20 ( R5* (p4 )/R1 ) =b4b3 =0,0008; P20 ( R5* (p4 )/R3 )= (1 − a4 )b3=
P20 ( R5* (p4 )/R5 )= (1 − a4 )(1 − a3 )= 0,9603
P (S1 ) P20 ( R1* (p4 )/R1 )
*
P20 ( R1 /R1 (p4 ) ) =
=
∑ P (Sf ) P20 ( R1* (p4 )/Rf )
f∈I
P20 R1* (p4 )/R5 =a4 =0,03; P20 R3* (p4 )/R1 = b4 (1 − b3 ) = 0,0392;
2
0,0194;
20
0,125 ⋅ 0,96
=
= 0,9025;
0,125 ⋅ 0,96 + 0,349 ⋅ 0,03 + 0,083 ⋅ 0,03
3
(
P20 R3 /R3* (p4 )
)
(
f∈I20
=
180
)
P (S3 ) P20 R3* (p4 )/R3
=
=
∑ P (Sf ) P20 R3* (p4 )/Rf
(
)
0,349 ⋅ 0,9506
= 0,9831;
0,125 ⋅ 0,0392 + 0,349 ⋅ 0,9506 + 0,083 ⋅ 0,0097
Окончание табл. П3.7
(
P20 R5 /R5* (p4 )
)
(
f∈I20
=
4
5
)
P (S5 ) P20 R5* (p4 )/R5
=
=
∑ P (Sf ) P20 R5* (p4 )/Rf
(
)
0,083 ⋅ 0,9603
= 0,9206
0,125 ⋅ 0,0008 + 0,349 ⋅ 0,0194 + 0,083 ⋅ 0,9603
P20 (S1 ) = 0,2244; P20 (S3 ) = 0,6266; P20 (S5 ) = 0,1490
(
)
D20 (p4 ) =∑ P20 (Si ) P20 Ri /Ri* (p4 ) =
i∈I20
= 0,2244 ⋅ 0,9025 + 0,6266 ⋅ 0,9831 + 0,1490 ⋅ 0,9206 = 0,9557
Таблица П3.8
Расчет вероятностей правильного распознавания
технических состояний по R24-алгоритмам
Расчет вероятности правильного распознавания технических состояний по
R24 (p2 )-алгоритму
1
p12 :R24 → R15 ;
p22 :R24 → R2 ,
где R15 = {S4 , S5 },
R2 = {S2 }
(
)
(
)
P24 ( R2* (p2 )/R5 ) =a2 =0,04; P24 ( R4* (p2 )/R2 ) =b2b5 =0,003;
P24 ( R4* (p2 )/R4 )= (1 − a2 )(1 − a5 )= 0,9408;
P24 ( R4* (p2 )/R5 )= (1 − a2 )b5= 0,048; P24 ( R5* (p2 )/R2 ) = b2 (1 − b5 ) = 0,057;
P24 ( R5* (p2 )/R4 )= (1 − a2 )a5= 0,0192;
P24 ( R5* (p2 )/R5 )= (1 − a2 )(1 − b5 )= 0,912
P (S2 ) P24 ( R2* (p2 )/R2 )
P24 ( R2 /R2* (p2 ) ) =
=
∑ P (Sf ) P24 ( R2* (p2 )/Rf )
f∈I
P24 R2* (p2 )/R2 = 1 − b2 = 0,94; P24 R2* (p2 )/R4 =a2 =0,04;
2
24
0,174 ⋅ 0,94
=
= 0,9207;
0,174 ⋅ 0,94 + 0,269 ⋅ 0,04 + 0,083 ⋅ 0,04
181
Продолжение табл. П3.8
(
)
P (S4 ) P24 R4* (p2 )/R4
P24 R4 /R4* (p2 ) =
=
∑ P (Sf ) P24 R4* (p2 )/Rf
(
)
f∈I24
=
3
)
0,269 ⋅ 0,9408
= 0,9825;
0,174 ⋅ 0,003 + 0,269 ⋅ 0,9408 + 0,083 ⋅ 0,048
(
P24 R5 /R5* (p2 )
)
(
)
P (S5 ) P24 R5* (p2 )/R5
=
=
∑ P (Sf ) P24 R5* (p2 )/Rf
f∈I24
=
(
(
)
0,083 ⋅ 0,912
= 0,8339
0,174 ⋅ 0,057 + 0,269 ⋅ 0,0192 + 0,083 ⋅ 0,912
P (S2 )
0,174
=
= 0,3308;
P
(
S
)
0,174
+
0,269
+ 0,083
∑
f
P24 (S2 ) =
f∈I24
P (S4 )
0,269
=
= 0,5114;
P (Sf ) 0,174 + 0,269 + 0,083
P24 (S4 ) =
4
∑
f∈I24
P24 (S5 ) =
P (S5 )
0,083
=
= 0,1578
∑ P (Sf ) 0,174 + 0,269 + 0,083
f∈I24
(
)
D24 (p2 ) =∑ P24 (Si ) P24 Ri /Ri* (p2 ) =
i∈I24
5
= 0,3308 ⋅ 0,9207 + 0,5114 ⋅ 0,9825 + 0,1578 ⋅ 0,8339 = 0,9386
Расчет вероятности правильного распознавания технических состояний
по R24 (p4 ) -алгоритму
p14 : R24 → R11; p24 : R24 → R5 , где R11 = {S2 , S4 }, R5 = {S5 }
1
(
)
P24 R2* (p4 )/R2 = (1 − b4 )(1 − b2 )= 0,9024;
2
(
)
P24 R2* (p4 )/R4 = (1 − b4 )a2= 0,0384;
(
)
(
)
P24 R2* (p4 )/R5 =a4 a2 =0,012; P24 R4* (p4 )/R2 = (1 − b4 )b2= 0,0576;
(
)
P24 R4* (p4 )/R4 = (1 − b4 )(1 − a2 )= 0,9216;
182
Продолжение табл. П3.8
(
)
(
)
P24 R4* (p4 )/R5 = a4 (1 − a2 ) = 0,0288; P24 R5* (p4 )/R2 =b4 =0,04;
(
)
(
)
P24 R5* (p4 )/R4 =b4 =0,04; P24 R5* (p4 )/R5 = 1 − a4 = 0,97
(
)
P (S2 ) P24 R2* (p4 )/R2
P24 R2 /R2* (p4 ) =
=
∑ P (Sf ) P24 R2* (p4 )/Rf
(
)
f∈I24
=
)
0,174 ⋅ 0,9024
= 0,9327;
0,174 ⋅ 0,9024 + 0,269 ⋅ 0,0384 + 0,083 ⋅ 0,012
(
P24 R4 /R4* (p4 )
)
3
(
)
P (S4 ) P24 R4* (p4 )/R4
=
=
∑ P (Sf ) P24 R4* (p4 )/Rf
f∈I24
=
(
(
)
0,269 ⋅ 0,9216
= 0,9523;
0,174 ⋅ 0,0576 + 0,269 ⋅ 0,9216 + 0,083 ⋅ 0,0288
(
)
P (S5 ) P24 R5* (p4 )/R5
P24 R5 /R5* (p4 ) =
=
∑ P (Sf ) P24 R5* (p4 )/Rf
(
)
f∈I24
=
4
5
(
)
0,083 ⋅ 0,97
= 0,8196
0,174 ⋅ 0,04 + 0,269 ⋅ 0,04 + 0,083 ⋅ 0,97
P24 (S2 ) = 0,3308; P24 (S4 ) = 0,5114; P24 (S5 ) = 0,1578
(
)
D24 (p4 ) =∑ P24 (Si ) P24 Ri /Ri* (p4 ) =
i∈I24
= 0,3308 ⋅ 0,9327 + 0,5114 ⋅ 0,9523 + 0,1578 ⋅ 0,8196 = 0,9249
Расчет вероятности правильного распознавания технических состояний
по R24 (p5 )-алгоритму
1
p15 :R24 → R11; p25 :R24 → R5 , где R11 = {S2 , S4 }, R5 = {S5 }
(
)
P24 R2* (p5 )/R2 = (1 − a5 )(1 − b2 )= 0,9212;
2
(
)= (1 − a5 )a2= 0,0392;
P24 ( R2* (p5 )/R5 ) = b5 (1 − b2 ) = 0,047;
P24 ( R4* (p5 )/R2 )= (1 − a5 )b2= 0,0588;
P24 R2* (p5 )/R4
183
Окончание табл. П3.8
(
)
P24 R4* (p5 )/R4 = (1 − a5 )(1 − a2 )= 0,9408;
(
)
P24 ( R5* (p5 )/R4 ) =a5 =0,02;
(
)
P24 R4* (p5 )/R5 =b5b2 =0,003; P24 R5* (p5 )/R2 =a5 =0,02;
(
P24 R2 /R2* (p5 )
)
(
)
P24 R5* (p2 )/R5 = 1 − b5 = 0,95
(
f∈I24
=
(
)
0,174 ⋅ 0,9212
= 0,9173;
0,174 ⋅ 0,9212 + 0,269 ⋅ 0,0392 + 0,083 ⋅ 0,047
(
P24 R4 /R4* (p5 )
)
3
(
)
P (S4 ) P24 R4* (p5 )/R4
=
=
∑ P (Sf ) P24 R4* (p5 )/Rf
f∈I24
=
)
P (S2 ) P24 R2* (p5 )/R2
=
=
∑ P (Sf ) P24 R2* (p5 )/Rf
(
)
0,269 ⋅ 0,9408
= 0,9602;
0,174 ⋅ 0,0588 + 0,269 ⋅ 0,9408 + 0,083 ⋅ 0,003
(
)
P (S5 ) P24 R5* (p5 )/R5
P24 R5 /R5* (p5 ) =
=
∑ P (Sf ) P24 R5* (p5 )/Rf
(
)
f∈I24
=
4
5
(
)
0,083 ⋅ 0,95
= 0,8990
0,174 ⋅ 0,02 + 0,269 ⋅ 0,02 + 0,083 ⋅ 0,95
P24 (S2 ) = 0,3308; P24 (S4 ) = 0,5114; P24 (S5 ) = 0,1578
(
)
D24 (p5 ) =∑ P24 (Si ) P24 Ri /Ri* (p5 ) =
i∈I24
= 0,3308 ⋅ 0,9173 + 0,5114 ⋅ 0,9602 + 0,1578 ⋅ 0,8990 = 0,9364
Таблица П3.9
Расчет вероятностей правильного распознавания
технических состояний по R25-алгоритмам
Расчет вероятности правильного распознавания
технических состояний по R25 (p3 )-алгоритму
1
184
p13 : R25 → R15 ; p23 : R25 → R3 , где R15 = {S4 , S5 }, R3 = {S3 }
Продолжение табл. П3.9
(
)
(
)
P25 ( R3* (p3 )/R5 ) =a3 =0,01; P25 ( R4* (p3 )/R3 ) =b3b5 =0,001;
P25 ( R4* (p3 )/R4 )= (1 − a3 )(1 − a5 )= 0,9702;
P25 ( R4* (p3 )/R5 )= (1 − a3 )b5= 0,0495;
P25 ( R5* (p3 )/R3 ) = b3 (1 − b5 ) = 0,019;
P25 ( R5* (p3 )/R4 )= (1 − a3 )a5= 0,0198;
P25 ( R5* (p3 )/R5 )= (1 − a3 )(1 − b5 )= 0,9405
P (S3 ) P24 ( R3* (p3 )/R3 )
*
P25 ( R3 /R3 (p3 ) ) =
=
∑ P (Sf ) P25 ( R3* (p3 )/Rf )
f∈I
P25 R3* (p3 )/R3 = 1 − b3 = 0,98; P25 R3* (p3 )/R4 =a3 =0,01;
2
25
=
0,349 ⋅ 0,98
= 0,9898;
0,349 ⋅ 0,98 + 0,269 ⋅ 0,01 + 0,083 ⋅ 0,01
(
P25 R4 /R4* (p3 )
)
3
(
f∈I25
=
)
P (S4 ) P25 R4* (p3 )/R4
=
=
∑ P (Sf ) P25 R4* (p3 )/Rf
(
)
0,269 ⋅ 0,9702
= 0,9832;
0,349 ⋅ 0,001 + 0,269 ⋅ 0,9702 + 0,083 ⋅ 0,0495
(
)
P (S5 ) P25 R5* (p3 )/R5
P25 R5 /R5* (p3 ) =
=
∑ P (Sf ) P25 R5* (p3 )/Rf
(
)
f∈I25
=
(
)
0,083 ⋅ 0,9405
= 0,8672
0,349 ⋅ 0,019 + 0,269 ⋅ 0,0198 + 0,083 ⋅ 0,9405
P25 (S3 ) =
P (S3 )
0,349
=
= 0,4979;
P (Sf ) 0,349 + 0,269 + 0,083
∑
f∈I25
4
P25 (S4 ) =
P (S4 )
0,269
=
= 0,3837;
P
(
S
)
0,349
+
0,269 + 0,083
∑
f
f∈I25
185
Продолжение табл. П3.9
P (S5 )
0,083
=
= 0,1184
∑ P (Sf ) 0,349 + 0,269 + 0,083
P25 (S5 ) =
f∈I25
(
)
D25 (p3 ) =∑ P25 (Si ) P25 Ri /Ri* (p3 ) =
5
i∈I25
= 0,4979 ⋅ 0,9898 + 0,3837 ⋅ 0,9832 + 0,1184 ⋅ 0,8672 = 0,9728
Расчет вероятности правильного распознавания
технических состояний по R25 (p4 ) -алгоритму
p14 : R25 → R14 ; p24 : R25 → R4 , где R14 = {S3 , S5 }, R4 = {S4 }
1
(
)
P25 R3* (p4 )/R3 = (1 − a4 )(1 − b3 )= 0,9506;
(
)
P25 R3* (p4 )/R4 = b4 (1 − b3 ) = 0,0392;
(
)
(
)
P25 R3* (p4 )/R5 = (1 − a4 )a3= 0,0097; P25 R4* (p4 )/R3 =a4 =0,03;
(
2
)
(
)
P25 R4* (p4 )/R4 = 1 − b4 = 0,96; P25 R4* (p4 )/R5 =a4 =0,03;
(
)
(
)
P25 R5* (p4 )/R3 = (1 − a4 )b3= 0,0194; P25 R5* (p4 )/R4 =b4b3 =0,0008;
(
)
P25 R5* (p4 )/R5 = (1 − a4 )(1 − a3 )= 0,9603
(
)
P (S3 ) P25 R3* (p4 )/R3
P25 R3 /R3* (p4 ) =
=
∑ P (Sf ) P25 R3* (p4 )/Rf
(
)
f∈I25
=
)
0,349 ⋅ 0,9506
= 0,9669;
0,349 ⋅ 0,9506 + 0,269 ⋅ 0,0392 + 0,083 ⋅ 0,0097
(
)
P (S4 ) P25 R4* (p4 )/R4
P25 R4 /R4* (p4 ) =
=
∑ P (Sf ) P25 R4* (p4 )/Rf
(
3
)
f∈I25
=
(
)
)
(
)
P (S5 ) P25 R5* (p4 )/R5
=
=
∑ P (Sf ) P25 R5* (p4 )/Rf
f∈I25
=
(
0,269 ⋅ 0,96
= 0,9522;
0,349 ⋅ 0,03 + 0,269 ⋅ 0,96 + 0,083 ⋅ 0,03
P25 R5 /R5* (p4 )
186
(
(
)
0,083 ⋅ 0,9603
= 0,9194
0,349 ⋅ 0,0194 + 0,269 ⋅ 0,0008 + 0,083 ⋅ 0,9603
Продолжение табл. П3.9
P25 (S3 ) = 0,4979; P25 (S4 ) = 0,3837 P25 (S5 ) = 0,1184
4
(
)
D25 (p4 ) =∑ P25 (Si ) P25 Ri /Ri* (p4 ) =
i∈I25
5
= 0,4979 ⋅ 0,9669 + 0,3837 ⋅ 0,9522 + 0,1184 ⋅ 0,9194 = 0,9556
Расчет вероятности правильного распознавания технических состояний
по R25 (p5 )-алгоритму
p15 : R25 → R4 ; p25 :R25 → R14
1
(
)
P25 R3* (p5 )/R3 = (1 − b5 )(1 − b3 )= 0,931;
(
)
(
)
P25 ( R4* (p5 )/R3 ) =b5 =0,05; P25 ( R4* (p5 )/R4 ) = 1 − a5 = 0,98;
P25 ( R4* (p5 )/R5 ) =b5 =0,05; P25 ( R5* (p5 )/R3 )= (1 − b5 )b3= 0,019;
P25 ( R5* (p5 )/R4 ) = a5 (1 − a3 ) = 0,0198;
P25 ( R5* (p5 )/R5 )= (1 − b5 )(1 − a3 )= 0,9405
P (S3 ) P25 ( R3* (p5 )/R3 )
P25 ( R3 /R3* (p5 ) ) =
=
∑ P (Sf ) P25 ( R3* (p5 )/Rf )
f∈I
P25 R3* (p5 )/R4 =a5a3 =0,0002; P25 R3* (p5 )/R5 = (1 − b5 )á 3= 0,0095;
2
25
0,349 ⋅ 0,931
=
= 0,9974;
0,349 ⋅ 0,931 + 0,269 ⋅ 0,0002 + 0,083 ⋅ 0,0095
(
)
P (S4 ) P25 R4* (p5 )/R4
P25 R4 /R4* (p5 ) =
=
∑ P (Sf ) P25 R4* (p5 )/Rf
(
3
)
f∈I25
=
(
)
0,269 ⋅ 0,98
= 0,9243;
0,349 ⋅ 0,05 + 0,269 ⋅ 0,98 + 0,083 ⋅ 0,05
(
)
P (S5 ) P25 R5* (p5 )/R5
P25 R5 /R5* (p5 ) =
=
∑ P (Sf ) P25 R5* (p5 )/Rf
(
)
f∈I25
=
(
)
0,083 ⋅ 0,9405
= 0,8672
0,349 ⋅ 0,019 + 0,269 ⋅ 0,0198 + 0,083 ⋅ 0,9405
187
Окончание табл. П3.9
4
5
P25 (S3 ) = 0,4979; P25 (S4 ) = 0,3837; P25 (S5 ) = 0,1184
(
)
D25 (p5 ) =∑ P25 (Si ) P25 Ri /Ri* (p5 ) =
i∈I25
= 0,4979 ⋅ 0,9974 + 0,3837 ⋅ 0,9243 + 0,1184 ⋅ 0,8672 = 0,9539
Таблица П3.10
Расчет вероятностей правильного распознавания
технических состояний по R30 -алгоритмам
Расчет вероятности правильного распознавания технических состояний
по R30 (p3 ) -алгоритму
1
p13 : R30 → R24 ; p23 : R30 → R3 ; p12 : R24 → R15 ; p22 : R24 → R2 ;
p15 : R15 → R4 ; p25 :R15 → R5
(
)
P30 R2* (p3 )/R2 = (1 − a3 )(1 − b2 )= 0,9306;
(
)
P30 ( R2* (p3 )/R4 )= (1 − a3 )a2= 0,0396;
P30 ( R2* (p3 )/R5 )= (1 − a3 )a2= 0,0396; P30 ( R3* (p3 )/R2 ) =a3 =0,01;
P30 ( R3* (p3 )/R3 ) = 1 − b3 = 0,98; P30 ( R3* (p3 )/R4 ) =a3 =0,01;
P30 ( R3* (p3 )/R5 ) =a3 =0,01; P30 ( R4* (p3 )/R2 )= (1 − a3 )b2b5= 0,0024;
P30 ( R4* (p3 )/R3 ) =b3b2b5 ≈ 0,0001;
P30 ( R4* (p3 )/R4 )= (1 − a3 )(1 − a2 )(1 − a5 )= 0,9314;
P30 ( R4* (p3 )/R5 )= (1 − a3 )(1 − a2 )b5= 0,0475;
P30 ( R5* (p3 )/R2 )= (1 − a3 )b2 (1 − b5 )= 0,0564;
P30 ( R5* (p3 )/R3 ) = b3b2 (1 − b5 ) = 0,0011;
P30 ( R5* (p3 )/R4 )= (1 − a3 )(1 − a2 )a5= 0,019;
P30 ( R5* (p3 )/R5 )= (1 − a3 )(1 − a2 )(1 − b5 )= 0,9029
P30 R2* (p3 )/R3 = b3 (1 − b2 ) = 0,0188;
2
188
Продолжение табл. П3.10
(
P30 R2 /R2* (p3 )
)
(
f∈I30
=
(
)
0,174 ⋅ 0,9306
=
0,174 ⋅ 0,9306 + 0,349 ⋅ 0,0188 + 0,269 ⋅ 0,0396 + 0,083 ⋅ 0,0396
= 0,8876;
P (S3 ) P30 R3* (p3 )/R3
P30 R3 /R3* (p3 ) =
=
∑ P (Sf ) P30 R3* (p3 )/Rf
(
(
)
f∈I30
=
)
(
)
0,349 ⋅ 0,98
= 0,9849;
0,174 ⋅ 0,01 + 0,349 ⋅ 0,98 + 0,269 ⋅ 0,01 + 0,083 ⋅ 0,01
(
)
P (S4 ) P30 R4* (p3 )/R4
P30 R4 /R4* (p3 ) =
=
∑ P (Sf ) P30 R4* (p3 )/Rf
3
(
)
f∈I30
=
(
)
)
(
)
P (S5 ) P30 R5* (p3 )/R5
=
=
∑ P (Sf ) P30 R5* (p3 )/Rf
f∈I30
=
(
0,269 ⋅ 0,9314
=
0,174 ⋅ 0,0024 + 0,349 ⋅ 0,0001 + 0,269 ⋅ 0,9314 + 0,083 ⋅ 0,0475
= 0,9828;
P30 R5 /R5* (p3 )
4
)
P (S2 ) P30 R2* (p3 )/R2
=
=
∑ P (Sf ) P30 R2* (p3 )/Rf
(
)
0,083 ⋅ 0,9405
=
0,174 ⋅ 0,0564 + 0,349 ⋅ 0,0011 + 0,269 ⋅ 0,019 + 0,083 ⋅ 0,9405
= 0,8360
P30 (S2 ) = 0,1989; P30 (S3 ) = 0,3988; P30 (S4 ) = 0,3074;
P30 (S5 ) = 0,0949
(
)
D30 (p3 ) =∑ P30 (Si ) P30 Ri /Ri* (p3 ) =
5
i∈I30
= 0,1989 ⋅ 0,8876 + 0,3988 ⋅ 0,9849 + 0,3074 ⋅ 0,9828 +
+0,0949 ⋅ 0,8360 =
0,9508
Расчет вероятности правильного распознавания технических состояний
по R30 (p4 )-алгоритму
1
p14 : R30 → R14 ;
p24 : R30 → R11;
p12 : R11 → R4 ;
p13 : R14 → R5 ;
p22 :R11 → R2
p23 : R14 → R3 ;
189
Продолжение табл. П3.10
(
)
P30 R2* (p4 )/R2 = (1 − b4 )(1 − b2 )= 0,9024;
(
) = a4 (1 − b2 ) = 0,0282;
P30 ( R2* (p4 )/R4 )= (1 − b4 )a2= 0,0384;
P30 ( R2* (p4 )/R5 ) =a4 a2 =0,0012; P30 ( R3* (p4 )/R2 ) = b4 (1 − b3 ) = 0,0392;
P30 ( R3* (p4 )/R3 )= (1 − a4 )(1 − b3 )= 0,9506;
P30 ( R3* (p4 )/R4 ) =b4 a3 =0,0004; P30 ( R3* (p4 )/R5 )= (1 − a4 )a3= 0,0097;
P30 ( R4* (p4 )/R2 )= (1 − b4 )b2= 0,0576; P30 ( R4* (p4 )/R3 ) =a4b2 =0,0018;
P30 ( R4* (p4 )/R4 )= (1 − b4 )(1 − a2 )= 0,9216;
P30 ( R4* (p4 )/R5 ) = a4 (1 − a2 ) = 0,0288; P30 ( R5* (p4 )/R2 ) =b4b3 =0,0008;
P30 ( R5* (p4 )/R3 )= (1 − a4 )b3= 0,0194;
P30 ( R5* (p4 )/R4 ) = b4 (1 − a3 ) = 0,0396;
P30 ( R5* (p4 )/R5 )= (1 − a4 )(1 − a3 )= 0,9603
P (S2 ) P30 ( R2* (p4 )/R2 )
P30 ( R2 /R2* (p4 ) ) =
=
∑ P (Sf ) P30 ( R2* (p4 )/Rf )
f∈I
P30 R2* (p4 )/R3
2
30
0,174 ⋅ 0,9024
=
=
0,174 ⋅ 0,9024 + 0,349 ⋅ 0,0282 + 0,269 ⋅ 0,0384 + 0,083 ⋅ 0,0012
= 0,8857;
(
P30 R3 /R3* (p4 )
3
)
(
f∈I30
=
)
P (S3 ) P30 R3* (p4 )/R3
=
=
∑ P (Sf ) P30 R3* (p4 )/Rf
(
)
0,349 ⋅ 0,9506
=
0,174 ⋅ 0,0392 + 0,349 ⋅ 0,9506 + 0,269 ⋅ 0,0004 + 0,083 ⋅ 0,0097
= 0,9772;
(
)
P (S4 ) P30 R4* (p4 )/R4
P30 R4 /R4* (p4 ) =
=
∑ P (Sf ) P30 R4* (p4 )/Rf
(
)
f∈I30
190
(
)
Продолжение табл. П3.10
0,269 ⋅ 0,9216
=
0,174 ⋅ 0,0576 + 0,349 ⋅ 0,0018 + 0,269 ⋅ 0,9216 + 0,083 ⋅ 0,0288
= 0,9500;
=
(
)
P (S5 ) P30 R5* (p4 )/R5
P30 R5 /R5* (p4 ) =
=
∑ P (Sf ) P30 R5* (p4 )/Rf
(
)
(
f∈I30
=
)
0,083 ⋅ 0,9603
=
0,174 ⋅ 0,0008 + 0,349 ⋅ 0,0194 + 0,269 ⋅ 0,0396 + 0,083 ⋅ 0,9603
= 0,8194
P30 (S2 ) = 0,1989; P30 (S3 ) = 0,3988; P30 (S4 ) = 0,3074;
4
P30 (S5 ) = 0,0949
(
)
D30 (p4 ) =∑ P30 (Si ) P30 Ri /Ri* (p4 ) =
i∈I30
5
= 0,1989 ⋅ 0,8857 + 0,3988 ⋅ 0,9772 + 0,3074 ⋅ 0,9500 +
+0,0949 ⋅ 0,8194 =
0,9357
Расчет вероятности правильного распознавания технических состояний
по R30 (p5 )-алгоритму
1
p15 : R30 → R11; p25 : R30 → R14 ; p12 : R11 → R4 ; p22 : R11 → R2 ; p13 : R14 → R5 ;
p23 :R14 → R3
(
)
P30 R2* (p5 )/R2 = (1 − a5 )(1 − b2 )= 0,9212;
(
)
P30 R2* (p5 )/R3 = b5 (1 − b2 ) = 0,047;
(
)
P30 R2* (p5 )/R4 = (1 − a5 )a2= 0,0392;
2
(
)
(
)
P30 R2* (p5 )/R5 =b5 a2 =0,002; P30 R3* (p5 )/R2 = a5 (1 − b3 ) = 0,0196;
(
)
P30 R3* (p5 )/R3 = (1 − b5 )(1 − b3 )= 0,931;
(
)
(
)
P30 R3* (p5 )/R4 =a5a3 =0,0002; P30 R3* (p5 )/R5 = (1 − b5 )a3= 0,0095;
(
)
(
)
P30 R4* (p5 )/R2 = (1 − a5 )b2= 0,0588; P30 R4* (p5 )/R3 =b5b2 =0,003;
(
)
P30 R4* (p5 )/R4 = (1 − a5 )(1 − a2 )= 0,9408;
191
Продолжение табл. П3.10
(
)
(
)
P30 R4* (p5 )/R5 = b5 (1 − a2 ) = 0,048; P30 R5* (p5 )/R2 =a5b3 =0,0004;
(
)
P30 R5* (p5 )/R3 = (1 − b5 )b3= 0,019;
(
)
P30 R5* (p5 )/R4 = a5 (1 − a3 ) = 0,0198;
(
)
P30 R5* (p5 )/R5 =
(1 − b5 )(1 − a3 )= 0,9405
(
)
P (S2 ) P30 R2* (p5 )/R2
P30 R2 /R2* (p5 ) =
=
∑ P (Sf ) P30 R2* (p5 )/Rf
(
)
f∈I30
=
(
)
0,174 ⋅ 0,9212
=
0,174 ⋅ 0,9212 + 0,349 ⋅ 0,047 + 0,269 ⋅ 0,0392 + 0,083 ⋅ 0,002
= 0,8553;
(
P30 R3 /R3* (p5 )
)
(
)
P (S3 ) P30 R3* (p5 )/R3
=
=
∑ P (Sf ) P30 R3* (p5 )/Rf
f∈I30
(
)
0,349 ⋅ 0,931
=
0,174 ⋅ 0,0196 + 0,349 ⋅ 0,931 + 0,269 ⋅ 0,0002 + 0,083 ⋅ 0,0095
= 0,9871;
=
3
(
P30 R4 /R4* (p5 )
)
(
f∈I30
=
)
P (S4 ) P30 R4* (p5 )/R4
=
=
∑ P (Sf ) P30 R4* (p5 )/Rf
(
)
0,269 ⋅ 0,9408
=
0,174 ⋅ 0,0588 + 0,349 ⋅ 0,003 + 0,269 ⋅ 0,9408 + 0,083 ⋅ 0,048
= 0,9431;
(
)
P (S5 ) P30 R5* (p5 )/R5
P30 R5 /R5* (p5 ) =
=
∑ P (Sf ) P30 R5* (p5 )/Rf
(
)
f∈I30
=
4
192
(
)
0,083 ⋅ 0,9405
=
0,174 ⋅ 0,0004 + 0,349 ⋅ 0,019 + 0,269 ⋅ 0,0198 + 0,083 ⋅ 0,9405
= 0,8665
P30 (S2 ) = 0,1989; P30 (S3 ) = 0,3988; P30 (S4 ) = 0,3074;
P30 (S5 ) = 0,0949
Окончание табл. П3.10
(
)
D30 (p5 ) =∑ P30 (Si ) P30 Ri /Ri* (p5 ) =
i∈I30
5
= 0,1989 ⋅ 0,8553 + 0,3988 ⋅ 0,9871 + 0,3074 ⋅ 0,9431 +
+0,0949 ⋅ 0,8665 =
0,9359
Таблица П3.11
Расчет вероятностей правильного распознавания
технических состояний по R0-алгоритмам
Расчет вероятности правильного распознавания технических состояний
по R0 (p2 ) -алгоритму
1
p12 : R0 → R25 ; p22 : R0 → R6 ; p13 : R25 → R15 ; p23 : R25 → R3 ; p15 : R15 → R4 ;
p25 : R15 → R5 ; p13 : R6 → R2 ; p23 :R6 → R1
(
)
P0 R1* (p2 )/R1 = (1 − b2 )(1 − b3 )= 0,9212;
(
)
(
)
P0 ( R1* (p2 )/R4 ) =a2a3 =0,0004; P0 ( R1* (p2 )/R5 ) =a2a3 =0,0004;
P0 ( R2* (p2 )/R1 )= (1 − b2 )b3= 0,0188;
P0 ( R2* (p2 )/R2 )= (1 − b2 )(1 − a3 )= 0,9306;
P0 ( R2* (p2 )/R3 ) =a2b3 =0,0008; P0 ( R2* (p2 )/R4 ) = a2 (1 − a3 ) = 0,0396;
P0 ( R2* (p2 )/R5 ) = a2 (1 − a3 ) = 0,0396;
P0 ( R3* (p2 )/R1 ) = b2 (1 − b3 ) = 0,098; P0 ( R3* (p2 )/R2 ) =b2a3 =0,0006;
P0 ( R3* (p2 )/R3 )= (1 − a2 )(1 − b3 )= 0,9408;
P0 ( R3* (p2 )/R4 )= (1 − a2 )a3= 0,0096;
P0 ( R3* (p2 )/R5 )= (1 − a2 )a3= 0,0096;
P0 ( R4* (p2 )/R1 ) =b2b3b5 ≈ 0,0001;
P0 R1* (p2 )/R2 = (1 − b2 )a3= 0,0094; P0 R1* (p2 )/R3 = a2 (1 − b3 ) = 0,0392;
193
Продолжение табл. П3.11
(
)
P0 R4* (p2 )/R2 = b2 (1 − a3 )(1 − a5 ) = 0,0582;
(
(
P0 R4* (p2 )/R3
)
)=
(1 − a2 )b3b5= 0,001;
P0 R4* (p2 )/R4 = (1 − a2 )(1 − a3 )(1 − a5 )= 0,9314;
(
P0 R4* (p2 )/R5
)=
(1 − a2 )(1 − a3 )b5= 0,0475;
(
)
*
P0 ( R5 (p2 )/R2 ) = b2 (1 − a3 )a5 = 0,0012;
P0 ( R5* (p2 )/R3 )= (1 − a2 )b3 (1 − b5 )= 0,0182;
P0 ( R5* (p2 )/R4 )= (1 − a2 )(1 − a3 )a5= 0,019;
P0 ( R5* (p2 )/R5 )= (1 − a2 )(1 − a3 )(1 − b5 )= 0,9029
P0 R5* (p2 )/R1 = b2b3 (1 − b5 ) = 0,0011;
2
(
)
P (S1 ) P0 R1* (p2 )/R1
P0 R1 /R1* (p2 ) =
=
∑ P (Sf ) P0 R1* (p2 )/Rf
(
)
f∈I
(
)
0,125 ⋅ 0,9212
= 0,8817;
 0,125 ⋅ 0,9212 + 0,174 ⋅ 0,0094 + 0,349 ⋅ 0,0392 + 


+0,269 ⋅ 0,0004 + 0,083 ⋅ 0,0004


=
(
)
P (S2 ) P0 R2* (p2 )/R2
P0 R2 /R2* (p2 ) =
=
∑ P (Sf ) P0 R2* (p2 )/Rf
(
)
f∈I
3
=
)
0,174 ⋅ 0,9306
= 0,9072;
 0,125 ⋅ 0,0188 + 0,174 ⋅ 0,9306 + 0,349 ⋅ 0,0008 + 


+0,269 ⋅ 0,0396 + 0,083 ⋅ 0,0396


(
P0 R3 /R3* (p2 )
)
(
=
)
P (S3 ) P0 R3* (p2 )/R3
=
=
∑ P (Sf ) P0 R3* (p2 )/Rf
f∈I
194
(
(
)
0,349 ⋅ 0,9408
= 0,9543;
 0,125 ⋅ 0,098 + 0,174 ⋅ 0,0006 + 0,349 ⋅ 0,9408 + 


+0,269 ⋅ 0,0096 + 0,083 ⋅ 0,0096


Продолжение табл. П3.11
(
)
P (S4 ) P0 R4* (p2 )/R4
P0 R4 /R4* (p2 ) =
=
∑ P (Sf ) P0 R4* (p2 )/Rf
(
)
f∈I
=
)
0,269 ⋅ 0,9314
= 0,9455;
 0,125 ⋅ 0,0001 + 0,174 ⋅ 0,0582 + 0,349 ⋅ 0,001 + 


+0,269 ⋅ 0,9314 + 0,083 ⋅ 0,0475


(
P0 R5 /R5* (p2 )
)
(
)
P (S5 ) P0 R5* (p2 )/R5
=
=
∑ P (Sf ) P0 R5* (p2 )/Rf
f∈I
=
(
(
)
0,083 ⋅ 0,9029
= 0,8639
 0,125 ⋅ 0,0011 + 0,174 ⋅ 0,0012 + 0,349 ⋅ 0,0182 + 


+0,269 ⋅ 0,019 + 0,083 ⋅ 0,9029


P (S1 ) = 0,125; P (S2 ) = 0,174; P (S3 ) = 0,349; P (S4 ) = 0,269;
4
P (S5 ) = 0,083
(
)
D0 (p2 ) =
∑ P (Si ) P0 Ri /Ri* (p2 ) =
i∈I
5
=0,125 ⋅ 0,8817 + 0,174 ⋅ 0,9072 + 0,349 ⋅ 0,9543 +
+0,269 ⋅ 0,9455 + 0,083 ⋅ 0,8639 =
0,9272
Расчет вероятности правильного распознавания технических состояний
по R0 (p3 )-алгоритму
1
p13 : R0 → R24 ; p23 : R0 → R7 ; p12 : R24 → R15 ; p22 : R24 → R2 ; p15 : R15 → R4 ;
p25 : R15 → R5 ; p14 : R7 → R3 ; p24 :R7 → R1
(
)
P0 R1* (p3 )/R1 = (1 − b3 )(1 − b4 )= 0,9408;
(
)
(
)
P0 ( R1* (p3 )/R5 ) =a3a4 =0,0003;
P0 R1* (p3 )/R2 = a3 (1 − b4 ) = 0,0096; P0 R1* (p3 )/R3 = (1 − b3 )a4= 0,0294;
2
(
)
P0 R1* (p3 )/R4 =a3a4 =0,0003;
(
)
P0 R2* (p3 )/R1 = b3 (1 − b2 ) = 0,0188;
(
)
P0 R2* (p3 )/R2 = (1 − a3 )(1 − b2 )= 0,9306;
195
Продолжение табл. П3.11
(
)
(
)
P0 R2* (p3 )/R3 =b3a2 =0,0008; P0 R2* (p3 )/R4 = (1 − a3 )a2= 0,0396;
(
)
(
)
P0 R2* (p3 )/R5 = (1 − a3 )a2= 0,0396; P0 R3* (p3 )/R1 = (1 − b3 )b4= 0,0392;
(
)
P0 R3* (p3 )/R3 = (1 − b3 )(1 − a4 )= 0,9506;
(
)
P0 R3* (p3 )/R4 = a3 (1 − a4 ) = 0,0097;
(
)
(
)
P0 R3* (p3 )/R5 = a3 (1 − a4 ) = 0,0097; P0 R4* (p3 )/R1 =b3b2b5 ≈ 0,0001;
(
)
P0 R4* (p3 )/R2 = (1 − a3 )b2b5= 0,003;
(
)
P0 R4* (p3 )/R3 = b3 (1 − a2 )(1 − a5 ) = 0,0188;
(
)
P0 R4* (p3 )/R4 = (1 − a3 )(1 − a2 )(1 − a5 )= 0,9314;
(
)
P0 R4* (p3 )/R5 = (1 − a3 )(1 − a2 )b5= 0,0475;
(
)
P0 R5* (p3 )/R1 = b3b2 (1 − b5 ) = 0,0011;
(
)
P0 R5* (p3 )/R2 = (1 − a3 )b2 (1 − b5 )= 0,0564;
(
)
P0 R5* (p3 )/R3 = b3 (1 − a2 )a5 = 0,0004;
(
)
P0 R5* (p3 )/R4 = (1 − a3 )(1 − a2 )a5= 0,019;
(
)
P0 R5* (p3 )/R5 = (1 − a3 )(1 − a2 )(1 − b5 )= 0,9029
(
P0 R1 /R1* (p3 )
)
(
f∈I
3
=
)
P (S1 ) P0 R1* (p3 )/R1
=
=
∑ P (Sf ) P0 R1* (p3 )/Rf
(
)
0,125 ⋅ 0,9408
= 0,9072;
 0,125 ⋅ 0,9408 + 0,174 ⋅ 0,0096 + 0,349 ⋅ 0,0294 + 


 +0,269 ⋅ 0,0003 + 0,083 ⋅ 0,0003

(
)
P (S2 ) P0 R2* (p3 )/R2
P0 R2 /R2* (p3 ) =
=
∑ P (Sf ) P0 R2* (p3 )/Rf
(
)
f∈I
196
(
)
Продолжение табл. П3.11
=
0,174 ⋅ 0,9306
= 0,9072;
 0,125 ⋅ 0,0188 + 0,174 ⋅ 0,9306 + 0,349 ⋅ 0,0008 + 


+0,269 ⋅ 0,0396 + 0,083 ⋅ 0,0396


(
P0 R3 /R3* (p3 )
)
(
f∈I
=
)
P (S3 ) P0 R3* (p3 )/R3
=
=
∑ P (Sf ) P0 R3* (p3 )/Rf
(
)
0,349 ⋅ 0,9506
= 0,9754;
 0,125 ⋅ 0,0392 + 0,174 ⋅ 0,0004 + 0,349 ⋅ 0,9506 + 


+0,269 ⋅ 0,0097 + 0,083 ⋅ 0,0097


(
)
P (S4 ) P0 R4* (p3 )/R4
P0 R4 /R4* (p3 ) =
=
∑ P (Sf ) P0 R4* (p3 )/Rf
(
)
f∈I
=
(
)
0,269 ⋅ 0,9314
= 0,9578;
 0,125 ⋅ 0,0001 + 0,174 ⋅ 0,003 + 0,349 ⋅ 0,0188 + 


+0,269 ⋅ 0,9314 + 0,083 ⋅ 0,0475


(
)
P (S5 ) P0 R5* (p3 )/R5
P0 R5 /R5* (p3 ) =
=
∑ P (Sf ) P0 R5* (p3 )/Rf
(
)
f∈I
=
(
)
0,083 ⋅ 0,9029
= 0,8314
 0,125 ⋅ 0,0011 + 0,174 ⋅ 0,0564 + 0,349 ⋅ 0,0004 + 


+0,269 ⋅ 0,019 + 0,083 ⋅ 0,9029


4 P (S1 ) = 0,125; P (S2 ) = 0,174; P (S3 ) = 0,349; P (S4 ) = 0,269; P (S5 ) = 0,083
(
)
D0 (p3 ) =
∑ P (Si ) P0 Ri /Ri* (p3 ) =
5
i∈I
=0,125 ⋅ 0,9072 + 0,174 ⋅ 0,9072 + 0,349 ⋅ 0,9754 +
+0,269 ⋅ 0,9578 + 0,083 ⋅ 0,8314 =
0,9383
Расчет вероятности правильного распознавания технических состояний
по R0 (p4 ) -алгоритму
1
p14 : R0 → R14 ; p24 : R0 → R17 ; p13 : R14 → R5 ; p23 : R14 → R3 ; p13 : R17 → R11;
p23 : R17 → R1; p12 : R11 → R4 ; p22 :R11 → R2
197
Продолжение табл. П3.11
(
)
P0 R1* (p4 )/R1 = (1 − b4 )(1 − b3 )= 0,9408;
(
)
(
)
P0 R1* (p4 )/R2 = (1 − b4 )a3= 0,0096; P0 R1* (p4 )/R3 = a4 (1 − b3 ) = 0,0294;
(
)
(
)
P0 R1* (p4 )/R4 = (1 − b4 )a3= 0,0096; P0 R1* (p4 )/R5 =a4 a3 =0,0003;
(
)
P0 R2* (p4 )/R1 = (1 − b4 )b3 (1 − b2 )= 0,018;
(
)
P0 R2* (p4 )/R2 = (1 − b4 )(1 − a3 )(1 − b2 )= 0,8934;
(
)
P0 R2* (p4 )/R3 = a4b3 (1 − b2 ) = 0,0006;
(
)
P0 R2* (p4 )/R4 = (1 − b4 )(1 − a3 )a2= 0,038;
(
)
P0 R2* (p4 )/R5 = a4 (1 − a3 )a2 = 0,0012;
2
(
)
(
)
P0 R3* (p4 )/R1 = b4 (1 − b3 ) = 0,0392; P0 R3* (p4 )/R2 =b4 a3 =0,0004;
(
)
P0 R3* (p4 )/R3 = (1 − a4 )(1 − b3 )= 0,9506;
(
)
(
)
P0 R3* (p4 )/R4 =b4 a3 =0,0004; P0 R3* (p4 )/R5 = (1 − a4 )a3= 0,0097;
(
)
P0 R4* (p4 )/R1 = (1 − b4 )b3b2= 0,0012;
(
)
(
)
P0 ( R4* (p4 )/R4 )= (1 − b4 )(1 − a3 )(1 − a2 )= 0,9124;
P0 ( R4* (p4 )/R5 ) = a4 (1 − a3 )(1 − a2 ) = 0,0285;
P0 ( R5* (p4 )/R1 ) =b4b3 =0,0008; P0 ( R5* (p4 )/R2 ) = b4 (1 − a3 ) = 0,0396;
P0 ( R5* (p4 )/R3 )= (1 − a4 )b3= 0,0194; P0 ( R5* (p4 )/R4 ) = b4 (1 − a3 ) = 0,0396;
P0 ( R5* (p4 )/R5 )= (1 − a4 )(1 − a3 )= 0,9603
P0 R4* (p4 )/R2 = (1 − b4 )(1 − a3 )b2= 0,057; P0 R4* (p4 )/R3 =a4b3b2 ≈ 0;
(
P0 R1 /R1* (p4 )
)
(
f∈I
198
)
P (S1 ) P0 R1* (p4 )/R1
=
=
∑ P (Sf ) P0 R1* (p4 )/Rf
(
)
Продолжение табл. П3.11
=
0,125 ⋅ 0,9408
= 0,8900;
0,125
0,9408
0,174
⋅
+
⋅ 0,0096 + 0,349 ⋅ 0,0294 + 



+0,269 ⋅ 0,0096 + 0,083 ⋅ 0,0003


(
)
P (S2 ) P0 R2* (p4 )/R2
P0 R2 /R2* (p4 ) =
=
∑ P (Sf ) P0 R2* (p4 )/Rf
(
)
f∈I
=
(
)
(
)
P (S3 ) P0 R3* (p4 )/R3
=
=
∑ P (Sf ) P0 R3* (p4 )/Rf
f∈I
3
)
0,174 ⋅ 0,8934
= 0,9240;
⋅
+
⋅ 0,8934 + 0,349 ⋅ 0,0006 + 
0,125
0,018
0,174



+0,269 ⋅ 0,038 + 0,083 ⋅ 0,0012


P0 R3 /R3* (p4 )
=
(
(
)
0,349 ⋅ 0,9506
= 0,9826;
 0,125 ⋅ 0,0392 + 0,174 ⋅ 0,0004 + 0,349 ⋅ 0,9506 + 


+0,269 ⋅ 0,0004 + 0,083 ⋅ 0,0097


(
)
P (S4 ) P0 R4* (p4 )/R4
P0 R4 /R4* (p4 ) =
=
∑ P (Sf ) P0 R4* (p4 )/Rf
(
)
f∈I
=
(
)
0,269 ⋅ 0,9124
= 0,9518;
 0,125 ⋅ 0,0012 + 0,174 ⋅ 0,057 + 0,349 ⋅ 0 + 


+0,269 ⋅ 0,9124 + 0,083 ⋅ 0,0285


(
)
P (S5 ) P0 R5* (p4 )/R5
P0 R5 /R5* (p4 ) =
=
∑ P (Sf ) P0 R5* (p4 )/Rf
(
)
f∈I
=
4
(
)
0,083 ⋅ 0,9603
= 0,7655
 0,125 ⋅ 0,0008 + 0,174 ⋅ 0,0396 + 0,349 ⋅ 0,0194 + 


+0,269 ⋅ 0,0396 + 0,083 ⋅ 0,9603


P (S1 ) = 0,125; P (S2 ) = 0,174; P (S3 ) = 0,349; P (S4 ) = 0,269;
P (S5 ) = 0,083
199
Продолжение табл. П3.11
(
)
D0 (p4 ) =
∑ P (Si ) P0 Ri /Ri* (p4 ) =
5
i∈I
=0,125 ⋅ 0,8900 + 0,174 ⋅ 0,9240 + 0,349 ⋅ 0,9826 +
+0,269 ⋅ 0,9518 + 0,083 ⋅ 0,7655 =
0,9345
Расчет вероятности правильного распознавания технических состояний
по R0 (p5 ) -алгоритму
1
p15 : R0 → R11; p25 : R0 → R20 ; p12 : R11 → R4 ; p22 : R11 → R2 ; p13 : R20 → R5 ;
p23 : R20 → R7 ; p14 : R7 → R3 ; p24 :R7 → R1
(
)
P0 R1* (p5 )/R1 = (1 − b5 )(1 − b3 )(1 − b4 )= 0,8938;
(
) = a5 (1 − b3 )(1 − b4 ) = 0,0188;
P0 ( R1* (p5 )/R3 )= (1 − b5 )(1 − b3 )a4= 0,0279; P0 ( R1* (p5 )/R4 ) =a5a3a4 ≈ 0;
P0 ( R1* (p5 )/R5 )= (1 − b5 )a3a4= 0,0003;
P0 ( R2* (p5 )/R1 ) = b5 (1 − b2 ) = 0,047;
P0 ( R2* (p5 )/R2 )= (1 − a5 )(1 − b2 )= 0,9212;
P0 ( R2* (p5 )/R3 ) = b5 (1 − b2 ) = 0,047;
P0 ( R2* (p5 )/R4 )= (1 − a5 )a2= 0,0392; P0 ( R2* (p5 )/R5 ) =b5a2 =0,002;
P0 ( R3* (p5 )/R1 )= (1 − b5 )(1 − b3 )b4= 0,0372;
P R* (p )/R2 ) = a5 (1 − b3 )b4 = 0,0008;
; 0( 3 5
P0 ( R3* (p5 )/R3 )= (1 − b5 )(1 − b3 )(1 − a4 )= 0,9031;
P0 ( R3* (p5 )/R4 ) = a5a3 (1 − a4 ) = 0,0002;
P0 ( R3* (p5 )/R5 )= (1 − b5 )a3 (1 − a4 )= 0,0092;
P0 ( R4* (p5 )/R1 ) =b5b2 =0,003;
P0 ( R4* (p5 )/R2 )= (1 − a5 )b2= 0,0588; P0 ( R4* (p5 )/R3 ) =b5b2 =0,005;
P0 ( R4* (p5 )/R4 )= (1 − a5 )(1 − a2 )= 0,9408;
P0 ( R4* (p5 )/R5 ) = b5 (1 − a2 ) = 0,048;
P0 R1* (p5 )/R2
2
200
Продолжение табл. П3.11
(
)
(
)
P0 R5* (p5 )/R1 = (1 − b5 )b3= 0,019; P0 R5* (p5 )/R2 =a5b3 =0,0004;
(
)
(
)
P0 R5* (p5 )/R3 = (1 − b5 )b3= 0,019; P0 R5* (p5 )/R4 = a5 (1 − a3 ) = 0,0198;
(
)
P0 R5* (p5 )/R5 = (1 − b5 )(1 − a3 )= 0,9405
(
)
P (S1 ) P0 R1* (p5 )/R1
P0 R1 /R1* (p5 ) =
=
∑ P (Sf ) P0 R1* (p5 )/Rf
(
)
f∈I
=
(
)
0,125 ⋅ 0,8938
= 0,8955;
 0,125 ⋅ 0,8938 + 0,174 ⋅ 0,0188 + 0,349 ⋅ 0,0279 + 


+0,269 ⋅ 0 + 0,083 ⋅ 0,0003


(
P0 R2 /R2* (p5 )
)
(
f∈I
=
3
)
P (S2 ) P0 R2* (p5 )/R2
=
=
∑ P (Sf ) P0 R2* (p5 )/Rf
(
)
0,174 ⋅ 0,9212
= 0,8293;
⋅
+
⋅ 0,9212 + 0,349 ⋅ 0,047 + 
0,125
0,047
0,174



+0,269 ⋅ 0,0392 + 0,083 ⋅ 0,002


(
)
P (S3 ) P0 R3* (p5 )/R3
P0 R3 /R3* (p5 ) =
=
∑ P (Sf ) P0 R3* (p5 )/Rf
(
)
f∈I
=
(
)
0,349 ⋅ 0,9031
= 0,9825;
⋅
+
⋅ 0,0008 + 0,349 ⋅ 0,9031 + 
0,125
0,0372
0,174



+0,269 ⋅ 0,0002 + 0,083 ⋅ 0,0092


(
)
P (S4 ) P0 R4* (p5 )/R4
P0 R4 /R4* (p5 ) =
=
∑ P (Sf ) P0 R4* (p5 )/Rf
(
)
f∈I
=
(
)
0,269 ⋅ 0,9408
= 0,9394;
 0,125 ⋅ 0,003 + 0,174 ⋅ 0,0588 + 0,349 ⋅ 0,005 + 


+0,269 ⋅ 0,9408 + 0,083 ⋅ 0,048


201
Окончание табл. П3.11
(
P0 R5 /R5* (p5 )
)
(
f∈I
=
4
)
P (S5 ) P0 R5* (p5 )/R5
=
=
∑ P (Sf ) P0 R5* (p5 )/Rf
(
)
0,083 ⋅ 0,9405
= 0,8442
⋅
+
⋅ 0,0004 + 0,349 ⋅ 0,019 + 
0,125
0,019
0,174



+0,269 ⋅ 0,0198 + 0,083 ⋅ 0,9405


P (S1 ) = 0,125; P (S2 ) = 0,174; P (S3 ) = 0,349; P (S4 ) = 0,269;
P (S5 ) = 0,083
(
)
D0 (p5 ) =
∑ P (Si ) P0 Ri /Ri* (p5 ) =
i∈I
5
202
=0,125 ⋅ 0,8955 + 0,174 ⋅ 0,8293 + 0,349 ⋅ 0,9825 +
+0,269 ⋅ 0,9394 + 0,083 ⋅ 0,8442 =
0,9219
СОДЕРЖАНИЕ
Обозначения математических объектов .............................................
Введение .......................................................................................
1. Основные понятия и определения. Место контроля и диагностирования при управлении техническим состоянием систем ...................
2. Теоретико-множественная интерпретация видов технического
состояния и отказов системы ...........................................................
2.1. Разбиение множества технических состояний на виды
технического состояния. Теоретико-множественное понятие отказа .
2.2. Параметры технического состояния .......................................
3. Наблюдаемость технических состояний и видов технического
состояния системы .........................................................................
3.1. Теоретико-множественная интерпретация видов технического
состояния и отказов системы на множестве наблюдаемых состояний..
3.2. Требования к контролируемым параметрам ............................
3.3. Полная наблюдаемость технических состояний ......................
3.4. Глубина диагностирования ...................................................
3.5. Глубина контроля правильности функционирования ...............
4. Метод алгебраического агрегирования в задачах контроля
и диагностирования .......................................................................
5. Контроль и диагностирование как задача распознавания образов ......
6. Процедуры обучения в моделях распознавания технических
состояний на основе методов непараметрической статистики ...............
6.1. Уровни определенности априорной информации об объекте
распознавания технических состояний ........................................
6.2. Постановка задачи построения изображений неработоспособных
состояний системы на основе неоднородной априорной информации
малых объемов .........................................................................
6.3. Схема итеративного градиентного поиска. Алгоритм Роббинса –
Монро ......................................................................................
6.4. Обучающая процедура на основе ортогонального тригонометрического базиса...........................................................................
6.5. Процедура группировки обучающих образов и ранжирования
групп ......................................................................................
6.6. Модифицированный алгоритм Роббинса – Монро ....................
7. Методы распознавания технических состояний системы .................
7.1. Комбинационный метод распознавания технических состояний .
7.2. Последовательный метод распознавания технических
состояний ................................................................................
8. Оптимальные алгоритмы распознавания технических состояний
системы ........................................................................................
8.1. Постановка задачи оптимизации процесса распознавания
технических состояний .............................................................
8.2. Целевая функция процесса распознавания технических
состояний ................................................................................
8.3. Оптимизация процесса распознавания технических состояний
методом динамического программирования ..................................
Библиографический список .............................................................
Приложение 1. Аксиоматика и свойства евклидовых пространств.........
Приложение 2. Ортогональная система функций. Ортогональный базис
Приложение 3. Оптимизация процесса распознавания технических
состояний системы методом динамического программирования
(к примеру 8.1) ..............................................................................
3
5
7
16
16
20
25
25
29
30
32
44
52
61
66
66
68
70
74
86
94
102
103
105
123
123
126
128
153
155
164
166
203
Учебное издание
Сеньченков Валентин Иванович
КОНТРОЛЬ И ТЕХНИЧЕСКАЯ
ДИАГНОСТИКА.
МЕТОДЫ ОПТИМИЗАЦИИ
В ЗАДАЧАХ РАСПОЗНАВАНИЯ
ТЕХНИЧЕСКИХ СОСТОЯНИЙ
Учебное пособие
Редактор В. С. Гончарова
Компьютерная верстка С. Б. Мацапуры
Сдано в набор 15.01.18. Подписано к печати 20.06.18.
Формат 60×84 1/16. Усл. печ. л. 11,8. Уч.-изд. л. 13,0.
Тираж 50 экз. Заказ № 284.
Редакционно-издательский центр ГУАП
190000, Санкт-Петербург, Б. Морская ул., 67
Документ
Категория
Без категории
Просмотров
3
Размер файла
2 228 Кб
Теги
senchenkov
1/--страниц
Пожаловаться на содержимое документа