close

Вход

Забыли?

вход по аккаунту

?

Использование нейронных сетей при анализе функционирования технической структуры с временным резервированием..pdf

код для вставкиСкачать
Машиностроение и машиноведение
PRELIMINARY FORMATION OF PRODUCTION PROGRAMS OF RELEASE
OF PARTS BASED ON DESIGN AND TECHNOLOGICAL ATTRIBUTES
V.V. Galiy
Article is devoted to formation of groups of parts based on design and technological
attributes. It's very important for the solution of a problem of formation of programs of release on early design stages. The author offered and proved criteria of classification parts.
Key words: Qualifier, grouping, design, technology.
Valentin Vladimirovich Galiy, assistant, galiy vv@mail.ru, Russia, Moscow, Moscow State Technological University named of Bauman
УДК 621.0:519.873
ИСПОЛЬЗОВАНИЕ НЕЙРОННЫХ СЕТЕЙ ПРИ АНАЛИЗЕ
ФУНКЦИОНИРОВАНИЯ ТЕХНИЧЕСКОЙ СТРУКТУРЫ
С ВРЕМЕННЫМ РЕЗЕРВИРОВАНИЕМ
В.Я. Копп, А.Л. Карташов, М.В. Заморенов, Л.Е. Карташов
Рассматривается возможность применения вероятностных нейронных сетей
для определения вида плотности распределения наработки на отказ или времени восстановления технологических ячеек на основе экспериментальных данных. Построена
модель нейронной сети, проведены эксперименты по распознаванию плотности распределения для ряда законов. Проанализировано влияние ряда параметров сети на
точность распознавания. Отдельно отмечается, что обоснованность использования
экспоненциального распределения позволяет существенно упростить задачи моделирования полумарковских систем. Приводится пример моделирования.
Ключевые слова: моделирование, вероятностная нейронная сеть, функция
распределения, плотность распределения, полумарковская система, уравнения марковского восстановления, стационарное распределение.
Достаточно важной является задача определения функции распределения (ФР) вероятности или плотности вероятности наработки на отказ и
восстановление по полученным экспериментальным данным как для технологических ячеек (ТЯ), так и для накопителей (Н).
На практике при статистическом анализе времен между отказами и
времен восстановления оборудования, результаты которого используются
для моделирования, точный вид закона распределения, как правило, неизвестен: исследователь располагает лишь выборкой из генеральной совокупности, размер которой может быть невелик.
67
Известия ТулГУ. Технические науки. 2015. Вып. 12. Ч. 1
При восстановлении данных по выборке из генеральной совокупности считается, что плотность вероятности является исчерпывающей характеристикой для любого закона распределения, и ее восстановление дает
лучший результат по сравнению с восстановлением ФР.
Способ оценивания плотности с использованием метода гистограмм по-прежнему остается одним из самых распространенных методов
восстановления плотности распределения. Он достаточно прост и легко
реализуем, однако недостатками данного метода считаются низкая надежность при малых значениях выборки, неустойчивость к выбросам и сложность выбора интервалов разбиения.
Анализируя построенную гистограмму, предполагают, что плотность соответствует некоторому определенному виду распределения, после чего оцениваются параметры этого распределения (среднее, стандартное отклонение и т.п.), которые можно получить аналитически. При помощи статистических критериев можно оценить непротиворечивость выдвинутой гипотезы о виде плотности распределения, но ответа о том, какой
вид распределения лучше, если все они удовлетворяют критерию, статистические критерии не дают.
Представляется целесообразным использовать подход к оценке
плотности вероятности, который основан на ядерных оценках, относящихся к непараметрическому оцениванию. К проблемам непараметрического
оценивания относятся и задачи оценивания плотности вероятностей. Для
оценки и выбора наилучшего закона, описывающего плотности вероятности наработки на отказ и плотности вероятности восстановления оборудования предлагается использовать аппарат вероятностных нейронных сетей.
Теория вероятностных нейронных сетей достаточно подробно изложена в
[1, 2].
Вероятностная нейронная сеть представляет собой параллельную
реализацию статистических методов Байеса. В вероятностной нейронной
сети образцы классифицируются на основе оценок их близости к соседним
образцам. Формальным правилом при классификации является то, что
класс с наиболее плотным распределением в области неизвестного образца, а также с более высокой априорной вероятностью и с более высокой
ценой ошибки классификации, имеет преимущество по сравнению с другими классами. Оценки стоимости ошибки классификации и априорной
вероятности предполагает хорошее знание решаемой задачи и в базовой
модели сети не используются.
Для оценки функции плотности распределения вероятностей применяют метод Парзена–Розенблатта [3], в соответствии с которым для каждого обучающего образца рассматривается некоторая весовая функция,
называемая ядром. Чаще всего в качестве ядра используется функция Га68
Машиностроение и машиноведение
усса. Чтобы определить функцию плотности распределения вероятностей
для всего i-го класса, функции Гаусса для всех обучающих векторов суммируются.
Принцип обучения вероятностной нейронной сети отличается от
принципов обучения других типов сетей тем, что число нейронов в слое
образцов определяется числом самих образцов и, следовательно, в ходе
обучения формируется сама структура сети. В вероятностной нейронной
сети необходимо провести предварительную нормализацию входных векторов. Это выполняется путем деления каждой компоненты входного вектора на его длину. Исходя из соответствия между векторами весов и векторами образцов, столбцы весовой матрицы тоже будут нормализованными
векторами.
Функция активности i-нейрона слоя суммирования определяет значение плотности распределения вероятностей для всего i-класса. Предъявление сети каждого из обучающих векторов сопровождается указанием от
учителя номера класса i, которому принадлежит входной образец. Последовательность предъявления обучающих векторов произвольна. После
предъявления всех векторов обучающей выборки, формируется структура
сети, и весовые коэффициенты сети в виде матрицы становятся определенными. После этого сеть готова к классификации неизвестных образцов.
Обученной сети предъявляется входной образ неизвестного класса,
который нормализуется, а затем соответствующим образом активирует
нейроны слоя образцов. Каждый нейрон слоя образцов выдает на своем
выходе определенный уровень активности. Каждый нейрон слоя суммирования суммирует уровни активности всех нейронов слоя образцов своего
класса, и выдает на своем выходе общий уровень активности данного
класса. Выходной нейрон на основании вычисленных сетью уровней активности по каждому классу определяет, какой из нейронов слоя суммирования имеет максимальный выходной сигнал. Тем самым определяется
номер класса i, к которому с большей вероятностью принадлежит предъявленный входной образ.
Вероятностная нейронная сеть имеет единственный управляющий
параметр обучения – степень сглаживания или ширина гауссовой функции.
Требуемое значение подбирается опытным путем, чтобы ошибка была минимальна.
Для создания обучающих выборок была составлена имитационная
модель в системе GPSS World. Программа моделирует отказы оборудования, которые подчиняются экспоненциальному закону, закону Вейбулла и
обобщенному закону Эрланга второго порядка, причем среднее значение
наработки принималось одинаковым для всех законов. Модель фиксировала наработку до наступления тысячи отказов, после чего подсчитывалась
69
Известия ТулГУ. Технические науки. 2015. Вып. 12. Ч. 1
частота попадания времени наработки в один из 20 интервалов времени.
Для каждого закона было проведено 5 экспериментов, которые и дали векторы обучающих выборок размерностью 20.
Кроме того, две процедуры, реализованные на языке PLUS, позволяют подсчитать частоту попаданий времени наработки в интервал и вывести эти значения в текстовый файл. Эти данные можно рассматривать и
как вектор размерности 20. Аналогичная программа была реализована и
для числа интервалов, равного 10.
Для моделирования вероятностной нейронной сети использовался
пакет STATISTICA 6.0. Нейросетевые методы анализа данных в данном
пакете изложены в [4]. Была построена вероятностная нейронная сеть
(рис. 1), которая решает задачу классификации 20 компонентных входных
векторов на 3 класса. Количество обучающих выборок по каждому распределению принято равным пяти. Входной слой сети не выполняет расчетов
и служит для приема и деления признаков входного вектора. Количество
нейронов входного слоя определяется количеством признаков вектора.
Слой образцов содержит по одному нейрону для каждого образца входного
вектора из обучающей выборки. Аналогичная сеть строилась и для решения задачи классификации 10 компонентных входных векторов.
Рис. 1. Структура вероятностной нейронной сети
После обучения сети осуществлялась проверка ее работы путем подачи на ее вход тестовых векторов для каждого распределения. Стоит заметить, что при подаче векторов, полученных при фиксации 1000 отказов,
все они были правильно распознаны обученными сетями. Однако на практике, при проведении эксперимента, получить достаточно большое число
70
Известия ТулГУ. Технические науки. 2015. Вып. 12. Ч. 1
F30 (t ), η3
F01 (t ), ξ1
F10 (t ), η1
F12 (t ), ξ 2
F03 (t ), ξ3
Рис. 3. Граф состояний системы
Состояния системы:
S0 – ТЯ исправна, накопитель исправен, временной задел в накопителе ξ2, состояние работоспособное;
S1 – ТЯ отказала, накопитель исправен, временной задел в накопителе ξ2, состояние работоспособное;
S2x – ТЯ в отказе, накопитель исправен, резерв времени израсходован, поскольку запас продукции в накопителе исчерпан (ξ2=0), состояние
не работоспособное;
S3 – ТЯ исправна, накопитель отказал, , состояние не работоспособное.
Времена пребывания в состояниях S0, S1, S2x и S3 определим из выражений:
θ 0 = (ξ1 ∧ ξ 3 );
θ1 = (η1 ∧ ξ 2 ); θ 2 x = x; θ 3 = η 2 ,
где ∧ – знак, обозначающий минимум случайных величин.
Тогда ФР времен пребывания в состояниях имеют вид:
для состояния S0
F0 (t ) = F01 (t ) ⋅ F03 (t ) ,
для состояния S1
F1 (t ) = F10 (t ) ⋅ F12 (t ) ,
для состояния S2x
F2 x (t ) = 1 x (t ) ,
0, t < x;
где 1x (t ) = 
1, t ≥ x,.
для состояния S3
F3 (t ) = F30 (t ) .
Стационарное распределение ρ(x) вложенной цепи Маркова определяется по формуле
72
Машиностроение и машиноведение
ρ( x) = ∫ p( x, y )ρ( y)dy ,
x
где p(x,y) – плотность вероятности перехода вложенной цепи Маркова.
Выражения для P(x,y) имеют вид
∞
 1
 P0 {ξ1 < ξ 3 } = ∫ F01 ( z ) f 03 ( z )dz,

0
∞

3
 P0 {ξ1 > ξ 3 } = ∫ F03 (t ) f 01 (t )dt,

0

∞
 P 0 = F (t ) f (t ) dt,
∫ 10 12
 1
0

 2x ∞
 p1 = ∫ f10 ( x + t ) f12 (t )dt,

0
 P 0 = 1,
 2x
 P30 = 1.
(1)
Используя систему (1), запишем систему уравнений для определения стационарного распределения вложенной ρ( x ) цепи Маркова [6 - 8]:
∞
∞

ρ 0 = ∫ ρ 2 x ⋅ 1x (t ) ⋅ dx +ρ3 ⋅ 1 + ρ1 ∫ F10 (w) f12 (w)dw,

0
0

∞
ρ = ρ F ( z ) f ( z )dz = ρ P{ξ < ξ }
0 ∫ 01
03
0
1
3 ,
 1

0

∞

ρ
=
ρ
1 ∫ f10 ( x + t ) f12 (t )dt,
 2x
0


∞
ρ3 = ρ 0 ∫ F03 (u) f 01 (u)du.

0
(2)
Условие нормировки
∞
∞
∞
0
0
0
∫ ρ 2 x dx +ρ 3 + ρ1 ∫ F10 ( w) f12 ( w)dw + ρ 0 ∫ F01 ( z ) f 03 ( z )dz +
∞
∞
∞
0
0
0
+ ∫ ρ1 ∫ f10 ( x + t ) f12 (t )dtdx + ρ 0 ∫ F03 (u ) f 01 (u )du = 1.
Решая (2) с использованием (3), получим
73
(3)
Известия ТулГУ. Технические науки. 2015. Вып. 12. Ч. 1
1

;
ρ
=
0

∞
∞

2 + ∫ F01 ( z ) f 03 ( z ) dz ∫ f12 (t ) F10 (t ) dt

0
0

∞

∫ F01 ( z ) f 03 ( z )dz

0
ρ =
;
1
∞
∞

2 + ∫ F01 ( z ) f 03 ( z ) dz ∫ f12 (t ) F10 (t ) dt


0
0

∞
∞

∫ F01 ( z ) f 03 ( z )dz ∫ f10 ( x + t ) f12 (t )dt

0
ρ 2 x = 0
;
∞
∞

2 + ∫ F01 ( z ) f 03 ( z )dz ∫ f12 (t ) F10 (t )dt


0
0

∞

∫ F 01 ( z ) f 03 ( z )dz

0
.
ρ3 =
∞
∞

2 + ∫ F01 ( z ) f 03 ( z )dz ∫ f12 (t ) F10 (t )dt

0
0

Для определения ФР времен наработки на отказ системы в целом
необходимо составить и решить систему уравнений Марковского восстановления. А для нахождения ФР времени восстановления системы достаточно воспользоваться формулой [9]



p
ρ
∑  ∑ ij i G j (t )
j∈M +  i∈M −

(4)
Fθ (t ) =
,
∑ ∑ pij ρ i
j∈M + i∈M −
Однако ввиду того, что состояние S 2 x является непрерывным, для
нахождения ФР времени наработки на отказ (времени непрерывной работы
системы) необходимо воспользоваться стационарным алгоритмом фазового укрупнения устойчивых состояний [7, 8] для того, чтобы перейти от
системы с непрерывными состояниями к системе с дискретными состояниями. Граф такой системы представлен на рис. 4.
Тогда вероятности переходов примут вид
∞
3
∫ f 01 ( z ) F03 ( z )dz; P0 {ξ1 > ξ3} = ∫ F01 (t ) f 03 (t )dt;
0
0
∞
∞
P10 = ∫ f10 (t ) F12 (t )dt ; P12 = ∫ F10 ( x) f12 (t ) dt ; P20 = 1; P30 = 1.
0
0
P01{ξ1 < ξ3} =
∞
74
Машиностроение и машиноведение
F01 (t ), ξ1
F30 (t ), η3
F12 (t ), ξ 2
F10 (t ), η1
F03 (t ), ξ3
Рис. 4. Граф состояний системы
В этом случае стационарное распределение ВЦМ:
1

;
ρ 0 =
∞
∞

2 + ∫ F01 ( z ) f 03 ( z ) dz ∫ f12 (t ) F10 (t )dt

0
0

∞

∫ F01 ( z ) f 03 ( z )dz

0
ρ =
;
1
∞
∞

2 + ∫ F01 ( z ) f 03 ( z ) dz ∫ f12 (t ) F10 (t )dt


0
0

∞
∞

F
z
f
z
dz
(
)
(
)
∫ 01
∫ f12 (t ) F10 (t )dt
03

0
ρ 2 = 0
;
∞
∞

2 + ∫ F01 ( z ) f 03 ( z )dz ∫ f12 (t ) F10 (t ) dt


0
0

∞

∫ F 01 ( z ) f 03 ( z )dz

0
ρ3 =
.
∞
∞

2 + ∫ F01 ( z ) f 03 ( z )dz ∫ f12 (t ) F10 (t ) dt

0
0

ФР времени пребывания системы в укрупненном дискретном состоянии S 2
t
t
∫ F01( z ) f 03 ( z )dz ∫ F10 (t + y) f12 ( y)dy
F2 (t ) = 1 − 0
0
t
.
t
∫ F01( z ) f 03 ( z )dz ∫ F10 ( y ) f12 ( y )dy
0
0
Запишем полумарковские ядра:
для состояния S0
t
t
0
0
Q01 (t ) = ∫ f 01 ( x ) F03 ( x ) dx ; Q03 (t ) = ∫ F01 ( x) f 03 ( x)dx ;
75
Известия ТулГУ. Технические науки. 2015. Вып. 12. Ч. 1
для состояния S1
t
t
0
0
Q10 (t ) = ∫ f10 ( x) F 12 ( x)dx ; Q12 (t ) = ∫ F10 ( x) f12 ( x)dx ;
для состояния S2
Q 2 x 0 (t ) = 1 x (t ) ;
для состояния S3
Q30 (t ) = F30 (t ) .
Составим уравнения марковского восстановления [7, 8, 10]:
t

ϕ
(
t
)
=
 0
∫ Q01 (dx)ϕ1 (t − x) + Q03 (t );

0
(5)

t

ϕ1 (t ) = ∫ Q10 (dx)ϕ 0 (t − x) + Q12 (t ).
0

Подставив полумарковские ядра в (5), получим
t
t

ϕ
(
t
)
=
ϕ
(
t
−
x
)
f
(
x
)
F
(
x
)
dx
+
 0
∫ 1
∫ F01 ( x) f 03 ( x)dx;
01
03

0
0
(6)

t
t

ϕ1 (t ) = ∫ ϕ0 (t − x) f10 ( x) F12 ( x)dx + ∫ F10 ( x) f12 ( x)dx.
0
0

Сделав замену переменных и подставив ϕ1 (t ) в выражение для
ϕ 0 (t ) в (6), получим
t
x
0
0
ϕ0 (t ) = ∫ f 01(t − x) F03 (t − x)dx ∫ ϕ0 ( y ) f10 ( x − y ) F12 ( x − y )dy +
t
x
t
+ ∫ f 01(t − x) F03 (t − x)dx ∫ F10 ( y) f12 ( y )dy + ∫ F01( x) f 03 ( x)dx.
0
0
(7)
0
Преобразовав (7), имеем
t
ϕ 0 (t ) = ∫ ϕ 0 ( y )[( f 01 F03 ) * ( f10 F12 )](t − y )dy +
0
x
t− y
t
0
0
0
+ ∫ F10 ( y ) f12 ( y )dy ∫ f 01 ( x) F03 ( x)dx + ∫ F01 ( x) f 03 ( x)dx.
Обозначим
Κ ( x) = [( f 01 F03 ) * ( f10 F12 )]( x) ;
x
t− y
t
0
0
0
Φ (t ) = ∫ F10 ( y ) f12 ( y )dy ∫ f 01 ( x) F03 ( x) dx + ∫ F01 ( x) f 03 ( x) dx .
76
(8)
Машиностроение и машиноведение
Тогда (8) будет иметь вид
t
ϕ 0 (t ) = ∫ ϕ 0 ( x )Κ (t − x) dx + Φ (t ) .
(9)
0
Введем оператор [11, 12]
t
[Aϕ 0 ](t ) = ∫ ϕ 0 ( x)Κ (t − x)dx .
0
Выражение (9) примет вид
ϕ 0 (t ) = [ Aϕ 0 ](t ) + Φ (t ) .
Решая (10), получим
∞
(10)
[ ]
ϕ 0 (t ) = [I − A]Φ (t ) = Φ (t ) + ∑ A n Φ (t ) .
n =1
Интегрируя, получим
t
ϕ0 (t ) = Φ (t ) + ∫ h(t − x )Φ ( x ) dx ,
(11)
0
∞
где h( x) = ∑ [( f 01 F03 ) * ( f10 F12 )](*)n ( x) ;
n =1
t
t− y
t
0
0
0
Φ (t ) = ∫ F10 ( y ) f12 ( y ) dy ∫ f 01 ( x) F03 ( x) dx + ∫ F01 ( x) f 03 ( x )dx .
Полученная ФР (11) описывает время наработки системы на отказ.
Найдем ФР времени восстановления системы, используя (4):
F2 (t ) P20 ρ 2 + F3 (t ) P30 ρ 3
θ
.
F23 (t ) =
0
0
P2 ρ 2 + P3 ρ 3
(12)
Так как, P20 = 1 и P30 = 1 , (12) имеет вид
F (t )ρ 2 + F3 (t )ρ 3
θ
F23
(t ) = 2
.
(13)
ρ 2 + ρ3
Формулы (11) и (13) дают возможность полностью описать поведение системы в целом, представив её в виде эквивалентного простейшего
элемента, имеющего два факторных состояния: отказовое и рабочее. Результаты моделирования по формуле (11) показывают стремление результата к точному решению в зависимости от количества приближений
(рис. 5), причем кривые 4 и 5 практически сливаются.
Исходными данными для моделирования служат ФР F01 (t ) , F03 (t ) ,
F10 (t ) и F12 (t ) , которые соответствуют обобщенному закону Эрланга второго порядка с параметрами λ 01 , λ 03 ; µ1 , µ 2 ; υ1 , υ 2 , причем
77
Машиностроение и машиноведение
позволяет заменить структуру «технологическая ячейка – накопитель» одним простейшим элементом, имеющим только два факторных состояния
(рабочее и отказовое), что значительно упрощает процесс моделирования
сложных систем. Учитывая, что метод последовательных приближений,
которым решались интегральные уравнения марковского восстановления,
является приближенным, в дальнейшем планируется провести исследования по поиску точного решения данной задачи.
Исследования выполнены при финансовой поддержке Министерства образования и науки Российской Федерации по базовой части государственного задания №2014/702 проект № 3858 и при поддержке гранта
РФФИ № 15-01-05840.
Список литературы
1. Р. Каллан. Основные концепции нейронных сетей: / пер. с англ.
М.: Издательский дом «Вильямс», 2001. 287 с.
2. Bishop C.M. Neural Networks for Pattern Recognition. Oxford: Oxford university press, 1995. 482 p.
3. Parzen E. On Estimation of a Probability Density Function and Mode
// Ann. Math. Statist. 33 (1962). No. 3. P. 1065–1076.
4. Нейронные сети. Statistica Neural Networks: Методология и технологии современного анализа данных / под ред. В.П. Боровикова. 2-е изд.
перераб. и доп. М.: Горячая линия – Телеком, 2008. 392 с.
5. Филипович О.В., Копп В.Я., Галкина Л.В. Моделирование участков автоматизированных линий с учетом стохастического характера межоперационных заделов //Сб. науч. тр. СИЯЭиП. Севастополь: СИЯЭиП,
2001. Вып. 5. С. 213−217.
6. Байхельт Ф., Франкен П. Надежность и техническое обслуживание. Математический подход / пер. с нем. М.: Радио и связь, 1988. 392 с.
7. Королюк В.С., Турбин А.Ф. Процессы марковского восстановления в задачах надежности систем. Киев: Наукова думка, 1982. 236 с.
8. Королюк В.С. Стохастические модели систем / отв. ред.
А.Ф. Турбин. Киев: Наукова думка, 1989. 208 с.
9. Райншке К., Ушаков И.А. Оценка надежности систем с использованием графов. М.: Радио и связь, 1988. 208 с.
10. Броди С.М., Власенко О.Н., Марченко Б.Г. Расчет и планирование испытаний систем на надежность. Киев: Наукова думка, 1970. 192 с.
11. Колмогоров А.Н., Фомин С.В. Элементы теории функций и
функционального анализа: учебник для ун-тов. 6–е изд., испр. М.: Наука,
1989. 623 с.
12. Михлин С.Г. Интегральные уравнения и их приложения к некоторым проблемам механики, математической физики и техники. М.: Гостехиздат, 1949. 380 с.
79
Известия ТулГУ. Технические науки. 2015. Вып. 12. Ч. 1
Копп Вадим Яковлевич, д-р техн. наук, проф., v_kopp@mail.ru, Россия, Севастополь, Севастопольский государственный университет,
Карташов Алексей Леонидович, инженер, kartashov.alekseyy@rambler.ru, Россия, Севастополь, Государственное автономное учреждение "Севастопольская телерадиокомпания",
Заморёнов Михаил Вадимович, канд. техн. наук, доц., zamoryonoff@gmail.com,
Россия, Севастополь, Севастопольский государственный университет,
Карташов Леонид Евгеньевич, канд. техн. наук, доц., ninakar@rambler.ru, Россия, Севастополь, Севастопольский государственный университет
THE USAGE OF NEURAL NETWORKS FOR ANALYSIS OF FUNCTIONING
OF TECHNICAL STRUCTURE WITH A TIME RESERVATION
V.Ya. Kopp, A.L. Kartashov, M.V. Zamoryonov, L.E. Kartashov
The opportunity of usage probability neural network for determining type of distribution density of mean times to failure or restoration time of technological modules which based
on experimental data have been showed. The model on neural network has been constructed.
The distribution density recognition experiments for number of laws have been taken. The influence of number parameters of network for recognition accuracy has been analyzed. It’s
need to separately noticing, that reasonableness of usage of exponential distribution provides
to simplify tasks of modeling of semi-markov systems. The example of modeling has been
shown.
Key words: modeling, probability neural network, distribution function, distribution
density, semi-markov system, equations of Markov’s restoration, stationary distribution.
Kopp Vadim Yakovlevich, doctor of technical sciences, professor, v_kopp@mail.ru,
Russia, Sevastopol, Sevastopol State University,
Kartashov Aleksey Leonidovich, engineer, kartashov.alekseyy@rambler.ru, Russia,
Sevastopol, State autonomous institution "Sevastopol Television and Radio Company",
Zamoryonov Mikhail Vadimovich, candidate of technical sciences, docent, zamoryonoff@gmail.com, Russia, Sevastopol, Sevastopol State University,
Kartashov Leonid Evgenevich, candidate of technical sciences, docent, ninakar@rambler.ru, Russia, Sevastopol, Sevastopol State University
80
1/--страниц
Пожаловаться на содержимое документа