close

Вход

Забыли?

вход по аккаунту

?

Teoria verojatn matem statistika i sluch processy

код для вставкиСкачать
Федеральное агентство связи
Федеральное государственное образовательное бюджетное учреждение
высшего профессионального образования
ПОВОЛЖСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
ТЕЛЕКОММУНИКАЦИЙ И ИНФОРМАТИКИ
ЭЛЕКТРОННАЯ
БИБЛИОТЕЧНАЯ СИСТЕМА
Самара
1
ФЕДЕРАЛЬНОЕ АГЕНТСТВО СВЯЗИ РФ
ГОУ ВПО «ПОВОЛЖСКАЯ ГОСУДАРСТВЕННАЯ
АКАДЕМИЯ ТЕЛЕКОММУНИКАЦИЙ
И ИНФОРМАТИКИ»
В.Н. ТАРАСОВ, Н.Ф. БАХАРЕВА
ТЕОРИЯ ВЕРОЯТНОСТЕЙ,
МАТЕМАТИЧЕСКАЯ СТАТИСТИКА
И СЛУЧАЙНЫЕ ПРОЦЕССЫ
ИЗДАНИЕ ВТОРОЕ,
ПЕРЕРАБОТАННОЕ
Рекомендуется ГОУ ВПО МГТУ
им. Н.Э. Баумана к использованию
в образовательных учреждениях,
реализующих образовательные
программы ВПО по
специальностям направления
«Информатика и вычислительная
техника».
Самара 2008
2
ББК 22.17я73
Т 19
УДК 519.2(075.8)
Рецензенты:
Заведующий кафедрой информационных систем и
технологий Самарского государственного аэрокосмического
университета, заслуженный работник высшей школы РФ,
Академик международной академии информатизации, д.т.н.,
профессор С.А. Прохоров;
д.ф.-м.н., профессор кафедры «Высшая математика»
МГТУ им. Н.Э.Баумана А.В. Филиновский.
Тарасов В.Н., Бахарева Н.Ф.
T 19 Теория вероятностей, математическая статистика и
случайные процессы.– Оренбург:ИПК ОГУ, 2008 –
280 с.
ISBN 5-7410-0415-6
Учебное пособие предназначено для студентов
специальностей направления 230100 – Информатика и
вычислительная техника.
ББК 22.17я73
ISBN 5-7410-0415-6
©Тарасов В.Н., Бахарева Н.Ф.
3
СОДЕРЖАНИЕ
1
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
1.10
1.11
1.12
1.13
1.14
1.15
2
2.1
2.2
2.3
2.4
Введение
Основные понятия теории вероятностей
Испытания и события
Классическое определение вероятности
Статистическое определение вероятности
Геометрические вероятности
События и действия над ними
Аксиоматическое определение вероятности
Основные теоремы теории вероятностей
Формула полной вероятности
Формула Бейеса
Повторение испытаний. Формула Бернулли
Локальная формула Муавра−Лапласа
Интегральная формула Муавра−Лапласа
Формула Пуассона
Простейший поток событий
Задание №1 на самостоятельную работу. Реше ние типовых задач
Одномерные случайные величины. Законы рас пределения вероятностей случайных вел ичин
Случайные величины
Функция распределения вероятностей случайной вел ичины
Плотность распределения вероятностей н епрерывной
случайной величины
Примеры дискретных распределений вероя тностей
7
9
9
10
10
11
12
14
15
18
19
20
21
21
23
23
25
31
31
32
34
37
37
38
38
39
39
41
43
45
46
2.4.1
2.4.2
2.4.3
2.5
2.5.1
2.5.2
2.5.3
2.5.4
2.5.5
Биномиальное распределение
Распределение Пуассона
Геометрическое распределение
Примеры непрерывных распределений
Закон равномерного распределения вероятностей
Нормальный закон распределения
Экспоненциальный закон распределения
Распределение Вейбулла
Гамма – распределение
2.6
Задание №2 на самостоятельную работу. Решение т иповых задач
47
Числовые характеристики случайных величин
51
Математическое ожидание случайной велич ины
51
3
3.1
4
3.2
3.3
3.4
4
4.1
4.2
4.3
4.4
4.5
4.6
4.7
4.8
4.9
5
5.1
5.2
5.3
5.4
5.5
5.6
6
6.1
6.2
6.3
6.4
6.5
6.6
7
7.1
7.2
7.3
7.4
Свойства математического ожидания
Дисперсия случайной величины. Моменты высших порядков
Задание №3 на самостоятельную работу
Многомерные случайные величины
Многомерная случайная величина. Совместная фун кция распределения
Дискретные двумерные случайные величины
Непрерывные двумерные случайные велич ины
Условные законы распределения компонент дву мерной
случайной величины
Условные числовые характеристики
Зависимые и независимые случайные велич ины
Числовые характеристики двумерной случайной вел ичины. Ковариация и коэффициент корреля ции
Многомерное нормальное распределени е
Задание №4 на самостоятельную работу
Функции от случайных величин. Числовые х арактеристики и законы распределения
Примеры функциональной зависимости между случа йными величинами
Функции от одномерной случайной величины
Функции от случайного векторного аргумента
Математическое ожидание функции от случайной в еличины
Дисперсия функции от случайной величины
Задание №5 на самостоятельную работу
Предельные теоремы теории вероятностей
Закон больших чисел и центральная предельная теор ема
Неравенство Чебышева
Закон больших чисел (теорема Чебышева)
Обобщенная теорема Чебышева. Теоремы Мар кова и
Бернулли
Понятие о
теореме Ляпунова. Формулировка ц ентральной предельной теоремы
Задание № 6 на самостоятельную работу
Элементы математической статистики
Основные задачи математической статистики
Статистическая совокупность и статистическая фун кция распределения
Гистограммы
Числовые
характеристики
статистического
рас -
54
56
62
65
65
66
68
69
71
74
75
80
81
87
87
88
90
92
94
95
100
100
100
102
103
106
108
114
114
115
118
5
7.5
7.6
7.7
7.8
7.9
7.10
7.11
7.12
8
8.1
8.2
8.3
8.4
8.5
8.6
8.6.1
8.6.2
8.6.3
8.6.4
9
9.1
9.2
9.3
9.4
9.5
пределения
120
Критерии согласия
126
Статистические оценки для неизвестных п араметров
распределения
137
Оценки для математического ожидания и ди сперсии
140
Доверительный интервал и доверительная вер оятность
142
Связь между доверительным интервалом и про веркой
гипотез о среднем значении
148
Оценка неизвестной вероятности по частоте
152
Точечные оценки для числовых характеристик мног омерных случайных величин
155
Задание №7 на самостоятельную работу
160
Основные понятия теории случайных проце ссов
164
Определение случайного процесса. Классифика ция
случайных процессов
166
Законы распределения и основные характери стики
случайных процессов
169
Канонические разложения случайных проце ссов
180
Характеристики стационарных случайных про цессов
183
Спектральное разложение стационарного слу чайного
процесса
195
Классификация и определение марковских про цессов
201
Дискретный марковский процесс
203
Непрерывный марковский процесс. Уравнение Фоккера
– Планка – Колмогорова
208
Диффузионное приближение систем массового обсл уживания
216
Обобщенная двумерная диффузионная модель систем
массового обслуживания типа GI/G/1/∞ с бесконечной
очередью и GI/G/1/m с конечной очередью и потерями
220
Моделирование случайных величин, процессов и пот оков событий
230
Генерирование и статистический анализ псе вдослучайных чисел
230
Моделирование непрерывных случайных величин
232
Задание №8 на самостоятельную работу
239
Содержание отчѐта
239
Аппроксимация законов распределения
246
6
9.5.1
9.5.2
9.5.3
9.6
9.6.1
9.6.2
9.6.3
Задача сглаживания статистических рядов. Тео ретические основы лабораторной работы
Задание №9 на самостоятельную работу
Содержание отчѐта
Аппроксимация корреляционных функций и спе ктральных плотностей ортогональными функ циями
Лагерра
Теоретические основы лабораторной работы
Задание №10 на самостоятельную работу
Содержание отчѐта
Список использованной литературы
Приложение
246
251
252
258
258
267
267
271
272
7
ВВЕДЕНИЕ
1. Предмет теории вероятностей. Теория вероятностей есть математическая наука, изучающая закономерности в массовых одн ородных случайных явлениях (событиях). Случайное явление – это
такое явление, которое при н еоднократном воспроизведении одного
и того же опыта протекает каждый раз несколько по иному. В кач естве примера рассмотрим стрельбу из орудия, установле нного под
заданным углом Θ 0 к горизонту, начальной скоростью V 0 и баллистическим коэффициентом снаряда С. Используя эти параметры
можно определить теоретическую траекторию снаряда. При мног ократном повторении этого опыта фактически получится пучок трае кторий за счет совокупного влияния многих случайных факторов, таких как: отклонение веса заряда снаряда от номинала, ошибки уст ановки ствола в заданное положе ние, метеорологические условия и
т.д.
Такие случайные отклонения неизбежно сопутствуют лю бому закономерному явлению. Методы теории вероятностей по природе
приспособлены для исследования массовых слу чайных явлений и
дают возможность предсказать средний суммарный результат ма ссы
однородных случайных явлений. При этом они не дают во зможность
предсказать исход отдельного случайного явления.
Практика показывает, что, наблюдая в совокупности массы о днородных случайных явлений, можно обнаружить в них определе нные закономерности (свойство устойчивости). Например, при многократном бросании монеты частота появления герба (отношение
числа выпавших гербов к общему числу бросаний) прибл ижается к
определенному числу 1/2.
Методы теории вероятностей широко применяются в раз личных
областях науки и техники, таких как: теория надеж ности, теория
массового обслуживания, теоретическая фи зика, теория связи и во
многих других теоретических и прикладных науках.
В этом учебном пособии многие вопросы теории вер оятностей,
статистики и случайных процессов рассмотрены с точки зрения в ероятностного и статистиче ского моделирования.
2. Краткая историческая справка. Систематическое исследование задач, связанных с массовыми случайными явле ниями
можно найти в начале XVII века у знаменитого физика Галилея. Он
анализировал ошибки физических и змерений, рассматривал их как
случайные и оценивал их вероятности.
Однако первые работы, в которых зарождались основные пон ятия теории вероятностей, представляли собой попытки создания те ории азартных игр (Кардано, Гюйгенс, Паскаль, Ферма и др. в XVI 8
XVII вв.). Само слово азарт (фр. «le hasard») означает сл учай.
Следующий этап развития теории вероятностей связан с им енем
Я.Бернулли (1654-1705), которому принадлежит до казательство так
называемого закона больших чисел, уста новление связи между вероятностью события и частотой его появления.
Дальнейшее развитие теории вероятностей связано с име нами
Муавра (1667-1754), Лапласа (1749-1827), Гаусса (1777-1855), Пуассона (1781-1840) и др. Стройной математической наукой теория в ероятностей стала с работами П.Л.Чебышева (1821 -1894) и его учеников А.А. Маркова (1856-1922) и А.М. Ляпунова (1857-1918) – ученых Петербургской математиче ской школы. Дальнейшее развитие
теории вероятностей и математической статистики связано с имен ами русских математиков (С.Н. Бернштейн, В.И. Романо вский, А.Н.
Колмогоров, А.Я. Хинчин, Б.В. Гнеденко, Н.В. Смирнов и др.). Из
зарубежных математиков в области случайных процессов особо сл едует выделить Н. Винера, В. Феллера, Д. Дуба, а в теории вероятн остей и математической статистике – Р.Фишера, Ю. Неймана, Г. Крамера, Э.Пирсона и др.
9
1. ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ
1.1 Испытания и события
Случайным событием называют всякий факт, который может
произойти или не произойти при проведении ко нкретного опыта при
осуществлении некоторого комплекса усло вий (обозначим А, В, С,
… ). Таким образом, событие будем рассматривать как исп ытание.
Вероятность события – численная мера объективной возможности наступления события.
Предположим, что в результате эксперимента может на ступить
одно и только одно событие из n равновозможных событий. Под
равновозможностью событий понимают тот случай, когда можно
принять гипотезу о том, что в заданных условиях определенные и сходы опыта возможны в равной мере. Тогда полагают, что вероя тность каждого из этих событий равна 1/n.
Например, вероятность выпадения г ерба при бросании монеты
1/2, а одной из граней игральной ко сти - 1/6.
Каждое из n равновозможных событий называют элементарными исходами и обозначаются 1 , 2 , . . . , n .
Случайное событие А связано с наступлением какого -либо элементарного события
элементарных событий
i из пространства
={ 1 , 2 , ..., n }, т. е. при некотором значении
событие А наступает, а при некоторых не наступает.
Элементарные исходы
, при которых событие А наступает, называются элементарными исходами, благоприятст вующими событию
А.
Пример 1.1. Событие А состоит в выпадении четного числа о чков при бросании игральной кости. Пространство элементарных с обытий ={1,2,3,4,5,6}. Событию А можно сопоставить таблицу:
1
2
3
4
5
6
,
0
1
0
1
0
1
где 1 - благоприятствующий исход; 0 - не благоприятствующий исход, тогда событию А благоприятствуют исходы (2,4,6).
Данные n равновозможных события определяют 2 n различных
случайных событий. Именно столько, сколько можно составить
функций с двумя возможными значениями при n возможных значениях аргумента.
Индикатор события
10
I A (ω)
1, ω благоприятствуют событию А,
0, ω неблагоприятствуют событию А.
1.2 Классическое определение вероятности
Вероятностью события А называют отношение числа m благоприятствующих исходов к общему числу n равновозможных собы-
m
тий, образующих полную группу Р(А)=
или P A
n
n
(1 / n)
I A ωi .
i 1
Отдельно выделим достоверное событие
, которому благоприятствуют все элементарные события и P( )=1; невозможное
событие Ø: Р(Ø)=0.
Для случайных событий 0<Р(A)<1.
Пример 1.2. Брошены 2 игральные кости. Найти вероятность того, что сумма полученных очков равна 4.
Решение. Пространство элементарных событий ={(1, 1), (1,2),
…, (6,6)}.
Всего исходов−n=6·6=36 .Число благоприятствующих исходов
m=3. Благоприятствующие исходы – {(1,3), (3,1), (2,2)}.
Вероятность события - P(A)=3/36=1/12.
1.3 Статистическое определение вероятности
Число равновозможных исходов конечно, поэтому кла ссическое
определение ограничено. К тому же результат и спытаний не всегда
можно представить в виде сово купности элементарных событий. Поэтому вводят понятие статистической вероятности.
Частотой события А называют отношение числа m испытаний, в
которых событие А появилось, к общему числу n проведенных испытаний. Аналогично, используя индикатор события i =l, если в i-м
испытании событие А произошло и
i =0, если событие А не произошло, определим частоту
р * =(l/n)·( 1 + 2 +. . .+ n )- частота события А в n испытаниях.
Если допустить, что опыты проводились в одинаковых ус ловиях
и число испытаний велико и р * р при
n
, где р-const, то событие А обладает вероятностью равной
(р=Р(А)), где р * - статистическая вероятность. Ко ротко этот факт записывают как р *
р.
p
Пример 1.3. Пусть завод выпускает массовую продукцию. Е сли
изделия, выпущенные заводом и поступившие в продажу, выходят из
строя в течение года, то требуется его за менить. Сколько требуется
запасных изделий, если в течение года продается N изделий ?
11
Решение. Обозначим событие А - отказ изделия.
1. Предположим, что событие обладает некоторой вер оятностью
р; отношение m вышедших из строя изделий к общему числу N есть
частота события А при N испытаниях р * =m/N. Если N − велико, то
частота приблизительно совпадает с вероя тностью р. Тогда р * ≈ р,
отсюда m Nр.
2. Пусть р неизвестная величина, тогда надо поставить n опытов
(испытание n изделий в течение года); и пусть среди них в k случаях изделие отказало. Отсюда р * =k/n, и если n - велико, тогда р * р,
m n·р * .
1.4 Геометрические вероятности
Выше было отмечено, что классическое определение не применимо в случае бесконечного числа исходов. Чтобы преод олеть
этот недостаток, вводят вероятности попадания точки в область (о трезок, часть плоскости и.д.). Рассмотрим геометрические вероятн ости на примере.
Пример 1.4. Пусть на
плоскости начерчены две к онцентрические окружности, радиусы которых r=5 см, R=10 см соответственно. Найти вероятность того, что точка, брошен ная наудачу в
большой круг, попадет в кольцо.
Решение. Площадь кольца S k = (R 2 −r 2 )= (10 2 −5 2 )=75
(см 2 ).
Площадь большого круга
S= R 2 =100 (см 2 ). Искомая вероятность
P(A)=S k /S=0,75.
Геометрические вероятности могут сводиться к отношениям
длин отрезков, площадей, объемов.
1.5 События и действия над ними
В каждой вероятностной задаче задается некоторое мно жество
элементов или точек
( − пространство событий,
− элементарные события).
− конечное множество точек в классическом о пределении вероятности, но в ряде задач
− бесконечное множество.
Для такого случайного события, как отказ физического эл емента
любой системы пространство ={ 0}, где − момент отказа.
Должно быть задано пространство
и любое событие, отождествленное с некоторым подмножеством A
, тогда событие будет
интерпретироваться как попадание элемен тарного события
в множество А.
В виду такого тесного соответствия между событием и множес твом они обозначаются одними и теми же символами. Над соб ытиями
можно проводить те же операции что и над множествами. Пусть А
12
некоторое событие (
I) и заданное множество − часть простого с обытия .
1. Объединение событий  А − событие, состоящее в наступлении хотя бы одного из событий А (
n
i 1
2. Пересечение событий  А
Ai ).
− событие, состоящее в том, что
произойдут все события (A 1 ·A 2 ·. . .·A n ).
Достоверное событие ={
}.
Невозможное событие Ø={
Ø }.
3. Разность событий А\В − событие, состоящее в том, что прои сходит А, но не происходит В (А−В).
A = \A − дополнение к событию А ( противоположное событию
А).
Р( A )=1-Р(A).
Установим соответствие между событиями и логическими выск азываниями, используя символ
принадлежности. Запись A B означает, что любой элемент А входит в множество В (A − частный случай В или из А следует В).
Действия над событиями.
1. A  А=А
10. Если A B, то В=А  (B\A)
2. А ∩ А=А
11. А \ В=А B
12. A  В=A  (В\A)
3. A  A =
13. A  (В  С)=(A  В)  С
4. A ∩ A =Ø
14. A∩(В∩С)=(A∩В)∩С
5. A  =
15. A∩(В  С)=(A∩В)  (A∩С)
6. A ∩ =A
7. A  Ø=A
16. A  (В∩С)=(A  В)∩(A  С)
8. А ∩ Ø=Ø
17.  Aα  Aα
α
9. Если A B и B C, то A C
18.  Aα
α
α
 Aα
α
При небольшом числе событий (3-5) все эти операции можно
анализировать с помощью диаграмм Эйлера - Венна.
13
A1 A 2
A1
A1
A2
A1 A 2
A2
A1A 2
A1 A 2
Рис. 1.1
Два события A и В называются несовместными, если А ∩ В=Ø, т.е. они не
могут наступить одновременно; А и A − несовместны.
События А (
I) называются несовместными, если несовместны два события А и А , где
; ,
I.
События А образуют полную группу, если их объединение по всем α есть
достоверное событие (  А = и А ∩А =Ø ), т. е. в данном опыте произойдет
одно и только одно из событий А . Сумма вероятностей событий, удовлетворяющих этим условиям равна 1.
1.6 Аксиоматическое определение вероятности
Пусть дано произвольное множество ={ } элементарных событий. Пусть
определена некоторая система Q подмножеств −называемых случайными событиями и для каждого события А Q определяется некоторая числовая функция P(A).
Множество Q должно обладать следующими свойствами ( − алгебра):
1.
Q;
2. если А Q, то A
Q;
3. если А
Q, то  А
Q; ∩ А
Q.
α
Числовая функция P(A) определенная для всех событий, вход ящих в Q, удовлетворяет следующим условиям (акси омам):
1. Р(A) 0, A Q – аксиома неотрицательности;
2. P( )=1 – аксиома нормированности;
3. P(  А )= P(А ) – расширенная аксиома сложения
(А – несовместные события).
Тройку { ,Q, P}называют вероятностным пространством.
Два события А и В независимы, если Р(A·В)=Р(A)·Р(В), в противном случае события называют зависимыми.
14
Пример 1.5. Пусть событие А - выпадение герба у первой монеты; В - выпадение герба у второй монеты. Тогда вероятности
Р(A)=Р(В)=1/2, Р(A·В)=1/4,
P(A·B)=P(A)·P(B). Отсюда следует, что А и В - независимые события.
С другой стороны, если A и В независимы, то независимы A , В;
А, B ; A , B .
События А 1 , А 2 , ..., А n независимы в совокупности, если для любой подгруппы Ai ,...,Ai выполнено соотношение
1
k
P( Ai
1
Aik ) = P Ai1
P Ai k .
Пример 1.6. Пусть на ЭВМ решается некоторая задача. Обозначим
события:
А − правильное решение задачи;
A 1 − отсутствие ошибок в программе;
А 2 − отсутствие ошибок в исходных данных;
А 3 − правильный ввод информации в ЭВМ;
A 4 − отсутствие сбоев при решении задачи;
A 5 − отсутствие сбоев у принтера.
Приняв гипотезу о независимости этих событий можно найти в ероятность события A: P(A)=P(A 1 )·…·Р(A 5 ) .
Пусть A и В случайные события и Р(A)>0. Тогда отношение
Р(A·В)/Р(В) называют условной вероятностью события А при условии, что произошло событие В ( обозначается Р(A/В) ).
1. 7 Основные теоремы теории вероят ностей
Теорема 1. Сложение вероятностей.
Вероятность суммы двух несовместных событий равна сумме в ероятностей этих событий.
Р(A+В)=Р(A)+Р(В), где А и В − несовместные события.
Доказательство. Пусть n - общее число возможных элементарных
исходов, а m 1 −число исходов, благоприятствующих соб ытию А; m 2 −
число исходов, благоприятствующих собы тию В. Тогда P(A)=m 1 /n,
P(B)=m 2 /n.
Так как события А и В − несовместные, то нет таких исходов,
благоприятствующих наступлению A и В вместе. Следовательно, событию (А+В) благоприятствуют (m 1 +m 2 ) исходов и вероятность
Р(А+В)=(m 1 +m 2 ) /n=P(A)+P(В).
Замечание. Теорема 1 повторяет аксиому 3. Тем не менее мы ее
здесь доказали с использованием схемы случаев.
Следствие 1. Вероятность появления одного из несколь ких попарно несовместных событий равна сумме вероятностей этих событий
15
Р(А 1 +...+A n )= Р(А 1 )+…+ Р(A n ).
Следствие 2. Вероятность суммы n событий, образующих полную группу несовместных событий, равна 1. Сумма этих событий
есть достоверное событие.
Противоположными событиями называют два несовместных
события, образующих полную группу и обозн ачают как А и A .
Следствие 3. Сумма вероятностей противоположных собы тий
равна 1, т.е. Р(A)+Р( A )=1.
Теорема 2. Умножение вероятностей.
Вероятность произведения двух событий равна произведе нию
вероятности одного из них на условную вероятность другого, в ычисленную при условии, что первое с обытие произошло, т.е.
Р(А·В)=Р(А)·Р(В/А).
Доказательство. Пусть n − общее число возможных элементарных исходов;
m − число исходов, благоприятствующих событию А;
k − число исходов, благоприятствующих событию В.
Так как А и В могут быть совместными, то существуют исходы,
благоприятствующие и А и В вместе. Пусть число таких исходов
равно l. Тогда
Р(А·В) = l/n, Р(А)=m/n.
Вычислим условную вероятность события В при условии, что
событие А произошло. Если А произошло, то из ранее возможных n
исходов остаются возможными только те m, которые благоприятствуют А, а из них l исходов благоприятствуют В. Тогда
Р(В/А)= l/m и Р(А)·Р(В/А) =(m/n)·(l/m)=l/n=P(А·В).
Следствие 1. Если событие А не зависит от события В, то и В не
зависит от А, т.е. Р(A/В)=Р(A) или Р(В/A)=Р(В).
Следствие 2. Вероятность произведения двух независимых соб ытий
равна
произведению
вероятностей
эти х
событий:
Р(A·В)=Р(A)·Р(В).
Следствие 3. Если события А 1 ,А 2 , . . . , A n –зависимые, то
Р(А 1 ·А 2 ·...·A n ) =Р(A 1 )·Р(A 2 /A 1 )·Р(A 3 /A 1 A 2 )·... Р(А n /А 1 А 2 ...A n ).
Если события A 1 , А 2 , . . ., A n – независимые, то
Р(А 1 ·А 2 ·...·A n )=Р(A 1 )·Р(A 2 )·Р(A 3 )·...·Р (А n ).
Пример 1.7. Прибор, работающий в течении времени t, состоит
из трех узлов, каждый из которых, не зависимо один от др угого, в
течении этого времени может выйти из строя. От каз хотя бы одного
узла приводит к отказу прибора в целом. За время t надежность (вероятность безотказной работы) первого узла равна 0,8, второго – 0,9,
третьего – 0,7. Найти надежность прибора в ц елом.
Решение. Обозначим через А − надежность прибора в целом, а A i
16
− надежность i-го узла (i=1,2,3). Тогда А=А 1 ·А 2 ·А 3 и
Р(А) =P(A 1 )·P(A 2 )·P(A 3 )=0,8·0,9·0,7=0,504.
Теорема 3. Сложение вероятностей совместных с обытий.
Эта теорема устанавливает связь между теоремой 1 и тео ремой
2.
Вероятность появления хотя бы одного из двух совмест ных событий равна сумме вероятностей этих событий без ве роятности их
совместного появления.
Доказательство. Для наступления события А достаточно, чтобы
произошло хотя бы одно из следующих несовместных событий: A·В,
A· B .
Аналогично для В: А·В, A ·В. Тогда вероятности событий А и В
соответственно равны: Р(А)=Р(А·В)+Р(А· B ),
Р(В)=Р(A·В)+Р( A ·В).
Для наступления хотя бы одного из событий А или В достаточно,
чтобы произошло одно из трех попарно несовмест ных событий: А·В,
A· B , A ·В. Следовательно,
Р(A+В)=Р(А·В)+Р(A· B )+Р( A ·В).
Подставив первые два равенства в последнее равенство, по лучим
Р(A+В)=Р(A)+Р(В)−Р(A·В).
Следствие. Методом математической индукции данную теор ему
можно обобщить на случай суммы n событий:
Р(А 1 + А 2 +. . .+A n )=1−Р( A1 · A2 ·…· An )=l−q 1 ·q 2 ·…·q n ,
где
P( Ai )=q i =1−p i .
Пример 1.8. Чтобы вывести самолет из строя при разрыве снаряда на некотором расстоянии R от самолета, необходимо поразить
осколками либо оба двигателя, либо кабину лет чика. При разрыве
снаряда на расстоянии R от самолета вероятность поражения осколками каждого из двигателей равна 0 ,2, а кабины летчика – 0,3. Найти
вероятность поражения самолета при разрыве снаряда на расстоянии
R, если агрегаты выходят из строя независимо.
Решение. Ведем события: С − поражение самолета;
L − поражение кабины летчика;
D 1 − поражение первого двигателя;
D 2 − поражение второго двигателя. Тогда
С=D 1 D 2 +L P(C)=P(L)+P(D 1 D 2 )−P(L·D 1 ·D 2 )=
=0,3+0,2·0,2−0,3·0,2·0,2=0,328 .
Пример 1.9. В электрическую сеть последовательно вклю чены
три элемента, работающие независимо один от друг ого. Вероятности
отказов этих элементов соответственно равны 0,1; 0,15; 0,2. Найти
вероятность того, что тока в цепи не б удет.
Решение. Обозначим через A событие, что тока в цепи нет. Тогда
17
Р(A)=1−(1−0,1)(1−0,15) (1−0,2)=0,388.
1.8 Формула полной вероятности
Предположим, что некоторое событие А может наступить лишь
при условии появления одного из несовм естных событий В 1 , В 2 , …,
В n , образующих полную группу. Извес тны вероятности этих событий
Р(В i ) и условные вероятности Р(А/В i ). Как найти вероятность события А?
Теорема. Вероятность события A, которое может наступить только при условии появления одного из несовмест ных событий В 1 ,
...,В n , образующих полную группу, равна сумме произведений вер оятностей каждого из этих событий на соответствующую условную
вероятность события А.
n
P(A)=
P(B i )P(A/ B i ).
i 1
Доказательство. Появление события А означает появление одного из несовместных событий В 1 ·А, В 2 ·А, ..., В n ·А, т.е.
А=В 1 А+В 2 А+…+В n А.
По
теореме
сложения
вероятностей
Р(A)=Р(В 1 A)+...+Р(В n A). По теореме умножения вероятностей зависимых событий
P(B 1 A)=P(B 1 )·P(A/B 1 ), ..., Р(В n A)=Р(В n )·Р(A/В n ).
Отсюда получим P(A)=
n
P(B i )P(A/ B i ).
i 1
Пример 1.10. Имеется два ящика деталей. Вероятность того, что
деталь из первого ящика стандартная, равна 0,8 и, что деталь из вт орого ящика стандартная, равна 0,9. Найти вероятность того, что
взятая наудачу деталь из наудачу вы бранного ящика стандартная.
Решение. Обозначим события:
А − взятая деталь стандартная;
B 1 − деталь взята из первого ящика;
В 2 − деталь взята из второго ящика.
P(A/B 1 ) − вероятность того, что из первого ящика будет взята ста ндартная деталь; Р(A/В 2 ) − вероятность того, что из второго ящика
будет взята стандартная деталь;
Р(В 1 )=Р(В 2 )=0,5;
P(A/B 1 )=0,8;
P(A/B 2 )=0,9. Тогда искомая вероятность
Р(A)=Р(В 1 )·Р(A/В 1 )+Р(В 2 )·Р(A/В 2 )=0,5·0,8+0,5·0,9=0,85.
1.9 Формула Бейеса
В формуле полной вероятности несовместные события В i образуют полную группу и эти события называют гипоте зами, поскольку
18
заранее неизвестно, какое из них наступит.
Предположим, что произведен опыт, в результате которого по явилось событие А. Поставим следующую задачу: как из менятся в
связи с наступлением события А вероятности гипотез В i . Событие А
зависит от каждого из событий B 1 ,...,B n . Задача состоит в определении условных вероятностей
Р(В 1 /А), ..., Р(В n /А).
Найдем P(B i /A)( i 1, n ) по теореме умножения. Откуда имеем
P(AB i )=P(A)·P(B i /A)=P(B i )·P(A/B i ) ( i
Отсюда условные вероятности
1, n ).
P( Bi ) P( A / Bi )
.
P( A)
P(B i /A)=
Выражая Р(А) с помощью формулы полной вероятности, пол учим
P( Bi ) P( A / Bi )
P(B i /A)= n
.
P( Bi ) P( A / Bi )
i 1
Формула Бейеса позволяет переоценить вероятности ги потез после того, как произошло событие А.
Пример 1.11. Детали, изготовленные в ц ехе, поступают для проверки их на стандартность к одному из двух контро леров. Вероятность того, что деталь попадет к первому кон тролеру равна 0,6, ко
второму − 0,4. Вероятность того, что деталь будет признана ста ндартной первым контролером равна 0,94, в торым − 0,98. Деталь при
проверке признана стандартной. Найти вероятность т ого, что эту деталь проверил первый контролер.
Решение. А − деталь признана стандартной;
B 1 − деталь проверил первый контролер;
В 2 − деталь проверил второй контролер .
Вероятности гипотез: P(B 1 )=0,6; Р(В 2 )=0,4;
P(B 1 /A)=
0, 6 0, 94
0,59.
0, 6 0, 94 0, 4 0, 98
1.10 Повторение испытаний. Формула Бернулли
Пусть проводятся несколько испытаний, причем вероят ность появления события А в каждом испытании постоянна и равна р и не зависит от исходов других испытаний. Следова тельно, вероятность
ненаступления события А в каждом испытании также постоянна и
равна q=l−p.
Поставим задачу вычисления вероятности того, что в n испытаниях событие А наступит ровно k раз и не наступит (n−k) раз.
19
Например, если А появилось три раза в четырех испытаниях, то
можно составить следующие сложные собы тия: ААА A , АА A А,
А A АA, A ААА.
Искомую вероятность обозначим Р n (k).
Вероятность одного сложного события, состоящего в том, что в
n испытаниях событие А наступит k раз и не наступит (n−k) раз, по
теореме умножения вероятностей, равна p k q n - k . Таких сложных событий всего C n k . Тогда
P n (k)=C n k p k q n - k .
Следствие. Вероятность того, что в n испытаниях событие наступит:
а) менее k раз−Р n (0)+Р n (1) + ... +P n (k−l);
б) не менее k раз −P n (k)+P n (k+1)+...+Р n (n);
в) более k раз −P n (k+l)+P n (k+2)+...+Р n (n);
г) не более k раз−P n (0)+P n (l)+...+P n (k).
1.11 Локальная формула Муавра−Лапласа
При больших значениях n использование формулы Бернулли затруднительно, и поэтому в таких случаях пользу ются приближенной
формулой Муавра − Лапласа.
Если вероятность р наступления события А в n испытаниях постоянна и отлична от нуля и единицы (0< р<1), то вероятность появления события А в n испытаниях ровно k раз приблизительно равна
значению функции
у=
1
k np
θ( x) при х=
, где функция θ( x)
npq
npq
1
e
2π
x2 / 2
- та-
булированная функция. Как видно из выражения, функция θ( х) четная. Таким образом,
P n (k)
1
( x) .
npq
Формула тем точнее, чем больше число испытаний n.
Пример 1.12. Вероятность поражения мишени стрелком при о дном выстреле равна 0,75. Найти вероятность того, что при 10 в ыстрелах стрелок поразит мишень 8 раз.
Решение. В данном случае n=10; k=8; p=0,75; q=0,25;
8 10 0, 75
0, 36 ; θ(0,36) 0,3739;
10 0, 75 0, 25
1
P10 (8)
0, 3739 0, 273 .
10 0, 75 0, 25
x
Для сравнения найдем эту вероятность по формуле Бер нулли:
20
8
Р 1 0 (8)= C10 ·0,75 8 ·0,25 2 =0,282.
1.12 Интегральная формула Муавра−Лапласа
Пусть проводится n испытаний, в каждом из которых ве роятность появления некоторого события А равна р (0<р<1). Как вычислить вероятность P n (k 1 ,k 2 ) того, что событие А в n испытаниях
появится от k 1 до k 2 раз (не менее k 1 и не более k 2 раз).
Теорема. Если вероятность p наступления события А в каждом
испытании постоянна и отлична от 0 и 1, то вероятность Р n (k 1 ,k 2 ) того, что событие появится от k 1 до k 2 раз, приблизительно равна значению определенного интеграла
1 x
e
2π x
t2 / 2
dt ,
где х'=
k1 np
,
npq
х"=
k2 np
.
npq
Введем функцию (интеграл) Лапласа:
1
Ф 0 (х)=
2π
x
e
t2 / 2
dt .
0
Таким образом,
P n (k 1 ,k 2 )
1 x
e
2π 0
t2 / 2
dt
1 x
e
2π 0
t2 / 2
dt =Ф 0 (x") − Ф 0 (x').
Ф 0 (х) – нечетная функция. График функции Ф 0 (х) приведен на
рис. 1.2
Ф0(х)
0,5
0
x
-0,5
Рис. 1.2
Пример 1.13. Вероятность того, что деталь не пройдет прове рку
ОТК равна 0,2. Найти вероятность того, что среди 400 случайным
образом отобранных деталей окажется н епроверенных от 70 до 100.
Решение. В данном случае n=400, k 1 =70, k 2 =100, p=0,2, q=0,8.
Значения аргументов функции Лапласа:
21
x
70 400 0,2
400 0,2 0,8
1,25 ,
х" =
100 400 0,2
400 0,2 0,8
2,5 .
Ф 0 (1,25)=0,3944,
Ф 0 (2,5)=0,4938,
Р 4 0 0 (70, 100) 0,4938+0,3944=0,8882.
Следствие. Отклонение частоты события от постоянной вероятности в n испытаниях выражается формулой:
Р (| m/n −p |
) 2Ф 0 ( n /( pq ) ).
Определение. Функцию Ф( х)
вают функцией стандартного
пределения.
1.13 Формула Пуассона
Ф 0 ( х)
1
2
нормального
1 x
e
2π
t2 / 2
dt назы-
(гауссова)
рас-
Пусть n – число испытаний, р – вероятность наступления события в каждом из них (n·p= ). Тогда по формуле Бернулли
n (n 1) ... [n (k 1)] k n - k
·p ·q .
k!
λk
e λ , откуда
Предел этой вероятности lim P n (k)=
n
k!
λk
e λ . Последнее выражение носит название формулы
P n (k)
k!
P n (k)=C n k ·p k ·q n - k =
Пуассона. Эта формула используется в тех случ аях, когда число испытаний «велико», а вероятность наступления события А в каждом
из них «мала», причем «мало» также произведение λ= n·p.
Пример 1.14. Завод отправил на базу 5000 доброкачест венных
изделий. Вероятность того, что в пути изделие по вредится равна
0,0002. Найти вероятность того, что на базу прибудут 3 негодных
изделия.
Решение. В этом случае k=3, n=5000, р=0,0002, =n·р=1,
Р 5 0 0 0 (3) (1/3!)·е - 1 0,06.
1.14 Простейший поток событий
Рассмотрим события, которые наступают в случайные мо менты
времени. Потоком событий будем называть последовательность событий, которые наступают в случайные мо менты времени. Например: поступление вызовов на пункт скорой помощи, последовател ьность отказов элементов ка кой-либо системы и т. д.
Основные свойства потока.
22
1. Стационарность. Она характеризуется тем, что вероят ность
появления k событий на любом промежутке времени t зависит только
от числа k и от длительности t и не зависит от промежутка отсчета.
2. Отсутствие последействия означает, что вероятность появл ения k событий на любом промежутке времени не за висит от того,
появились или не появились события до рас сматриваемого промежутка времени. Условная вероятность появления k событий на любом промежутке времени t, вычисленная при любых предположениях
о том, сколько событий произошло до рассматриваемого промежутка, равна безусловной вероятности.
3. Ординарность характеризуется тем, что поя вление 2-х и более
событий на малом промежутке времени практически нево зможно.
Простейшим (пуассоновским) потоком называется поток событий, обладающий этими тремя свойствами.
Интенсивностью потока называют среднее число событий, которые появляются в единицу времени. Если интенсивность потока
известна, то вероятность появления k событий за промежуток времени t определяется формулой Пуассона:
(λt ) k e
P t (k)=
k!
λt
.
Пример 1.15. Среднее число вызовов, поступивших в АТС за 1
минуту, равно 2. Найти вероятность того, что за 5 минут поступит а)
2 вызова, б) не менее 2-х вызовов.
Решение. =2, t=5, k=2.
10 2 e
а) Р 5 (2)=
2!
10
0,00225.
б) P 5 (k
2)=l−P 5 (k<2)=l−(e - 1 0 +10e - 1 0 ) 0,999505 − практически
достоверное событие.
1.15 Задание №1 на самостоятельную работу. Решение типовых
задач
1.1 Задумано двузначное число. Найти вероятность того, что з адуманным числом окажется:
а) случайно названное двузначное число;
б) случайно названное двузначное число, цифры кото рого различны.
Ответ: а) Р=1/90, б) Р=1/81.
1.2 Брошены две игральные кости . Найти вероятности следующих
событий:
а) сумма выпавших очков равна 7;
б) сумма выпавших очков равна 8, а разность 4.
23
Ответ: а) Р=1/6, б) Р=1/18.
1.3 Куб, все грани которого окрашены, распилен на тысячу кубиков одинакового размера, которые затем тщ ательно перемешаны.
Найти вероятность того, что наудачу извлечен ный кубик имеет окрашенных граней: а) одну; б) две.
Ответ: а) Р=0,384; б) Р=0,096.
1.4. В пачке 20 карточек, помеченных номерами
101, 102, ..., 120 и произвольно расположенных. Науд ачу извлечены две карточки. Найти вероятность того, что извле чены карточки с номерами 101 и 120.
2
Ответ: Р=1/ C20 =1/190.
1.5 В ящике имеется 15 деталей, среди которых 10 о крашенных.
Сборщик наудачу извлекает 3 детали. Найти веро ятность того, что
извлеченные детали окажутся окрашен ными.
3
3
9
10
4
4
k
m k
Ответ: P C10 /C15 24 / 91 .
1.6 В конверте среди 100 фотокарточек находится 1 р азыскиваемая. Из конверта наудачу извлечены 10 карточек. Найти вер оятность того, что среди них окажется нужная.
Ответ: P C99 /C100 0,1 .
1.7 В ящике 100 деталей, из них 10 бракованных. Наудачу извл ечены 4 детали. Найти вероятность того, что среди из влеченных деталей нет бракованных.
Ответ: P C90 /C100 0,65 .
1.8 В партии из N деталей имеется n стандартных. Наудачу отобраны m деталей. Найти вероятность того, что среди отобранных д еталей ровно k стандартных.
m
Ответ: P Cn CN n /CN .
1.9 В группе 12 студентов, среди которых 8 отличников. По сп иску наудачу отобраны 9 студентов. Найти вероятность того, что ср еди них 5 отличников.
5 4
9
Ответ: P C8 C4 /C12 14 / 55 .
1.10 В «секретном» замке на общей оси 4 диска, каждый из кот орых разделен на 5 секторов, на которых написаны раз личные цифры.
Замок открывается только в том случае, если диски установлены так,
что цифры на них составляют определенное четырехзначное число.
Найти вероятность того, что при произвольной установке дисков з амок будет открыт.Ответ: Р=1/5 4 .
1.11 В сигнализатор поступают сигналы от двух устрой ств, причем поступление каждого из сигналов равновозможно в любой м омент промежутка времени длительностью Т. Моменты поступления
сигналов независимы один от другого. Сигнализатор сраб атывает,
24
если разность между моментами поступления сигналов меньше t
(t T). Найти вероятность того, что сигнализатор срабатывает за вр емя Т, если каждое из устройств пошлет по одному сигналу.
Ответ: P t( 2T- t)/T 2 .
1.12 Задача о встрече. Два студента условились встре титься в
определенном месте между 12 и 13 часами дн я. Пришедший первым
ждет второго в течении 1/4 часа, после чего уходит. Найти вероя тность того, что встреча состоится, если каждый студент наудачу в ыбирает момент своего прихода (в промежутке от 12 до 13 часов).
Ответ: Р=7/16.
1.13 В ящике 10 деталей, из которых 4 окрашены. Сборщик наугад взял 3 детали. Найти вероятность того, что хотя бы одна из вз ятых деталей окрашена.
3
3
Ответ: P 1 C6 /C10 5 / 6 .
1.14 Для сигнализации об аварии установлены два незави симо
работающих сигнализатора. Вероятность того, что при аварии сигнализатор сработает, равна 0,95 для первого сигнализатора и 0,9 для
второго. Найти вероятность того, что при аварии сработает только
один сигнализатор.
Ответ: Р=0,14.
1.15 Два стрелка стреляют по мишени. Вероятность п опадания в
мишень при одном выстреле для первого стрелка равна 0,7, а для
второго 0,8. Найти вероятность того, что при одном залпе в м ишень
попадает только один из стрелков.
Ответ: P=0,38.
1.16 Вероятность одного попадания в цель при одном залпе из
двух орудий равна 0,38. Найти вероятность поражения цели при одном выстреле первым из орудий, если из вестно, что для второго
орудия эта вероятность равна 0,8.
Ответ: P=0,7.
1.17 Отдел технического контроля проверяет изделия на ста ндартность. Вероятность того, что изделие стандарт но, равно 0,9.
Найти вероятность того, что из двух проверенных изделий только
одно стандартное.
Ответ: P=0,18.
1.18 Из партии изделий товаровед отбирает изделия выс шего
сорта. Вероятность того, что наудачу взятые изделия окажутся вы сшего сорта, равна 0,8. Найти вероятность того, что из 3 произведе нных изделий только 2 изделия высшего сорта.
Ответ: P=0,384.
1.19 Вероятность того, что нужная сборщику деталь н аходится в
первом, втором, третьем, четвертом ящике, соответ ственно равны
0,6; 0,7; 0,8; 0,9. Найти вероятность того, что деталь содержи тся:
25
а) не более чем в 3 ящиках;
б) не менее чем в 2 ящиках.
Ответ: а) Р=0,6976,
б) Р=0,9572.
1.20 Среди 100 лотерейных билетов есть 5 выигрышных. Найти
вероятность того, что 2 наудачу выбранные билета окажутся выигрышными.
Ответ: Р=(5/100)·(4/99)=1/495.
1.21 Студент знает 20 из 25 вопросов программы. Найти вероя тность того, что студент знает предложенные ему э кзаменатором три
вопроса.
Ответ: Р=(20/25)·(19/24)·(18/23)=57/115.
1.22 Для разрушения моста достаточно попадания 1 авиационной
бомбы. Найти вероятность того, что мост б удет разрушен, если на
него сбросить 4 бомбы, вероятность попада ния которых соответственно равны: 0,3; 0,4; 0,6; 0,7.
Ответ: P=0,95.
1.23 В ящике содержится 12 деталей, изготовленны х на заводе №
1, 20 деталей на заводе №2 и 18 деталей на заводе №3. Вероя тность
того, что деталь, изготовленная на заводе №1, отличного к ачества,
равна 0,9, для деталей, изготовлен ных на заводах №2 и №o3, эти вероятности соответственно равны 0,6 и 0,9. Н айти вероятность того,
что извлеченная наудачу деталь окажется отличного к ачества.
Ответ: P=0,78.
1.24 В первой урне содержится 10 шаров, из них 8 б елых, во 2-й
урне 20 шаров, из них 4 белых. Из каждой урны нау дачу извлекли по
одному шару, а затем из двух шаров наудачу взят один шар. Найти
вероятность того, что взят белый шар.
Ответ: P=0,5.
1.25 В каждой из трех урн содержится 6 черных и 4 белых ш ара.
Из первой урны наудачу извлечен один шар и перело жен во вторую
урну, после чего из второй урны наудачу и звлечен один шар и переложен в третью урну. Найти вероят ность того, что шар, наудачу и звлеченный из третьей урны, окажется б елым.
Ответ: P=0,4.
1.26 Два автомата производят одинаковые детали, которые п оступают на общий конвейер. Производительность первог о автомата
вдвое больше производительности второго. Первый автомат прои зводит в среднем 60% деталей о тличного качества, а второй – 84%.
Наудачу взятая с конвейера деталь ока залась отличного качества.
Найти вероятность того, что эта деталь произведена пер вым автоматом.
Ответ: Р=10/17.
1.27 В пирамиде 10 винтовок, из которых 4 снабжены оптич еским
прицелом. Вероятность того, что стрелок поразит цель из винтовки с
26
оптическим прицелом, равна 0,95; для винтовки без оптического
прицела - 0,8. Стрелок поразил мишень из наудачу взятой винтовки.
Что вероятнее: стрелок стрелял из винтовки с опт ическим прицелом
или без него?
Ответ: Вероятнее, что винтовка была без оптического прицела
(вероятность того, что винтовка была без оптического прицела, ра вна 24/43, с оптическим прицелом – 19/43).
1.28 Число грузовых автомашин, проезжающих по шоссе, на к отором стоит бензоколонка, относится к числу легковых машин, пр оезжающих по тому же шоссе, как 3:2. Вероятность того, что будет
заправляться грузовая машина, равна 0,1; для легковых машин эта
вероятность равна 0,2. К бензоколонке подъехала для заправки м ашина. Найти вероятность того, что это грузовая м ашина.
Ответ: P=3/7.
1.29 В больницу поступают в среднем 50% больных с заболев анием К, 30% − с заболеванием L, 20% − с заболеванием М. Вероятность излечения болезней соответственно равны 0,7; 0,8; 0,9. Бол ьной поступивший в больницу, был выписан здоровым. Найти вер оятность того, что этот больной страдал заболеван ием К.
Ответ: Р=5/11.
1.30 Два равносильных противника играют в шах маты. Что вероятнее: а) выиграть одну партию из двух или две партии из чет ырех?
б) выиграть не менее двух партий из четырех или не менее трех па ртий из пяти? Ничьи во внимание не принимаю тся.
Ответ: а) Вероятнее выиграть одну партию из двух: Р 2 (1)=1/2;
Р 4 (2)=3/8; б) вероятнее выиграть не менее двух партий из четырех:
Р 4 (2)+Р 4 (3)+Р 4 (4)=1−[Р 4 (0)+Р 4 (1)]=11/16;
Р 5 (3)+ Р 5 (4)+ Р 5 (5)=8/16.
1.31 Монету бросают 5 раз. Найти вероятность того, что «герб»
выпадет:
а) менее двух раз;
б) не менее двух раз.
Ответ: а) Р=3/16, б) Р=13/16.
1.32 В семье 5 детей. Найти вероятность того, что среди этих д етей: а) 2 мальчика;б) более двух мальчиков.
Ответ: а) Р=10/32, б)Р=1/2.
1.33 Вероятность рождения мальчика равна 0,51. Найти вероя тность того, что среди 100 новорожденны х окажется 50 мальчиков.
Ответ: Р 1 0 0 (50)≈0,0782.
1.34 Монета брошена 2N раз (N велико!). Найти вероятность того, что «герб» выпадет ровно N раз.
Ответ: P2 N ( N ) 0,5642 / N .
1.35 Монета брошена 2N раз. Найти вероятность того, что «герб»
выпадет на 2m раз больше, чем надпись.
27
2/ N
2/ N m .
Ответ: P2 N ( N m)
1.36 Вероятность появления события в каждом из 2100 незав исимых испытаний равна 0,7. Найти вероятность того, что событие
появится: а) не менее 1470 и не более 1500 раз;
б) не менее 1470 раз.
Ответ: а)Р 2 1 0 0 (1470,1500)≈0,4236, б) Р 2 1 0 0 (1470, 2100)≈0,5.
1.37 Вероятность появления события в каждом из 21 независ имых испытаний равна 0,7. Найти вероятность того, что событие по явится в большинстве испытаний.
Ответ: Р 2 1 (11,21)≈0,95945.
1.38 Монета брошена 2N раз (N велико!). Найти вероятность того, что число выпадшего «герба» будет заключено между числ ами
N
2N / 2 и N
2N / 2 .
Ответ: Р≈Ф(1)−Ф(−1)=2Ф(1)=0,6826.
1.39 Французский ученый Бюффон (XVIII в.) бросил монету 4040
раз, причем «герб» появился 2048 раз. Найти вероятность т ого, что
при повторении опыта Бюффона относительная частота п оявления
«герба» по абсолютной величине не более чем в опыте Бюффона.
Ответ: Р≈2Ф(0,877)=0,6196.
1.40 Отдел технического контроля проверяет 47 5 изделий на
брак. Вероятность того, что изделие бракованное, равна 0,05. На йти
с вероятностью 0,95 границы, в которых будет заключено число m
бракованных изделий среди провере нных.
Ответ: 15≤m≤33.
28
2 ОДНОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ. ЗАКОНЫ
РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ СЛУЧАЙНЫХ ВЕЛИЧИН
2.1 Случайные величины
Случайная величина − такая величина, которая в результате
опыта принимает то или иное значение, неизвестное заранее и зав исящее от случайных причин. Это значение называют возможным
значением случайной величины. Обозначение случайных величин: X,
Y, Z и т.д. Обозначение возможных зн ачений случайной величины X:
x 1 , x 2 , x 3 , ... .
Примеры:
1. Число очков при бросании игральной кости –случайная величина,
возможные значения которой 1, 2, 3, 4, 5, 6.
2. Число мальчиков среди 100 новорожденных − случайная вел ичина
возможные значения которой 0, ..., 100.
3. Расстояние R, которое пролетит снаряд, есть случайная велич ина,
возможные значения которой принадлежат некоторому о трезку [a,
b].
Дискретная случайная величин а − величина, которая принимает отдельные возможные значения из счетного множества с опред еленными вероятностями. Возможные значения дискретной случа йной величины можно перечислить.
Для задания дискретной случайной величины необходимо пер ечислить все возможные значения и соответствующие их вероятн ости.
Непрерывной случайной величиной называется величина, возможные значения которой заполняют некоторый промежуток (н есчетное множество) и нельзя перечислить все возможные зн ачения
этой случайной величины.
Законом распределения вероятностей дискретной случа йной
величины называют соответствие между возможными знач ениями
этой величины и их вероятностями. Этот закон задают в виде табл ицы, которую называют рядом распределения
Ряд распределения будет иметь вид
X x1 x2 x3 … xn
.
P p1 p2 p3 … pn
События (X=x 1 ), (Х=х 2 ),..., (Х=х n ) образуют полную группу, т.е.
n
i 1
pi
1.
Пример 2.1. В лотерее 100 билетов. Разыгрывается 1 выигры шный по 50 руб и 10 выигрышных по 1 руб. Составить закон распр еделения случайной величины X−стоимости возможного выигрыша по
29
1 билету.
X 50 1
0
Р 0,01 0,1 0,89
Для наглядности ряд распределения можно изобразить в виде
многоугольника распределения (см. рис.2.1).
pi
0,89
0,1
50
0,1
x
Рис. 2.1
Ряд распределения можно указать только для дискретной сл учайной величины, для непрерывной случайной величины такой х арактеристики нельзя построить, так как нельзя перечислить все во зможные значения непрерывной случайной в еличины.
2.2 Функция распределения вероятностей случайной велич ины
Отдельные возможные значения непрерывной случайной велич ины не обладают отличными от нуля вероятн остями, по аналогии с
тем, что отдельные точки тела не обладают массой. Поэтому для к оличественной характеристики любой случайной величины удобно
воспользоваться не вероятностью события ( Х=х), а вероятностью события (Х<х). Вероятность этого события Р(Х<х) есть функция F(x) и
она называется функцией распределения вероятностей случайной
величины F(x)= P(X<x).
Ее также называют интегральным законом или интеграл ьной
функцией распределения вероятностей . Данную функцию можно
построить для любых случайных величин. Геометрически равенство
F(x)=P(X<x) можно истолковать таким образом: фун кцию F(x) можно
представить как вероятность того, что случайная величина X примет
на числовой оси возможные значения левее точки х (рис.2.2).
x
Рис. 2.2.
x
30
Случайная величина X называется непрерывной, если ее функция распределения есть непрерывная кусочно-дифференцируемая
функция с непрерывной производной.
Свойства функции распределения:
1. 0 F(x) l;
2. F(x) - неубывающая, т .е. F(x 1 ) F(х 2 ) если x 1 <х 2 ;
3. F ( )
lim F ( x) 0, F ( ) lim F ( x) 1;
x
x
4. Р(х 1 х<х 2 )= F(x 2 )−F(х 1 );
5. F ( x) F ( x 0)
lim F ( y) , т.е. F(x) – непрерывная слева
y
x 0
функция.
Докажем, например, свойство 4. Для определения вероятности
Р α х<
попадания случайной величины Х в заданный промежуток
α,
введем 3 события:
А−(Х< );
B−(X< );
C - ( X< ). Тогда A=B+C и Р(A)=Р(В)+Р(С) и
F( )=F( )+Р( x< ).
Отсюда
Р(
x< )=F( )−F( )=
F'(x)dx.
Вероятность попадания случайной величины в промежуток ∆ х
есть приращение функции распр еделения
P(x X<x+ x)=F(x+ x)−F(x) 0 при х 0.
Таким образом, вероятность того, что непрерывная величина
примет некоторое определенное значение, ра вна 0.
Пример 2.2. Построить функцию распределения для дискре тной
случайной величины Х, заданной рядом распределения
X 1
4
8
P 0,3 0,1 0,6
При
х<1 F(x)=0;
1 х<4
F(x)=0,3;
4 х<8
F(x)=0,4;
х 8 F(x)=l.
31
F(x)
1
0,4
0,3
0
1
4
8
x
Рис. 2.3
2.3 Плотность распределения вероятностей непрерывной сл учайной величины
Кроме функции распределения, непрерывную случайную вел ичину можно задать с помощью так называемой функции плотности
распределения вероятностей. Эту функцию называют дифференциальной функцией или дифференциальным законом распределения
вероятностей.
Плотностью распределения называют функцию f(x)=F'(x). Таким образом, для описания дискретной случайной величины эта
функция неприменима. Вероятность попадания случайной велич ины
на заданный участок можно представить как Р(
x< )=
f ( x )dx .
Свойства плотности распределения:
1. f(x) 0;
2.
f ( x) dx =l;
3. P( x1
X
x2 )
x2
f ( x)dx ;
x1
4. Р(Х=х)=0.
Вероятностный смысл функции плотности f(x):
f(x)= lim
x
0
F (x
x) F ( x)
.
x
Отсюда следует, что
P(x X<x+ x) f(х) х.
Вероятность того, что случайная величина X примет значение,
принадлежащее интервалу х, х+ х), приблизительно равна произведению функции плотности на длину этого пр омежутка.
32
f(x)
P( x
x
X
x
x
x
x)
P( x
X
x
x
x
x
x)
x
Рис. 2.4
Пример 2.3. Задана плотность распределения вероятнос тей случайной величины X:
0,
f ( x)
x 0;
2 x, 0 x 1;
0,
x 1.
Найти вероятность того, что случайная величина X примет значение
из интервала (0,5; 1).
1
Решение. Р(0,5<X<1)=
2xdx = x 2
1
=1−0,25=0,75.
0,5
0 ,5
Нахождение функции распределения по из вестной функции
плотности:
x
F ( x)
f ( x)dx .
На практике иногда встречаются случайные величины, которые
нельзя отнести ни к дискретным, ни к непрерывным случайным в еличинам, как показывает следующий пример.
Пример 2.4. На перекрестке стоит автоматический светофор, в
котором 1 =1мин. горит зеленый свет, 2 = 0,5 мин. – красный, снова
1мин. – зеленый, 0,5мин. – красный и т.д. В случайный момент вр емени, не связанный с работой светофора, к перекрестку под ъезжает
автомобиль.
Покажем, что случайная величина Х – время ожидания у перекрестка не является ни дискретной, ни непр ерывной.
Обозначим = 1 + 2 =1,5 мин. цикл работы светофора. С одной
стороны, с вероятностью 1 / =2/3 автомобиль проедет перекресток
не останавливаясь, т.е. Х принимает значение ноль с веро ятностью
2/3 0. Поэтому Х не может быть непрерывной случайной в еличиной.
С другой стороны, на второй 0,5 – минутной части цикла время ожи33
дания Х может принять любое значение от 0 до 0,5. Значит, Х не может быть также дискретной случайной величиной. Т аким образом,
здесь Х представляет «смесь» дискретной и непр ерывной случайных
величин.
Построим график функции распределения вероятностей случа йной величины Х. При х 0 F(х)=0. Если 0 х 0,5, то событие (Х<х)
происходит в том случае, когда автомобиль либо попадает на первую
часть цикла работы светофора (зеленый свет), либо подъедет к св етофору при красном свете, но до включения зелен ого света остается
время, меньшее х. Тогда по определению геометрической вероятн ости
F ( x)
P( X
x)
1
x
x 1
.
1,5
Поскольку автомобиль в любом случае проведет у перекрестка
не более 0,5 мин., то F(х)=1, х 0,5.
Таким образом,
F ( x)
0,
x 1
1, 5
x 0;
,
1,
0
x 0, 5;
x 0, 5.
График функции F(х) приведен на рисунке 2.5
F(x)
1
0,5
x
Рис. 2.5
2.4 Примеры дискретных распределений вероятн остей
2.4.1 Биномиальное распределение
Пусть производится n испытаний, в каждом из которых некот орое событие А может появиться либо не появиться. Вероятность н аступления события А во всех испытаниях постоянна и равна р, тогда
вероятность не появления этого события q=l−p. В качестве дискретной случайной величины X рассмотрим число появления события A в
n испытаниях. Возможные значения x 1 =0, x 2 =l, …, x n + 1 = n, а их вероятности определяются по формуле Бе рнулли:
34
P n (k)=C n k ·p k ·q n - k , k=0, …, n.
Биноминальным называется распределение вероятностей, определенное по формуле Бернулли, т. к. правую часть формулы Берну лли можно рассматривать как общий член разложения бинома Ньют она
(p+q) n =C n n ·p n +C n n - 1 ·p n - 1 ·q+…+C n 0 ·q n .
Ряд распределения в этом случае выглядит таким обр азом:
X
n
n-1
... k
n
n-1
P
p
np q . . . C n k ·p k ·q n - k
2.4.2 Распределение Пуассона
... 0
. . . qn
.
Рассмотрим те же условия задачи что и в предыдущем пункте,
но значение n велико, вероятность р мала. Это случай «массовых»,
но «редких» событий. В этом случае вероятность
λk e
P n (k)
k!
λ
,
где
= n·р.
Тогда ряд распределения имеет, вид:
X
р
0
e-
1
-
е /1!
2
λ 2 е - λ /2!
… k
k …
·e /k!
…
…
Такое распределение вероятностей случайной величины назыв ают распределением Пуассона.
2.4.3 Геометрическое распределение
Пусть производятся n испытаний, в каждом из которых вероя тность появления события А равна р (0<р<1). Вероятность непоявления события q=l−p. Испытания заканчиваются, как только появится
событие А. Следовательно, если событие А появилось в k-м испытании, то в предшествующих (k−1) испытаниях оно не появилось.
Введем дискретную случайную величину Х − число испытаний, которые нужно провести до первого появления события А. Возможные
значения Х: x 1 =l, x 2 =2, ... . По формуле умножения вероятностей н езависимых событий, вероятность того, что число испыт аний равно k
P(X=k)=q k - 1 ·p.
Полагая в этой формуле k=l, 2, ... получим геометрическую прогре ссию с первым членом р и со знаменателем q: p, pq, pq 2 , ..., pq k - 1 .
Такое распределение вероятностей называется геометрич еским.
Ряд распределения Х:
X
1
2
… k
35
р
P
p·q
… p·q k - 1
Пример 2.5. Из орудия производится стрельба по цели до перв ого попадания. Вероятность попадания при одном выстреле 0,6. На йти вероятность того, что попадание произойдет при третьем выстр еле.
Решение. По условию р=0,6; q=0,4; k=3.
Тогда P(X=3)=0,4 2 ·0,6=0,096.
2.5 Примеры непрерывных распределений
2.5.1 Закон равномерного распределения в ероятностей
Распределение вероятностей назы вается равномерным, если на
интервале, которому принадлежат возможные значения случа йной
величины, плотность распределения сохраняет постоянное значение.
Функция плотности равномерного распределения f(х) имеет вид:
0,
f ( x)
x
a;
1/ (b a ) , a x b;
0,
х b.
Отсюда следует, что функция распределения
х
0,
F ( x)
a;
х a
, а х b;
b а
1,
х b.
Графики плотности f(х) и функции распределения F(х) приведены на рис. 2.6 а) и 2.6 б).
а)
б)
f(x)
1
в а
F(x)
1
a
в
x
a
в
х
Рис.2.6
Вероятность попадания равномерно распределенной случайной
величины в интервал ( , ):
36
Р( <х< )=( − )/(b−а).
Пример 2.6. Шкала измерительного прибора прогр адуирована в
некоторых единицах. Ошибку при округлении отсчета до ближайш его целого деления можно рассматривать как случайную величину X,
которая может принимать с постоянной плотностью вероятности
любое значение между двумя соседними целыми дел ениями. Таким
образом, X распределена по равномерному закону с функцией пло тности:
0,
f ( x)
x
a;
1/ (b а ) , а х b;
0,
х b.
Пример 2.7. Случайная величина Х, равномерно распределенная
в интервале 0,1] имеет плотность распред еления
1, 0
f ( x)
x 1;
0, в противном случае.
x
Тогда функция распределения F ( x)
x
f ( y )dy
0
1dy
x.
0
Графики функций f(x) и F(x) приведены на рис. 2.7 а) и 2.7 б).
a)
б)
f(x)
F(x)
1
1
0
0
x
1
1
х
Рис.2.7
Вероятность попадания такой случайной величины Х в интервал
0 х х+∆х 1
P( x
X
x Δx)
x Δx
f ( y )dy
F ( x Δx) F ( x) ( x Δx) x
Δx .
x
Отсюда следует, что случайная величина Х, равномерно распред еленная в интервале 0, 1] с одинаковой вероятностью попадет в л юбой интервал длиной ∆х 0, 1]. Поэтому такая величина Х имеет огромное значение в имитационном моделировании, т.к. она служит
основой генерирования на компьютерах любых случайных величин,
потоков событий и случайных процессов.
37
2.5.2 Нормальный закон распределения
Случайная величина X называется распределенной по нормальному закону, если ее плотность распределения имеет вид:
θ m,ζ ( x)
1
e
ζ 2π
( x m) 2 / ( 2ζ 2 )
.
Нормальное распределение зависит от двух параметров: m, называемого математическим ожиданием или средним значением, и ζ,
называемого средним квадратическим отклонением . Этот закон
распределения называют еще предельным или законом Гау сса.
Функция нормального распределения имеет следующий вид:
x
m, ζ ( x)
1
e
ζ 2π
( x m) 2
2ζ 2
dx .
Общим называется нормальное распределение с пар аметрами m,
, где −∞ m +∞- математическое ожидание,
0 − среднее квадратическое отклонение.
Стандартным нормальным распределением называется распределение с параметрами m =0, =1.
Путем линейной замены общее нормальное распределение можно
привести к стандартному нормальному распределению.
Плотность стандартного распределения записывается в в и-
1
2
де: θ( x)
e
x2 / 2
, а функция распределения:
Φ 0 (x)= 1
2π
x
e
t2 / 2
dt .
Эти функции были использованы ранее в локальной и интеграл ьной
формулах Муавра – Лапласа (см. п.1.10, 1.11). На рис. 2.8 а) и 2.8 б)
приведены графики функций θ m , ζ (х) и Φ m , ζ (x) для различных значений m и ζ.
а)
б)
θm,ζ(x)
Φm,ζ(x)
1
m=-1
ζ=0,5
m=0
ζ=1
m=-1
ζ=0,5
m=1
ζ=2
-3
-2
-1 0
1
2
3
х
-2
m=0
ζ=1
m=1
ζ=2
-1
1
2
3
х
38
Рис. 2.8
Таким образом, относительно функции плотности нормального
распределения можно утверждать следу ющее:
l) функция θ m , ζ (х) определена и непрерывна на всей числовой
оси (−∞;+∞);
2) область значений функции у 0, 1/(ζ 2π )];
3) lim m, ζ ( x) 0 ;
x
1 /(ζ 2 π ) ;
x m
5) график функции симметричен относительно прямой х=m;
6) точки перегиба: х 1 =m- , х 2 =m+ .
Вероятность попадания в заданный интервал нормально распр еделенной случайной величины:
4) ymax
P( <Х< )=Φ m , ζ ( )−Φ m , ζ ( ) = θ m, ( x)dx =1/(
= e
( x m )2 /( 2 2 )
dx
1
2
(
m) /
e
(
2π )=
y2 / 2
dy .
m) /
Проводя замену у=(х−m)/σ, получим
Р(α Х β)=
m
0
m
0
.
(2.1)
Из этой формулы можно определить вероятность отклонения
случайной величины от математического ожидания:
Р( Х-m < )=2Ф 0 ( / ).
(2.2)
Правило трех сигма.
Преобразуем формулу (2.2). Для этого обозначим = t. Тогда
Р( |X−m|< t)=2Ф 0 (t).
Положим t=3 , тогда Р(|Х−m|<3 )=2Ф 0 (3)=0,9973.
Если случайная величина X распределена по нормальному зак ону, то абсолютная величина ее отклонения от математического ож идания m не превосходит утроенного значения среднего квадратич еского отклонения, и вероятность этого отклонения близка к 1, а в ероятность противоположного события составляет 0,0027.
Таким образом, можно считать практически достоверным соб ытие, что возможные значения случайной величины, распределенной
по нормальному закону, попадут в интервал ( m−3 , m+3 ) (см.
рис.2.10).
39
θm,ζ(x)
m-3ζ m m+3ζ
Рис. 2.10
x
2.5.3 Экспоненциальный закон распределения
Случайная величина X называется распределенной по экспоненциальному (показательному) закону , если ее функция плотности имеет вид:
f ( x)
0,
e
x 0;
x
, x 0,
где λ 0−параметр экспоненциального распр еделения.
Тогда функция распределения будет иметь вид:
F ( x)
0,
1 e
x 0;
x
, x 0.
Графики функции плотности распределения f(x) и функции распределения F(x) приведены на рис.2.11.
а)
б)
F(x)
f(x)
1
λ
0
x
0
x
Рис.2.11
Вероятность попадания показательно распределенной случа йной
величины в заданный интервал определяется по фо рмуле:
P( <X< )=F( )−F( )=e - − e - .
(2.3)
Экспоненциальный закон распределения занимает важное м есто
в теории массового обслуживания, теории надежности и других о бластях. Например, функция R(t)=1−F(t)=e - λ t называется показательным законом надежности.
40
Пример 2.8. Случайная величина Т – время работы радиолампы
– имеет показательное распределение. Найти в ероятность того, что
время работы лампы будет не меньше 600 часов, если среднее время
работы лампы 400 часов.
Решение. Р(Т 600)=1−Р(Т<600)=
=1−( е ( 1 / 4 0 0 ) · 0 −e - ( 1 / 4 0 0 ) 6 0 0 )=е - 1 , 5 ≈0,2231.
2.5.4 Распределение Вейбулла
Случайная величина X распределена по закону Вейбулла с пар аметрами >0, >0, если ее плотность распределения имеет вид:
f ( x)
αβ α x α 1e
( x / β) α
0,
, x 0;
x 0.
Параметр
называется параметром формы, а − масштабным
параметром распределения.
Тогда функция распределения Вейбулла будет иметь следу ющий
вид:
1 e
F ( x)
( x / β)α
, x 0;
0,
x 0.
Графики функций плотности и распределения Вейбулла при β=1
приведены на рис.2.12 а) и 2.12 б).
Считается, что распределению Вейбулла подчиняются времена
безотказной работы многих технических устройств и времена в ыполнения задач. При α=1 распределение Вейбулла переходит в эк споненциальное распределение, а при α=2 –в так называемое распределение Релея.
а)
б)
f(x)
1,2
F(x)
1,0
α=3
1,0
0,8
α=2
0,8
0,6
α=1
0,6
0,4
α=1/2
0,2
0
0,4
1
2
3
4
0,2
5
x
0
α=1
α=1/2
α=2
α=3
1
2
3
4
5 x
Рис. 2.12
41
2.5.5 Гамма – распределение
Другим распределением, также достаточно хорошо описыва ющим времена безотказной работы различных технических ус тройств,
и времена выполнения каких-либо задач, является гаммараспределение с плотностью
β α x α 1e
Γ (α )
0,
f ( x)
x/β
,
x 0;
x 0,
t z 1e t dt для любого вещественн о-
где Г(α) – гамма-функция, Γ ( z )
0
го числа z 0.
Для вычислений полезно знать следующие свойства фун кции Г(z):
1. Г(z+1)=z·Г(z), для любого z 0;
2. Г(k+1)=k!, для любого неотрицательного целого чи сла k;
1 3 5 ... (2k 1) / 2k , для любого положительного
π.
целого числа k, Γ (1 / 2)
3. Г(k+1/2)=
Как и в случае с распределение Вейбулла, α 0 – параметр формы, β 0 – масштабный параметр.
Если α – положительное целое число, тогда функция распредел ения имеет вид:
F ( x)
1 e
x/β
n 1( x / β ) j
j 0
0,
j!
, x
x
0;
0.
В случае, если 0 α 1, то конечной формы функции распределения не существует, имеются лишь ее прибл ижения.
Замечания.
1. При α=1, гамма-распределение, как и распределение Вейбулла
переходит в экспоненциальное распредел ение.
2. Для положительного целого числа r (α=r), гаммараспределение переходит в распределение Эрланга порядка r, которое широко используется в теории массового обсл уживания.
3. Гамма−распределение при α=k/2, β=2 представляет не что
иное, как распределение χ 2 (хи – квадрат) с k степенями свободы,
роль которого трудно переоценить в математической статистике.
Наконец, на рис. 2.13 приведены графики функций плотности f(x) и
распределения F(x) при различных значениях параметра α при β=1.
42
а)
б)
F(x)
f(x)
1,0
α=1/2
1,0 α=1/2
0,8
0,8
α=1
0,6
0,6
0,4
α=2
0,4
α=3
0,2
0
1
2
3
α=3
α=2
α=1
4
5
0,2
0
x
1
2
3
4
5
x
Рис.2.13
2.6 Задание №2 на самостоятельную работу. Реше ние типовых
задач
2.1 Из партии в 10 деталей, среди которых две бракованные,
наудачу выбирают три детали. Найдите закон распред еления числа
бракованных деталей среди выбранных. Постройте функцию распр еделения.
Ответ:
P( X
i)
C2i C83 i
, i 0,1, 2; F ( x)
3
C10
0,
x 0;
7 / 15, x (0,1];
14 / 15, x (1,2];
1,
x 2.
2.2 Вероятность приема самолетом радиосигнала при каждой п ередаче равна 0,7. Найдите ряд распределения и функцию распред еления числа X принятых сигналов при шестикратной перед аче.
Ответ: Ряд распределения и функцию распределения случайной
величины X легко построить, зная, что
P( X
i) C6i (0,7)i (0,3)6 i , i 0,6.
2.3 В течение часа на станцию скорой помощи поступает сл учайное число X вызовов, распределенное по закону Пуассона с пар аметром λ=5. Найдите вероятность того, что в течение часа п оступит:
а) ровно два вызова;
б) не более двух вызовов;
в) не менее двух вызовов.
Ответ:а) Р(Х=2) = 5 2 е - 5 /2!≈0,086;
б) Р(Х ≤ 2)=(5 0 /0! + 5 1 /1! +5 2 /2!)е - 5 ≈0,127;
в) Р(Х≥2)=1−Р(Х<2)=1−(5 0 /0!+5 1 /1!)e - 5≈0,96.
43
2.4 Число вызовов, поступающих на АТС (автоматическая тел ефонная станция) каждую минуту, распределено по закону Пуа ссона с
параметром λ=1,5. Найдите вероятность того, что за минуту пост упит:
а) ровно три вызова;
б) хотя бы один вызов;
в) менее пяти вызовов.
Ответ: а) 0,12551; 6)0,77687; в) 0,98143.
2.5 По цели производят серию независимых выстрелов до перв ого попадания. Даны вероятность р попадания в цель при одном выстреле и запас патронов n. Найдите ряд распределения и фун кцию
распределения числа X израсходованных патронов.
Ответ: P( X
i)
pq i 1, i 0, n 1 (q 1 p);
q n 1, i
n.
2.6 Летательный аппарат, по которому ведется стрельба, с остоит
из двух различных по уязвимости частей. А ппарат выходит из строя
при одном попадании в первую часть или трех попаданиях во вт орую. Стрельба ведется до поражения летательного апп арата.
Постройте ряд распределения и функцию распределения числа
попаданий X в летательный аппарат, которое понадобится для его
поражения, если каждый попавший в аппарат снаряд с вероятн остью
0,3 поражает первую часть и с вер оятностью 0,7 − вторую.
Ответ: Р(Х=1) = 0,3; Р(Х=2)=0,21; Р(Х=3)=0,49.
2.7 Непрерывная случайная величина X распределена по экспоненциальному закону с параметром λ=0,2. Найдите вероятность п опадания этой случайной величины в инте рвал (0,2).
Ответ: 1−е - 0 , 4 ≈0,33.
2.8 Длительность времени X безотказной работы элемента имеет
экспоненциальное распределение с параметром λ=0,02 ч - 1 . Вычислите вероятность того, что за время t =100ч элемент: а) выйдет из
строя; б) будет исправно р аботать.
Ответ: а) 1−е - 2 ≈0,865; б) е - 2 ≈0,135.
2.9 Случайная величина X имеет нормальное распределение с
параметрами m=2 и ζ=1. Определите вероятность попадания случа йной величины в интервал (1, 5).
Ответ: 0,83999.
2.10 Случайная величина X распределена по нормальному закону
с параметрами m=4 и ζ=1. Определите вероятность попадания сл учайной величины X в интервал (6, 8).
Ответ: 0,0227.
2.11 Случайная величина Х подчинена нормальному закону распределения с m=0. Вероятность попадания случайной величины в
44
интервал (−0,3; 0,3) равна 0,5. Найдите среднее квадратическое о тклонение ζ.
Ответ: ζ=0,44.
2.12 Измерительный прибор имеет систематическую погре шность 5 м. Случайные погрешности подчиняются нормальному зак ону со средним квадратическим отклонением, равным 10 м. Какова
вероятность того, что погрешность измерения не превзойдет по а бсолютному значению 5 м ?
Ответ: 0,3413.
2.13 Измерение дальности до объекта сопровождается случа йными погрешностями, подчиняющимися нормальному закону со
средним квадратическим отклонением, равным 50 м. Систематич еская погрешность отсутствует. На йдите:
а)вероятность измерения дальности с погрешностью, не прево сходящей по абсолютному значению 100 м;
б)вероятность того, что измеренная дальность не превзойдет и стинной.
Ответ: а) 0,9545; б) 0,5.
2.14 Высотомер имеет случайную и систематическую погрешн ости. Систематическая погрешность равна 20 м. Случайная погре шность распределена по нормальному закону. Какую среднюю квадр атическую погрешность должен иметь прибор, чтобы с вер оятностью
0,9452 погрешность измерения высоты была меньше 10 м?
Ответ: 50 м.
2.15 Время X (в часах) безотказной работы электрической ла мпочки имеет распределение Вейбулла с параме трами α=0,5 и β=50.
Определите вероятность того, что лампочка проработает не менее
10000 ч.
1/ 2
Ответ: Р(Х > 10000) = e ( 0, 02 10000)
0,14.
2.16 Время X (в месяцах) безотказной работы некоторой системы, состоящей из одного основного и двух резервных элементов,
имеет гамма-распределение с параметрами α=3 и β=20. Найдите в ероятность того, что система проработ ает не менее 5 лет.
Ответ: Р(Х > 60) =е - 3 (1+3=3 2 /2)≈0,42.
45
3 ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН
Вероятности любых событий, связанных с каждой случайной в еличиной, полностью могут быть определены ее законом распредел ения. Причем законом распределения вероятностей для ди скретной
случайной величины является ряд распредел ения, или же функция
распределения. Непрерывная случайная величина полн остью может
быть описана функцией распределения или плотностью распредел ения.
Закон распределения полностью характеризует случайную вел ичину, т.е. является ее полной характеристикой. Од нако часто на
практике этот закон распределения бывает неизвестен, или нет н еобходимости его указывать. Тогда ограничиваются меньшими свед ениями. Для этого используют числовые характеристики случа йной
величины (неслучайные числа).
3.1 Математическое ожида ние случайной величины
Определение. Математическим ожиданием (средним значением) дискретной случайной величины Х называют сумму произведений возможных значений х i на их вероятности p i :
M(X)= xi pi .
i
При этом, если множество возможн ых значений Х счетно, предполагается, что
, т.е. ряд должен сходиться абсолютно.
| xi | pi
i 1
Аналогичная формула существует в теоретической мех анике. Пусть
на прямой расположена система n материальных точек с массами р i
n
(
i 1
pi
1 ) и пусть х i – координата i-й точки. Тогда центр масс систеn
мы имеет координату X
i 1
xi pi .
Пример 3.1. Математическое ожидание случайной величины Х,
распределенной по биноминальному закону (схема Бернулли) б удет
равно
n
M (X )
n
kPn (k )
k 0
n
k
k 0
(n 1)!
np
p k 1q n
(k 1)!(n k )!
1
kCnk p k q n
k
n 1
np
j 0
k
n
k
k 0
n!
pk qn
k!(n k )!
Cnj 1 p j q n 1 j
k
n 1
np
Pn 1( j ) np .
j 0
Пример 3.2. Найдем математическое ожидание случайной вел ичины Х, имеющей геометрическое распред еление:
46
kpq k
M (X )
kq k
pq
k 0
1
pq (
k 0
pq
(1 q) 2
pq
p2
q k )q
k 0
1
pq (
)
1 q
q
.
p
Пример 3.3. Пусть случайная величина Х имеет распределение
Пуассона. Тогда
M (X )
k
λk
k e
k!
0
λ
λk 1
λ
e
k 1( k 1)!
λ
λj
λ
e
j 0 j!
λ
λe λ e
λ
λ.
Связь математического ожидания со средним арифметич еским наблюденных значений случайной велич ины.
Пусть производится N независимых испытаний, в которых случайная величина X приняла m 1 раз значение x 1 , m 2 раз−значение
х 2 ,…, m n раз значение x n (m 1 +m 2 +…+m n =N). Найдем среднее арифметическое этих значений
X
m1x1 m2 x2 ... mn xn
.
N
Отношение m i /N для всех i есть частота события (Х=x i ). При
достаточно большом N отношение m i /N приблизительно равно вероятности этого события р i . Тогда получим, что X М(X), следовательно, среднее арифметическое наблюденных значений случайной вел ичины Х при увеличении числа опытов будет приближаться к ее м атематическому ожиданию М(Х).
Указанная выше связь между средним арифметическим и мат ематическим ожиданием составляет одну из форм закона больших
чисел.
Для непрерывной случайной величины Х математическим ожиданием (средним значением) называют интеграл
М(х)=
x·f(x)dx ,
где f(x)−функция плотности распределения. Для существования м атематического ожидания несобственный интеграл должен сх одиться
абсолютно.
Пример 3.4. Найдем математическое ожидание равномерно ра спределенной на отрезке [а, b] случайной величины Х
в
M (X )
xf ( x)dx
ab
x
a
dx
1
1 2
(b
b a 2
а2 )
b а
,
2
т.е. М(Х) совпадает с серединой отрезка [а, b].
Пример 3.5 Найдем математическое ожидание нормально ра спределенной случайной величины Х
47
M (X )
xθ m, ζ ( x)dx
1
ζ 2π
xe
( x m) 2 / 2ζ 2
dx .
Делая замену переменной у=(х−m)/ζ, получаем
M ( x)
2
2
ζy
1
e y / 2 dy m
e y / 2 dy
2π
2π
2
ζ
ye y / 2 dy m θ( y )dy .
2π
Первый интеграл равен нулю в силу нечетности подынтеграл ьной функции, а второй равен единице как интеграл от стандартной
нормальной плотности. Тогда М(Х)=m, т.е. параметр m имеет смысл
математического ожидания случайной в еличины Х.
Пример 3.6. Найдем математическое ожидание экспоненц иально
распределенной случайной величины Х
M (X )
xf ( x)dx
0
xe
x
dx .
0
Интегрируя по частям, получим М(Х)=1/λ.
Пример 3.7. Математическое ожидание случайной величины Х,
распределенной по закону Вейбулла может быть найдено путем з амены переменной в подынтегральной функции у=(х/β) α . Опуская несложные выкладки и используя определение гамма – функции, запишем
M (X )
β 1
Γ( ).
α α
Пример 3.8. Математическое ожидание случайной в еличины Х,
имеющей гамма – распределение, задается выражением М(Х)=α·β.
3.2 Свойства математического ожидания
1. М(С)=С, где C=const.
Для этого рассмотрим случайную величину Х как постоянную,
которая принимает одно возможное значение С с вероятностью 1,
тогда М(С)=С·1=С.
2. М(С·Х)=СМ(Х). Пусть случайная величина Х задана рядом
распределения
X x1 х2 … хn
.
P p1 р2 … рn
Тогда СХ будет иметь ряд распределения
CX Сх 1 Сх 2 … Сx n
.
P p1
р2
… рn
Отсюда
по
определению
математического
ожидания
получим
48
М(С·Х)=C·М(Х).
Замечание. Прежде чем перейти к следующему свойству, ук ажем, что две случайные величины называются независимыми, если
закон распределения одной из них не зависит от того, какие возмо жные значения приняла другая величина. В противном случае случа йные величины зависимы. Более строгое определение нез ависимости
будет дано в п. 4.6.
3. М(Х·Y)=М(Х)·М(Y), где X,Y - независимые случайные величины. Пусть случайные величины Х и Y заданы рядами распределения
X
P
x1
p1
х2
р2
и
Y
P
y1
q1
y2
q2
.
Тогда ряд распределения для ХY имеет вид
XY x 1 y 1 x 1 y 2 x 2 y 1 x 2 y 2
P p1q1 p1q2 p2q1 p2q2
.
М(ХY)= x 1 y 1 р 1 q 1 + x 1 y 2 р 1 q 2 + x 2 y 1 р 2 q 1 + x 2 y 2 р 2 q 2 =
=y 1 q 1 (x 1 р 1 + x 2 р 2 )+y 2 q 2 (x 1 р 1 + x 2 р 2 )=М(Х)М(Y).
4. M(X+Y)=M(X)+M(Y).
Пусть случайные величины Х и Y заданы рядами распределения
X x1 х2
Y
y1 y2
и
.
P p1 р2
P q1 q2
Составим все возможные значения величины Х+Y. Тогда
X+Y
P
x 1 +y 1
p 1 +q 1
р11
x 1 +y 2 x 2 +y 1 x 2 +y 2
p 1 +q 2 p 2 +q 1 p 2 +q 2
р12
p21
р22
М(Х+Y)=x 1 (р 1 1 +р 1 2 )+
+x 2 (р 2 1 +р 2 2 )+y 1 (р 11 +р 2 1 )+
+y 2 (р 1 2 +р 2 2 ).
Докажем, что р 1 1 +р 1 2 =р 1 . Событие, состоящее в том, что Х примет
значение х 1 (вероятность этого события равна р 1 ), влечет за собой
событие, которое состоит в том, что Х+Y примет значение x 1 +y 1 или
x 1 +y 2 (вероятность этого события р 1 1 +р 1 2 ), и обратно. Отсюда след ует, что р 1 1 +р 1 2 =р 1 . Аналогично доказываются равенства р 2 1 +р 2 2 =р 2 ,
р 1 1 +р 2 1 =q 1 , р 1 2 +р 2 2 = q 2 , откуда и следует свойство 4.
Замечание. Характеристикой, альтернативной математ ическому
ожиданию, является медиана (квантиль уровня 1/2) х 0 , 5 случайной
величины Х, определяемая как наименьшее значение х, при котором F(x)≥0,5. Если же Х – непрерывная случайная величина,
тогда F(x 0 , 5 )=0,5(см. рис.3.1).
49
f(x)
Площадь
равна 0,5
0
Площадь
равна 0,5
x0,5
x
Рис. 3.1
Медиана может быть лучшей мерой стремления к центру распр еделения, чем среднее, когда возможные значения Х очень большие
или очень маленькие.
Пример 3.9. Рассмотрим дискретную случайную величину Х с
рядом распределения
Х 1 2 3 4 5
Математическое ожидание и медиана
. равны: М(Х)=х =3.
P 0,2 0,2 0,2 0,2 0,2
0,5
Рассмотрим другую случайную величину Y с рядом распределения
Y 1 2 3 4 100
М(Y)=22, у 0 , 5 =3. Этот пример показы. вает, что изменение распределения не
P 0,2 0,2 0,2 0,2 0,2
влияет на значение медианы.
3.3 Дисперсия случайной величины. Моменты высших п орядков
Математическое ожидание не полностью характеризует случа йную величину. Например, возьмем две случай ные величины Х и Y,
заданные законами распределения
X -0,01 0,001
P 0,5
0,5
и
Y
P
-100
0,5
100
.
0,5
Очевидно, что М(Х)=M(Y)=0.Таким образом, хотя математич еские ожидания одинаковые, но возможные значения этих случа йных
величин по-разному рассеяны вокруг среднего. Поэтому, чтобы оц енить разброс возможных значений вокруг математического ожид ания, вводят такую числовую характеристику как дисперсия.
Введем понятие отклонения случайной величины от ее матем атического ожидания как разность между случай ной величиной и ее
50
o
o
математическим ожиданием X =Х−М(Х). Таким образом, X − центрированная случайная величина, и ее математическое ожидание
o
М( X )=0.
Определение. Дисперсией случайной величины X называется математическое ожидание квадрата отклонения случайной велич ины
D(X)=M[X−M(X)] 2 .
(3.1)
Для дискретной случайной величины эту формулу можно з аписать в
виде:
D(X)=(x 1 −M(X)) 2 ·р 1 +(х 2 −М(Х)) 2 ·р 2 +...+(х n −М(Х)) 2 ·р n .
(3.2)
Для практических вычислений существует более удобная форм ула
D(X)=M(X 2 )−[M(X)] 2 .
(3.3)
Формула (3.3) следует из формулы (3.1).
Для непрерывной случайной величины
D(X)=
[x−M(X)] 2 ·f(x)dx.
(3.4)
Более удобная формула для вычисления дисперсии следует из
формулы (3.4)
D(X)=
x 2 ·f(x)dx−[M(X)] 2 .
(3.5)
Свойства дисперсии:
1. D(C)=0, где С=const.
2. D(CX)=C 2 D(X).
3. D(X±Y)=D(X)+D(Y), если X и Y – независимые случайные величины.
Все эти свойства легко доказываются с использованием опред еления дисперсии и свойств математического ожид ания.
Определение. Средним квадратическим отклонением случайной величины Х называют квадратный корень из дисперсии
ζ( X )
D( X ).
Эта мера рассеяния возможных значений случайной величины
вокруг ее математического ожидания имеет размерность самой сл учайной величины. В формулах для определения дисперсии случайной величины присутствует выражение М(Х 2 ) – математическое
ожидание квадрата случайной вел ичины:
m2 M ( X 2 )
xi2 pi для дискретной случайной велич ины Х и
i
m2
M (X 2)
x 2 f ( x)dx для непрерывной случайной величины Х.
Эту величину называют вторым начальным моментом распределения случайной величины. Так как дисперсия D(Х) по определению
51
является вторым моментом центрированной случайной вел ичины
o
X
X
M ( X ) , то дисперсию иногда называют вторым централь-
ным моментом распределения случайной величины.
Определение. Начальным моментом k-того порядка m k случайной величины Х называют математическое ожидание k-й степени
Х:
mk M ( X k )
xik pi , если Х – дискретная случайная величина, и
i
mk
M (X k )
x k f ( x)dx , если Х – непрерывная случайная ве-
личина.
o
Определение. Центральным моментом k-го порядка m k случайной величины Х называют математическое ожидание k-й степени
центрированной случайной величины
o
X
o
mk
M[X
M ( X )]k
i
[ xi
X
M (X ):
M ( X )]k pi , если Х – дискретная слу-
чайная величина, и
o
mk
M[X
M ( X )]k
[ x M ( X )]k f ( x)dx , если Х – непрерыв-
ная случайная величина.
Замечание. Начальный момент первого порядка совпадает с м атематическим ожиданием, центральный момент первого порядка р авен нулю, центральный момент второго порядка является дисперс ией.
Рассмотрим еще некоторые, часто применяемые на практике ч исловые характеристики случайных величин.
Случайную величину Х называют симметрично распределенной
относительно математического ожидания, если Р[Х М(Х)−х]=
Р[Х М(Х)+х] для любого х. Отсюда следует, что непрерывная сл учайная величина Х является симметричной тогда и только тогда, к огда график ее плотности распределения симметричен относ ительно
прямой х=М(Х) (см. нормальное распределение).
При анализе эмпирических (статистических) распределений ча сто возникает задача количественной оценки степени их разл ичия от
нормального.
Определение. Асимметрией А S случайной величины Х называют
o
отношение третьего центрального момента m 3
квадратического отклонения ζ:
к кубу среднего
52
o
m3 / ζ 3 .
As
Для нормального распределения А S =0.
Определение. Эксцессом Е k случайной величины Х называют
o
отношение четвертого центрального момента m 4 к квадрату дисперсии за вычетом числа 3:
o
Ek
(m4 / ζ 4 ) 3.
o
Для нормального распределения величина ( m 4 /ζ 4 )=3, следовательно Е k =0.
Смысл эксцесса пояснен на рис.3.2. Он используется для оце нки
большего и меньшего подъема кривой распределения по сра внению с
нормальной кривой.
f(x)
а)
f(x)
Ek>0
Нормальная
кривая
Ek<0
Нормальная
кривая
0
б)
0
x
x
Рис. 3.2
Определение. Модой дискретной случайной величины Х называют такое значение х i , при котором для вероятностей выполн яются
неравенства
рi-1 pi
и
pi+1 pi.
Определение. Модой непрерывной случайной величины Х называют точку максимума х m a x (локального) плотности распределения
f(x).
Как для дискретных так и непрерывных случайных величин ра зличают унимодальные (имеющие одну моду), бимодальные (име ющие две моды) и мультимодальные (име ющие несколько мод) распределения вероятностей.
После определения моды поясним смысл асимметрии. Если
«длинная часть» кривой плотности расположена пр авее моды х m a x , то
асимметрия положительна (рис.3.3 а), если слева – отрицательна
(рис.3.3 б).
53
а)
б)
f(x)
f(x)
AS<0
AS>0
xmax
xmax
x
x
Рис. 3.3
Рассмотрим примеры определения дисперсии случайных вел ичин,
распределенных по различным законам, перечисленным в разделе 2.
Пример 3.10. Пусть Х – число появлений события А в испытаниях по схеме Бернулли. Найдем дисперсию Х.
Общее число появлений события (число успехов) в n испытаниях
равно сумме появлений события в отдельных испытаниях:
Х=Х 1 +Х 2 +…+Х n , где Х 1 −число наступлений события в первом испытании, Х 2 −во втором и т.д. Так как Х 1 ,Х 2 ,…,Х n взаимно независимы,
то
D(X)=D(X 1 )+D(X 2 )+…+D(X n ) (свойство 3 дисперсии).
Дисперсия каждого слагаемого равна:
D(X i )=[0−M(X i )] 2 q+[1−M(X i )] 2 p=(−p) 2 q+(1−p) 2 p=
=pq(p+q)=pq.
Учитывая каждое слагаемое, окончательно получим
D(X)=npq.
Пример 3.11. Найдем дисперсию случайной величины Х, распределенной по закону Пуассона. Для этого определим 2 -й начальный
момент:
2
λk
k
e
k!
0
2
M (X )
k
λk 1
λ k
e
k 1 ( k 1)!
λ
λm
λ( m e
m!
m 0
λ
m
λm λ
e )
0 m!
λ
λm
λ (m 1) e
m!
m 0
λ[ M ( X ) 1] λ 2
λ
λ.
Учитывая, что М(Х)=λ, получим
D(X)=λ 2 + λ−λ 2 =λ.
Пример 3.12. Дисперсия равномерно распределенной на о трезке
[a, b] случайной величины Х определяется формулой
54
b
D( X )
(x
а
b а 1
)
dх
2 b а
(b а)3
12(b а)
1
b а 3
b а 3
[(b
) (а
) ]
3(b а)
2
2
(b а) 2
.
12
Пример 3.13. Дисперсия нормально распределенной с параме трами m и ζ случайной величины Х имеет вид
2
( x m) 2 θ m, ζ ( x)dx
D( X )
( x m)
e
ζ 2π
( x m) 2
2ζ 2
dx.
Сделав замену переменной z=(x−m)/ζ, получим
D( X ) ζ
2
z2
e
2π
z2
2
dz. Полагая
z / 2π , dv
u
ze
z2
2 dz
и
интегрируя по частям, получим D(X)=ζ 2 .
Пример 3.14. Определим дисперсию и среднее квадратическое
отклонение экспоненциально распределенной случайной велич ины
Х.
x 2 f ( x)dx [ M ( X ) 2 ] λ x 2 e
D( X )
0
0
частям, получим λ x e
2
λx
dx
λx
dx
1
. Интегрируя
λ2
по
2 / λ 2 . Следовательно D(X)=1/λ 2 . Тогда
0
ζ(X)=1/λ. Отсюда следует, что математическое ожидание и среднее
квадратическое отклонение экспоненциального распред еления равны
между собой.
Пример 3.15. Дисперсия случайной величины Х, имеющей распределение Вейбулла, задается форм улой:
D( X )
β2
2
1
2 Γ ( ) [ Γ ( )]2 .
α
α
α
Пример 3.16. Дисперсия случайной величины Х, имеющей гамма-распределение задается формулой:
D(Х)=αβ 2 .
Справедливость последних двух формул провери ть самостоятельно.
3.4 Задание №3 на самостоятельную работу
3.1 Найти математическое ожидание случайной величины Z, если
известны математические ожид ания Х и Y:
а) Z=X+2Y, M(X)=5, M(Y)=3; б) Z =3X+4Y, M(X)=2, M(Y)=6.
Ответ: а) М(Z)=11, б) М(Z)=30.
55
3.2 В партии из 10 деталей содержится три нестандартных. На удачу отобраны две детали. Найти математическое ожидание ди скретной случайной величины Х–числа нестандартных деталей среди
двух отобранных.
Ответ: М(Х)=3/5.
3.3 Найти дисперсию дискретной случайной вел ичины Х – числа
появлений события А в пяти независимых испытаниях, если вероя тность появления событий А в каждом испытании равна 0,2.
Ответ: D(X)=0,8.
3.4 Найдите математическое ожидание, дисперсию и среднее
квадратичное отклонение дискретной случайной ве личины X, ряд
распределения которой представлен в таблице ниже
X 1
2
3
Р 0,3 0,2 0,5
0
1
Ответ: М(Х)=2,2, D(X)=0,76, (Х)≈0,87.
3.5 Вероятность того, что при трех выстрелах стрелок попадет в
цель хотя бы один раз, равна 0,992. Найдите математическое ожидание и дисперсию числа X попаданий при двадцати выстрелах. О твет: M(X)=16, D(X)=3,2.
3.6 Время X безотказной работы станка имеет экспоненциал ьное
распределение. Известно, что вероятность о тказа станка за 5 ч равна
0,39347. Найдите математическое ожид ание, дисперсию и среднее
квадратичное отклонение времени безотказной работы станка.
Ответ: M(X) = 10 ч, D(X) = 100 ч 2 , ζ = 10 ч.
3.7 Найдите математическое ожидание, дисперсию, среднее
квадратичное отклонение, асимметрию, эксцесс, медиану и моду
случайной величины X, имеющей плотность распределения f(х) = е - |x 3 |/ 2
.
Ответ: M(X) = 3, D(X) = 2, (Х) = 2 , А S = 0, E k = 3, x 0 , 5 =3, x m a x =
3.
3.8 Непрерывная случайная величина Х имеет плотность распределения
0, x (a,b);
f ( x)
2
b а
4
b а
х
, х (а,b) ,
2
2
(b а)
причем а и в неизвестны, но b а, а М(Х)=5 и D(Х)=6. Найти a и b.
Ответ: а=−1, b=11.
3.9 Случайная величина Х задана плотностью распределения
56
f(x)=0,5х в интервале (0,2); вне этого интервала f(x)=0. Найти начальные и центральные моменты первого, второго, третьего и четвертого порядков.
o
o
Ответ:
m 1 =4/3,
o
m3
m 2 =2,
m 3 =3,2,
m 4 =16/3,
m1
0,
m2
2/9,
o
8 / 135, m 4 16 / 135 .
3.10 Каждый из 25 студентов группы выучил 80% экзаменацио нных билетов. Найдите среднее число студ ентов, сдавших экзамен.
Ответ: 20.
3.11 Площадь круга вычисляют по измеренному диаметру кр уга
X, используя формулу S=πX 2 /4. Считая, что измеренный диаметр
круга X распределен равномерно на отрезке
[ а,b], найдите математическое ожидание и дисперсию случа йной величины S.
Ответ:M(S)=π(а 2 +аb+b 2 )/12,
D(S)=π 2 (b−а) 2 (4а 2 +7ab+4b 2 )/720.
3.12 Плотность распределения непрерывной случайной вел ичины
Х имеет вид
0,
f ( x)
x ( 1, 1);
3(1 x 2 )/4,
х ( 1, 1).
Найдите начальные и центральные моменты первого, второго,
третьего и четвертого порядка, а также асимметрию и эксцесс сл учайной величины X.
Ответ: m1
o
0
0 , m2
m1
m2
o
D( X ) 1 / 5 , m3
m3
0,
o
m4
m4
3 / 35 , A S =0, E k =−6/7.
57
4. МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ ВЕЛИЧИНЫ
До сих пор мы рассматривали одномерные случайные велич ины.
В прикладных задачах обычно приходится рассматривать в еличины,
возможные значения которых определяются двумя, тремя и более
числами.
Пример 4.1. Станок – автомат штампует стальные плитки. Е сли
контролируемыми размерами являются длина Х и ширина Y, то имеем двумерную случайную величину ( Х, Y); если же контролируется и
высота, то имеем трехмерную величину(X, Y, Z).
В этом разделе будут обобщены ранее изложенные р езультаты на
совокупность из нескольких случайных вел ичин, заданных на одном
и том же вероятном пространстве.
4.1 Многомерная случайная величина. Совместная функция
распределения
Определение. Совокупность случайных величин
Х 1 =Х 1 (ω), …, Х n =Х n (ω), заданных на одном и том же вероятнос тном пространстве, называют многомерной (n-мерной) случайной
величиной или n-мерным случайным вектором.
Пример 4.2. При испытании прибора на надежность совоку пность внешних воздействий в некоторый момент времени можно
описать случайным вектором (X, Y, Z,…). Пусть Х – температура окружающей среды, Y – атмосферное давление, Z – амплитуда вибрации платформы, на которой установлен прибор и т.д. Размерность
этого вектора зависит от количества учитываемых фа кторов и может
быть достаточно большой. Свойства многомерных случайных вект оров мы будем рассматривать на примере двумерного случайного ве ктора или же системы двух случайных вел ичин.
Определение. Совместной функцией распределения вероятностей n−мерного случайного вектора (Х 1 ,…, Х n ) называют функцию,
значение которой в точке (х 1 , …, х n ) R n равно вероятности совместного осуществления событий
(Х 1 х 1 ), …, (Х n х n ), т.е.
F(х 1 ,…,х n )=P(Х 1 х 1 , …, Х n х n ).
При n=2 будем говорить о двумерной функции распр еделения
F(х, у)=P(Х х, Y y).
Геометрически эту функцию можно истолковать как вероя тность
попадания случайной точки в бесконечный квадрант с ве ршиной в
точке (х, у) (рис.4.1.).
58
y
(x,y)
x
Рис.4.1
Свойства функции распределения.
1. 0≤F(х,у)≤1.
2. Функция F(х,у) неубывающая по обоим аргументам.
3. F(x, − )=F(− , y)=F(− ,− )=0.
4. F(x,+ )=F 1 (x)−функция распределения компоненты X.
5. F(+ ,y)=F 2 (y)−функция распределения компоненты Y.
6. F(+ , + )=l.
7.Р(а 1 ≤Х≤b 1 ,а 1 ≤Y≤b 1 )=F(b 1 ,b 2 )−F(b 1 ,а 2 )−F(а 1 ,b 2 )+F(а 1 ,а 2 ).
Перечисленные свойства аналогичны свойствам функции ра спределения одномерной величины Х. Докажем например, свойство 3.
События (Х 1 −∞) и (Х 2 −∞) являются невозможными, а перес ечение невозможного события с любым событием есть также нево зможное событие, вероятность которого равна нулю. Следов ательно,
утверждение 3 справедливо.
4.2 Дискретные двумерные случа йные величины
Определение. Двумерную случайную величину ( Х, Y) называют
дискретной, если ее компоненты Х и Y являются дискретными случайными величинами.
Пусть случайная величина Х принимает возможные значения
х 1 ,…,х n , а Y − у 1 ,…, у m . Тогда координаты двумерного случайного
вектора (Х, Y) – пары значений (x i ,y j ), i 1, n , j 1, m.
Распределение величины (Х,Y) удобно задавать в виде таблицы с
двумя входами (табл.4.1)
Табл. 4.1
В этой таблице на пересечении
Y
X
строки «х i » и столбца «у j » ставится
y1
y2
… ym
Px
x1
р11 р12
… р1m
p x1 вероятность совместного осуществления события
(Х=х i , Y=у j ) т.е.
x2
р21 р22
… р2m
p x 2 р i j =P(Х=х i , Y=у j ). В столбце «Р х »
проставляются
вероятности
…
…
…
… …
…
p xi =р i 1 +р i 2 +…+р i m .
xn
рn1 рn2
… рnm
px
n
Py
p y1
p y2
…
p ym
59
С другой стороны p xi =P(Х=х i ).
Таким образом, первый и последний столбцы таблицы дают ряд
распределения случайной величины Х. Аналогично, в последней
строке «Р у » помещены значения p y i =р 1 j +р 2 j +…+р m j , а первая и последняя строки дают ряд распределения случа йной величины Y.
Используя табл. 4.1 нетрудно определить совместную функцию
распределения F(х,у).
Пример 4.3. В соответствии со схемой Бернулли с вероятн остью
успеха р и вероятностью q=1−p проводятся два испытания. Составим
таблицу распределения двумерной случайной величины ( Х 1 ,Х 2 ), где
Х i , i=1,2 – число успехов в i-м испытании. Возможные значения Х 1 и
Х 2 : 0 или 1. Очевидно, что вероятн ости:
Р(Х 1 =0, Х 2 =0)=q 2 , Р(Х 1 =1, Х 2 =0)=рq,
Р(Х 1 =0, Х 2 =1)=qр, Р(Х 1 =1, Х 2 =1)=р 2 .
Табл. 4.2
F (x 1 ,x 2 )=0 при х 1 ≤0 или х 2 ≤0;
Х2
Х1 0
F (x 1 ,x 2 )=q 2 при 0 х 1 ≤0 и 0 х 2 ≤1;
1
Px1
F (x 1 ,x 2 )=q 2 +qp=q при 0 х 1 ≤1 и х 2 1;
2
0
q
qp q
2
F
(x
2
1 ,x 2 )= q +qp=q при х 1 1 и 0 х 2 ≤1;
1
pq p
p
F (x 1 ,x 2 )=1 при х 1 1 и х 2 1.
p
Px 2 q
Функция F(х 1 ,х 2 ) в данном случае задает ступенчатую поверхность в трехмерном пространстве.
4.3 Непрерывные двумерные случа йные величины
Определение. Непрерывной двумерной случайной велич иной
(Х,Y) называют такую величину, совместную функцию распредел ения которой можно представить в виде сходящегося несобс твенного
интеграла
x
y
F ( x, y )
f ( x, y )dxdy.
Плотность совместного распределения вероятностей есть вторая смешанная производная от совместной функции распред еления
2
f(x,y)=
F ( x, y )
.
x y
Геометрически эту функцию можно представить как некоторую
поверхность, которую называют поверхностью распределения вер оятностей.
Вероятность попадания случайной точки в любую область можно
определить как двойной интеграл по этой области от функции пло тности, т.е.
60
f(x, у) dx dy.
P((X,Y) D) =
D
Свойства функции совместной плотности распредел ения:
1) функция f(х,у) неотрицательная;
f ( x, y )dxdy 1;
2)
3) функции плотности компонент:
dF1 ( x)
=
dx
dF ( y)
f 2 (y)= 2
=
dy
f(x,y)dy −для компоненты Х;
f 1 (x)=
f(x,y)dx − для компоненты Y.
4) Р(х Х х+∆х, у Y у+∆у)≈f(x,y)∆x∆y;
5) P(Х=х, Y=у)=0.
Пример 4.4. Двумерная случайная величина (X,Y) задана плотностью совместного распределения
f ( x, y )
1 /(6π), x 2 / 9
y 2 / 4 1;
x2 / 9
y 2 / 4 1.
0,
Найти плотности распределения комп онент X и Y.
Решение. Плотность распределения компоненты Х
f1 ( x)
1
6π
2 1 x2 / 9
dy
2 1 x2 / 9
2 2
6π
1 x2 / 9
2
9 x2 .
9π
dy
0
Окончательно,
f1 ( x)
2 9 x 2 /(9π),
x
3;
0,
x
3.
Аналогично найдем плотность распределения комп оненты Y:
f 2 ( y)
4 y 2 /(2π),
0,
y
2;
y
2.
Предлагаем самостоятельно убедиться в том, что фун кции f 1 (x) и
f 2 (у) удовлетворяют условию нормиро вки.
4.4 Условные законы распределения компонент двумерной
случайной величины
Рассмотрим вначале двумерную случайную величину ( X,Y) с
дискретными компонентами с возможными значениями
х 1 , х 2 ,…,х n ;
у 1 , у 2 , …, у m . Обозначим условную вероятность того, что Х примет,
например, значение х 1 при условии, что Y=у 1 , через р(х 1 |у 1 ).
61
Эта вероятность, как и в случае двух событий А и В, вообще говоря, не будет равна безусловной вероятности р(х 1 ).
В общем случае условные вероятн ости компоненты Х будем обозначать
p( xi | y j ) (i 1, n; j 1, m) .
Определение. Условным распределением компоненты Х при
Y=y j называют совокупность условных вероятностей р(х 1 |у j ), р(х 2 |у j ),
…, р(х n |у j ), вычисленных в предположении, что событие Y=y j уже наступило. Аналогично определяется условное распределение комп оненты Y.
В общем случае условные законы распределения компоненты Х
определяются отношением
р(х i |у j )=р(х i ,у j )/р(у j ),
а компоненты
Y−р(у j |х i )=р(х i ,у j )/р(х i ).
Замечание. Сумма вероятностей условного распределения равна
единице. Так
n
i 1
m
p( xi | y j )
j 1
p( y j | xi ) 1.
Пример 4.5. Условное распределение числа Х 1 успехов в первом
испытании по схеме Бернулли (см. пример 4.3) при условии, что
число успехов во втором испытании Х 2 =j, j=0,1, задано табл. 4.3.
Табл.4.3
Из этой таблицы следует, что, независимо от
Х2
Х1
0
1
Рх 1 числа успехов во втором испытании, 0 или 1
успех в первом испытании происходит с о дними
0
q
q
q
и теми же вероятностями р и q. Это очевидно,
1
p
p
p
поскольку испытания по схеме Бернулли являРх 2 q
p
ются независимыми.
Пусть теперь (X,Y) – двумерная случайная величина с непреры вными компонентами.
Определение. Условной плотностью f(x|у) распределения компоненты Х при данном значении Y=y называют отношение плотности
совместного распределения f(x,у) двумерной величины (X,Y) к одномерной плотности распределения f 2 (y) компоненты Y:
f(x|у)= f(x,у)/ f 2 (y).
Аналогично определяется условная плотность компоненты Y при
данном значении Х=х:
f(у|х)= f(x,у)/ f 1 (х).
Пример 4.6. Пусть случайные величины Х и Y представляют собой координаты падения частицы, случайным образом броше нной в
круг радиуса R с центром в начале координат. Случайный вектор
(Х,Y) имеет плотность распределения
62
f ( x, y )
1 /(πR 2 ),
x2
y2
R2;
0,
x2
y2
R2.
Найдем условную плотность распределения абс циссы Х точки
падения частицы при условии, что ордината Y приняла значение у.
Для этого определим одномерную плотность распределения случа йной величины Y:
R2 y2
f 2 ( y)
f ( x, y )dx
R2 y2
2 R2 y2
, | y | R;
πR 2
0,
| y | R.
1
dx
πR 2
При |y|≤R искомая условная плотность
1
f ( x | y)
f ( x, y )
f 2 ( y)
2 R2
y2
,
0,
| x|
R2
y2 ;
| x|
R2
y2 .
Таким образом, случайная величина Х при условии Y=у равно2
2
2
2
y , R
y ].
мерно распределена на отрезке [ R
Замечание. Условные плотности, как и любая плотность распр еделения обладают следующими свойствами:
f ( x | y ) 0,
f ( x | y )dx 1;
f ( y | x) 0,
f ( y | x)dy 1.
4.5 Условные числовые характеристи ки
Рассмотрим двумерную случайную величину (Х,Y). В соответствии с результатами п. 4.4 можно определить условные распределения компонент Х или Y при условии, что другая компонента приняла
определенное значение (Х=х или Y=y). Поскольку условное распределение обладает всеми свойствами обычного (безусловного) ра спределения, то по нему можно определить математическое ожидание, дисперсию и другие числовые (условные) характ еристики.
Определение. Условным математическим ожиданием дискретной случайной величины Y при Х=х (х – определенное возможное значение Х) называют сумму произведений возможных значений
Y на их условные вероятности:
m
M (Y | X
x)
j 1
y j p( y j | x).
63
Для непрерывных величин
M (Y | X
x)
yf ( y | x)dx ,
где f(y|x) – условная плотность случайной величины Y при Х=х.
Условное математическое ожидание М(Y|X) есть функция от х:
M(Y|x)=h(x), которую называют функцией регрессии Y на Х.
Линия регрессии графически изображает зависимость «в сре днем» случайной величины Y от значения х случайной величины Х.
Аналогично определяются условное математическое ожидание
случайной величины Х и функция регрессии Х на Y:
M(X|y)=g(y).
Линия регрессии Х на Y графически изображает зависимость «в
среднем» случайной величины Х от значения у случайной величины
Y.
Пример 4.7. Пусть Х 1 и Х 2 – числа успехов в первом и во втором
испытаниях по схеме Бернулли с вероятностью успеха р. Найдем
M(X 1 |x 2 ). Используя табл.4.3, получаем
M(X 1 |0)=0·q+1·p=p, M(X 1 |1)=0·q+1·p=p. Отсюда
M(X 1 |x 2 )≡p.
Пример 4.8. Пусть случайный вектор (Х,Y) имеет равномерное
распределение в треугольнике с вершинами в точках (0;0), (0;2),
(1;0). Найдем условные математические ожид ания M(X|y), M(Y|x) и
функции регрессии Х на Y, Y на Х. Обозначим заданный треугол ьник
как область D. Совместная плотность распределения
f ( x, y )
1, ( x, y ) D;
0, ( x, y ) D.
Возможные значения Х и Y: х [0,1], у [0,2]. Найдем условные
математические ожидания:
1 y/2
M ( X | y)
M (Y | x)
xf ( x | y )dx
yf ( y | x)dx
2 xdx 2 y
,
y
4
0 2
2 (1 x )
ydy
1 x.
2(1 x)
0
Таким образом, условное математич еское ожидание
M ( X | y)
g ( y)
2 y
,
4
условное математическое ожидание
M(Y|x)=h(x)=1−х.
Графики линейной регрессии Х на Y и Y на Х приведены на
рис.4.2.
64
y
2
1
y
2
x=g(y)
y=h(x)
1
1 x
1 x
Рис.4.2
Определение. Условной дисперсией D(X|Y) случайной величины Х относительно случайной величины Y называют случайную величину, заданную формулой
D(X|Y)=M([X−M(X|Y)] 2 |y).
Для двумерной дискретной случайной величины ( Х,Y) значение
D(X|y j ) условной дисперсии Х при условии Y=y j определяется формулой
D( X | y j )
M ([ X
2
M ( X | y j )] | y j )
n
[ xi
i 1
M ( X | y j )]2 pij ,
а для непрерывной двумерной случайной величины ( Х,Y)
D( X | y )
M ([ X
M ( X | y )]2 | y )
[ x M ( X | y )]2 f ( x | y )dx.
Замечание. Условная дисперсия D(X|Y) является функцией случайной величины Y, область определения которой совпадает с мн ожеством возможных значений случайной вел ичины Y.
Аналогично определяется условная дисперсия D(Y|X) случайной
величины Y относительно Х.
Определение. Корреляционными отношениями случайных величин Х и Y называют числа ε X | Y и ε Y | X , которые задаются выражениями
ε X |Y
1 M ( D( X | Y )) / D( X ) и
εY | X
1 M ( D(Y | X )) / D(Y ).
Корреляционное отношение ε X |Y для двумерной дискретной сл учайной величины (Х,Y) вычисляют по формуле
ε X |Y
m
1 (
D( X | y j ) p y j ) / D( X ) ,
j 1
а для непрерывной величины ( Х,Y) – по формуле
ε X |Y
1 ( D( X | y ) f 2 ( y )dy ) / D( X ) .
Приведем без доказательства свойства корреляционного отнош ения.
65
1. 0≤ ε X |Y ≤1.
2. ε X | Y =1 тогда и только тогда, когда сл учайная величина Х
функционально зависит от Y.
3. ε X | Y =0 тогда и только тогда, когда М(X|Y)≡с=М(Х), т.е. линия
регрессии Х на Y есть горизонтальная прямая.
4.6 Зависимые и независимые сл учайные величины
Определение. Случайные величины Х и Y называются независимыми, если совместная функция распределения F(х,у) является произведением одномерных функций распределения F 1 (х) и F 2 (у):
F(х,у)= F 1 (х)·F 2 (у).
В противном случае случайные величины называются зависим ыми.
Из этого определения следует, что для независи мых случайных
величин Х и Y события (Х х) и (Y y) являются независимыми. Отс юда же и следует аналогичное условие относительно функции плотн ости совместного распределения:
f(х,у)= f 1 (х)·f 2 (у).
Пример 4.9. В схеме Бернулли с двумя испытаниями (см. пр имер
4.2)
Р(Х 1 =0, Х 2 =0)=q 2 =P(Х 1 =0)·P(Х 2 =0),
Р(Х 1 =0, Х 2 =1)=qp=P(Х 1 =0)·P(Х 2 =1),
Р(Х 1 =1, Х 2 =0)=pq=P(Х 1 =1)·P(Х 2 =0),
Р(Х 1 =1, Х 2 =1)=p 2 =P(Х 1 =1)·P(Х 2 =1).
Таким образом, числа успехов Х 1 и Х 2 в первом и втором испытаниях представляют собой независимые случайные величины, ч его
и требовалось ожидать в силу опред еления схемы Бернулли. Так же
можно убедиться в том, что независимыми в совокупности я вляются
случайные величины
Х 1 , …, Х n – числа успехов в 1-ом, 2-ом, …,
n-м испытаниях по схеме Бернулли.
Пример 4.10. Рассмотрим двумерную случайную величину (Х,Y)
с непрерывными компонентами, совместная плотность распредел ения которой имеет вид
f ( x, y )
1,
x [0, 1] и y [0, 1];
0,
x [0, 1] или y [0, 1].
Одномерные плотности распределения случайных вел ичин Х и Y
задаются формулой
f1 ( x)
f 2 ( y)
1,
x [0, 1];
0,
x [0, 1].
Очевидно, что в данном случае совместная плотность распред еления f(х,у) для всех х,у является произведением одномерных пло тностей f 1 (х), f 2 (у). Значит случайные величины Х и Y независимы.
66
4.7 Числовые характеристики двумерной случайной велич ины. Ковариация и коэффицие нт корреляции
Для описания двумерной случайной величины, кроме математ ических ожиданий и дисперсий компонент используют и другие х арактеристики как ковариация (корреляционный момент) и коэфф ициент корреляции.
Определение. Ковариацией cov(Х,Y) случайных величин Х и Y
называют математическое ожидание произведения случайных вел ичин
o
X
o
X
M (X ) и Y
Y
M (Y ) :
o o
cov( X , Y )
M (X Y)
M [( X
M ( X ))(Y
M (Y ))].
Запишем формулы, определяющие ковариацию. Для дискре тных
случайных величин Х и Y
n m
cov( X , Y )
( xi M ( X ))( y j
i 1j 1
M (Y )) p( xi , y j ) ,
а для непрерывных случайных величин Х и Y
cov( X , Y )
( x M ( X ))( y M (Y )) f ( x, y )dxdy.
Определение ковариации позволяет записать выражение для диспе рсии суммы произвольных случайных величин и к уже имеющимся
свойствам дисперсии добавить еще одно:
D(X+Y)=D(X)+D(Y)+2cov(X,Y).
Действительно,
D(X+Y)=М((X+Y)−М(X+Y)) 2 =
=М(X−М(X)) 2 +2М((X−М(X))(Y−М(Y))+M(Y−М(Y)) 2 =
=D(X)+D(Y)+2cov(X,Y).
Ковариация служит для характеристики связи между случа йными
величинами Х и Y. Для этого отметим основные свойства ковари ации.
1. cov(X,X)=D(X).
2. cov(X,Y)=0 для независимых случайных величин Х и Y.
3. cov(Х,Y)=M(X·Y)−M(X)·M(Y).
4. |cov(X,Y)|≤ D ( X ) D (Y ) .
Утверждение 1 следует из определения ковари ации:
cov(Х,Х)=M(X−M(X)) 2 .
Если Х и Y – независимые случайные величины, то их отклон ения X−М(X) и Y−М(Y) также независимы. Пользуясь свойствами математического ожидания, получим доказ ательство утверждения 2:
cov(X,Y)=М[(X−М(X))(Y−М(Y))]=
67
=М[X−М(X)]M[Y−М(Y)]=0.
Утверждение 3 следует из определения самой ковариации и ра скрытия скобки в формуле, а также из свойств математического ожидания.
Для доказательства утверждения 4 введем в рассмотрение сл учайную величину Z 1 = y X− x Y и найдем ее дисперсию D(Z 1 )=M[Z 1 −
mz 1 ] 2 . Выполнив выкладки, получим
D( Z1 ) 2ζ 2x ζ 2y 2ζ x ζ y cov( X , Y ) .
Так как дисперсия неотрицательна, то п олучим
cov(X,Y)≤ х у .
Введя случайную величину Z 2 = у X+ х Y, аналогично найдем
cov(X,Y)≥− х у .
Таким образом получили утверждение 4.
Существенным недостатком ковариации является то, что ее ра змерность совпадает с произведением размерностей случайных вел ичин и сравнение ковариации различных двумерных случайных вел ичин становится затруднительным. Поэтому вводят безразмерную в еличину – коэффициент корреляции.
Определение. Коэффициентом корреляции ρ=ρ(Х,Y) случайных
величин Х и Y называют отношение ковариации к произ ведению
средних
квадратических
отклонений
этих
величин:
ρ=cov(X,Y)/ х у .
Так как для независимых случайных величин cov(X,Y)=0, то и
ρ(Х,Y)=0. Когда рассматривают n-мерный случайный вектор
(Х 1 ,…,Х n ), коэффициент корреляции об означают как
ρij
cov( X i , X j ) /(ζ X i ζ X j ).
Коэффициент корреляции имеет сл едующие свойства.
1. |ρ(X,Y)|≤1.
2. Если случайные величины Х и Y являются независимыми, то
ρ(Х,Y)=0.
3. ρ(Х,Х)=1.
4. |ρ(X,Y)|=1 тогда и только тогда, когда случайные в еличины Х и
Y связаны линейной зависимостью.
5. |ρ|≤ ε X |Y .
6. |ρ|= ε X |Y тогда и только тогда, когда М(X|Y)≡М(Х), т.е. линия
регрессии Х на Y является прямой.
Коэффициент корреляции (ковариация) может не улавливать
степень нелинейной функциональной зависимости. Для этой цели
используют корреляционное отношение.
Доказательства первых трех утверждений следуют из свойств
ковариации и самого определения коэффициента корреляции. Док азательства остальных трех утверждений провести самосто ятельно.
Определение. Две случайные величины Х и Y называются кор68
релированными, если их ковариация или коэффициент корр еляции
отличны от нуля; Х и Y называют некоррелированными, если их
ковариация равна нулю.
При ρ 0 говорят о положительной коррелированности, а при ρ 0
– об отрицательной.
Две коррелированные величины также и зависимы, что следует
из свойства ковариации. Обратное же утве рждение не всегда имеет
место, т.е если две случайные величины Х и Y зависимы, то они могут быть как коррелированными, так и некоррелированными.
Другими словами, ковариация двух зависимых величин может
быть равна нулю, но может быть и не равна нулю. Исключение с оставляют нормально распределенные сл учайные величины, так что
из некоррелированности нормально распределенных величин
вытекает их независимость.
Пример 4.11. Двумерная случайная величина (Х,Y) задана совместной плотностью распределения:
f ( x, y )
1 /(6π),
x2 / 9
y 2 / 4 1;
0,
x2 / 9
y 2 / 4 1.
Доказать, что Х и Y – зависимые некоррелированные велич ины.
Решение. Одномерные функции плотности были найдены ранее
(пример 4.4):
f1 ( x)
2
9 x 2 , f 2 ( y)
9π
1
4 y 2 внутри заданного эллипса и
2π
f 1 (x)=f 2 (y)=0 вне его. Так как f(x,y) f 1 (x)·f 2 (y), то Х и Y − зависимые
случайные величины. Найдем теперь ковари ацию
cov( X , Y )
( x M ( X ))( y M (Y )) f ( x, y )dxdy.
Поскольку функция f 1 (x) симметрична относительно оси оу, то
М(Х) =0. Аналогично, М(Y)=0 в силу симметрии f 2 (y) относительно
оси 0х. Следовательно
cov( X , Y )
1
xyf ( x, y)dxdy
6π
3 1 y2 / 4
2 1 x2 / 9
y(
2
xdx)dy.
2 1 x2 / 9
3 1 y /4
Внутренний интеграл равен нулю в силу нечетности подынт егральной функции и симметричности пределов интегрирования о тносительно начала координат. Следователь но, cov(X,Y)=0, т.е. зависимые случайные величины Х и Y некоррелированы.
Пример 4.12. Двумерная случайная величина ( Х,Y) задана совместной плотностью распределения
f ( x, y )
0,
y
0 и
24 xy,
x
x
y 1;
0,
в противном случае .
69
Найдем одномерные плотности распр еделения:
1 x
24 xydy 12 xy 2 |10
f1 ( x)
x
12 x(1 x) 2
для 0
x 1;
y
12 y(1 y) 2
для 0
y 1.
0
1 y
24 xydx 12 yx 2 |10
f 2 ( y)
0
Поскольку
f(
1 1
1
1
) 6, a f1 ( ) f 2 ( )
2 2
2
2
3 3
2 2
9
1 1
, т.е. f (
)
4
2 2
1
1
f1 ( ) f 2 ( ), то Х
2
2
и Y не являются независимыми.
Найдем ковариацию cov(X,Y). Для этого определим
1
1 x
M ( XY )
1
xyf ( x, y )dydx
0
0
1 x
x2 (
0
1
0
1
24 y 2 dy )dx
1
8 x 2 (1 x)3 dx
0
2
,
5
0
0
1
1
2
M (Y )
yf 2 ( y )dy 12 y 2 (1 y ) 2 dx
.
5
0
0
2 2 2
Отсюда cov( X , Y ) M ( XY ) M ( X ) M (Y )
15 5 5
M (X )
ределив также
xf1 ( x)dx
2
,
15
12 x 2 (1 x) 2 dx
2
. Оп75
(Х)= (Y)=1/25, найдем коэффициент корреляции
ρ ( 2 / 75) /(1 / 25)
2 . Таким образом, случайные величины Х и Y
3
зависимые и отрицательно коррелированные велич ины.
Рассмотрим теперь n- мерный случайный вектор
X ( X 1 , , X n ) .
Определение. Матрицей ковариаций (ковариационной ма трицей) случайного вектора X называют матрицу
Σ= (ζ ij ) (cov( X i , X j )) ,
состоящую из ковариаций случайных в еличин Х i и Х j .
Эта матрица симметрическая и неотрицательно определе нная.
Определение. Корреляционной (нормированной ковариационной) матрицей случайного вектора X называют матрицу
ρ=(ρ i j )=(ρ(Х i ,Х j )), состоящую из коэффициентов корреляции сл учайных величин Х i и Х j .
4.8 Многомерное нормальное распр еделение
Пусть координаты Х 1 и Х 2 случайного вектора X ( X1 , X 2 ) являются случайными величинами, распределенными по нормальному
закону с функциями плотности
70
f1 ( x)
θ m1, ζ1 ( x)
f 2 ( x)
θ m 2, ζ 2 ( x)
1
( x m1 ) 2
exp(
) и
2
2 πζ1
2ζ1
1
( x m2 ) 2
exp(
),
2 πζ 2
2ζ 22
где m i и i 0, i 1,2 математические ожидания и среднее квадратические отклонения случайных величин Х 1 и Х 2 .
Если Х 1 и Х 2 являются независимыми случайными величинами, то
согласно результатам п. 4.6
f(x 1 ,x 2 )=f 1 (x 1 )·f 2 (x 2 )
и в этом случае плотность двумерного нормального ра спределения
имеет вид
1
( x1 m1 ) 2 ( x2 m2 ) 2
f ( x1 , x2 )
exp(
).
(4.1)
( 2 π ) 2 ζ1ζ 2
2ζ12
2ζ 22
В общем случае вектор X ( X1 , X 2 ) имеет двумерное нормаль-
ное распределение, если его плотность распределения опр еделяется
формулой
f ( x1 , x2 )
1
( 2π ) ζ1ζ 2 1 ρ
2
1
Q ( x1 m1 , x 2 m 2 )
2
,
e
2
(4.2)
где функция двух переменных
1
y12
Q( y1 , y2 )
(
1 ρ 2 ζ12
2ρy1 y2
ζ1ζ 2
y22
),
ζ 22
(4.3)
y i =x i −m i , i=1,2, есть положительно определенная квадратичная фо рма (т.е. Q(y 1 ,y 2 )>0 для любых (y 1 ,y 2 ) (0,0)).
Здесь ρ – коэффициент корреляции случайных величин Х 1 и Х 2 .
Для дальнейшего обобщения используем матрицу ковариаций
где ζ ii
11
12
21
22
,
ζ i2 ,
i 1,2, a ζ12 ζ 21 ρζ1ζ 2 .
Если ввести вектор y ( y1 , y2 ) , то квадратичную форму (4.3) можно
записать
Q( y )
y
1 T
y ,
−1
где Σ −обратная матрица, знак «т» − операция тра нспонирования.
Тогда выражение (4.2) можно записать в виде
1
f ( x)
( 2π ) (det
2
1
)2
e
1
(x m)
2
1
( x m )T
,
71
где det Σ - определитель матрицы Σ.
Теперь можно записать плотность нормального распределения
для случайного вектора X ( X 1 ,, X n ) произвольной размерности
n 2:
1
f ( x)
( 2π ) (det
n
1
)2
e
1
(x m)
2
1
( x m )T
.
Замечание. Если компоненты двумерной случайной величины
(Х 1 , Х 2 ), распределенной нормально, некоррелированы, то пло тность
распределения (4.2) переходит в (4.1). О тсюда уже следует, что Х 1 и
Х 2 независимы.
4.9 Задание №4 на самостоятельную работу
4.1 Задано распределение вероятностей дискретной двумерной
случайной величины:
X
Y
26
30
41
50
2,3 0,05 0,12 0,08 0,04
2,7 0,09 0,30 0,11 0,21
Найти законы распределения составляющих.
Ответ:
Х 26
30
41
50
Y
2,3 2,7
P 0,14 0,42 0,19 0,25
P 0,29 0,71
4.2 Задана функция распределения двумерной случайной вел ичины
F ( x, y )
sin x sin y
при 0
x
0
при
0 или
x
π / 2, 0
y
y
π / 2,
0.
Найти вероятность попадания случайной точки ( X,Y) в прямоугольник, ограниченный прямыми х=0, х=π/4, у=π/6, у=π/3.
Ответ: Р=0,26.
4.3 Задана функция распределения двумерной случайной вел ичины
F(x,y)
(1 e
0
4x
)( 1 e
2y
) при х 0 , y 0;
при х 0 , y 0.
Найти двумерную плотность вероятности системы ( X,Y).
Ответ: f(x,y)=8e − 4 x − 2 y при x>0, y>0; f(x,y)=0 при x<0 или y<0.
4.4 Задана двумерная плотность вероятности двумерной случа йной величины: f(x,y)=(1/2)·sin(x+y) в квадрате
72
0≤х≤π/2, 0≤y≤π/2; вне квадрата f(x,y)=0.
Найти функцию распределения системы ( X, Y).
Ответ: F(x,y)=(1/2)[sinx+siny−sin(x+y)].
4.5 Задана дискретная двумерная случайная величина (X,Y)
X
Y
3
6
10 0,25 0,1
14 0,15 0,05
18 0,32 0,13
Найти: а) условный закон распределения X при условии, что
Y=10; б) условный закон распределения Y при условии, что Х=6.
Ответ:
а)
Х
3
Р(X|10) 5/7
6
2/7
б)
Y
10
14
18
Р(Y|6) 5/14 5/28 13/28
4.6 Плотность совместного распределения непрерыв ной двумерной
случайной
величины f(x,y)=cosx·cosy в квадрате 0≤х≤π/2,
0≤y≤π/2; вне квадрата f(х,у)=0. Доказать, что составляющие X и Y независимы.
Указание. Убедиться, что безусловные плотности распреде ления
составляющих равны соответствующим условным плотн остям.
4.7 Непрерывная двумерная случайная величина (X, Y) распределена равномерно внутри прямоугольника с центром симметрии в н ачале координат и сторонами 2а и 2b, параллельными координатным
осям. Найти: а) двумерную плотность вероятности системы; б) пло тности распределения составляющих.
Ответ: a) f(x,y)=1/(4ab) внутри заданного прямоугольника; вне
его f(x,y)=0; б) f 1 (x)=1/(2а) при |x|≤a, при |x|>a f 1 (x)=0; при |y|≤b
f 2 (y)=1/(2b), при |y|>b f 2 (y)=0.
4.8 Непрерывная двумерная случайная величина (X,Y) распределена равномерно в квадрате с вершинами (0, 0), (0, 1), (1, 0) и (1,1).
Найдите:
а) совместную плотность распределения;
б) совместную функцию распределения;
в) частные плотности распределения слу чайных величин X и Y;
г) вероятность попадания случайного вектора (X, Y) в круг
(х−1) 2 +(у−1) 2 ≤1/2;
д) проверьте, являются ли случайные величины X и Y независимыми.
Ответ:
73
0 , x [0 ,1] или y [0 ,1];
a) f(x,y)
1, x [0 ,1] или y [0 ,1];
x 0 или y
0,
xy, 0
б) F ( x, y )
0, x [0, 1];
1,
x 1 и 0
y 1;
x, 0 x 1 и y 1;
y, x 1 и 0 y 1;
1,
в) f1 ( x)
0;
x [0, 1];
x 1 и y 1;
0, y [0, 1];
f 2 ( y)
1, y [0, 1];
г) P=π/8; д) да, являются.
4.9 Непрерывная двумерная случайная величина (X, Y) имеет совместную плотность распределения
f ( x, y )
1 x2
C
y2
x2 y2
.
Найдите:
а) постоянную С;
б) совместную функцию распределения;
в) частные плотности распределения случайных величин X и Y;
г) вероятность попадания случайного вектора (X, Y) в треугольник с вершинами в точках (−1; 1), (1; 1) и (0; 0);
д) проверьте, являются ли случайные величины X и Y независимыми.
Ответ: а) C=1/π; б) F ( x, y )
в) f1 ( x)
г) P
1
π(1 x 2 )
,
1
1 1
1
( arctgx
)( arctgy
);
π
2 π
2
1
f 2 ( y)
;
π(1 y 2 )
1
; д) да, являются.
16
4.10 Распределение вероятностей дискретной двумерной случа йной величины (X, Y) задано в таблице. Проверьте, являются ли сл учайные величины X и Y независимыми.
74
Y
X
−3
−1
1
3
−1 0,06 0,02 0,04 0,08
0 0,15 0,005 0,1
0,2
1 0,09 0,03 0,06 0,12
Ответ: да, являются.
4.11 Задана плотность совместного распределения двумерной
случайной величины (X, Y)
f ( x, y )
36 x y e
(x2
y2 )
, (x
0, y
0),
( x 0 или y
0,
0).
Найти математические ожидания и дисперсии составляющих.
Ответ: M(X)=M(Y)= 3π / 6; D(X)=D(Y)=(4−π)/12.
4.12 Задана плотность совместного распределения непреры вной
двумерной случайной величины (X, Y):
f(x,y)=2cosx·cosy в квадрате 0≤х≤π/4, 0≤y≤π/4; вне квадрата f(x,y)
= 0. Найти математические ожидания соста вляющих.
Ответ: M(X)=M(Y)= (π 4 4 2) / 4 .
4.13 Двумерный случайный вектор (X, Y) имеет нормальное распределение с плотностью распределения
f ( x, y )
3
e
π
4 x 2 2 xy y 2
.
Найдите условную плотность распредел ения случайной величины X при условии, что случайная величина Y приняла значение y, и
условную плотность распределения случайной величины Y при условии, что случайная величина X приняла значение х. Используя найденные условные плотности распределения, пров ерьте, являются ли
случайные величины X и Y независимыми.
Ответ: f ( x | y )
2
e
π
(4 x y) 2 / 4
, f ( y | x)
1
e
π
( x y)2
.
Случайные величины X и Y являются зависимыми.
4.14 В условиях задачи 4.13 найдите условные математические
ожидания М(Х|Y) и М(Y|Х), условные дисперсии D(X|Y) и D(Y|X) и
корреляционные отношения ε X |Y и εY | X .Определите регрессии случайных величин X на Y и Y на X и постройте линии регрессии.
Ответ:
M (X |Y)
g ( y)
Y / 4, M (Y | X )
X , D( X | Y ) 1 / 8, D(Y | X ) 1 / 2,
y / 4, h( x)
x , ε x | y ε x | y 1 / 2.
4.15 Изготавливаемые в цехе втулки сортируют по отклонению
их внутреннего диаметра от номинального размера на четыре группы
75
со значениями 0,01, 0,02, 0,03 и 0,04 мм и по овальности на четыре
группы со значениями 0,002, 0,004, 0,006 и 0,008 мм. Совместное
распределение вероятностей отклонения диаметра Х 1 и овальности
Х 2 представлено таблице.
Найдите математические ожидания, дисперсии, ковариацию, коэ ффициент корреляции, а также ковариационную и корреляционную
матрицы случайных величин Х 1 и Х 2 .
X2
0,002
0,004
0,006
0,008
0,01
0,01
0,03
0,04
0,02
0,02
0,02
0,24
0,10
0,04
Х1
0,03
0,04
0,15
0,08
0,03
0,04
0,4
0,06
0,08
0,02
Ответ: M(X 1 )=0,026 мм, M(X 2 )=0,005 мм,
D(X 1 )=81·10 - 5 мм 2 , D(X 2 )=4·10 - 6 мм 2 ,
cov(X 1 X 2 )=245·10 - 5 мм 2 ,
ρ 0,41,
81 10 5 254 10 5 ,
254 10 5 4 10 6
1 0,41 .
0,41 1
ρ
4.16 Совместная плотность распределения двумерной непреры вной случайной величины (Х 1 , Х 2 ) имеет вид
f ( x1 , x2 )
0,
4 x1 x2 e
x1
( x1
2
x 22 )
, x1
0 или
0
и
x2
x2
0;
0.
Найдите математические ожидания, дисперсии, ковариацию, к оэффициент корреляции, а также ковариационную и корреляционную
матрицы случайных величин Х 1 и Х 2 .
π / 2, D( X1 ) D( X 2 ) (4 π) / 4,
Ответ: M ( X 1 ) M ( X 2 )
cov( X1 , X 2 ) 0 , ρ 0,
(4 π) / 4
0
, ρ
0
(4 π) / 4
1 0 .
0 1
4.17 Доказать, что если X и Y связаны линейной зависимостью
Y=аХ+b, то абсолютная величина коэффициента корреляции равна
единице.
76
5 ФУНКЦИИ ОТ СЛУЧАЙНЫХ ВЕЛИЧИН. ЧИСЛОВЫЕ Х АРАКТЕРИСТИКИ И ЗАКОНЫ РАСПРЕДЕЛ ЕНИЯ
Если величина Х или величины Х 1 , …, Х n , через которые выражается Y, являются случайными, то и Y также будет случайной величиной. Таким образом вводится понятие функции от случайной вел ичины Х или от случайного вектора (Х 1 , …, Х n ).
5.1 Примеры функциональной зависимости между случайн ыми величинами
Пример 5.1. На плоскости задан отрезок длины l (рис.5.1), вращающийся случайным образом так, что все направления его один аково вероятны. Отрезок проецируется на неподвижную ось АВ. Дл ина проекции отрезка равна Y=l|cosα|, где угол α – случайная величина, распределенная равномерно на о трезке [0, 2π].
A
Y
l
α
В
Рис. 5.1
Приведенная формула задает функциональную завис имость между
значением угла α и длиной проекции отрезка ( Y− скалярная функция
от скалярной случайной величины α).
Пример 5.2. Пусть Х и Y – измеренные (с погрешностями) длины
катетов прямоугольного треугольника. Тогда функциями от двух а ргументов Х и Y будут:
L
X 2 Y 2 −длина гипотенузы;
S=XY/2 – вычисленная площадь этого треугольника
(L и S – скалярные функции от двумерной случайной величины ( Х
,Y)).
Пример 5.3. Предположим, что на плоскость в соответствии с
некоторым вероятностным законом случайным образом бросают
точку и измеряют ее полярные координаты ρ и θ. Тогда формулы
Х=ρcosθ и Y=ρsinθ перехода от полярных координат к декартовым Х
и Y определяют векторную функцию от векторного арг умента.
77
5.2 Функции от одномерной случа йной величины
Пусть на вероятностном пространстве (Ω, Q, P) задана случайная
величина Х=Х(ω). Рассмотрим действительную фун кцию
у=Y(х)
действительного аргумента х (область определения которой есть
множество возможных значений случайной величины Х).
Определение. Случайную величину Y, которая каждому элементарному исходу ω ставит в соответствие чи сло
Y(ω)=Y(X(ω)), называют функцией Y(Х) случайной величины Х.
1. Пусть аргумент Х – дискретная случайная величина, зада нная
рядом распределения
Х
Р
х1
р1
х2
р2
…
…
хn
рn
.
Тогда случайная величина Y=Y(X) будет иметь ряд распределения
Y
Р
Y(х 1 ) Y(х 2 ) … Y(х n )
.
р1
р2
… рn
При этом, если среди возможных значений Y(х i ) есть одинаковые, соответствующие столбцы нужно объединить в один, прип исав
им суммарную вероятность.
Пример 5.4. Дискретная случайная величина задана рядом ра спределения
Х −2
2
3
.
Р 0,4 0,5 0,1
Найти
распределение функции Y=Х 2 .
Решение. Вероятность возможного значения у 1 =4 равна сумме
вероятностей несовместных событий ( Х=−2) и (Х=2), т.е.
0,4+0,5=0,9. Вероятность возможного значения у 2 =9 равна 0,1. Тогда
ряд распределения Y будет иметь вид
Y
Р
4
0,9
9
0,1
.
2. Пусть аргумент Х – непрерывная случайная величина. Зная
плотность распределения f(x) найти распределение функции Y=Y(X).
Доказано, что если Y(X) – дифференцируемая и монотонная функция,
то плотность распределения Y(X) случайной величины Y находится с
помощью равенства
f(y)=f(ψ(y))|ψ′(y)|, где ψ(х)= Y - 1 (у) – функция,
обратная к Y(х).
78
Пример 5.5. Пусть случайная величина Y получена из случайной
величины Х линейным преобразованием
Y=аX+b,
где а≠0 и b – неслучайные числа. Так как линейная функция явл яется монотонной и учитывая, что
y b
а
Y 1 ( y)
и
1
, получим
а
(Y 1 ( y ))
f ( y)
1
f (b).
|a|
Пусть случайная величина Х распределена по нормальному закону с параметрами m x и ζ х . Тогда случайная величина Y=аX+b имеет
плотность распределения
f ( y)
( y (amx b)) 2
exp{
}
2
2
2
(|
a
|
ζ
)
2 π(| а | ζ x )
x
1
y b
θmx ,ζ x (
)
|a|
а
θ amx
b , |a|ζ x
1
( y) ,
т.е. распределена по нормальному закону с параметрами
m y =am x +b и ζ у =|а|ζ х .
Замечание. Если функция Y(х) является непрерывной кусочно
монотонной функцией с k интервалами монотонности, то пло тность
распределения величины Y(Х) задается формулой
k
f ( y)
i 1
f (ψi ( y )) | ψi ( y ) |.
5.3 Функции от случайного векторного аргумента
Рассмотрим на вероятностном пространстве (Ω, Q, P) двумерный
случайный вектор X ( X1 , X 2 ) и числовую функцию Y(х 1 ,х 2 ) числовых аргументов х 1 и х 2 .
Определение. Случайную величину Y=Y(Х 1 , Х 2 )=Y(Х 1 (ω), Х 2 (ω))
называют скалярной функцией от двумерной случайной величины
(двумерного случайного вектора) (Х 1 , Х 2 ).
1. Пусть Х 1 и Х 2 являются дискретными случайными величин ами,
с возможными значениями х 1 i и х 2 i соответственно. Тогда функция
Y(Х 1 , Х 2 ) является дискретной случайной величиной, пр инимающей
значения Y(х 1 i , х 2 i ) с вероятностью
р i j =Р(X 1 =x 1 i , X 2 =x 2 i ).
Пример 5.6. Пусть Y – случайная величина, равная суммарн ому
числу успехов в двух испытаниях по схеме Бернулли, а х i – число
успехов в i-ом испытании, i=1,2. Тогда
Y=Х 1 +Х 2
и
Y(х 1 ,х 2 )=х 1 +х 2 .
Так как возможные значения Х i только значения 0 или 1, то сл учайная величина Y может принимать четыре значения:
Y(0,0)=0+0=0, Y(1,0)=1+0=1, Y(0,1)=0+1=1, Y(1,1)=1+1=2
79
с вероятностями q 2 , pq, qp и р 2 соответственно.
Объединив одинаковые значения Y(1,0), Y(0,1) и суммируя их вероятности, получим ряд распределения случайной величины Y (биномиальное распределение):
Y
Рy
0
q2
1
2
2pq р 2
.
2. Пусть Х 1 и Х 2 являются непрерывными случайными величин ами. Доказано, что если Х 1 и Х 2 независимы, а случайная велич ина Y
является их суммой:
Y=Х 1 +Х 2 ,
то плотность распределения Y f(y) может быть найдена с помощью
равенства
f ( y)
f1 ( x) f 2 ( y x)dx,
где f 1 , f 2 – плотности распределения аргументов,
а х 1 =х – переобозначение.
В этом случае говорят, что плотность распределения f(у) случайной
величины Y является сверткой (композицией) плотностей распределения f 1 (x) и f 2 (x)
компонент Х 1 и Х 2 . Для обозначения свертки
плотностей распределения используют символическую з апись f 1 * f 2 .
Пример 5.7. Пусть Х 1 и Х 2 независимые случайные величины,
распределенные по нормальному закону со сре дними значениями m 1
и m 2 и средними квадратичными отклонениями ζ 1 и ζ 2 . Найдем
плотность распределения суммы Y=Х 1 +Х 2 . Воспользуемся формулой
свертки
f ( y ) θ m1 , ζ1 θ m2 , ζ 2
1
( y m1 m2 ) 2
exp(
)
2
2
2πζ1ζ 2
2(ζ1 ζ 2 )
ζ12 ζ 22
ζ12 m2 ζ 22 m1 ζ 22 y 2
exp(
(x
) )dx.
2ζ12 ζ 22
ζ12 ζ 22
Опуская выкладки, окончательно запишем
f ( y)
1
2 π(ζ12
( y m1 m2 ) 2
exp(
) . Таким образом, случайная
2
2
2
2
(
ζ
ζ
)
ζ2 )
1
2
величина Y также распределена по нормальному закону с параме т2
2
рами m 1 +m 2 и ζ1 ζ2 , т.е. композиция плотностей нормальных з аконов является плотностью нормального закона распредел ения.
Замечание 1. Полученный результат справедлив для суммы л юбого числа слагаемых, распределенных по но рмальному закону, т.е.
если Х 1 ,…, Х n − независимые нормально распределенные сл учайные
80
величины со средними
m 1 ,…, m n и средними квадратическими отклонениями ζ 1 , …, ζ n , то их сумма Y= Х 1 + …+Х n также распределена
нормально с параметрами m 1 +…+m n и ζ12 ... ζ2n .
Замечание 2. Доказано, что если случайные величины Х 1 , …, Х n
являются независимыми и имеют гамма − распределения с параме трами β и α i , i 1, n , соответственно, то их сумма Y= Х 1 + …+Х n имеет
гамма – распределение с параметрами β и
n
α i , т.е. композиция
i 1
гамма – распределений с одинаковым параметром β и различными
параметрами α i является также гамма – распределением.
Поскольку распределения Эрланга и χ 2 являются частным случаем гамма – распределения, то композиция любого числа р аспределений Эрланга или χ 2 снова является распределением того же типа.
Замечание 3. Если Х 1 и Х 2 зависимые случайные величины, распределенные по нормальному закону, то сумма Y=Х 1 +Х 2 также распределена по нормальному закону с п араметрами (m 1 +m 2 ) и
ζ12 ζ22 2ρ12ζ1ζ2 , где ρ 1 2 - коэффициент корреляции величин Х 1 и
Х2.
5.4. Математическое ожидание функции от случайной вел ичины
Пусть Y=Y(Х) является функцией от случайной величины. Треб уется, не находя закона распределения величины Y, определить ее математическое ожидание М(Y(Х)).
Рассмотрим сначала случай, когда Х есть дискретная случайная
величина с рядом распределения
Х
Р
х1
р1
х2
р2
…
…
хn
рn
.
Тогда случайная величина Y принимает значения Y(x 1 ), …,Y(x n ) с
теми же вероятностями р i =P(X=x i ) и ее математическое ожидание
определяется формулой
n
M (Y )
M (Y ( X ))
Y ( xi ) pi .
i 1
Пример 5.8. Определим математическое ожидание в ыигрыша Y в
«Спортлото 6 из 49» .
Число угаданных номеров Х имеет гипергеометрическое распр еделение
P( X
6 i
6
i ) C6i C43
/ C49
, i
0,6.
81
Ряд распределения Х задан таблицей 5.1
Табл. 5.1
Х
0
1
2
3
4
5
6
-5
Р
0,4360 0,4130 0,1324 0,0176 0,00097 1,8·10
7·10 - 8
Рассмотрим идеализированный вариант игры, когда не угадав ни
одного или угадав один или два номера мы проигрываем (с уч етом
стоимости билета) 0,3 р., угадав три номера, получаем выи грыш 2,7
р., угадав четыре номера – 54,7 р., пять номеров – 699,7 р., и шесть
номеров – 9999,7 р.
Распределение случайной величины Y приведено в табл.5.2.
Табл. 5.2
Y
−0,3
−0,3
−0,3
2,7
54,7
699,7
9999,7
-5
Р
0,4360 0,4130 0,1324 0,0176 0,00097 1,8·10
7·10 - 8
Объединив столбцы с одинаковыми возможными значениями,
получим окончательный ряд распределения случа йной величины Y
(табл.5.3).
Табл.5.3
Y
−0,3
Р
0,9814
2,7
0,0176
54,7
0,00097
699,7
1,8·10 - 5
9999,7
7·10 - 8
Тогда математическое ожидание функции выигрыша
М(Y(Х))=Y(0)P(X=0)+Y(1)P(X=1)+Y(2)P(X=2)+
+Y(3)P(X=3)+Y(4)P(X=4)+Y(5)P(X=5)+Y(6)P(X=6)≈
≈−0,3·0,9814+2,7·0,0176+54,7·0,00097+699,7·2·10 - 5 +
+9999,7·7·10 - 8 ≈−0,179.
Это означает, что играющий в среднем проигрыва ет примерно 18
копеек.
Для непрерывной случайной величины Х, имеющей плотность
распределения f(x), математическое ожидание случайной величины
Y=Y(Х) можно найти по формуле
M (Y ( X ))
Y ( x) f ( x)dx ,
при условии, что интеграл сходится абсолютно.
Пример 5.9. Случайная величина Х имеет экспоненциальное
распределение с параметром λ=3. Найдем математическое ожид ание
случайной величины Y=е Х .
ex 3 e
M (Y ( X ))
0
3x
dx
3
e
2
2x
|
0
3
.
2
Пример 5.10. Найдем математическое ожидание (среднее знач ение) длины проекции отрезка из примера 5.1
82
M (Y (α))
M (l | cos α |)
2
0
dα
l | cos α |
2π
2l π / 2
2l
cos α dα
π 0
π
0,637 l .
Замечание. Аналогично может быть определено математич еское
ожидание функции от случайного векторного аргумента. Запишем
эти формулы для случая двух аргуме нтов
M (Y ( X 1 , X 2 ))
Y ( x1i , x2 j ) pij −для дискретных аргуменi
тов Х 1 ,Х 2 и
M (Y ( X 1 , X 2 ))
j
Y ( x1 , x2 ) f ( x1 , x2 )dx1dx2 − для непре-
рывных аргументов Х 1 и Х 2 .
5.5 Дисперсия функции от случайной величины
Как видно из п. 5.4, математическое ожидание функции любого
числа случайных аргументов может быть найдено без использ ования
закона распределения функции. Аналог ично могут быть найдены и
другие числовые характеристики функции – моменты высших порядков. Здесь приведем формулы определения дисперсии функции о дного и двух аргументов.
Дисперсия функции одного случайного аргумента выражается
формулой
D(Y ( X ))
[Y ( x) M (Y ( x))]2 f ( x)dx,
где f(x) – плотность распределения величины Х.
Дисперсия функции двух случайных аргументов выражается
формулой
D(Y ( X 1 , X 2 ))
[Y ( x1 , x2 ) M (Y ( x1 , x2 ))]2 f ( x1 , x2 )dx1dx2 ,
где f(x 1 ,x 2 ) – плотность распределения случайного вект ора.
5.6 Задание №5 на самостоятельную работу
5.1 Дискретная случайная величина X имеет ряд распределения,
представленный в табл. 5.4. Найдите ряд распр еделения случайной
величины Y, если:
a) Y = 10Х−1; б) Y =−Х 2 ; в) Y =2 х .
Табл.5.4
X −0,5 0
0,5 1
1,5
P 0,1
0,4 0,1 0,3 0,1
Ответ: ряд распределения случайной ве личины Y представлен:
а) в табл. 5.5; б) в табл. 5.6; в) в табл. 5.7.
83
Табл. 5.5
X −6
−1
P 0,1 0,4
4
0,1
9
0,3
14
0,1
Табл. 5.6
X −2,25 −1 −0,25 0
P
0,1
0,3
0,2
0,4
Табл. 5.7
X 1/ 2 1
2 2
2 2
P
0,1
0,4 0,1 0,3 0,1
5.2 Случайная величина X распределена равномерно в интервале
(0, 3). Найдите функцию распределения случайной велич ины У=X 2
+1.
Ответ:
0,
F ( y)
y 1;
y 1 / 3, 1 y 10;
1,
y 10.
5.3 Случайная величина X имеет экспоненциальное распределение с параметром λ. Найдите плотность распределения сл учайной величины Y, если:
а)Y=e - X ; б) Y=X 3 ; в) Y=1/X 2 ; г) Y= X .
Ответ:
а) f ( y )
в) f ( y )
0,
λy
y (0,1);
1
,
λe
б) f ( y )
y (0,1);
0,
y
/
y
/(3 y y ),
0,
y
0;
0;
y
3
λe
y
/(33 y 2 ),
0,
г) f ( y )
2λye
0;
y
y
2 2
y
,
y
0;
0;
0.
5.4 Случайная величина X распределена по нормальному закону
со средним значением m и дисперсией ζ 2 . Найдите плотность распределения случайной величины Y, если:
а) Y=|X|; б) Y=arctgX; в) Y=X 2 ; г) Y=е Х (плотность логарифмически нормального, или логнормального, распределения).
Ответ:
0,
а) f ( y )
e
( y m ) 2 /( 2 ζ 2 )
e (y
2 πζ
y
0;
,
y
m ) 2 /( 2 ζ 2 )
0;
84
y ( π / 2, π / 2);
0,
б) f ( y )
2
2
e (tgy m ) /(2 )
,
2
2 2πζ cos y
y ( π / 2, π / 2);
0,
в) f ( y )
e
y 0;
( y m ) 2 /( 2 ζ 2 )
e ( y m)
2 2πyζ
y 0;
0,
г) f ( y )
e
2
/( 2 ζ 2 )
,
y
0;
(ln y m ) 2 /( 2 2 )
2 π ζy
,
y
0.
5.5 Распределение двумерной случайной величины ( X 1 ,X 2 ) задается табл.5.8. Найдите ряд распределения случайной величины Y, если:
2
а) Y=X 1 −2X 2 −8; б)Y=(X 1 −12) 2 + X 2 −1; в)Y=(X 1 −12)/X 2 .
Табл.5.8
X1
10
12
14
1 0,08 0,02 0,10
2 0,32 0,08 0,40
Ответ: ряд распределения случайной величины Y представлен:
а) в табл.5.9; б) в табл.5.10; в) в табл.5.11.
X2
Табл.5.9
Табл.5.10
Y −2
0
2
4
Y 0
3
4
7
Р 0,32 0,16 0,42 0,10
Р 0,02 0,08 0,18 0,72
Табл.5.11
Y −2 −1
0
1
2
Р 0,08 0,32 0,10 0,40 0,10
5.6 Двумерная случайная величина (X 1 , Х 2 ) распределена равномерно в прямоугольнике с вершинами в точках A 1 (0; 0), А 2 (0; 2),
А 3 (3; 2) и А 4 (3;0). Найдите функцию распределения случайной вел ичины Y, если: а) Y=Х 1 +Х 2 ; б) Y=X 1 /X 2 .
85
Ответ: а) F ( y )
0,
y 0;
y 2 / 12,
0
y
( y 1) / 3,
2
y 3;
[12 (5 y ) 2 ] / 12, 3
1,
0,
б) F ( y )
y
y
2;
y 5
5;
0;
y / 3,
0 y 3 / 2;
1 3 /(4 y ), y 3 / 2.
5.7 Независимые случайные величины Х 1 и Х 2 имеют распределение χ 2 с k и n степенями свободы соответственно. Найдите пло тность распределения случайной величины Y = nХ 1 (kХ 2 ) (плотность Fраспределения, или распределения Фишера−Снедекора).
Ответ:
0,
y
(k 2n) k / 2 n / 2 k / 2 1
k n y
(n ky)
( k2 ) ( n2 )
f ( y)
(k n) / 2
,
0;
y
0.
5.8
Независимые случайные величины Х 1 и Х 2 имеют экспоненциальное распределение с параметрами λ 1 =1 и λ 1 =2 соответственно. Воспользовавшись формулой свертки, найди те плотность
распределения случайной величины Y=Х 1 +Х 2 .
Ответ:
f ( y)
0,
2( e
y
y
e
2y
),
0;
y
0.
5.9 Независимые случайные величины Х 1 и Х 2 имеют равномерное
распределение на отрезках [0,1] и [0,2] соответствен но. Воспользовавшись формулой свертки, найдите плотность распределения сл учайной величины Y=Х 1 +Х 2 .
Ответ:
f ( y)
0,
y / 2,
y (0,3);
0 y 1;
1 / 2,
1 y 2;
(3 y ) / 2, 2 y 3.
5.10 Случайные величины Х 1 и Х 2 имеют математические ожидания M(X 1 )=−5, М(Х 2 )=2, дисперсии D(X 1 )=0,5, D(X 2 )=0,4 и ковариацию cov(X 1 ,X 2 )=0,2. Найдите математическое ожидание и ди сперсию
случайной величины Y=4Х 1 −5X 2 +25.
86
Ответ: М(Y)=−5, D(Y)=10.
5.11 Найдите математические ожидания, дисперсии и ко вариацию случайных величин Y 1 и Y 2 , где Y 1 =3X 1 –2X 2 , Y 2 =5Х 2 −X 1 , а
случайные величины Х 1 и Х 2 имеют следующие числовые характер истики: M(X 1 )=−0,5, M(X 2 )=1, D(X 1 )=3, D(X 2 )=2,9, cov(X 1 ,X 2 )=2.
Ответ: М(Y 1 )=−3,5,
M(Y 2 )=5,5,
D(Y 1 )=14,6,
D(Y 2 )=50,5,
cov(Y 1 Y 2 )=−4.
5.12 Двумерный случайный вектор X имеет вектор средних значений mX
(0,06, 0,08) и матрицу ковариаций
0,2 0,3
X
0,3 0,5
. Най-
дите вектор средних значений и матрицу ковариаций случайного
вектора Y
XB c , где B
1 1 3
2 1 0
,а c
(0; 0,1; 0, 2).
1, 0 1,1 1, 2
Ответ: mY
(0,10; 0, 04; 0,02) ,
Y
1,1 1, 3 1, 5 .
1, 2 1, 5 1, 8
87
6 ПРЕДЕЛЬНЫЕ ТЕОРЕМЫ ТЕОРИИ ВЕРОЯТН ОСТЕЙ
6.1 Закон больших чисел и центральная предельная теор ема
Математические законы теории вероятностей, рассмотренные в
предыдущих разделах, получены абстрагированием реальных стат истических закономерностей, свойственных массовым случайным я влениям. Наличие этих закономерн остей связано именно с массовостью явлений.
Средний результат массы явлений обладает свойством устойчивости, т.е. при очень большом числе случайных явлений сре дний их
результат практически перестает быть случайным и может быть
предсказан с большой степень ю определенности. Именно эта усто йчивость средних и представляет собой физическое содержание « закона больших чисел».
Под «законом больших чисел» в теории вероятностей поним ают
ряд математических теорем, которые устанавливают факт и у словия
сходимости по вероятности тех или иных случайных величин к п остоянным, неслучайным величинам. Это позволяет предсказать р езультаты массовых случайных явлений почти с полной определенн остью.
Возможности таких предсказаний в области массовых случа йных явлений еще больше расширяются наличием другой группы пр едельных теорем, касающихся уже не предельных значений случа йных величин, а предельных законов распределений. Эта группа
предельных теорем под названием центральной предельной теоремы
объясняет то широкое распространение, которое получило на практике нормальное распределение.
6.2 Неравенство Чебышева
Пусть имеется случайная величина Х с математическим ожида2
нием m x и дисперсией Dx ζ x . Неравенство Чебышева утверждает,
что каково бы ни было положительное число ε, вероятность того, что
величина Х отклонится от своего математического ожидания не
2 2
меньше чем на ε, ограничена сверху велич иной ζ x /ε :
P (| X - mx | ε)
ζ 2x
.
ε2
Приведем доказательство для непрерывных случайных вел ичин.
P(| X-mx | ε)
f ( x)dx ,
|x-mx| ε
где f(x) – плотность распределения величины Х. По определению
дисперсии
88
Dx
( x-mx ) 2 f ( x)dx
|x-mx|2 f ( x)dx
|x-mx|2 f ( x)dx .
|x m x| ε
Заменяя |x−m x | под знаком интеграла через ε, пол учим:
Dx ε 2 (
f ( x)dx) ε 2 P(| x-mx | ε) ,
| x mx |
откуда и следует неравенство Чебышева для непрерывных случа йных величин.
Замечание. Знак ≥ заменен знаком >, т.к. для непрерывной в еличины вероятность точного равенства равна н улю.
Пример 6.1. Дана случайная величина Х с математическим ожи2
данием m x и дисперсией ζ x . Оценить сверху вероятность того, что
величина Х отклонится от своего математического ожидания не м енее чем на 3ζ х .
Решение. Полагая в неравенстве Чебышева ε=3ζ х , получим:
P(| X
mx | 3ζ x )
ζ 2x
9ζ 2x
1
,
9
т.е. искомая вероятность не может быть больше 1/9.
Замечание. Неравенство Чебышева дает только верхнюю границу вероятности данного отклонения. Выше этой границы вероя тность не может быть ни при каком законе распределения. На практ ике в большинстве случаев вер оятность того, что величина Х выйдет
за пределы участка m x ±3ζ x , значительно меньше 1/9. Например, для
нормального закона эта вероятность приблизительно ра вна 0,00027.
6.3 Закон больших чисел (теорема Чебышева)
В этом разделе рассмотрим одну из простейших, но вместе с тем
наиболее важных форм закона больших чисел – теорему Чебышева.
Эта теорема устанавливает связь между средним арифметич еским значением случайной величины и ее математическим ожидан ием.
Предварительно решим вспомогательную задачу.
Дана случайная величина Х с математическим ожиданием m x и
дисперсией D х . Над этой величиной производится n независимых
опытов и вычисляется среднее арифметич еское значений величины
Х. Требуется найти числовые характеристики этого среднего ари фметического – математическое ожидание и дисперсию и в ыяснить,
как они изменяются с увеличением n.
Обозначим:
Х 1 – значение величины Х в первом опыте;
Х 2 – значение величины Х во втором опыте и т.д.
89
Совокупность величин Х 1 , Х 2 , …, Х n представляет собой n независимых случайных величин, каждая из которых распределена по
тому же закону, что и Х. Среднее арифметическое этих величин обозначим
n
X ( n)
(
i 1
Xi) / n.
Это значение представляет собой линейную функцию случа йных
величин Х 1 , Х 2 , …, Х n . Найдем математическое ожидание и дисперсию X (n) . Согласно правилам определения числовых х арактеристик
mX ( n)
M ( X (n))
DX ( n )
1 n
1
M (Xi )
n mx
ni 1
n
Dx
1 n
D( X i )
.
2
n
n i1
mx ;
Отсюда следует, что математическое ожидание величины X (n)
не зависит от числа опытов n и равно m x . Дисперсия величины X (n)
неограниченно убывает с ростом n и может быть сделана сколь
угодно малой.
Это свойство устойчивости среднего арифметического и уст анавливает теорема Чебышева.
Вначале рассмотрим понятие «сходимости по вероятности». Г оворят, что случайная величина Х n сходится по вероятности к величине а, если при увеличении n вероятность того, что Х n и а будут
сколь угодно близки, неограниченно приближается к единице, т.е.
при достаточно большом n P(| X n -a | ε) 1 - δ ,
где ε, δ – произвольно малые положительные числа.
Теорема Чебышева утверждает, что при увеличен ии n среднее
арифметическое X (n) сходится по вероятности к m x , т.е.
P(| X (n)-mx | ε) 1 - δ .
Доказательство. Выше было показано, что величина X (n) имеет
числовые характеристики mX mx , DX Dx / n .
Применим к случайной величине X (n) неравенство Чебышева
P(| X (n) - mX | ε)
DX(n)
ε2
Dx
.
2
nε
Как бы мало ни было число ε, можно взять n таким большим,
чтобы выполнялось неравенство
Тогда
Dx
nε 2
,
где δ – сколь угодно малое число.
90
P(| X (n) - mx | ε) δ ,
откуда, переходя к противоположному событию, имеем:
P(| X (n) - mx | ε) 1 - δ ,
что и требовалось доказать.
6.4 Обобщенная теорема Чебышева. Теоремы Маркова и Бе рнулли
Теорема Чебышева может быть обобщена на более сложный сл учай, а именно когда закон распределения случайной величины Х может изменяться от опыта к опыту. Тогда вместо среднего арифмет ического значений одной и той же величины Х с постоянным математическим ожиданием и дисперсией мы имеем дело со средним ари фметическим n
различных случайных величин, с различными математическими ожиданиями и дисперсиями. Но при соблюдении н екоторых условий и в этом случае среднее арифметическое будет у стойчивым.
Теорема. Если Х 1 , …, Х n независимые случайные величины с м атематическими ожиданиями m x1 , …, m x n и дисперсиями D x1 , …, Dx n
и если все дисперсии ограничены сверху одним и тем же чи слом L:
D x i <L, i 1, n , то при возрастании n среднее арифметическое
значений величин Х 1 , …, Х n сходится по вероятности к среднему
арифметическому их математических ож иданий.
Введя как и выше обозначения для средних арифмет ических:
n
n
X ( n)
( Xi ) / n,
i 1
mX (n)
( mxi ) / n ,
i 1
n
DX ( n )
( Dx i ) / n 2 ,
i 1
запишем эту теорему в виде формулы.
Пусть ε, δ – сколь угодно малые положительные числа. Тогда
при достаточно большом n
P (| X (n) - m X (n ) | ε) 1 - δ .
Доказательство. Рассмотрим величину X (n) с математическим
ожиданием m X (n ) и дисперсией D X (n ) . Применим к X (n) неравенство
Чебышева:
P(| X (n) - mX ( n ) | ε) DX ( n ) /ε 2 .
Заменив в выражении для D X (n ) каждую из величин D x i большей
величиной
L
P(| X (n) - mX ( n ) | ε)
,
мы
только
усилим
неравенство:
L
.
nε 2
Как бы мало ни было ε, можно выбрать n настолько большим,
чтобы выполнялось неравенство
91
L
δ.
nε 2
Тогда P (| X ( n) - m X (n ) | ε) δ , откуда, переходя к противополо жному событию, получим доказываемое неравенство.
Замечание. Иногда сходимость по вероятности случайной вел ичины (последовательности случайных величин) Х n к величине а при
увеличении n обозначают как
lim P(| X n-a | ε) 1.
n
Обобщение закона больших чисел на случай зависимых случа йных величин принадлежит А.А.Маркову.
Теорема Маркова. Если Х 1 , …, Х n зависимые случайные величины и если при n→∞ DX (n )
0 , то X (n) сходится по вероятности к
среднему
арифметическому
lim P(| X (n) - mX(n) | ε) 1.
их
математических
ожиданий,
т.е.
n
Доказательство. Применим к величине X (n) неравенство Чебы-
P(| X (n) - mX(n) | ε) DX(n) / 2 ,
0 , то при достаточно большом n
и поскольку при n→∞ D X (n )
шева:
P(| X(n)-m X(n)| ε) δ .
Тогда переходя к противоположному событию,
P (| X (n) - m X(n) | ε) 1 - δ ,
что и требовалось доказать.
Известная теорема Я.Бернулли, устанавливающая связь между
частотой события А и его вероятностью, может быть доказана как
прямое следствие закона бол ьших чисел.
Рассмотрим схему Бернулли с вероятностью успеха р. Теорема
Бернулли утверждает, что при неограниченном увеличении числа
опытов n частота события А сходится по вероятности к его вероя тности р.
Обозначим частоту события А в n опытах через р * и запишем
теорему Бернулли в виде формулы:
P(р * − p<ε)>1−δ,
где ε, δ – сколь угодно малые положительные числа. Требуется док азать справедливость этой формулы при дост аточно большом n.
Доказательство. Рассмотрим независимые случайные велич ины:
Х 1 -число успехов в первом опыте;
Х 2 - число успехов во втором опыте, и т.д.
Ряд распределения Х i
92
где q=1−p.
Математическое ожидание величины
Хi−
М(Х i )=р, а ее
дисперсия D(Х i )=pq. Частота р *
представляет собой среднее арифметическое вел ичин Х 1 , … , Х n , т.е.
pn X (n) . Согласно закону больших чисел величина X (n) , т.е. частота сходится по вероятности к общему математическому ожиданию
этих случайных величин. Отсюда и следует справедливость теоремы
Бернулли.
Теорема Бернулли утверждает устойчивость частоты при постоянных условиях опыта. Теорема, устанавливающая свойство усто йчивости частот при переменных условиях опыта, называется теоремой Пуассона и формулируется следующим образом:
если производится n независимых опытов и вероятность появления события А в i-м опыте равна р i , то при увеличении n частота события А сходится по вероятности к среднему арифметическому в ероятностей р i .
Хi
P
0
q
1
p
,
6.5 Понятие о теореме Ляпунова. Формулировка централ ьной предельной теоремы
Различные формы закона больших чисел утверждают одно: факт
сходимости по вероятности тех или иных случайных величин к о пределенным постоянным. В них не оперируют с законами распред елений случайных величин.
Во всех же формах центральной предельной теоремы устанавл иваются условия, при которых возникает нормальный закон распред еления. Так как на практике эти условия часто выполняются, но рмальный закон является самым распространенным из законов ра спределений, наиболее часто встречающихся в случайных явл ениях.
Он возникает во всех случаях , когда исследуемая случай ная величина может быть представлена в виде суммы достаточно большого
числа независимых (или слабо зависимых) элеме нтарных слагаемых,
каждое из которых в отдельности мало влияет на сумму. Особую
роль нормальный закон играет в тео рии стрельбы и теории ошибок
измерения.
Пример 6.2. Пусть производится измерение некоторой физич еской величины. Любое измерение дает лишь приближенное зн ачение
измеряемой величины, так как на результат
измерения влияют
очень многие независимые (или сла бо зависимые) случайные факторы (температура, давление, колебания прибора, влажность и др.).
Каждый из этих факторов порождает ничтожную «ч астную ошибку».
Однако, поскольку число этих факторов очень велико, их совоку пное действие порождает уже за метную «суммарную ошибку».
Рассматривая суммарную ошибку как сумму очень большого
93
числа взаимно независимых частных ошибок, мы вправе закл ючить,
что суммарная ошибка имеет распределение, близкое к нормальн ому.
Теорема Ляпунова.
Пусть X 1 ,…,X n ,… − последовательность независимых одинаково
распределенных случайных величин с математическим ожид анием
M(X n )=m и дисперсией D(X n )=ζ 2 . Тогда
P(
где S n
n
i 1
Sn
nm
nζ
2
x)
n
Φ( x) ,
X n , а Ф(x) – функция стандартного нормального распр е-
деления.
Замечание. Для доказательства центральной предельной теор емы А.М. Ляпунов использовал аппарат характеристических функций.
Характеристической функцией f(t) случайной величины Х называют
математическое ожидание случайной величины e i tX , где i − мнимая
единица, а t − произвольное действительное число. Таким образом,
f(t)=M(e i t X ).
Для дискретной случайной величины Х с возможными значениями x j , j=1,2,…,
f (t )
e
itx j
j
pj
j
p j cos (t x j ) i p j sin (t x j ) ;
j
для непрерывной случайной величины с плотностью распредел ения
p(x)
eitx p( x) dx
f (t )
Так как
e
j
itx j
pj
j
cos( t x) p ( x ) dx i sin ( t x) p ( x ) dx .
pj
1 и
eitx p( x) dx
p( x)dx 1, то
характеристическая функция существует при всех t для каждой случайной величины.
Характеристическая функция непрерывной случайной велич ины
отличается от преобразования Фурье плотности распределе ния этой
случайной величины только лишь отсутс твием множителя 1/ 2π .
6.6 Задание №6 на самостоятельную работу
6.1 Среднее потребление электроэнергии в мае в некотором н аселенном пункте составляет 360000 кВт/ч. Оцените с помощью нер авенства Чебышева вероятность того, что потребление электроэне ргии в мае текущего года в этом населенном пункте превысит
1000000 Вт, если известно, что среднее квадратичное отклонение
потребления электроэнергии в мае равно 40000 кВт/ч.
94
Ответ: Р{Х > 1000000} <1/256.
6.2 Среднее квадратичное отклонение погрешности измерения
курса самолета равно 2°. Считая математическое ожидание погре шности измерения равным нулю, оцените с помощью неравенства Ч ебышева вероятность того, что погрешность одного измер ения курса
самолета превысит 5°.
Ответ: Р{|Х| > 5°} < 0,16.
6.3 Вероятность появления некоторого события в каждом из 800
независимых испытаний равна 1/4. Воспользовавшись вторым нер авенством Чебышева, оцените вероятность того, что число X появлений этого события заключено в пределах от 150 до 250.
Ответ: Р{150 ≤X ≤ 250}≥0,94.
6.4 Пусть дана последовательность Х 1 , Х 2 , ..., Х n , ... независимых
дискретных случайных величин, причем ряд распределения случа йной величины Х n представлен в табл. 6.1. Проверьте, пр именим ли к
этой последовательности закон больших чисел в форме Чебышева.
Табл.6.1
Хn
0
n
n
Р
1
2n
1
1
n
1
2n
Ответ: да, применим.
6.5 Пусть Х 1 , Х 2 , ..., Х n , ... — последовательность независимых
случайных величин, причем случайная величина Х n имеет плотность
распределения
f ( x)
n 2( n 1) | x |
.
(n 2 x 2 ) n 2
Проверьте, удовлетворяет ли последовательн ость
Х 1 , Х 2 , ..., Х n , ... закону больших чисел в форме Чеб ышева.
Ответ: да, удовлетворяет.
6.6 Пусть последовательность Х 1 , Х 2 , ..., Х n , ... некоррелированных
случайных
величин
удовлетворяет
условию
lim
n
1 n
D( X i ) 0.
ni 1
Проверьте, применим ли к этой последовательности закон
больших чисел.
Ответ: да, применим.
6.7 Найдите характеристическую функцию случайной велич ины
X, ряд распределения которой представлен в табл. 6.2.
Табл.6.2
Х
0
1
2
3
Р 1/2 1/8 1/4 1/8
95
Ответ: f(t) = 1/2 + е i t (1 + е i t ) 2 /8.
6.8 Найдите характеристическую функцию случайной велич ины
X, ряд распределения которой представлен в табл.6.3.
Табл. 6.3
Х
-2
0
2
Р 1/4 1/2 1/4
Ответ: f(t) = cos 2 t.
6.9 Найдите характеристическую функцию неотрицательной ц елочисленной случайной величины X, распределение которой задается вероятностями
р n =Р{Х=n}=(n+1)р 2 (1−р) n (n=0,1, ..., 0<р<1).
Ответ: f(t)=p 2 /(1−(1−p)e i t ) 2 .
6.10 Найдите характеристическую функцию непрерывной сл учайной
величины
X,
имеющей
плотность
распределения
0,
| x | 1;
f ( x)
3(1 x 2 )
, | x | 1.
4
1,
t 0;
Ответ: f (t )
3(sin t t cos t )
, t 0.
t3
6.11 Найдите характеристическую функцию случайной величины
X, имеющей гамма-распределение с параметрами α и β.
Ответ: f (t )
α
.
β(1 / β it ) α
6.12 Найдите характеристическую функцию непрерывной сл учайной величины X, имеющей плотность распределения
f ( x)
2
.
π(1 x 4 )
sin( π / 4 | t | / 2 ) .
1
6.13 Может ли функция f (t ) 1
являться характеристиче1 t2
Ответ: f(t)= 2e
|t | / 2
ской функцией некоторой случайной величины?
Ответ: не может.
6.14 Может ли функция f(t)=2−cost являться характеристической
функцией некоторой случайной величины?
Ответ: не может.
6.15 Может ли функция f(t)=1−t+[t], где [t] — целая часть числа
t, являться характеристической функцией некоторой случайной в еличины?
96
Ответ: не может.
6.16 Найдите характеристическую функцию случайной вел ичины
Y=аХ+b, где X — случайная величина, определенная в задаче 6.12.
Ответ: f(t)= 2e
sin( π / 4 | at | / 2 ) .
6.17 Случайная величина Х 1 распределена равномерно в интервале (0,1), а случайная величина Х 2 имеет стандартное нормальное
распределение. Найдите характеристическую функцию случайной
величины Y=Х 1 +Х 2 , если известно, что Х 1 и Х 2 являются независимыми.
| at| / 2 ibt
t2 / 2
(eit 1)e
it
Ответ: f (t )
.
6.18 Найдите математическое ожидание и дисперсию случа йной
величины X, имеющей характеристическую функцию f (t )
1
.
1 2it
Ответ: M(X)=−2, D(X)=4.
6.19 Найдите математическое ожидание и дисперсию случа йной
величины
X,
имеющей
характеристическую
функцию
f (t )
2e
|t | / 2
sin(
π
4
|t |
).
2
Ответ: M(X)=0, D( X )
1 2 2
.
4
6.20 Найдите закон распределения случайной величины, хара ктеристическая функция которой равн а
f (t )
cos t (2 cos t 1)
.
3
Ответ: f(t) является характеристической функцией дискретной
случайной величины X, имеющей ряд распределения, представле нный в табл. 6.4.
Табл.6.4
Х –2 –1 0
1
2
Р 1/6 1/6 1/3 1/6 1/6
6.21 Найдите плотность распределени я случайной величины,
имеющей характеристическую функцию
f (t )
Ответ: f ( x)
0,
| t | 1;
1 | t |, | t | 1.
2
2 x
.
sin
2
πx 2
97
6.22 Проводится выборочное обследование большой партии эле ктрических лампочек для определения среднего времени их г орения.
Среднее квадратичное отклонение времени горения лампочки равно
ζ=80 ч. Из всей партии наудачу выбирается 400 лампочек. Воспол ьзовавшись центральной предельной теоремой, оц ените вероятность
того, что среднее (математическое ожидание) время горения ла мпочки будет отличаться от наблюденного среднего времени горения
выбранных 400 лампочек не более чем на 10 ч.
Ответ: 0,98738.
6.23 Случайная величина X является средним арифметическим из
n независимых одинаково распределенных случайных величин, ди сперсия каждой из которых равна 5. Воспользовавшись центральной
предельной теоремой, оцените, какое число слагаемых n нужно взять
для того, чтобы с вероятностью не менее 0,9973 сл учайная величина
X отклонялась от своего среднего не более чем на 0,01.
Ответ: n≥ 450000.
6.24 Решите задачу 6.3, воспользовавшись для приближенной
оценки искомой вероятности интегральной теоремой Муавра — Лапласа. Сравните полученные результаты.
Ответ: Р{150≤X≤250}≈0,9999366. Сравнивая полученные резул ьтаты, видим, что интегральная теорема Муавра−Лапласа дает гора здо более точный ответ.
98
7 ЭЛЕМЕНТЫ МАТЕМАТИЧЕСКОЙ СТАТИСТИКИ
7.1 Основные задачи математической статистики
Математические законы теории вероятностей не являются лишь
абстрактными, лишенными физического содержания. Они предста вляют собой математическое выражение реальных закономерностей в
массовых случайных явлениях природы. В основе т аких понятий, как
события и их вероятности, случайные величины, их законы распр еделения и числовые характеристики лежит опыт; каждое исследов ание случайных явлений методами теории вероятностей опирается на
экспериментальные опытные данные или систему наблюд ений.
Разработка методов регистрации, описания и анализа статистических (экспериментальных) данных, пол учаемых в результате
наблюдения массовых случайных явлений и составляе т предмет науки – математической статистики.
В зависимости от характера решаемого практического вопроса и
от объема экспериментального материала задачи математической
статистики можно разделить на типичные.
1. Задача определения закона распределения случай ной величины по статистическим данным.
На практике нам всегда приходится иметь дело с ограниче нным
количеством экспериментальных данных, в связи с этим р езультаты
наблюдений и их обработки всегда содержат больший или меньший
элемент случайности. При этом важно уметь выделить как постоя нные и устойчивые признаки явления, так и случайные, проявля ющиеся в данной серии наблюдений только за счет ограниченного
объема экспериментальных данных. В связи с этим возникает хара ктерная задача группировки, сглаживания ил и выравнивания статистических данных, представления их в компактном виде с пом ощью
аналитических зависимостей.
2. Задача проверки правдоподобия гипотез.
Статистические данные могут с большим или меньшим правд оподобием подтверждать или не подтверждать справ едливость той
или иной статистической гипотезы. Например, ставится такой в опрос: согласуются или нет данные эксперимента с гипотезой о том,
что данная случайная величина или признак подчинены тому или
иному закону распределения? Другой подобный вопрос: ук азывают
ли данные наблюдений на наличие объективной зависимости сл учайной величины от одной или нескольких случайных в еличин? Для
решения подобных вопросов существуют методы проверки статист ических гипотез с помощью критериев согласия.
3. Задача определения неизвестных параметров распредел ения.
99
Часто при обработке статистических данных нет необходим ости
определения законов распределения исследуемых случайных вел ичин (признаков). Или же характер закона распределения известен з аранее (до опыта). Тогда возникае т более узкая задача обработки
данных – определить только некоторые числовые характеристики
случайной величины, оценить их точность и надежность.
Таким образом, здесь перечислены только те задачи математич еской статистики, которые наиболее важны по своим практическим
применениям.
7.2 Статистическая совокупность и статистическая фун кция
распределения
Предположим, что изучается некоторая случайная величина Х,
закон распределения которой неизвестен и требуется определить
этот закон по данным наблюдений (опы тным данным). Совокупность
наблюдений Х 1 , Х 2 , …, Х n и представляет собой статистическую с овокупность. Иногда говорят, что получена выборка объема n. При
большом n весь диапазон значений Х i делят на k интервалов (разрядов) и подсчитывают количество значений m i , приходящихся на i-й
интервал.
Это число делят на общее число наблюдений n и получают частоту, соответствующую данному интервалу: pi mi / n . Для контроля:
сумма частот всех интервалов равна единице. Тем самым значения Х i
будут отсортированы в порядке возрастания. Таблица с указанием
разрядов и соответствующих им частот значений Х i называется статистическим рядом. Таким образом, мы получаем сгруппированные данные.
Определение. Статистической функцией распределения случайной величины Х называется частота события Х<х в данной статистической совокупности:
F n (x)=p * (X<x).
Для того, чтобы найти значение статистической функции ра спределения при данном х, достаточно подсчитать число опытов, в
которых величина Х приняла значение меньше х, и разделить на общее число n произведенных опытов. Статистическая функция ра спределения любой случайной величины (дискретной или непреры вной) представляет собой ступенчатую функцию, скачки которой с оответствуют наблюденным значениям случайной величины и по в еличине равны частотам этих значений. Но при больших значениях n
(когда сотни скачков), построение функции F n (x) трудоемко и себя
не оправдывает. Другой способ построения F n (x) будет рассмотрен
ниже.
100
При увеличении числа опытов n, согласно теореме Бернулли,
частота события сходится по вероятности к вероятности этого соб ытия. Следовательно, при увеличении n статистическая функция распределения F n (x) сходится по вероятности к подлинной функции
распределения F(x) случайной величины Х. По сути самого определения статистической функции распределения F n (x), для нее справедливы те же свойства, что и для функции F(x).
Пример 7.1. Для разработанной имитационной модели сист емы
массового обслуживания отмечены времена Х i между поступлениями
(мин.) 200 требований в систему за 1 час моделирования. Статистическая совокупность приведена в табл.7.1.
Табл. 7.1. Интервалы времени n=199 между поступлениями
ний (мин.), отсортированные в порядке во зрастания
0,01 0,05 0,08 0,12 0,21 0,26 0,36 0,45 0,53 0,69
0,02 0,05 0,09 0,12 0,21 0,26 0,37 0,45 0,53 0,69
0,02 0,05 0,09 0,13 0,21 0,26 0,37 0,46 0,53 0,70
0,03 0,06 0,10 0,13 0,21 0,26 0,38 0,47 0,54 0,72
0,03 0,06 0,10 0,14 0,21 0,26 0,38 0,47 0,54 0,72
0,03 0,06 0,10 0,14 0,22 0,27 0,38 0,47 0,55 0,72
0,04 0,06 0,10 0,14 0,22 0,28 0,38 0,48 0,55 0,74
0,04 0,07 0,10 0,14 0,22 0,28 0,38 0,49 0,56 0,75
0,04 0,07 0,10 0,15 0,23 0,29 0,38 0,49 0,57 0,76
0,04 0,07 0,10 0,15 0,23 0,29 0,38 0,49 0,57 0,77
0,04 0,07 0,10 0,15 0,23 0,30 0,39 0,49 0,60 0,79
0,04 0,07 0,10 0,15 0,23 0,31 0,40 0,50 0,61 0,84
0,05 0,07 0,11 0,15 0,23 0,31 0,40 0,50 0,61 0,86
0,05 0,07 0,11 0,17 0,24 0,32 0,41 0,50 0,63 0,87
0,05 0,07 0,11 0,18 0,25 0,35 0,41 0,51 0,63 0,88
0,05 0,07 0,11 0,19 0,25 0,35 0,43 0,51 0,64 0,88
0,05 0,08 0,11 0,19 0,25 0,35 0,43 0,51 0,65 0,90
0,05 0,08 0,12 0,19 0,25 0,36 0,43 0,52 0,65 0,93
0,05 0,08 0,12 0,20 0,25 0,36 0,44 0,52 0,65 0,93
требова0,95
0,97
1,00
1,05
1,05
1,17
1,18
1,24
1,24
Построим по данным наблюдений статистический ряд (табл. 7.2).
Табл.7.2
I i [0;0,1)
[0,1;0,2) [0,2;0,3) [0,3;0,4) [0,4;0,5) [0,5;0,6)
mi
41
34
30
20
19
18
0,171
0,151
0,101
0,095
0,090
pi 0,206
I i [0,6;0,7) [0,7;0,8) [0,8;0,9)
[0,9;1)
[1;1,1)
[1,1;12)
mi
11
9
5
5
3
2
pi 0,055
0,045
0,025
0,025
0,016
0,010
I i [1,2;1,3)
101
mi
2
pi 0,010
Здесь через I i обозначены интервалы значений врем ени;
m i – число наблюдений в данном интер вале;
pi mi / n − соответствующие частоты.
Для построения статистической функции распределения будем
использовать границы х 1 , х 2 , … разрядов, которые используются в
статистическом ряде.
Построим приближенно статистическую функцию распредел ения
по данным табл.7.2 (рис. 7.1).
F 1 9 9 (0,0)=0;
F 1 9 9 (0,3)=0,528;
F 1 9 9 (0,6)=0,814;
F 1 9 9 (0,9)=0,939;
F 1 9 9 (1,2)=0,99;
F 1 9 9 (0,1)=0,206;
F 1 9 9 (0,4)=0,629;
F 1 9 9 (0,7)=0,869;
F 1 9 9 (1,0)=0,964;
F 1 9 9 (1,3)=1,0.
F 1 9 9 (0,2)=0,377;
F 1 9 9 (0,5)=0,724;
F 1 9 9 (0,8)=0,914;
F 1 9 9 (1,1)=0,98;
F199(x)
1
0,8
0,6
0,4
0,2
0
0
0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
1,1 1,2 1,3 x
Рис.7.1
7.3 Гистограммы
Статистический ряд часто оформляется графически в виде гистограммы. Гистограмма строится следующим образом. По оси аб сцисс откладываются разряды, и на каж дом из разрядов строится
прямоугольник, площадь которого равна ча стоте данного разряда.
Таким образом, высота каждого прямоугольника ра вна pi / h , где
h – длина разряда. Тогда полная площадь гистограммы равна един ице.
102
По отношению к статистической совокупности гистограмма я вляется по существу графической оценкой графика плотности распр еделения случайной величины Х. Поэтому гистограмма может быть
хорошей подсказкой в выборе распределений, которые можно дал ьше использовать как модель данных наблюдений. Иногда визуально
достаточно просто отнести гистограмму к опр еделенной плотности
распределения вероятностей, которые были рассмотрены в разделе 2.
Однако, у такого подхода есть свои недостатки. Это выражае тся
в отсутствии четких правил по выбору числа k интервалов (разрядов)
и длины h разрядов. Посмотрим это на примере статистической с овокупности, приведенной в табл.7.1. Ниже (рис.7.2,7.3, 7.4) прив едены три гистограммы для одних и тех же статистических данных с
различными длинами разрядов: h=0,05; h=0,075; h=0,1. Наиболее
ровная гистограмма получена для h =0,1, ее форма напоминает фо рму графика плотности экспоненциального распредел ения.
y
3
2,5
2
1,5
1
0,5
0
0,05
0,2
0,35
0,5
0,65
0,8
0,95
1,1
1,25 x
Рис. 7.2.
y
2,5
2
1,5
1
0,5
0
0,075
0,3
0,525
0,75
0,975
1,2
x
Рис.7.3
103
y
2
1,5
1
0,5
0
0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3
x
Рис.7.4
7.4 Числовые характеристики статистического распредел ения
В разделе 3 были рассмотрены числовые характеристики случа йных величин: математическое ожидание, дисперсия, начальные и
центральные моменты различных порядков. Аналогичные числовые
характеристики существуют и для статистических распределений.
Для основной характеристики положения случайной величины − м атематического ожидания – такой аналогией является среднее ари фметическое значение статистической совокупности {x n }:
X ( n)
n
( xi ) / n ,
(7.1)
i 1
где x i – значение случайной величины Х в i-м опыте, n – число опытов. Эту характеристику называют также статистическим средним
или выборочной средней.
Статистической (выборочной) дисперсией случайной величины Х называют среднее арифметическое квадратов отклонений н аблюдаемых значений случайной величины от их среднего знач ения:
n
DX ( n)
[ ( xi
X (n)) 2 ] / n .
(7.2)
i 1
Исправленной дисперсией называют величину
S 2 ( n)
n
n 1
DX ( n ) .
(7.3)
Аналогично определяются статистические начальные и це нтральные моменты любых порядков:
mS ( n )
n
( xiS ) / n ,
(7.4)
i 1
104
o
n
X (n)) S ] / n .
mS (n) [ ( xi
(7.5)
i 1
Все эти определения полностью аналогичны определениям ч исловых характеристик случайной величины, с той разницей, что в
них везде вместо математического ожид ания присутствует среднее
арифметическое. При увеличении числа опытов все статистические
характеристики будут сходиться по вероятности к соответству ющим
характеристикам случайной величины и при достаточно большом n
могут быть приняты приближенно равными им.
При очень большом количестве опытов вычисление статистич еских характеристик по формулам (7.1) – (7.5) становится трудоемким и тогда используют следующий прием: в статистическом ряде
или гистограмме берут среднее значение ра зрядов ~
xi и их частоты
pi и используют для вычисления характеристик как средневзвеше нных.
Таким образом, статистические характеристики будут выражат ься приближенными формулами:
k
X ( n)
i 1
DX ( n)
k
i 1
(~
xi
k
mS ( n )
o
mS (n)
i 1
k
i 1
(~
xi
~
xi pi ,
X (n)) 2 pi ,
~
xiS pi ,
X (n)) S pi ,
(7.6)
(7.7)
(7.8)
(7.9)
где ~
xi −середина i-го разряда, pi − частота i-го разряда, k− число
разрядов.
При решении задачи определения законов распределений нами
будут использованы еще две статистические характер истики:
Статистический коэффициент вариации
S 2 ( n) / X ( n)
cv(n)
(7.10)
и статистическая асимметрия
AS (n)
m3 (n) /(S 2 (n))3 / 2 .
(7.11)
Воспользуемся вышеперечисленными характеристиками для
подбора подходящих законов распределений для данных статистич еской совокупности, предполагая данные Х 1 , Х 2 , …, Х n независимыми
и одинаково распределенными. Составим так называемую итоговую
статистику (табл.7.3).
105
Табл.7.3
Функция
Минимум,
максимум
Итоговая статистика
Х1, Хn
Среднее m
X (n)
Медиана
x0,5
X (( n
x0,5 (n)
1) / 2 ) ,
[X (n/2)
n нечетное;
X ((n/2) 1) ] 2 ,
Примечание
[Х 1 , Х n ] – оценка интервала наблюдений.
Для непрерывных и
дискретных данных.
Оценка
среднего
значения. Для непрерывных и дискретных данных.
Альтернативный показатель
среднего
значения. Для непрерывных и дискретных данных.
n четное .
Дисперсия
ζ2
Коэффициент вариации
cv
ζ 2 /m
Коэффициент Лексиса
η=ζ 2 /m
2
S (n)
S 2 ( n) / X ( n)
cv(n)
η ( n)
2
S ( n) / X ( n)
Продолжение табл. 7.3
Асимметрия
o
AS
m3 /(ζ 2 )3 / 2 AS (n)
o
m3 (n) /(S 2 (n))3 / 2
Показатель изменчивости. Для непрерывных и дискретных данных.
Альтернативный показатель изменчивости. Для непрерывных данных.
Альтернативный показатель изменчивости. Для дискретных
данных.
Показатель симметрии. Для непрерывных и дискретных
данных.
С помощью указанных функций в некоторых случаях можно в ыдвинуть предположение относительно семейства распределений.
Для симметричного распределения (например, нормального),
среднее m равно медиане х 0 , 5 . Следовательно, если оценки X (n) и
xˆ0,5 (n) примерно одинаковы, можно предположить, что распредел ение данной совокупности симметрично.
Иногда информацию о форме непрерывного распределения мо ж106
но получить с помощью коэффициента вариации cv. В частности,
cv=1 для экспоненциального распределения. Для гамма – распределения и распределения Вейбулла значение cv больше 1, равно 1 или
меньше 1, когда параметр формы α соответственно мен ьше 1, равен
1 или больше 1.
Для гиперэкспоненциального распределения cv≥1. Для остальных распределений, рассмотренных в разделах 2 и 3, величина cv<1.
Для дискретного распределения коэффициент Лексиса ( lexis
ratio) η выполняет ту же роль, что и коэффициент вариации для н епрерывного распределения. Его целесообразно и спользовать при определении распределений Пуассона, биномиального и отрицательн ого биномиального (геометрического). Для этих распредел ений η=1,
η<1 и η >1 соответственно.
Асимметрия А S – показатель симметрии распределения. Как было
сказано уже в разделе 2, А S =0 для симметричного распределения,
подобного нормальному. Если А S >0 (для экспоненциального распределения А S =2), распределение смещено вправо, а если А S <0, оно
смещено влево. Таким образом, асимметрия может и спользоваться
для того, чтобы выяснить, какую форму имеет лежащее в основе ст атистических данных распределение.
Определим эти функции итоговой статистики для статистич еской совокупности по временам Х i между поступлениями требований
из примера 7.1.
Итоговая статистика
Значение
Минимум
0,01
Максимум
1,24
Среднее
0,351
Медиана
0,260
Дисперсия
0,081144
Коэффициент вариации
0,813953
Асимметрия
1,000
Из этой таблицы следует, что среднее и среднеквадратическое
отклонение примерно равны. Коэффициент вариации близок к ед инице, асимметрия положительная, т.е. распределение смещено впр аво. Результаты итоговой статистики говорят в пользу экспоненц иального распределения, как наиболее подходящего среди рассмо тренных в разделе 2.
Приведенный на рис.7.1 приближенный график статистической
функции распределения, гистограммы и результаты итоговой стат истики позволяют выдвинуть гипотезу о том, что данные распредел ения времени поступления требований в систему массового обслуж ивания распределены по экспоненциальному закону.
Так как теоретическая кривая эксп оненциального распределения
107
зависит от одного параметра λ=1/ М(Х), то подставив вместо математического ожидания М(Х) величину X (n) , получим оценку парамет-
λˆ 1 / 0,351 2,849 . Тогда, вычислив
ра
f(x)=2,849e − 2 , 8 4 9 x на границах разрядов
значения
функции
х
0
0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0
f(x) 2,85 2,14 1,61 1,21 0,91 0,69 0,52 0,39 0,29 0,22 0,17
,
х
1,1 1,2 1,3
f(x) 0,12 0,09 0,07
построим график этой функции поверх гистограммы (рис.7.5).
f(x)
2,5
2
1,5
1
0,5
0
0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3
x
Рис.7.5
Из графика видно, что теоретическая кривая плотности распр еделения f(x), сохраняя в основном существенные особенности стат истического распределения, свободна от случайных непр авильностей
хода гистограммы.
На этом завершается рассмотрение первой из трех основных задач математической статистики.
7.5 Критерии согласия
В этом разделе рассматривается вопрос о согласованности те оретического и статистического распределений. Допустим, что для
данного статистического распределения подобрано теоретическое
распределение (например, экспоненциальное). Между ними неи збежны некоторые расхождения. Поэтому возникает вопрос: объя сняются ли эти расхождения только случайными обстоятел ьствами,
связанными с ограниченным числом наблюдений, или же они явл я108
ются существенными и связаны с тем, что плохо подобрано теорет ическое распределение. Ответ на этот вопрос дают так называемые
критерии согласия.
Рассмотрим наиболее старый критерий согласия – критерий «хи
– квадрат» К. Пирсона (К.Pearson, 1900), в котором мера расхождения между теоретическим и статистическим распределением обозн ачается χ 2 .
Проверяя согласованность теоретического и статистического
распределений, исходят из расхождений между теоретическими в ероятностями p i − попадания случайной величины в кажды й из разрядов статистического ряда и п олученными частотами pi .
Пусть результаты n опытов сведены в k разрядов и оформлены в
статистический ряд
[α 1 ;α 2 ) [α 2 ;α 3 ) … [α k ;α k+ 1 )
…
pk
p1
p2
Ii
pi
и пусть подобрана плотность распределения f(х). Тогда теоретические вероятности попадания случайной величины в i-й разряд статистического ряда
αi 1
pi
pi
f ( x)dx − для непрерывных данных,
αi
p( xi ) − для дискретных данных,
α i xi α i
1
где р – вероятностная мера подобранного распределения (напр имер,
геометрического).
Тогда статистика критерия χ 2 определяется по формуле
χ
2
k
n
pi ) 2
( pi
i 1
pi
.
Для удобства вычислений (чтобы не иметь дела со слишком м алыми величинами) можно ввести n под знак суммы и использовать
критерий в виде
χ
2
k
i 1
(mi
npi ) 2
.
npi
Отсюда видно, что величина χ 2 – случайная и ее распределение
зависит от параметра r, называемого числом степеней свободы распределения. Число степеней свободы r равно числу разрядов k минус
число независимых условий (связей), наложенных на частоты pi .
Например, таким условием может быть
k
i 1
pi
1.
109
В частности, если предполагаемое распределение экспоненциал ьное, то r=k−2. Если нормальное, то r=k−3.
В п.2.5.5 было отмечено, что распределение χ 2 является частным
случаем гамма – распределения при α=r/2 и β=2. Таким образом,
распределение χ 2 с r степенями свободы является распределением
суммы квадратов r независимых случайных величин Х i , каждая из
которых подчинена нормальному закону с параметрами m x =0, ζ x =1.
Это распределение имеет плотность
u
f r (u )
2
r
1
2
e
r
2
0,
где
u
2
, u
0;
u
0,
r
( )
2
t z 1e t dt − гамма – функция аргумента z.
( z)
0
Объясним теперь понятие критерия согласия.
Критерий согласия – это статистический критерий для пр оверки
гипотезы, применяемый, чтобы формально оценить, являются ли
данные наблюдений Х 1 , Х 2 , …, Х n независимой выборкой из определенного распределения с функцией распределения F(х) или плотностью f(x). Таким образом, критерий согласия используют для пр оверки так называемой
нулевой гипотезы Н 0 : Х i – независимые и
одинаково распределенные случайные величины с функцией распр еделения F(х) или плотностью f(х).
После выбора определенного критерия множество всех его во зможных значений разбивают на два непересекающихся подмножес тва: одно из них содержит значения кр итерия, при которых нулевая
гипотеза отвергается, другое – при которых она принимается. Так
как любой критерий представляет собой одномерную случайную в еличину, то все ее возможные значения принадлежат некоторому и нтервалу. Рассмотрим сказанное на примере критерия «хи − квадрат».
2
Зададимся вопросом нахождения такого значения χ кр (α,r) при заданной вероятности (уровне значимости) α и задан ном числе степеней свободы r, при котором было бы выполнено условие:
2
P(χ 2 χ кр
(α, r )) α .
Тогда, если найденное по статистическому ряду значение χ 2 бу2
дет больше критического χ кр (α,r), то при заданном уровне значимости гипотезу Н 0 отвергают. Если же найденное значение χ 2 меньше
критического, то нет оснований, чтобы отвергнуть нулевую гипот е110
зу.
2
На рис.7.6 показано нахождение критической точки χ кр (α,r) и
построение критической области для критерия χ 2 .
Плотность распределения
χ2 с r степенями свободы
Незакрашенная
площадь равна 1-α
Закрашенная
площадь равна α
x
f(x)
0
2
χ кр
( α, r )
не опровергать опровергнуть
Рис.7.6
2
Таблица значений χ кр (α,r) для различных α и r приведена в приложении (табл. 4). Это таблица с двумя входами, где α значение в ероятности и r – число степеней свободы. Числа, стоящие в таблице,
представляют собой соответствующие значения χ 2 . Таблицу значений χ 2 можно использовать двояко.
Во-первых будем исходить из того, что величина Х действительно распределена по закону F(x). Тогда вероятность α, опред еленная
по таблице при полученных значениях r и χ 2 , есть вероятность того,
что за счет чисто случайных причин мера расхождения χ 2 (7.3) будет
не меньше, чем фактическое значение χ 2 в данной серии опытов.
Если эта вероятность мала, то результат опыта следует считать
противоречащим гипотезе Н 0 .
Напротив, если вероятность α сравнительно велика, можно пр изнать расхождения между теоретическим и статистическим распр еделениями несущественными и отнести их за счет случайных пр ичин. Тогда гипотезу Н 0 можно считать правдоподобной или не пр отиворечащей опытным данным.
Во-вторых, по заданному уровню значимости (α=0,05, α=0,1) и
числу степеней свободы r из статистического ряда находят по та б2
2
лице χ кр (α,r). Если значение χ 2 (7.13) не превышает χ кр (α,r), то говорят, что мы не опровергаем Н 0 на заданном уровне α.
На практике при использовании критерия χ 2 должно быть достаточно большим не только общее число опытов n, но и числа наблюдений m i в отдельных разрядах (не менее 5 -10 наблюдений). Если
числа наблюдений в отдельных разрядах малы (1 -2), имеет смысл их
объединить.
111
Пример 7.2. Рассмотрим сказанное выше на данных из прим ера
7.1. Вычислим вначале значение критерия χ 2 для статистического
ряда, представленного таблицей 7.2. При этом три последних разр яда объединены в один. Выкладки для вычи сления критерия показаны
в табл.7.4.
Табл.7.4
i
1
2
3
4
5
6
7
8
9
10
11
Интервал
[х i , x i + 1 )
mi
[0; 0,1)
[0,1; 0,2)
[0,2; 0,3)
[0,3; 0,4)
[0,4; 0,5)
[0,5; 0,6)
[0,6; 0,7)
[0,7; 0,8)
[0,8; 0,9)
[0,9; 1,0)
[1,0; ∞)
41
34
30
20
19
18
11
9
5
5
7
e
λ̂xi
1,0
0,752
0,566
0,425
0,320
0,241
0,181
0,136
0,102
0,077
0,058
e
λ̂xi
1
0,752
0,566
0,425
0,320
0,241
0,181
0,136
0,102
0,077
0,058
0
pi
0,248
0,186
0,141
0,105
0,079
0,060
0,045
0,034
0,025
0,019
0,058
( mi
np i
49,35
37,01
28,06
20,89
15,72
11,94
8,96
6,77
4,98
3,78
11,54
npi ) 2
npi
1,41
0,24
0,13
0,04
0,68
3,08
0,46
0,73
0,00
0,39
1,79
2
χ =8,95
Из таблицы значений χ 2 (приложение табл.4) находим для r=9:
при χ 2 =10,66 α=0,30;
при χ 2 =8,34
α=0,50.
Следовательно, искомая вероятность α при χ 2 =8,95 приближенно
равна 0,44. Эта вероятность малой не является и поэтому гипотезу
об экспоненциальном законе распределения интервалов времени м ежду поступлениями требований можно считать правд оподобной.
С другой стороны зададимся уровнем значимости α=0,05. По
2
таблице χ 2 при α=0,05 и r =9 находим χ кр(0,05; 9)
16,92 . Так как
8,95<16,92, то можно говорить, что при уровне значимости 0,05, г ипотезу об экспоненциальном распределении не отвергаем. Итак, в еличина критерия не дает нам оснований считать, что экспоненциал ьное распределение с плотност ью f ( x)
2,849e
0,
2 ,849 x
,
x 0;
плохо
x 0
согласуется с данными табл.7.1
Другой подход к определению значения критерия χ 2 называется
равновероятным подходом. В этом случае устраняется некоторая
неоднозначность в выборе длины ра зрядов в статистическом ряде и
длины разрядов выбирают так, чтобы выполнялось условие:
р 1 =р 2 =…=р k . Тогда критерий χ 2 является приближенно достоверным,
112
если k≥3 и np i ≥5 для всех i.
Например, если для вышеприведенного примера сформировать
k=20 интервалов с р i =1/20=0,05, то n·р i =199·0,05=9,95.
Границы
разрядов
хi
можно
определить
по
формуле
x i =−0,351ln(1−i/20) для i=1,2,…, 20, что эквивалентно условию
Fˆ ( xi ) i / 20 , где Fˆ ( x) 1 e
x / 0,351
для х≥0. При этом х 0 =0, х 2 0 =∞.
Определение значения критерия χ 2 по равновероятному подходу
и сравнение его с предыдущим значением, проделать самостоятел ьно.
Рассмотрим еще один критерий согласия – критерий Колмогорова - Смирнова. В отличие от критерия «хи -квадрат» критерий
Колмогорова – Смирнова позволяет сравнить статистическую фун кцию распределения F n (x) c функцией предполагаемого распределения Fˆ ( x) . Для этого критерия не нужно каким – либо образом группировать данные и следовательно, нет сложности с определением
границ разрядов. Однако у него есть свои недоста тки.
Во – первых, область его применения более ограниченна, чем у
критерия «хи - квадрат», т.к. нет готовых критических значений для
работы с дискретными данными. Во – вторых, исходная форма критерия достоверна только в том случае, если известны все пар аметры
предполагаемого закона. Если же использовать вместо п араметров
их оценки по данным, то критерий может давать завышенные знач ения вероятности, чем точно устано вленные.
Для определения меры расхождения (статистики), лежащей в о снове критерия Колмогорова – Смирнова, мы будем использовать статистическую
функцию
распределения
количество Х i x
Fn ( x)
p ( X x)
n
и подобранную функцию распределения Fˆ ( x) . Тогда статистика
этого критерия D n – это наибольшее (вертикальное) расстояние ме жду F n (x) и Fˆ ( x) для всех значений х: Dn max | Fn ( x) Fˆ ( x) | .
А.Н.Колмогоров доказал, что какова бы ни была функция распред еления Fˆ ( x) непрерывной случайной величины Х,
при неограниченном возрастании числа независимых н аблюдений n
вероятность неравенства n Dn λ стремится к пределу
P(λ) 1
( 1) k e
2k 2 λ 2
.
(7.14)
k
Значения вероятности Р(λ), подсчитанные по формуле (7.14)
приведены в табл. 7.5
113
Табл.7.5
λ
0,0
0,1
0,2
0,3
0,4
Р(λ)
1,000
1,000
1,000
1,000
0,997
λ
0,5
0,6
0,7
0,8
0,9
Р(λ)
0,964
0,864
0,711
0,544
0,393
λ
1,0
1,1
1,2
1,3
1,4
Р(λ)
0,270
0,178
0,112
0,068
0,040
λ
1,5
1,6
1,7
1,8
1,9
2,0
Р(λ)
0,022
0,012
0,006
0,003
0,002
0,001
Схема применения критерия следующая:
1) строятся статистическая функция распределения F n (x) и пред-
Fn (x) F̂(x)
полагаемая теоретическая функция распределения Fˆ ( x) и определяется максимум модуля разности между ними (рис.7.7);
n Dn и по таблице 7.5 находится
2) определяется величина λ
вероятность Р(λ). Если вероятность Р(λ) весьма мала, то гипотезу Н 0
отвергают; при сравнительно больших Р(λ) гипотезу Н 0 считают совместимой с опытными данными.
Пример 7.3. Применим критерий Колмогорова – Смирнова к
данным статистической совокупности из табл.7.1. На рис.7.7 прив еден график разности между функциями распределения для да нных об
интервалах времени между поступлениями требований и подобра нx / 0,351
ного экспоненциального распределения Fˆ ( x) 1 e
.
0,05
0,00
x
-0,05
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
Рис.7.7
Максимальная разность между двумя функциями F n (x) и Fˆ ( x) в
точке х i =0,35 составляет −0,083. Тогда D n =0,083 и λ=1,171. По табл.
7.5 находим Р(1,1)=0,178 и Р(1,2)=0,112. Следовательно, как и в
случае применения критерия «хи – квадрат», гипотезу Н 0 – об экспоненциальном распределении данных на уровне Р=0,14 мы не опровергаем. В качестве замечания отметим тот факт, что с ростом n
прямо пропорционально растет и объем вычислений для стат истики
Dn.
114
Для сравнения ниже приведены результаты ра счетов по программе «Statistica» (рис.7.8, 7.9). Результаты ручного счета и пр ограммы «Statistica» – для статистики Колмогорова - Смирнова совпадают. Расхождения по критерию «хи - квадрат» объясняются тем,
что в программе «Statistica» при вычислении статистики χ 2 разряды
берутся другие, а именно (α i , α i + 1 ] вместо [α i , α i + 1 ) при ручном счете.
Следовательно, в программе «Statistica» статистическая функция
распределения F n (x) непрерывна «справа», а не «слева», как мы д опускали в п.7.2.
Это важно, особенно в тех случаях, когда данные в статистич еской совокупности могут повторяться, как в рассматр иваемом нами
примере.
Рис. 7.8
115
Рис. 7.9
Далее в качестве модели теоретического распределения для да нных статистической совокупности из таблицы 7.1 вместо эксп оненциального распределения рассмотрим га мма – распределение (см. п.
2.5.5). Ниже на рисунках 7.10, 7.11, 7.12 приведены расчеты по пр ограмме «Statistica».
Рис. 7.10
116
Рис. 7.11
Рис. 7.12
117
Результаты расчета показывают, что данные статистической с овокупности не противоречат и гипотезе о гамма – распределении с
параметром формы α=3,87 и масштабным параметром β=1,36. При
этом статистика критерия Колмогорова – Смирнова D n =0,072 вместо
0,083 в предыдущем случае (что лучше, так как вероя тность равна
0,26), а статистика критерия «хи – квадрат» − χ 2 =11,85 вместо 9,49
(что хуже, так как вероятность стала 0,158 вместо 0,394).
Учитывая, что экспоненциальное распределение содержит один
параметр, а гамма – распределение – два параметра, то для дальнейшего моделирования удобнее пользоваться экспоненциальным ра спределением.
7.6 Статистические оценки для неизвестных параметров распределения
Определив при решении первой задачи математической стат истики один или несколько законов распределений, мы должны з адать
значения их параметров, чтобы распределения были полностью о пределены и могли применяться при да льнейшем моделировании. При
выдвижении гипотезы о виде распределения использовались незав исимые и одинаково распределенные опытные данные Х 1 , Х 2 , …, Х n , и
эти же данные будем использовать, чтобы получить оценки параме тров, входящих в выбранное распределени е. В таком случае говорят,
что оценивают неизвестный параметр по данным статистической с овокупности (выборки). Например, если уже установлено, что закон
распределения случайной величины Х нормальный, то необходимо
оценить параметры m и ζ. Или же, если величина распределена по
закону Пуассона, то подлежит определению только один его пар аметр − математическое ожидание М(Х)=λ.
Рассмотрим следующую общую задачу. Имеется случайная вел ичина Х, закон распределения которой содержит неизвестный пар аметр ζ. Обозначим ζ̂ оценку параметра ζ, причем оценка является
числовой функцией величин Х 1 ,Х 2 ,…,Х n и следовательно, сама является величиной случайной. Закон распределения ζ̂ зависит от закона
распределения величины Х, от самого неизвестного параметра ζ и
числа опытов n.
Предъявим к оценке ζ̂ ряд требований по «качеству».
1. Несмещенной называют статическую оценку ζ̂ , математическое ожидание которой равно оцениваемому пар аметру ζ, т.е.
M (ζ̂ )
ζ.
В этом случае исключается систематическая ошибка в сторону з авышения или занижения.
118
2. Оценка ζ̂ при увеличении числа опытов n должна сходиться
по вероятности к оцениваемому параметру ζ. Оценка, обладающая
этим свойством, называется состоятельной.
3. Эффективной называют статическую оценку, которая по
сравнению с другими имеет наименьшую ди сперсию, т.е.
D (ζ̂)
min .
Рассмотрим два типа оценок − это оценки по методу моментов
(К. Пирсона) и оценки максимального правдоподобия (Р. Фишера).
Согласно методу моментов, неизвестные параметры распредел ения выбираются с таким расчетом, чтобы несколько моментов теор етического распределения были равны соответствующим ст атическим
моментам, вычисленным для данной статистической с овокупности.
Пример 7.4. По данным статистической совокупности Х 1 ,Х 2 ,…,Х n
найти методом моментов оценку неизв естного параметра λ эксп оλx
ненциального распределения с функцией плотности f ( x) λe
(x 0) .
Решение. Приравняем начальный теоретический момент перв ого
порядка начальному статическому моменту первого порядка:
m 1 =m 1 (n).
Учитывая,
что
m 1 =M(X),
m1 (n) X (n) , получим
X (n) . Так как для экспоненциального закона M ( X ) 1 / λ ,
то оценкой для параметра λ будет λ̂ 1 / X ( n) .
M (X )
Пример 7.5. По данным статической совокупности Х 1 ,Х 2 ,…,Х n
найти методом моментов оценки неизвестных параметров m и ζ нормального распределения с функцией плотности
θ m, ζ ( x)
2
2
1
e- ( x - m ) /(2ζ ) .
ζ 2π
Решение. Приравняем начальные теоретические и статические
моменты первого порядка, а также центральные и статистические
o
моменты второго порядка: m 1 =m 1 (n), m 2
o
m 1 =m, m 2
o
m 2 (n) . Учитывая, что
ζ 2 , получим
ˆ
m
X (n) , ζ̂
DX ( n) .
Замечание. Результаты примера 7.2 мы уже использовали в п.
7.4.
Рассмотрим теперь оценки максимального правдоподобия. Допустим, что вид функции плотности f(x) для независимых и одинаково распределенных данных Х 1 ,Х 2 ,…,Х n установлен, но неизвестен
параметр этого распределения ζ.
Функцией правдоподобия для непрерывной случайной велич ины Х называют функцию
119
L(Х 1 ,Х 2 ,…,Х n ; ζ)=f(Х 1 , ζ) f(Х 2 , ζ)… f(Х n , ζ).
В качестве оценки параметра ζ принимают такое его значение ζ̂ ,
при котором функция L достигает максимума. Функции L и lnL достигают максимума в одной и той же точке, поэтому ищут (что удо бнее) максимум функции lnL.
Пример 7.6. Для экспоненциального распределения ζ=λ (λ>0).
Составим
логарифмическую
функцию
правдопод обия:
n
ln L
n ln
i 1
Xi .
Найдем первую производную по λ:
d ln L
dλ
n
λ
n
i 1
Xi .
Так как lnL – строго возрастающая функция, то приравняв нулю
первую производную, найдем точку макс имума
n
λ̂
n/
i 1
Xi
1 / X ( n) .
Пример 7.7. Функция правдоподобия для нормального распред еления имеет вид:
L
1
exp(
ζ n ( 2π ) n
n
i 1
(Xi
m) 2 / 2ζ 2 ) ,
а следовательно логарифмическая функция правдопод обия
ln L
n ln ζ ln
1
n
( 2 π) n
i 1
(Xi
m) 2 /(2ζ 2 ) .
Найдем частные производные по m и ζ:
ln L
m
n
(
i 1
Xi
nm) / ζ ;
2
ln L
ζ
n/ζ
n
i 1
(Xi
m) 2 / ζ 2 .
Приравняв частные производные нулю и решив полученную си стему двух уравнений относительно m и ζ, получим:
ˆ X (n) ,
ζ̂ 2 DX(n) .
m
Заметим, что первая оценка несмещенная, а вторая смещенная.
Теперь подробнее рассмотрим требования, предъявляемые к
оценкам.
7.7 Оценки для математического ожидания и диспе рсии
Пусть имеется случайная величина Х с математическим ожиданием m x и дисперсией D x и при этом обе характеристики неизвес тны. В результате n независимых опытов получены результаты X 1 , X 2 ,
…, X n . Требуется найти несмещенные и состоятельные оценки ч исловых характеристик m x и D x .
120
В качестве оценки для m x рассмотрим среднее арифметическое
n
X ( n)
( Xi ) / n.
i 1
Найдем его математическое ожидание
n
M ( X (n)) ( mx ) / n
i 1
mx .
Отсюда следует, что X (n) является несмещенной оценкой для
математического ожидания m x .
При рассмотрении закона больших чисел мы убедил ись, что при
увеличении n величина X (n) сходится по вероятности к m x . Тогда
эта оценка является и состоятельной. Определим теперь дисперсию
этой оценки:
n
D( X (n))
D(
i 1
X i ) / n2
Dx / n .
Эффективность или неэффективность оценки зависит от вида
распределения величины Х. Например, доказано, что если велич ина
Х
распределена
по
нормальному
закону,
то
в еличина
D( X (n)) DX / n будет минимальной, т.е. оценка X (n) будет эффективной.
Перейдем к оценке для дисперсии D x . Рассмотрим для этого статистическую дисперсию
1 n
(Xi
ni 1
DX ( n )
X (n)) 2
X 2 (n) ( X (n)) 2 .
(7.15)
Проверим, является ли эта оценка состоятельной. Вел ичина
X (n) есть среднее арифметическое n значений случайной величины X 2 и она сходится по вероятности к М(Х 2 ). Второе слагаемое схо2
дится по вероятности к m x . Тогда дисперсия D X (n ) сходится по ве2
2
m x2
роятности к M ( X )
Dx , т.е. оценка D X (n ) является состоя-
тельной.
Проверим, является ли оценка D X (n ) также и несмещенной. Для
этого раскроем выражение (7.15):
n
DX ( n)
n
( X ) / n ( X i / n) 2
i 1
2
i
n
i 1
n
( X i2 ) / n ( X i2 ) / n 2
i 1
n 1n 2
Xi
n2 i 1
i 1
2
n2
i j
2
i j
X i X j / n2
(7.16)
Xi X j.
Найдем математическое ожидание величины (7.16):
121
n 1 n
M ( X i2 )
2
n i1
M ( DX ( n) )
2
M (X i X j ).
n2 i j
(7.17)
Так как статистическая дисперсия не зависит от того, в какой
точке выбрать начало координат, выберем его в то чке m x . Тогда
o
M ( X i2 )
M (X
2
i)
n
Dx ;
o
M (Xi, X j )
i 1
M ( X i2 )
nDx ;
o
M ( X i X j ) cov( X i , X j ) 0 .
Последнее равенство следует из того, что X i и X j − независимы.
Подставив последние выражения в (7.17), получим
n 1
Dx .
n
M ( DX ( n ) )
Отсюда следует, что статистическая дисперсия не является н есмещенной оценкой для D x . Тогда введя поправку
n
n 1
и умножив
статистическую дисперсию на эту величину, получим «исправле нную»
дисперсию
в
качестве
оце нки
для
Dx:
n
S 2 ( n)
n
n 1
DX (n)
i 1
(Xi
X (n)) 2
n 1
.
При больших значениях n обе оценки - смещенная D X (n ) и несмещенная S 2 (n) − будут различаться очень мало и т огда введение
поправочного множителя теряет смысл.
7.8 Доверительный интервал и доверительная вер оятность
В предыдущих разделах рассмотрен вопрос об оценках неизвес тных параметров распределений одним числом. Такие оценки наз ываются «точечными». В ряде задач требуется не только найти оц енку параметра ζ, но и оценить его точность и надежность. Тр ебуется
знать – к каким ошибкам может привести замена параметра ζ его т очечной оценкой ζ̂ и с какой степенью надежности мо жно ожидать,
что эти ошибки не выйдут за известные пр еделы ?
Такого рода задачи особенно актуальны при малом числе набл юдений над случайной величиной Х, когда точечная оценка ζ̂ в значительной мере случайна и приближенная замена ζ на ζ̂ может привести к серьезным ошибкам.
Чтобы дать представление о точности и надежности оценки ζ̂ , в
математической статистике пользуются так называемыми доверительными интервалами и доверител ьными вероятностями.
122
Пусть для параметра ζ по данным наблюдений получена не смещенная оценка ζ̂ . Чтобы оценить возможную ошибку при зам ене ζ
его оценкой ζ̂ , возьмем некоторую достаточно большую вер оятность
γ (например, γ=0,9; γ=0,95; γ=0,99), такую, что событие с вероятн остью γ можно считать практически достоверным. Очевидно , что е сли δ>0 и |ζ− ζ̂ |<δ, то чем меньше δ, тем оценка точнее. Пусть вероя тность
того,
что
|ζ− ζ̂ |<δ
равна
γ:
P(| ζ ζ̂ | δ)
γ
или
P (ζ̂ δ ζ ζ̂ δ)
γ . Последнее соотношение следует понимать так:
вероятность того, что интервал (ζˆ δ, ζˆ δ) заключает в себе (покрывает) неизвестный параметр ζ, равна γ.
Вероятность γ называют надежностью (доверительной вероятн остью) оценки ζ по ζ̂ , а интервал (ζˆ δ, ζˆ δ) – доверительным интервалом.
Замечание. Ранее мы неоднократно рассматривали вероя тность
попадания случайной величины X в заданный (неслучайный) интервал. Здесь же параметр ζ не случайная величина, а случайна велич ина ζ̂ и следовательно, случайны границы доверительного интервала.
Поэтому в данном случае лучше толковать величину γ не как вер о-
ятность попадания точки ζ в интервал (ζˆ δ, ζˆ δ) , а как вероятность
того, что этот интервал накроет точку ζ.
Перейдем к вопросу о нахождении границ доверительного и нтервала. Для этого рассмотрим задачу о доверительном интервале
для математического ожидания.
Предположим, что X 1 , X 2 , …, X n являются независимыми и одинаково распределенными случайными величинами с матем атическим
ожиданием m и конечной дисперсий ζ 2 , которые неизвестны. Для
этих параметров получены оценки:
X ( n)
n
i 1
xi / n ;
S 2 ( n)
n
i 1
( xi
X (n)) 2 /(n 1) ,
где x i − возможные значения величин X i . Согласно центральной предельной теореме, при достаточно бо льшом n закон распределения
X (n) близок к нормальному. Характеристики этого закона – математическое ожидание и дисперсия равны соответственно m и ζ 2 /n
(п.6.3). Тогда пользуясь известной формулой (см. п.2.4.)
Р(|X−m|<δ)=2Φ 0 (δ/ζ) и заменив в ней Х на X (n) , ζ 2 на S 2 (n)/n, получим
P(| X (n) m | δ) 2Φ0 (δ n / S 2 (n) ) 2Φ0 (t γ ) ,
где t γ
δ n / S 2 (n) .
123
Тогда
δ t γ S 2 (n) / n и можем записать
P( | X (n) m | t γ S 2 (n) / n ) 2Φ0 (t γ ) .
Приняв во внимание, что эта вероятность задана и равна γ, а также
найдя значение t γ из равенства Φ 0 (t γ )=γ/2 по таблице интеграла Лапласа, можем теперь записать окончательную формулу доверительн ого интервала для неизвестного мат ематического ожидания:
X (n) t γ S 2 (n) / n
m
X (n) t γ S 2 (n) / n .
(7.18)
Полученный таким образом интервал называют также 100·γ −
процентным доверительным интервалом для m.
Пример 7.8. Произведено 20 опытов над величиной Х; результаты приведены в таблице 7.6.
Табл. 7.6
i
xi
i
xi
i
xi
i
xi
10,
6
11,
1
10,5 6
10,6 11
16 10,9
3
2
10,8 7
10,9 12
17 10,8
10,
3
11,2 8
11,0 13
18 10,7
5
4
10,9 9
10,3 14
19 10,9
10,
5
10,4 10 10,8 15
20 11,0
7
10,
8
Требуется найти оценку m̂ для математического ожидания m величины X и построить 90-процентный доверительный интервал для
m.
Решение. Определим среднее арифметич еское
X (20)
1 20
xi
20 i 1
10,78.
Выбрав за начало отcчета x=10 находим несмещенную оценку
S 2 (20)
13,38
20
(
0,782 )
20
19
0,064 .
2
S (20) / 20 0,0565 . По таблице интеТогда значение множителя
грала Лапласа находим t 0 , 90 =1,643. Отсюда доверительный интервал:
10,69<m<10,87.
Пример 7.9. Построим 90 − процентный доверительный инте рвал для среднего значения m статистической совокупности из пр имера 7.1. Из п.7.4 имеем следующие оценки X (199) 0,351,
S 2 (199)=0,081. Отсюда значения множителя
S 2 (199) / n
0,020 . По
124
таблице интеграла Лапласа t 0 , 9 0 =1,643. Отсюда доверительный и нтервал: 0,318<m<0,384.
Доверительный интервал, определенный формулой (7.18) являе тся лишь приближенным. Это видно по выкладкам, которые были
проделаны при выводе этой формулы. Теперь запишем точное выр ажение 100·γ − процентного доверительного интервала для неизвес тного математического ожидания m.
Пусть X 1 , X 2 , …, X n являются нормально распределенными сл учайными величинами. Тогда случайная величина T
X ( n) m
2
име-
S ( n) / n
ет распределение Стьюдента с n−1 степенями свободы. Плотность
этого
распределения
имеет
вид
n
S n 1 (t )
Γ (n / 2)
t2 2
(1
) .
n 1
(n 1) π Γ ((n 1) / 2)
В этом случае также говорят, что случайная величина T имеет t –
распределение с n−1 степенями свободы.
Точный (для любого n≥2) 100·γ – процентный доверительный интервал для m определяется как
(7.19)
X (n) tn 1, γ S 2 (n) / n m X (n) tn 1, γ S 2 (n) / n ,
где t n 1, γ − верхняя критическая точка для t – распределения с n−1
степенями свободы определяется из усл овия
tn
1,
2
γ
S n 1 (t) dt
γ.
0
Таким образом, при выводе формулы (7.19) использована сл учайная величина T.
Таблица значений критических точек t n 1, γ приведена в приложении (табл.5).
Пример 7.10. Построить 90%-й доверительный интервал для m
по данным примера 7.8. Ранее были определены оценки:
X (20) 10,78 , S 2 (20)=0,064, а также величина
S 2 (20) / 20
0,0565 .
По таблице значений t n
1, γ
находим значение t 1 9 ; 0 , 9 =1,729. Тогда
90%-й доверительный интервал будет 10,68< m<10,88.
Таким образом, доверительный интервал, определяемый форм улой (7.19) шире, чем (7.18). Этот факт илл юстрирует и рис.7.13, где
приведены графики плотности t − распределения с 4-мя степенями
свободы и стандартного нормального ра спределения.
125
Стандартное нормальное
распределение
t-распределение с 4-мя
степенями свободы
f(x)
tγ tn-1,γ x
0
Рис.7.13
Кривая t − распределения меньше поднимается вверх и имеет
более длинные хвосты, чем кривая нормального распределения и п оэтому для любого конечного n
справедливо неравенство t n 1, γ t γ .
В тех случаях, когда n довольно небольшое число, разница между
(7.18) и (7.19) будет ощ утимой.
Выше мы рассматривали задачу построения доверительного и нтервала для неизвестного математического ожидания. Точно также
определяется доверительный интервал для диспе рсии D. Только при
его получении используется случайная величина U=(n−1)S 2 (n)/D, которая имеет распределение χ 2 с n−1 степенями свободы (см.п.7.5).
Выразим случайную величину –
оценку S 2 (n) через
U:
S 2 ( n) U
D
n 1
. Зная закон распределения величин ы U, можно найти
для нее доверительный интервал с надежностью γ. Доверительный
интервал построим таким образом, чтобы вероятности выхода вел ичины U за пределы интервала вправо и влево (заштрихованные пл ощади на рис.7.14) были одинаковы и равны
1 γ
.
2
α
2
Воспользуемся таблицей значений χ кр (α, r ) для случая r=n−1 и в
2
соответствующей строке найдем два значения χ 2 : одно, отвечающее
вероятности α 1 =α/2; другое – вероятности α 2 =1−(α/2). Обозначим
2
2
2
эти значения χ1 и χ 2 , причем χ1 будет правым концом доверител ь2
ного интервала, а χ 2 −левым.
126
fr(U)
χ 12
χ 22
0
доверительный интервал
U
Рис. 7.14
Таким образом, построим доверительный интервал для диспе рсии с границами D 1 и D 2 , который накрывает точку D с вероятностью
γ:
P( D1 D D2 ) γ .
Потребуем также одновременного выполнения усл овия
P(χ 22 U χ 12 ) γ .
Учитывая, что неравенства U
венствам
(n 1) S 2 (n)
χ 12
и
D
χ 12 и U χ 22 равносильны нера(n 1) S 2 (n)
D,
χ 22
то следующий интервал
(n 1) S 2 (n)
χ 12
D
(n 1) S 2 (n)
χ 22
(7.20)
является 100·γ − процентным доверительным интервалом для неи звестной дисперсии.
Пример 7.11. Найти 90%-й доверительный интервал для диспе рсии в условиях примера 7.8, если известно, что величина Х распределена нормально.
Решение. Имеем γ=0,9; α=0,1; α/2=0,05. По таблице значений
2
χ (α,r) при r=n−1=19 находим
для α1
для α2
α 0,05 : χ 2 30,1;
1
2
1 α 0,95 : χ 22 10,11.
2
Учитывая, что S 2 (20)=0,064, используя формулу (7.20), пол учим
90%-й доверительный интервал для дисперсии: 0,04< D<0,12.
127
7.9 Связь между доверительным интервалом и проверкой г ипотез о среднем значении
В п.7.8 были даны два вида доверительных интервалов для неи звестного среднего значения m величины X; формула (7.18) − для
приближенного доверительного интервала; а формула (7.19) − для
точного. Более правильной будет следующая интерпретация довер ительного интервала.Если будет построено большое количество нез ависимых 100·γ – процентных доверительных интервалов, ка ждый из
которых основывается на n разных наблюдениях, где n − достаточно большое число, то доля интервалов, которые содержат (покрыв ают) m, будет равна γ. Эта доля и называется покрытием для доверительного интервала.
На покрытие доверительного интервала (7.19) оказывает вли яние вид распределения величин X i . В таблице 7.7 представлена оце нка покрытия для 90%-х доверительных интервалов, основанная на
500 независимых экспериментах, при разных объемах выборок n (5,
10, 20 и 40) и таких распределениях как: нормальное, экспоненц иальное, «хи – квадрат» с одной степенью свободы, логнормальное
(e y , где Y - стандартная нормальная случайная величины), а так же
гиперэкспоненциальное, функция распределения которого
F ( x) 0, 9 (1 e 2 x ) 0,1 (1 e 2 x / 11 ) .
Табл. 7.7
Аcим
Распределение
метn=5
n=10
n=20
n=40
рия
Нормальное
0,00
0,910 0,902 0,898 0,900
Экспоненциальное
2,00
0,854 0,878 0,870 0,890
Хи-квадрат
2,83
0,810 0,830 0,848 0,890
Логнормальное
6,18
0,758 0,768 0,842 0,852
Гиперэкспоненциаль6,43
0,584 0,586 0,682 0,774
ное
Например, значение 0,878 при n=10 для экспоненциального распределения получено следующим образом. Десять наблюдений сг енерировали по экспоненциальном у распределению с известным
средним значением m, а 90%-й доверительный интервал построили
по выражению (7.19) и определили, содержит ли этот интервал сре днее значение m (это один эксперимент). Затем всю процедуру повт орили 500 раз, и доля интервалов, содер жащих значение m, в 500-х
доверительных интервалах составила 0,878.
Как следует из таблицы 7.7, для отдельного распределения п окрытие становится ближе к 0,90 по мере возрастания n, что следует
из центральной предельной теоремы. Кроме того, для конкре тного n
128
покрытие уменьшается по мере увеличения асимметрии. Следов ательно, чем больше
асимметрия у распределения, тем больший объем выборки необх одим для получения удовлетворительного (близкого к 0,90) покр ытия.
Далее рассмотрим следующую задачу. Допустим, что в еличины
X 1 , X 2 ,…, X n являются нормально распределенными (или приближе нно нормально распределенными) и что следует проверить нулевую
гипотезу Н 0 , согласно которой m=m 0 , где m 0 - заданное гипотетическое значение m. Интуитивно ясно, что если X (n) m0 является
большой величиной, то гипотеза Н 0 не может быть истиной ( X (n) –
точечная несмещенная оценка m).
Воспользуемся статистикой (функцией величины X i ), распределение которой известно, когда гипотеза Н 0 истинна. Отсюда следует,
2
X (n) m0 / S (n) / n
что если гипотеза Н 0 истинна, статистика t n
будет иметь t − распределение с n−1 степенями свободы. Тогда
«двусторонний» критерий проверки гипотезы Н 0 : m=m 0 при конкурирующей гипотезе Н 1 : m≠m 0 будет иметь следующую форм у:
если | t n |
tn-1,γ , то H 0 опровергае тся;
tn
1, γ
, то H 0 принимается,
(7.21)
где t n − 1 , γ – критическая точка t – распределения.
Отрезок числовой оси, соответствующий опровержению Н 0 , а
именно: множество всех х, для которых |x|> t n − 1 , γ , называется критической областью критерия, а вероятность попадания статистики t n в
критическую область при условии, что гипотеза Н 0 является истиной, равна α и называется уровнем значимости критерия. Как правило, выбирается уровень α, равный 0,05 или 0,10. Критерий прове рки гипотезы (7.21) называется t – критерий, а критические значения
t n − 1 , γ мы уже использовали при построении доверительных интерв алов по формуле (7.19).
При проверке гипотезы встречаются два вида ошибок.
1. Если отвергнуть гипотезу Н 0 тогда как она верна, допускают
ошибку первого рода. Вероятность ошибки первого рода равна уро вню значимости α и, следовательно, находится под контролем иссл едователя.
2. Если же принимать гипотезу Н 0 тогда, когда она ложна, допускают ошибку второго рода. Вероятность ошибки второго рода
для заданного уровня α и объема выборки n обозначается β. Она зависит от того, что в действительн ости правильно (в сравнении с Н 0 ),
и может быть неизвестна.
Мощностью критерия называют величину δ=1−β. Она равна в ероятности опровержения гипотезы Н 0 , когда она ложна, а верна кон129
курирующая гипотеза. (Желательно, чтобы критерий имел в ысокую
мощность).
При заданном α мощность критерия можно увеличить только п утем увеличения числа опытов n и только так можно добиться умен ьшения ошибок первого и второго р ода.
Так как мощность критерия может бы ть невелика и неизвестна,
далее, когда статистика t n не будет попадать в критическую о бласть,
будем считать, что гипотеза Н 0 не опровергается (вместо «Н 0 принимается»).
Когда Н 0 не опровергается, часто точно неизвестно, правильна
Н 0 или ложна, поскольку критерию недостает мощности, чтобы обнаружить различия между нулевой гипотезой Н 0 и тем, что в действительности правильно. В этом состоит главный недостаток крит ериев проверки гипотез.
Далее сравним критерий проверки гипотез (7.21) и доверител ьный интервал (7.19). Проверяя гипотезу Н 0 : m=m 0 при Н 1 : m≠m 0 , мы
требуем,
чтобы
вероятность
попадания
критерия
X (n) m0 / S 2 (n) / n в двустороннюю критическую область (7.21)
была равна уровню значимости α, следовательно, вероятность поп адания критерия в область прин ятия гипотезы (−t n − 1 , γ , t n − 1 , γ ) равна
1−α=γ. Другими словами, с надежностью γ выполняе тся неравенство
tn
1, γ
Х (n) m0 / S 2 (n) / n
tn
1, γ
,
или равносильное неравенство
Х (n) tn
1, γ
S 2 (n) / n
m
Х (n) tn
1, γ
S 2 ( n) / n .
Таким образом, мы получим доверительный интервал (7.19) для
оценки неизвестного математического ожидания m нормального распределения с надежностью γ.
Замечание. Хотя построение доверительного интервала для m и
двусторонней критической области для проверки
гипотезы Н 0 :
m=m 0 и приводят к одинаковым результатам, их истолковани е различно. Двусторонняя критическая область определяет границы (кр итические точки), между которыми заключена доля, равная γ=(1−α)
наблюдаемых критериев, найденных при повторении опытов. Дов ерительный же интервал определяет границы (концы интервала), м ежду которыми заключена доля покрытия, равная γ, п опавших в него
значений оцениваемого параметра (см.пояснение к табл.7.7).
Пример 7.12. Возьмем данные из примера 7.8. Предположим,
что они получены из нормального распределения с неизвестным
средним значением m. Проверим для этих данных на уровне α=0,01
нулевую гипотезу Н 0 : m=10,5, при конкурирующей гипотезе Н 1 :
m=10,8.
130
Поскольку t 20
X (20) 10,5
2
S (20) / 20
10,78 10,5
0,0565
4,96 1,73 t19; 0,9 ,
мы опровергаем гипотезу Н 0 . Этого следовало ожидать, так как зн ачение m 0 =10,5 не попадает в доверительный инт ервал для m: 10,68 <
m < 10,88, построенный с надежностью γ=0,90 в примере 7.10.
7.10 Оценка неизвестной вероятности по частоте
Рассмотрим задачу оценки неизвестной вероятности р события А
по его частоте р * в n независимых опытах, т.е. мы имеем схему Бе рнулли. Обозначим Х i число успехов в i-м испытании. Тогда частоту
успехов в n испытаниях можно определить в виде
p
n
i 1
Xi / n
(см.п.6.4), причем M(Х i )=p, D(Х i )=pq.
Отсюда следует, что M(p * )=p, т.е. оценка p * для р будет несмещенной. Дисперсия величины p * :
D(p * )=pq/n.
Можно доказать, что эта дисперсия является минимально возмо жной, т.е. оценка p * является также и эффективной. Оценим то чность
и надежность такой оценки, т.е. построим доверительный интервал
для вероятности р.
В отличии от ранее рассмотренных случайных величин, здесь
величина Х i – дискретная случайная величина с двумя возможными
значениями: 0 и 1. Кроме того, еѐ математическое ожидание р и дисперсия pq=p(1−p) связаны функциональной зависимостью.
Сначала рассмотрим случай, когда число опытов n достаточно
велико, а вероятность р не слишком велика и не слишком мала. Т огда можно считать, что частота события р * − как среднее арифметическое, есть случайная величина, распределенная приближе нно по
pq / n . Тогда задав
нормальному закону с параметрами m=p и ζ
доверительную вероятность γ, потребуем выполнения нер авенства
P ( p * p δ) γ .
Так как величина р * распределена нормально, то
P ( | p p | δ ) 2Ф0 (δ / pq / n ) γ .
Обозначим величину δ /
pq / n
t γ , тогда
δ t γ pq / n. Таким
образом, с вероятностью γ можем утверждать, что
| p p | t γ pq / n .
(7.22)
Преобразуем это неравенство к виду
(p
p) 2
t γ2 p (1 p) / n
(7.23)
131
и дадим ему геометрическую интерпретацию. Геометрическим м естом точек, координаты которых р * и р удовлетворяют неравенству
(7.23), будет внутренняя часть эллипса, проходящего через то чки (0,
0) и (1, 1) и имеющего в этих точках касательные , параллельные оси
Ор * (рис.7.15). Область D, соответствующая нераве нству (7.23) слева
и справа ограничена прямыми р * =0 и р * =1. Теперь для любого значения р * , полученного из опыта, можно построить доверительный и нтервал (р 1 , р 2 ), который с надежностью γ п окроет неизвестное значение вероятности р. Для этого через точку р * проведем прямую, параллельную оси ординат; на этой пр ямой границы области D отсекут
доверительный интервал (р 1 , р 2 ) (рис.7.15). Причем, чем больше n,
тем больше вытянут эллипс и тем уже доверительный интервал.
p
1
p2 .
p.
p1 .
0
.M
D
p*
1
p*
Рис. 7.15
Границы доверительного интервала ( р 1 , р 2 ) можно найти из неравенства (7.23), как корни квадратного ура внения:
p1 [ p
p2
[p
t 2 /(2n) t γ p (1 p ) / n t γ2 /(4n 2 ) ] /(1 t γ2 / n);
2
γ
2
γ
2
(7.24)
2
γ
t /(2n) t γ p (1 p ) / n t /(4n ) ] /(1 t / n).
Пример 7.13. Частота события А в серии из 100 опытов оказалась р * =0,78. Построить 90%-й доверительный интервал для вероя тности р события А.
Решение. Из приложения (табл.3) для γ=0,9 находим t γ =1,643. По
формулам (7.24) имеем р 1 =0,705; р 2 =0,840. Доверительный интервал
для р с надежностью 0,90:
0,705<p<0,840.
2
2
2
Замечание. При увеличении n величины t γ / n и t γ /(4n ) в формулах (7.24) стремятся к нулю и в пределе формулы приним ают вид
132
p1
p
p2
p
t γ p (1 p ) / n ,
,
(7.25)
t γ p (1 p ) / n .
Например, в условиях предыдущей задачи, формулы (7.25) д ают
следующий результат:
0,712<p<0,848.
Теперь, учитывая рассмотренную в п.7.9 связь между довер ительным интервалом и проверкой гипотез о среднем значении, п осмотрим на построенный выше доверительный
интервал для неи звестной вероятности события А с этой стороны. Для этого вернемся
к примеру 7.13.
Зададимся уровнем значимости α=1−γ=0,1 и на этом уровне пр оверим нулевую гипотезу Н 0 : р=0,7 при конкурирующей гипотезе Н 1 :
р≠0,7. Для этого введем статистику
U (m / n p0 ) n / p0 q0 ,
где р 0 −гипотетическое значение вероятности, а q 0 =1−р 0 . Величина U
при справедливости нулевой гипотезы распределена приближе нно
нормально с параметрами m=0, ζ=1. Вычислим наблюдаемое знач ение статистики
U набл
(0,78 0,7)
10 1,746 .
0,7 0,3
Критическое значение статистики найдем из равенства
Φ(u к р )=(1−α)/2=0,45, отсюда U к р =1,643. Так как |U н а б л . |=1,746 больше
U к р =1,643, то нулевую гипотезу Н 0 : р=0,7 отвергаем. Этого следовало ожидать, так как значение вероятности р=0,7 в 90%-й доверительный интервал (0,705; 0,8 40) не попадает.
7.11 Точечные оценки для числовых характеристик мног омерных случайных величин
В предыдущих пунктах мы рассмотрели задачи, связанные с
оценками для числовых характеристик одномерной случайной вел ичины при ограниченном числе опытов и постр оением для них доверительных интервалов.
Аналогичные вопросы возникают и при обработке ограниче нного
числа наблюдений над двумя и более случайными величин ами.
Рассмотрим сначала случай двумерной случайной величины
(X,Y). Пусть нами получены результаты n независимых опытов над
величиной (X,Y) в виде пар значений (x 1 ,y 1 ), (x 2 ,y 2 ),…,(x n ,y n ). Требуется найти оценки для числовых характеристик: математических
ожиданий m x , m y , дисперсий D x , D y , ковариации cov(X,Y), коэффициента корреляции ρ(х, у) и коэффициентов регрессии β х у , β у х .
Оценки для математических ожиданий и дисперсий будут т акими
133
же, как и в случае одномерной величины. Несмещенными оценками
для математических ожиданий будут средние арифмет ические:
n
n
X (n) ( xi ) / n;
Y ( n) (
i 1
i 1
yi ) / n,
а для элементов ковариационной матрицы -
S x2 (n)
n
i 1
( xi
ζ̂ xy
Х (n)) 2 /(n 1);
n
côv( X , Y )
i 1
( xi
S y2 (n)
n
i 1
( yi Y (n)) 2 /(n 1);
Х (n))( yi Y (n)) /(n 1).
Оценкой коэффициента корреляции будет величина
ρ̂
côv( X , Y )
,
SxS y
а оценками двух коэффициентов регрессии:
ˆ
xy
ˆ
ρ̂S x / S y ,
yx
ρ̂S y / S x .
Все приведенные оценки будут так же и состоятельными, т.е.
при n→∞ сходятся по вероятности к соответствующим теоретич еским характеристикам.
Рассмотрим теперь m – мерную случайную величину
(Х 1 , Х 2 , …, Х m ). Пусть над системой произведено n независимых наблюдений и результаты оформлены в виде табл ицы.
Табл. 7.8
i
X1
X2
Xk
Xm


1
х11 х21
хk1
хm1


2
х12 х22
хk2
хm2





i
х1i
х2i



n
х1n
х2n





хki

хkn





хmi

хmn
Здесь х k i – это значение, принятое компонентой вектора X k в i-ом
наблюдении.
Требуется найти оценки для числовых характеристик m − мерной
случайной величины: математических ожид аний m x1 , m x 2 , …, mx m , и
элементов ковариационной матрицы
ζ11
ζ12  ζ1m
ζ 22  ζ 2 m
.

ζ mm
По главной диагонали ковариационной матрицы стоят диспе рсии
134
компонент Х 1 , Х 2 , …, Х m :
ζ11
D Х 1 , ζ 22
DХ 2 , …, ζ mm
DХ m .
Оценки для математических ожиданий найдутся как средние
арифметические:
n
Х k ( n)
i 1
xk i / n, k 1, n .
Несмещенные оценки для дисперсий определяются по форм улам
S k2 (n)
n
i 1
( xk i
Х k (n)) 2 /(n 1) ,
а для ковариаций – по формулам
ζ̂ kl
n
i 1
( xk i
Х k (n))( xli
Х l (n)) /(n 1).
По этим данным определяются также оценки для элементов ко рреляционной матрицы
ζ̂ kl
,
S k Sl
ρ̂ kl
Sk2 (n) , Sl
где S k
Sl2 (n).
Пример 7.14. Ниже в таблице приведены результаты опытов, в
которых исследовалась зависимость глубины h (мм) проникновения
снаряда в преграду от удельной энергии ε (т.е. энергии, приходящейся на 1 см 2 площади соударения). Найти все вышепер ечисленные
оценки, а также построить эмпирические линии ре грессии.
Решение. Находим несмещенные оценки:
13
ε
( εi ) / 13 164,46;
h
i 1
Sε2
ζ̂
h
β̂εh
13
i 1
13
i 1
2
εi
ε / 12 6660,19;
εi
ε hi
ρ̂Sε /Sh
7,96;
h / 12 826,62;
S h2
13
( hi ) / 13
i 1
13
i 1
ρ̂
β̂ hε
hi
h
21,08;
2
ζ̂ h
S Sh
ρ̂Sh /Sε
/ 12 103,84;
0,994;
0,124.
i 1 2 3 4
5
6
7
8
9 10 11 12 13
ε i 41 50 81 104 120 139 154 180 208 241 250 269 301
h i 4 8 10 14 16 20 19 23 26 30 31 36 37
После подстановки полученных оценок получим следующие э мпирические линии регрессии:
h на ε: h−21,08=0,124(ε−164,46);
ε на h: ε−164,46=7,96(h−21,08).
Проверим эти расчеты с помощью программы « Statistica».
135
Рис. 7.16
136
Рис. 7.17
Результаты расчетов совпадают, разница только в том, что в ра счетах мы использовали несмещенные оценки, что не влияет на к онечный результат.
137
Эмпирические линии регрессии h на ε и ε на h показаны на рис. 7.18,
7.19
ε
h
40
300
30
200
20
100
10
0
100
200
Рис. 7.18.
300
ε
0
10
20
30
40 h
Рис. 7.18
Результаты расчетов по программе « Statistica» подтверждают
правильность проведенных расчетов.
7.12 Задание №7 на самостоятельную работу
7.1 Допустим, что данные о времени обслуживания (мин.), пре дставленные в таблице 7.9, являются независимыми наблюдениями
относительно времени обслуживания в системе массового обслуж ивания с одним устройством. Используя все подходящие методы, оп исанные в разделе 7, построить гипот езу относительно формы распределения, определить оценки его параметра (параметров) с пом ощью оценок максимального правдоподобия и определить степень с огласия.
138
Таблица 7.9
0,02 3,37
1,39 5,83
5,02 0,72
3,04 0,89
3,45 3,43
1,35 4,33
0,83 4,04
4,39 4,85
4,39 4,75
7,78 16,44
2,66 6,71
1,92
2,28
2,50
3,34
3,79
6,03
2,80
5,97
2,10
2,82
3,47
3,09
0,37
2,66
0,99
2,83
4,45
3,78
7,66
6,03
3,41
1,16
4,21
2,82
4,56
7,15
5,08
2,07
0,84
4,85
2,39
4,06
5,03
11,31
2,57
1,99
10,29
4,73
5,00
4,19
1,03
4,05
6,64
2,12
2,93
5,12
8,22
1,04
3,27
2,66
2,14
7,23
3,43
3,07
7,98
0,86
5,08
5,16
5,79
1,36
0,51
4,46
6,36
3,14
1,95
2,13
2,54
1,58
3,19
6,88
7,12
0,94
7,02
3,29
3,35
2,34
10,79
3,23 8,52
2,08 4,95
1,15 3,57
2,19
1,65
1,52
3,67
5,49
0,71
3,46
3,26
7.2 Предположим, что данные о погрешностях в диаметре шар икоподшипников, представленные в табл. 7.10, являются независимыми наблюдениями относительно отклонений от требуемого ди аметра шарикоподшипников, изготовляемых на новом высокоскор остном станке. Используя все подходящие методы, описанные в ра зделе 7, построить гипотезу относительно формы распределения, о пределить оценки его параметра (параметров) с помощью оценок ма ксимального правдоподобия и степень с огласия.
Табл. 7.10
2,31 0,56 2,73 1,50 1,00 2,54 1,51 2,24 1,18 1,23 1,74
1,49 0,38 1,33 0,17 0,19 1,55 1,06 1,06 1,59 2,26 0,78
2,10 0,77 0,26 1,55 2,28 0,49 2,04 1,75 1,63 1,06 1,01
0,30 2,29 3,11 1,48 0,01 1,62 1,64 2,21 0,44 1,13 1,63
0,48 1,55 0,99 1,97 0,31 2,40 1,68 1,71 2,44 1,98 1,62
1,71 0,27 0,24 0,59 −0,12 0,59 3,21 1,96 2,20 0,89 0,46
0,19 1,62 1,35 1,15 0,89 2,18 2,72 1,69 2,30 0,48 2,08
0,00 0,94 0,60 0,95 0,60 1,14 2,14 1,78 1,30 4,01 1,70
0,66 0,94 1,17 0,45 0,21 1,21 0,70 −0,67 0,22 0,28 2,05
−1,27 1,20 1,12 −0,51 1,90 1,43 1,28 2,29 1,09 1,50 0,02
1,01 0,26 2,79 2,36 1,10 2,02 1,23 1,26 3,27 1,47 −0,05
−0,54 1,40 0,17 1,03 0,85 1,82 0,06 1,12 0,49 −1,72 1,85
1,70 2,12 0,44 0,24 1,09 1,11 1,00 −0,16 1,08 −1,62 1,50
2,58 1,41 0,78 2,66 1,99 2,69 1,37 1,71 0,77 1,87 0,49
7.3 Пусть имеется нормально распределенная случайная велич ина Х. Произведено N = 31 независимых наблюдений этой величины,
результаты которых приведены в табл. 7.11.
Табл.7.11
60 55 53 69 58 47 56 58 59 62 61 67 67 61 58 54
65 60 61 61 59 54 57 56 48 61 43 57 63 65 62
139
Определить 90% -е доверительные интервалы для истинн ого среднего значения и истинной дисперсии случайной велич ины Х.
Ответ: 90%-ные доверительные интервалы для среднего знач ения
и дисперсии случайной величины Х составляют
56,85 < m х <60,37,
2
22,91 < ζ x < 54,22.
7.4 Предположим, что есть основания считать среднее знач ение
m x случайной величины Х равным 10, и пусть известна дисперсия в е2
личины Х, ζ x 4 . Определить, каков должен быть объем выборки
для проверки гипотезы m x = 10 при 5%-м уровне значимости, причем
вероятность допустить ошибку второго рода при о пределении 10% го отклонения от гипотетической величины также должна соста вить
5%. Определить при этих условиях область принятия, ко торую следует использовать при проверке гипотезы.
Ответ: искомый объем выборки N=52. Область принятия гипотезы 9,46 < m x < 10,54.
7.5 Проверка гипотезы о нормальности распреде ления. В
табл.7.12 приведены N=200 независимых наблюденных значений,
расположенных в порядке возрастания процесса на выходе генератора теплового шума.
Табл. 7.12
− 7,6 − 4,3 −
− 6,9 − 4,1 −
− 6,6 − 4,0 −
− 6,4 − 3,8 −
− 6,4 − 3,8 −
− 6,1 − 3,8 −
− 6,0 − 3,7 −
− 5,7 − 3,6 −
− 5,6 − 3,5 −
− 5,5 − 3,4 −
− 5,1 − 3,4 −
− 4,8 − 3,4 −
− 4,8 − 3,3 −
− 4,6 − 3,2 −
− 4,4 − 3,2 −
− 4,4 − 3,1 −
3,0 −
3,0 −
2,9 −
2,9 −
2,9 −
2,7 −
2,6 −
2,6 −
2,5 −
2,5 −
2,4 −
2,3 −
2,3 −
2,3 −
2,2 −
2,2 −
2,1 −
2,1 −
2,0 −
2,0 −
1,9 −
1,9 −
1,8 −
1,8 −
1,8 −
1,7 −
1,7 −
1,6 −
1,6 −
1,6 −
1,6 −
1,5 −
1,5 −
1,4 −
1,4 −
1,2 −
1,2 −
1,2 −
1,1 −
1,1 −
1,0 −
1,0 −
1,0 −
0,9 −
0,9 −
0,8 −
0,8 −
0,7
0,7 0,0 0,7 1,5 2,3 3,4 4,3 6,3
0,7 0,1 0,8 1,5 2,4 3,5 4,3 6,5
0,6 0,1 0,9 1,6 2,4 3,5 4,4 6,9
0,6 0,2 0,9 1,6 2,5 3,6 4,4 7,1
0,5 0,2 1,0 1,6 2,5 3,6 4,6 7,2
0,5 0,2 1,0 1,7 2,6 3,6 4,8 7,4
0,4 0,2 1,1 1,8 2,6 3,7 4,8 7,9
0,4 0,3 1,1 1,8 2,6 3,7 4,9 9,0
0,4 0,3 1,1 1,8 2,7 3,7 5,0
0,3 0,3 1,1 1,9 2,8 3,7 5,2
0,3 0,4 1,2 1,9 2,8 3,8 5,3
0,2 0,4 1,2 2,0 2,9 3,8 5,4
0,2 0,5 1,3 2,0 3,1 3,9 5,6
0,2 0,5 1,3 2,1 3,2 4,0 5,9
0,1 0,6 1,3 2,3 3,2 4,2 6,1
0,0 0,6 1,4 2,3 3,3 4,2 6,3
Проверить гипотезу о нормальности процесса на выходе генерат ора
теплового шума, применяя критерий согласия χ 2 при уровне значимости α = 0,05. Использовать равновероятный подход к о пределению
значения критерия χ 2 (см. п.7.5), положив k = 16 разрядов.
140
2
Ответ: Значения χ набл.
3,36,
2
χ кр
(0,05; 13)
22,4 . Следовательно,
гипотеза о нормальности распределения рассматриваемого процесса
принимается при уровне значимости α=0,05.
141
8 ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ СЛУЧАЙНЫХ ПР ОЦЕССОВ
Теорией случайных процессов (в другой терминологии – теория
случайных функций) называется математическая наука, из учающая
закономерности случайных явлений в динамике их развития. При
изучении явлений окружающего мира мы часто сталкиваемся с пр оцессами, течение которых заранее предсказать в точности нево зможно, что вызвано влиянием случайных факторов, воз действующих
на ход процесса. Приведем несколько примеров таких проце ссов.
1. Напряжение в электрической сети, номинально постоянное и
равное 220В, фактически меняется во времени, колеблется вокруг
номинала под влиянием таких случайных факторов, как количес тво и
вид включенных приборов, моменты их включений и выкл ючений и
т.д.
2. Население города (или области) меняется с течением врем ени
случайным образом под влиянием таких факторов, как рожда емость,
смертность, миграция и т.д.
3. Уровень воды в реке (или в водохранилище) меняется во вр емени случайным образом в зависимости от погоды, количества оса дков, таяния снега, оросительных мероприятий и т.д.
4. Частица, совершающая броуновское движение в поле зрения
микроскопа, меняет свое положение случайным образом в резул ьтате
соударений с молекулами жидкости.
5. ЭВМ в ходе работы может случайным образом переходить из
состояния в состояние, например:
S 1 – работает исправно;
S 2 – имеется неисправность, но она не обнаружена;
S 3 – неисправность обнаружена, ведется поиск ее и сточника;
S 4 – ремонтируется и т.д.
Переходы из состояния в состояние происходят под действием
случайных факторов, таких как колебание н апряжения в сети питания ЭВМ, выход из строя отдельных элементов, момент обнаруж ения неисправностей, время их устран ения и т.д.
Случайный процесс (далее сокращенно с.п.), протекающий в л юбой физической системе S, представляет собой случайные пер еходы
системы из состояния в состояние.
В первых трех примерах процессы описываются случайными
функциями времени: U(t), где U – напряжение; N(t), где N – население; H(t), где Н – уровень воды. При фиксированном t каждая из
них превращается в обычную не случайную функцию. Например, если в течение некоторого периода времени непрерывно изменять н апряжение в сети, получится неслучайная функция U(t), колеблющаяся вокруг номинала U 0 (рис. 8.1а).
142
В четвертом примере состояние частицы характеризуе тся уже не
одной, а двумя случайными функциями X(t) и Y(t) – координатами
частицы. Для фиксированного значения t случайный процесс превращается в двумерную случай ную величину (X(t), Y(t)) – случайный
вектор Q(t) на плоскости x0y (рис.8.1б). При изменении аргумента t
точка Q(t) будет «блуждать» по плоскости x0y, так как показано, например, на рис. 8.1в.
б)
a)
u(t)
u(t)
Q(t)
0
t
0
Y(t)
x
X(t)
в)
t2
t1
u0
.
.
. .
.
ti
y
y
t3
tn
0
x
Рис. 8.1.
Особое положение среди приведѐнных примеров занимает пр имер 5. Здесь состояние системы не характеризуется какой -либо численной величиной (или вектором), а скорее всего термином «качес твенное» и случайный процесс сводится к «блужданию по состоян иям».
В ряде практических задач встречаются случайные функции, з ависящие не от времени t, а от других аргументов. Поэтому в дал ьнейшем, говоря о случайном процессе будем пользоваться этим те рмином безотносительно к физической природе аргумента, обозн аченного t, хотя в большинстве случаев аргументом будет именно
время.
8.1 Определение случайного процесса. Классификация сл учайных процессов
Определение. Случайным процессом X(t) называется процесс,
значение которого при любом фиксированном t=t 0 является случайной величиной X(t 0 ), которую называют сечением случайного пр оцесса, соответствующим данному значению аргумента t=t 0 .
Реализацией случайного процесса X(t) называется неслучайная
функция x(t), в которую превращается случайный процесс X(t) в результате опыта (как например, напряжение U(t) − в функцию u(t) на
отрезке времени от 0 до η (рис.8.1 a). Если произведен не один опыт,
а несколько, в результате каждого из которых наблюдена какая -то
143
реализация x i (t) (i- номер опыта), то получим семейство или ансамбль реализаций.
Семейство реализаций с. п. (в некоторых случаях одна дост аточно
«длинная» реализация) является основным эксперименталь ным материалом, на основе которых можно получить характеристики сл учайного процесса. Это семейство аналогично совокупности набл юденных значений случайной величины Х, с той разницей, что здесь
наблюдаются не числовые значения, а фун кции.
Таким образом, с. п. X(t) представляет собой функцию, ко торая
при любом t является случайной величиной (сеч ением с. п.).
Тогда понятие с. п. становится обобщени ем понятия случайной
величины на случай, когда условия опыта не постоянны, а мен яются
(например, время течет). Случайная величина X соответствует случайному явлению как бы «в статике» (в неизменных условиях оп ыта), а с. п. X(t) − «в динамике» (в изменяющи хся условиях опыта).
Каждое сечение процесса X(t) при заданном t есть случайная величина, а совокупность всех се чений при всевозможных t и есть случайный процесс X(t). Значит процесс X(t) есть не что иное, как система случайных величин − всех сечений это го процесса. Таких сечений бесконечное (несчетное) множество. Нужно ст араться при изучении интересующих нас свойств с. п. обойтись как можно меньшим
числом сечений.
В теории случайных процессов принято классифицир овать их по
тем или другим признакам, учитывая плавность или скачкообразность реализации, фиксированность или случайность моментов, в
которые происходят скачки и т.д., вид закона распределения отдел ьного сечения процесса или совокупности сечений и т.д. Вначале ра ссмотрим элементарную классификац ию с. п. – «по времени» и «по
состояниям».
С. п. X(t) является процессом с дискретным временем , если
система, в которой он протекает, может менять свои состояния тол ько в моменты времени t 1 , t 2 ,…,число которых конечно или счетно.
Множество этих моментов вр емени Т является дискретным.
Примером процесса с дискретным временем является процесс
работы ЭВМ, которая может менять свои состояния в моменты t 1 ,
t 2 ,…, определяемые тактом работы м ашины.
С. п. X(t) называется процессом с непрерывным временем , если переходы системы из состояния в состояние могут происх одить в
любой момент времени t наблюдаемого периода η. В этом случае
множество Т моментов, когда система меняет свое состояние, н есчетно.
Примером такого процесса с непрерывным временем является
X(t) – число отказов технического устройства от начала работы до
момента t.
144
С. п. X(t) называется процессом с непрерывными состояниями,
если его сечение в любой момент времени t представляет собой непрерывную случайную величину и следовательно, множество еѐ зн ачений несчетно. Например, координаты X(t), Y(t) частицы, совершающей броуновское движение, в момент t представляют двумерный
случайный процесс с непрерывными состояниями.
С. п., протекающий в системе S, называется процессом с дискретными состояниями, если в любой момент t множество его состояний конечно или счетно, т.е. в любой момент t характеризуется
дискретной случайной величиной X(t) (или многомерной дискретной
случайной величиной). К этой категории относятся все с. п. с «кач ественными» состояниями.
Таким образом, в зависимости от характера множества Т значений аргумента t, в которые возможны переходы системы из состо яния в состояние, а также множества самих состояний все сл учайные
процессы можно разделить на четыре основных класса, которые
представлены на рис. 8.2.
Первый класс - процессы с дискретными состояниями и дискре тным временем;
второй – процессы с дискретными состояниями и непрерывн ыми
временем;
третий – процессы с непрерывными состояниями и дискретным
временем;
четвертый – процессы с непрерывными состояниями и непрерывным временем.
Случайный
процесс
С дискретным
состоянием
С непрерывным
состоянием
С дискретным
временем
С непрерывным
временем
Рис.8.2
145
8.2 Законы распределения и основные характеристики сл учайных процессов
Пусть имеется случайный процесс X(t). Сечение X(t) при любом
фиксированном t представляет собой случайную велич ину, которая
имеет закон распределения
F ( t, x )
P ( X (t )
x ).
(8.1)
Функция (8.1) называется одномерным законом распределения
процесса X(t) и характеризует свойства только одного отдельно вз ятого сечения, но не дает понятия о совокупном распределении двух
или более сечений случайного процесса (рис. 8.3 а). Можно указать
два с. п. с одинаковым распределением в каждом сечении, но сове ршенно различных по своей структуре (рис. 8.3 б, в).
X(t)
a)
x
б)
x(t)
x(t)
в)
X(t)
X(t)
0
t
t
0
t
0
t
Рис. 8.3
Реализации первого процесса имеют плавный характер (рис. 8.3
б), а – второго (рис. 8.3 в) более резкий. Для первого процесса х арактерна более тесная зависимость между с ечениями процесса; для
второго эта зависимость затухает довольно быстро с увеличением
расстояния между сечениями. Следовательно, одномерный закон
распределения (8.1) не может служить полной характеристикой сл учайного процесса. Очевидно также, что более полной (но не исче рпывающей) характеристикой будет двумерный закон ра спределения
– совместная функция распределения двух сечений, взятых соотве тственно для моментов t 1 и t 2 (рис. 8.4):
F(t 1 ,t 2 ,x 1 ,x 2 )=P(X(t 1 )<x 1 ,X(t 2 )<x 2 ).
(8.2)
X(t)
x2
x1
X(t1)
0
t1
X(t2)
t2
t
Рис.8.4
Это функция уже не двух, а четырех аргументов. Ещѐ более полной
характеристикой будет трехмерный закон и т.д. Однако оп ерировать
со столь громоздкими характеристиками, зависящими от многих а р146
гументов, крайне неудобно; к тому же объем экспериментального
материала для их определения, с увеличением числа сечений растет
чрезвычайно быстро. Поэтому на практике более чем двумерные з аконы распределения применяются крайне редко. К тому же во мн огих случаях инженерной практики, протекающие в системах пр оцессы можно представлять как марковские, а также как гауссовские (нормальные) (см. п. 8.6) случайные процессы, в которых дв умерный закон распределения (8.2) будет исчерпывающей характер истикой.
При исследовании случайных процессов для практических ц елей
чаще всего вообще отказываются от законов распр еделения, и пользуются основными характеристиками случайного процесса, которые
будут уже не числами (как для случайных величин), а функциями
аргумента t.
Первой и важнейшей характеристикой случайного процесса X(t)
является его математическое ожидание, т.е. «средняя» функция, вокруг которой происходит разброс реализ аций случайного процесса
(рис 8.5). На рисунке 8.5 тонкие линии представляют реализации
X(t), а полужирная линия – математическое ожидание m x (t).
mx(t)
x(t)
0
t
Рис 8.5
Определение. Математическим ожиданием с.п. X(t) называется
неслучайная функция m x (t), которая при любом значении аргумента t
равна математическому ожиданию соответствующего с ечения с.п.
m x (t)=M(X(t)).
Зная одномерный закон распределения (8.1) всегда можно на йти
m x (t) для каждого сечения и установить его зависимость от t. Зафиксировав t и переходя от с.п. к случайной величине, можно вычислить
математическое ожидание процесса. Например, если сечение пр оцесса X(t) при данном t представляет собой дискретную случайную
величину с рядом распределения
x 1 (t) x 2 (t) … x i (t) …
,
р 1 (t) р 2 (t) … р i (t) …
то его математическое ожидание может быть вычислено по форм уле
147
xi (t ) рi (t ).
mx (t )
(8.3)
i
Если сечение процесса X(t) при данном t представляет собой непрерывную случайную величину с плотностью f(t,x), то его математическое ожидание может быть вычислено по фо рмуле
mx (t )
x f (t , x)dx.
(8.4)
На практике чаще всего математическое ожидание m x (t) вычисляется не по формулам (8.3) и (8.4), а заменяется приближенной
оценкой, которую находят по опытным данным. Для определения
моментов с.п. вводят понятие центрированного случайного процесса:
о
X (t )
X (t ) mx (t ),
(8.5)
о
для которого
M ( X (t )) M ( X (t )) mx (t ) 0.
Определение. Начальным моментом порядка s с.п. X(t) называется математическое ожидание степени s соответствующего сечения процесса:
ms (t ) M [( X (t )) s ],
(8.6)
а центральным моментом порядка s – математическое ожидание sй степени центрированного процесса:
о
о
ms (t )
M [( Х (t )) s ] .
(8.7)
Определение. Дисперсией с.п. X(t) называется неслучайная
функция D x (t), которая при любом значении аргумента t равна дисперсии соответствующего сечения пр оцесса X(t).
По известным правилам, используя одномерный закон распред еления, можно вычислить дисперсию процесса X(t). Если сечение X(t)
представляет дискретную величину, то
дисперсию с.п. н аходят по
формуле
Dx (t ) D ( X (t ))
xi2 рi (t ) mx2 (t ).
(8.8)
i
Если сечение X(t) представляет собой непрерывную случайную
величину с плотностью f(t,x), то дисперсия с.п. может быть вычислена по формуле
Dx (t )
x 2 f (t , x)dx mx2 (t ).
(8.9)
Дисперсия D x (t) представляет собой неслучайную неотрицател ьную функцию, характеризующую степень разброса реализаций с.п.
около его математического ожидания m x (t), т.е. степень разброса
о
реализаций центрированного случа йного процесса X (t ).
148
Определение. Средним квадратическим отклонением ζ х (t) с.п.
X(t) называется арифметическое значение корня квадратного из ди сперсии D x (t):
(8.10)
ζ х (t ) ζ( Х (t ))
Dх (t ) .
Рассмотренные нами характеристики с.п. X(t): m x (t), D x (t), ζ х (t)являются весьма важными, но отнюдь не исче рпывающими, так как
определяются только одномерным законом распределения.
Рассмотрим теперь две случайные величины – два сечения случайного процесса для моментов t и t : X(t) и X (t ) . Найдем для них
ковариацию
о
Rx (t , t )
о
M [ X (t ) X (t )]
M [ X (t ) X (t )] mx (t )mx (t ). (8.11)
Функция (8.11) называется корреляционной (ковариационной)
функцией случайного процесса X(t).
Определение. Корреляционной (ковариационной) функцией
с.п. X(t) называется неслучайная функция Rx (t , t ) двух аргументов t
и t , которая равна ковариации соответствующих сечений случайн ого процесса: X(t) и X (t ) .
Рассмотрим основные свойства корреляционной функции (д алее
сокращенно к.ф.) Rx (t , t ) .
1. При равенстве аргументов ( t t ) к.ф. равна дисперсии случайного процесса, т.е.
о
Rx (t , t )
о
M [ X (t ) X (t )]
Dx (t ).
(8.12)
2. К.ф. симметрична относительно своих аргументов:
Rх (t , t ) Rх (t , t ).
(8.13)
3. К.ф. Rx (t , t ) является положительно определенной, т.е.
a (t ) a (t ) Rх (t , t ) dt dt
0,
(8.14)
( B) ( B)
где a(t) – произвольная функция аргумента t, B – произвольное подмножество множества Т, на котором определен с.п. X(t).
Корреляционная функция Rx (t , t ) характеризует не только степень тесноты линейной зависимости между двумя с ечениями X(t) и
X (t ) процесса, но и разброс этих сечений относительно m x (t).
Определение. Нормированной корреляционной функцией
ρ x (t , t ) случайного процесса X(t) называется функция, полученная
делением
корреляционной
функция
Rх (t , t ) на
произведение
ζ x (t ), ζ x (t ) :
149
Rх (t , t )
.
ζ x (t )ζ x (t )
ρ х (t , t )
Свойства нормированной корреляционной
ρ х (t , t ) .
1.
При равенстве аргументов ( t t )
функции
(н.к.ф.)
ρ х (t , t ) 1.
2.
Н.к.ф. ρ х (t , t ) симметрична относительно своих аргуме н-
ρ х (t , t ) ρ х (t , t ).
тов:
Н.к.ф. по модулю не превосходит единицу:
ρ х (t , t ) 1 .
До сих пор мы рассматривали только характе ристики одного
(скалярного) случайного процесса X(t). Рассмотрим теперь двуме рный случайный процесс {Х(t),Y(t)} с математическими ожиданиями
компонент m x (t) и m y (t) соответственно. Кроме этих хара ктеристик,
описывающих только поведение отдельных компонент, вводят «взаимную характеристику» − взаимную корреляционную фун кцию
3.
о
Rxy (t , t )
о
M [ X (t ) Y (t )].
Определение.
Взаимной
корреляционной
функцией
(в.к.ф.) Rxy (t , t ) двух случайных процессов X (t ), Y (t ) называется неслучайная функция двух аргументов t и t , которая при каждой паре
значений t, t равна ковариации двух сечений случайных пр оцессов
X (t ) и Y (t ) .
Из определения следуют следующие свойства в.к.ф.:
1) взаимная корреляционная функция в общем случае не симме трична относительно аргументов, т.е.
Rxy (t , t )
Rxy (t , t );
2) взаимная корреляционная функция симметрична относ ительно
индексов и аргументов Rxy (t , t ) R yx (t , t ).
Аналогично вводится понятие нормированной в.к.ф.
ρ xy (t , t )
Rxy (t , t )
ζ x (t )ζ y (t )
,
где ζ x (t) и ζ y (t) – средние квадратические отклонения с.п. X(t) и Y(t)
соответственно.
Случайные процессы X(t) и Y(t) называются некоррелированными, если их в.к.ф. Rxy (t , t ) равна нулю при любых значениях аргументов t, t .
Все приведенные в данном подразделе характеристики с.п. X(t)
150
определяются его одномерным или двумерным законами распред еления, и они справедливы для любых случа йных процессов.
Для широкого класса с.п., определение их характер истик по вышеприведенным формулам может быть упрощено. Для этого прив едем классификацию случайных процессов по их характер истикам.
Различают стационарные и нестационарные случайные процессы. В свою очередь стационарные случайные проце ссы могут быть
эргодическими или неэргодическими. Для нестационарных случа йных процессов существует специальная классификация нестаци онарности. Связь между различными классами случайных процессов
показана схематически на рис. 8.6.
Случайные
процессы
Стационарные
Эргодические
Нестационарные
Неэргодические
Частные случаи
нестационарных
процессов
Рис. 8.6
Стационарные случайные процессы. Физическое явление при
рассмотрении с позиций теории случайных процессов (сигналов)
можно описать в любой момент времени осреднением по а нсамблю
реализаций, представляющих данный случайный процесс. Рассмо трим ансамбль реализаций (выборочных функций), образующий с.п.
(рис. 8.7). Математическое ожидание или среднее значение (первый
начальный момент распределения) процесса в момент времени t может быть найдено путем суммирования мгн овенных значений каждой
реализации ансамбля в момент времени t и деления этой суммы на N
– число реализаций.
151
xN(t)
t
t+η
t
t+η
t
t
t+η
t
t
t+η
t
t
x 3 (t)
x2 (t)
x1 (t)
Рис. 8.7
Аналогичным образом, корреляционная функция определяется п утем
осреднения по ансамблю произведений мгновенных значений це но
трированного процесса X (t ) X (t ) mx (t ) в моменты времени t и
t+ , т.е., математическое ожидание m x (t) и корреляционная функция
R x (t,t+ ) процесса X(t) определяются из соотношений
mx (t )
Rx (t , t
1
lim
N
N
)
N
xk (t ) ,
(8.15)
k 1
1
lim
N
N
N о
о
x k (t ) xk (t
).
k 1
152
Причем при суммировании предполагается, что появление всех ре ализаций равновероятно. В общем случае, когда функции m x (t) и
R x (t,t+ ) меняются с изменением момента времени t, с.п. X(t) называется нестационарным. В частном случае независимости m x (t) и
R x (t,t+ ) от t, с.п. X(t) называется стационарным в широком смысле. Математическое ожидание такого процесса постоянно, а корр еляционная функция представляет собой функцию единственной п еременной – временного сдвига между сечениями процесса, то есть
m x (t)=m x , R x (t,t+ )=R x (η).
Для с.п. X(t) можно отыскать бесконечное множество начал ьных
и центральных (в том числе и смешанных) моментов; их совоку пность полностью описывает плотность распределения процесса. К огда все начальные и центральные моменты не зависят от времени,
процесс называют стационарным в узком смысле (более точное
определение такого типа стационарности будет прив едено ниже).
Любой процесс, стационарный в узком смысле, является стационарным и в
широком, но не наоборот.
Эргодические случайные процессы. Выше был рассмотрен вопрос об определении свойств с.п. путем осреднения по ансамблю в отдельные моменты
времени. Однако, во многих случаях представляется возможным описать свойства стационарного случайного процесса путем осреднения по времени отдельных, достаточно продолжительных реализаций ансамбля. Рассмотрим, например, k-ую реализацию (выборочную функцию) с.п., изображенного на рис. 8.7.
Математическое ожидание mx(t) и корреляционная функция этой реализации
Rx( ,k) определяется выражениями
1T
M x (k ) lim
xk (t )dt ,
T
T0
0
1T0
Rx ( , k ) lim
x k (t ) x k (t
T
T0
(8.16)
)dt .
Если с.п. X(t) стационарен и m x (t) и R x ( ,k), определенные формулами (8.16), одинаковы для всех реализаций, то
случайный
процесс X(t) называется эргодическим. Для эргодического с.п.
среднее значение и корреляционная функция (а также другие моме нты, определяемые осреднением по времени) равны соотве тствующим
средним по ансамблю: m x (k)=m x , R x ( ,k)=R x ( ). Заметим, что только
стационарные процессы могут обладат ь свойством эргодичности.
Эргодические процессы представляют важную разновидность
случайных процессов, так как все их свойства могут быть определ ены осреднением по времени одной единственной реализации (хотя и
непременно достаточно продолжительной).
На практике процессы, соответствующие стационарным случа йным явлениям, как правило, обладают свойством э ргодичности, что
153
позволяет правильно определить характеристики стационарного сл учайного процесса по одной выборочной реализации.
Нестационарные случайные процессы. К нестационарным относятся все случайные процессы, упомянутые в приведенной выше
классификации, не обладающие свойс твом стационарности хотя бы в
широком смысле. Характеристики нестационарного процесса в о бщем случае представляют собой некоторые функц ии времени, определить которые можно только осреднением по ансамблю реализ аций,
образующих процесс. В практических задачах часто представляется
невозможным получить достаточно большое число реализаций для
отыскания характеристик процесса с нео бходимой достоверностью.
Это обстоятельство препятствует развитию практических методов
оценивания и анализа нестационарных случайных процессов.
Во многих случаях в классе нестационарных процессов, соотве тствующих реальным физическим явлениям, можно выделить особые
типы нестационарности, для которых задача оценивания и анализа
упрощается. Например, некоторые случайные явления описываются
нестационарным случайным процессом Y(t), каждая
реализация которого имеет вид Y(t)=A(t)х(t), где х(t) – реализация стационарного с.п. X(t), A(t) − детерминированный множитель.
Процессы такого типа имеют общий детерминированный тренд.
Если нестационарный процесс соответствует
конкретной мод ели такого типа, то для его описания нет необходимости производить
осреднение по ансамблю: любые требуемые характеристики можно
оценить по одной реализации, как и для эргодич еских процессов.
Стационарные реализации. Понятие стационарности, рассмо тренное выше, связано с осреднением по ансамблю характеристик
случайного процесса. Однако на практике часто приходится решать
вопрос о стационарности и нестационарности процесса, предста вленного всего одной реализацией. В этом случае используется н есколько отличное от приведенного выше понятие стационарности
процесса. Когда речь идет о стационарн ости одной выборочной
функции, то это означает, что характеристики, рассчитанные по к оротким временным интервалам, не меняются «значительно» для ра зличных интервалов. Термин «значительно» испол ьзуется здесь для
обозначения того факта, что наблюдаемые изм енения «больше», чем
можно ожидать за счет обычной выборочной статистической изме нчивости.
Для разъяснения этого рассмотрим реализацию х k (t), полученную
по k-ой реализации случайного процесса X(t). Определим математическое ожидание и корреляционную функцию о среднением по времени на коротком интервале продолжительности Т при начальном
моменте t:
154
1t T
mx (t , k )
xk (t )dt ,
T t
о
1t Tо
Rx (t , t , k )
x k (t ) x k (t
T t
(8.17)
)dt .
В общем случае, когда выборочные характеристики, определе нные формулами (8.17), меняются значительно при изменении н ачального момента t, отдельная реализация называется нестациона рной. В частном случае, когда выборочные характеристики, опред еленные этими формулами, не меняются значительно при изм енении
t, реализация называется стац ионарной. Реализация эргодического
процесса всегда стационарна. С другой стороны, реализации физич ески важных нестационарных процессов не обладают свойством ст ационарности. Следовательно, если предпол ожение об эргодичности
оправдано, то подтверждение свойс тва стационарности одной реализации может служить достаточным основанием для допущения ст ационарности и эргодичности случайного процесса, к которому пр инадлежит данная реализация.
Замечание. Для любого случайного процесса исчерпывающей
характеристикой является бесконечномерная плотность распредел ения сечений f(t 1 ,t 2 ,t 3 ,…,x 1 ,x 2 ,x 3 ,…). Как было уже сказано выше, оп ерировать со столь громоздкими характеристиками, зависящими от
многих аргументов, крайне неудобно. Поэтому на практике более
чем двумерные законы распределения применяются крайне редко.
Таким образом, для приближенного описания свойств случайных
процессов используют математическое ожидание, дисперсию и ко рреляционную функцию. Учитывая свойство корреляционной фун кции, а именно: при совпадении временны х аргументов к.ф. превращается в дисперсию, то набор характеристик, необходимых для пр иближенного описания случайного процесса, может быть сокращен до
двух.
8.3 Канонические разложения случайных процессов
В.С.Пугачевым была предложена и развита идея пре дставления
с.п. в виде его разложения
Х (t ) θ0 (t )
Vk θ k (t ) ,
(8.18)
k 1
где V k – случайные величины, θ k (t) – неслучайные функции. Такое
представление с.п. в виде разложения (8.18) дает возможность пр оводить довольно просто различные преобразования случайных пр оцессов, так как разложение для фиксированного момента вр емени t
представляет собой линейную функцию случайных величин V k .
155
С другой стороны, вся зависимость от времени сосред оточена в
неслучайных функциях θ k (t).
Прежде чем находить характеристики с.п. Х(t), заданного в виде
(8.18), рассмотрим т.н. элементарный случайный процесс
Х(t)=
Vθ(t),
где V – обычная центрированная случайная величина, с характер истиками m v =0, D v , а θ(t) – неслучайная функция. Найдем характеристики элементарного с.п.:
M(X(t))=M(V·θ(t))=θ(t)·0=0;
D(X(t))=D(V·θ(t))=θ 2 (t)D v ;
(8.19)
Rx (t , t )
M [ X (t ) X (t )] M [Vθ(t ) Vθ(t )] θ(t ) θ(t ) M (V 2 )
θ(t ) θ(t ) Dv .
Определение. Каноническим разложением случайного пр оцесса X(t) называется выражение вида
Х (t )
Vk θ k (t ) ,
mx (t )
(8.20)
k 1
где m x (t) математическое ожидание с.п. Х(t); V 1 ,V 2 , … − некоррелированные, центрированные случайные величины с дисперсиями
D 1 ,D 2 , …; θ 1 (t),θ 2 (t), …− неслучайные функции аргумента t.
Случайные величины V k называются коэффициентами канонического разложения, а функции θ k (t) – координатными функциями. Разложение (8.20) может содержать также конечное число чл енов разложения.
Найдем характеристики с.п. X(t), заданного выражением (8.20)
M ( Х (t )) mx (t )
M (Vk )θ k (t ) .
k 1
Так как V k – центрированные величины, то
Корреляционная функция
o
Rx (t , t )
o
M [ X (t ) X (t )] M [
θ k (t ) Vk
k 1
M(X(t))=m х (t).
θ k (t ) Vk ]
k 1
VkVh θ k (t ) θ h (t )].
M[
k 1h 1
Используя свойства математического ожидания, получим
Rx (t , t )
θ k (t ) θ h (t ) M (VkVh ) .
k 1h 1
Учитывая, что M(V k V h )=0 при k≠h, при k=h имеем
2
M(V k V h )=M( Vk )=D k .
Следовательно,
156
θ k (t ) θ k (t ) Dk .
Rx (t , t )
(8.21)
k 1
Выражение (8.21) называется каноническим разложением ко рреляционной функции с.п. X(t).
Таким образом, справедливо утвержден ие: если с.п. X(t) представлен своим каноническим разложением (8.20), то его корреляц ионная функция выражается каноническим разложением (8.21). Зам етим, что справедливо и обратное утверждение: если коррел яционная
функция с.п. X(t) представлена своим каноническим разложением
o
(8.21), то центрированный с.п. X (t ) может быть представлен каноo
Vk θ k (t ) .
ническим разложением X (t )
k 1
Так же можно записать каноническое разложение дисперсии с.п.
X(t): Dx (t )
θ 2k (t ) Dk .
R(t , t )
k 1
Пример 8.1. Случайный процесс X(t) задан своим каноническим
разложением Х (t )
mx (t )
Vk θ k (t ) ,
k 1
где случайные величины V k распределены нормально с характер истиками M(V k )=0, D(V k )=D k (k 1, n ) , M(V k V m )=0 (k≠m) (величины V k
– не коррелированы).
Найти одномерный и двумерный законы распределения с.п. X(t).
Решение. Для фиксированного момента t случайная величина
Х (t )
n
mx (t )
Vk θ k (t )
k 1
представляет линейную функцию некоррелированнных, нормально
распределенных случайных величин V k . Следовательно, случайная
величина X(t) будет распределена нормально с характеристиками
n
M(X(t))=m x (t),
Dx (t )
θ 2k (t ) Dk .
k 1
Одномерный закон распределения с.п.
f (t , x)
[ x mx (t )]2
1
exp{
}.
2 Dx (t )
2πDx (t )
По этим же причинам двумерный закон распределения с.п. также
будет нормальным с характеристикам и m x (t), m x (t΄), D x (t), D x (t΄), и
157
n
ρ x (t , t )
θ k (t ) θ k (t ) Dk
k 1
n
(
θ 2k
n
(t ) Dk )(
k 1
.
θ 2h
(t ) Dh )
h 1
Следовательно,
f (t , t , x, x )
1
2π Dx (t ) Dx (t ) (1 ρ 2x (t , t ))
( x mx (t ))2
Dx (t )
exp
1
2 (1 ρ 2x (t , t ))
2ρ (t , t ) ( x mx (t )) ( x mx (t )) ( x mx (t ))2
Dx (t )
Dx (t ) Dx (t )
.
Замечание. Отметим, что двумерный закон распределения нормального с.п. X(t) является его исчерпывающей характерист икой.
Кроме того, с.п. X(t) будет марковским процессом. Нормальные и
марковские процессы будут рассмотрены дальше в п.8.6.
8.4 Характеристики стационарных случайных пр оцессов
Пусть имеется случайный процесс X(t), который является стационарным. При этом его одномерная плотность вероятности б удет
зависеть только от х, и не будет зависеть от вр емени:
f(t,x)=f(x).
Не будут зависеть от времени и все начальные и центральные
моменты порядка k:
m k (t)=m k
о
о
m k (t )
mk
и, в частности, дисперсия
Dx (t )
ζ 2x
Dx .
Для к.ф. справедливо следующее соотношение:
R x (t, t΄) = R x (t΄−t)=R x (η), то есть к.ф. зависит не от начала отсч ета, а лишь от сдвига между временными сечениями. Поэтому в дал ьнейшем под стационарным с.п. будем понимать такой случайный
процесс, корреляционная функция которого зависит только от сдвига
η.
1. По величине к.ф. процесса X(t) не может превышать его ди сперсию:
Rx ( ) Dx ζ 2x .
2. К.ф. – четная функция своего аргумента:
Rx ( η) Rx ( η) .
3. К.ф. при нулевом аргументе равна дисперсии проце сса:
158
Rx (0)
Dx .
Учитывая рассмотренные свойства к.ф., ее обычно определяют
только для положительных значений аргумента η (рис. 8.8).
Rx(η)
Dx
η
Рис. 8.8
Для нормированной корреляционной функции ρ х (η)=R x (η)/D x эти
свойства трансформируются следующим образом:
ρ x ( η) 1;
1)
2)
ρ x ( η) ρ x ( η) ;
ρ x (0) 1.
3)
Функция ρ х (η) есть коэффициент корреляции между сечениями
с.п., разделенными интервалом η по времени.
Общим для к.ф. и нормированной к.ф. стационарного случа йного
процесса является то, что при неограниченном увеличении време нного сдвига между сечениями обе они стремятся к нулю:
lim Rx (η)
lim ρ x (η) 0.
В качестве примера рассмотрим образец приблизительно стаци онарного с.п. и определим его характерист ики.
Пример 8.2. Случайный процесс X(t) задан совокупностью 12
реализаций (рис. 8.9): а) найти его характеристики m x (t), R x (t, t'),
D x (t) и нормированную корреляционную функцию ρ x (t, t'); б) приближенно рассматривая случайный процесс X(t) как стационарный,
найти его характеристики.
Решение. Так как с.п. X (t) меняется сравнительно плавно , можно
брать сечения не очень часто, например через 0,4 сек. Тогда с.п. будет сведен к системе семи случайных величин, отвечающих сечен иям t=0; 0,4; 0,8; 1,2; 1,6; 2,0; 2,4.
Намечая эти сечения на графике и снимая с графика знач ения с.п. в
этих сечениях, получим таблицу (табл. 8.1).
159
X(t)
1
x4(t)
x6(t)
x10(t)
0,5
x8(t)
x3(t)
x11(t)
1,0
0
mx(t)
t
2,0
x7(t)
x1(t)
-0,5
t1
x5(t)
x9(t)
x12(t)
x2(t)
t2
t3
t4
t5
t6
t7
Рис. 8.9
Табл. 8.1
t
№
реализации
1
2
3
4
5
6
7
8
9
10
11
12
0
0,4
0,8
1,2
1,6
2,0
2,4
0,64
0,54
0,34
0,23
0,12
-0,16
-0,22
-0,26
-0,50
-0,30
-0,69
0,18
0,74
0,37
0,50
0,26
0,20
-0,12
-0,29
-0,69
-0,60
0,13
-0,40
-0,79
0,62
-0,32
0,37
0,35
0,24
-0,15
-0,38
-0,70
-0,68
0,75
0,08
-0,56
0,59
-0,32
0,26
0,55
0,18
0,05
-0,24
-0,61
-0,62
0,84
0,16
-0,39
0,35
-0,60
-0,52
0,69
-0,20
0,29
-0,06
-0,43
-0,68
0,78
0,12
-0,42
-0,09
-0,69
-0,72
0,75
-0,42
0,43
0,07
-0,22
-0,56
0,73
0,18
-0,58
-0,39
-0,67
0,42
0,80
-0,46
0,63
-0,16
0,29
-0,54
0,71
0,33
-0,53
Таблицу рекомендуется заполнять по строчкам, пе редвигаясь все
время вдоль одной реализации.
160
Далее находим оценки для характеристик случайных вел ичин Х(0), X(0,4), ..., X(2,4). Суммируя значения по столбцам и деля
сумму на число
реализаций n=12, найдем приближенно завис имость математического ожидания от времени:
t
0
0,4
0,8
1,2
1,6
2,0
2,4
mˆ x (t ) -0,007 -0,057 0,000 0,037 -0,057 -0,093 0,036
На графике рис. 8.9 математическое ожидание показано пол ужирной линией.
Далее находим оценки для элементов ковариационной матр ицы:
дисперсий и ковариаций. Вычисления удобнее всего произв одить по
следующей схеме. Для вычисления статистической дисперсии су ммируются квадраты чисел, стоящих в соответствующем столбце;
сумма делится на n=12; из результата вычитается квадрат соответс твующего математического ожидания. Для получения н есмещенной
оценки
результат
множится
на
поправочный
коэффициент
n/(n−1)=12/11. Аналогично оцениваются ковариации. Для вычисл ения статистического момента, отвечающего двум заданным сечен иям, перемножаются числа, стоящие в соответствующих столбцах, а
произведения складываются алгебраически. Полученная сумма д елится на n = 12, а из результата вычитается произведение соотве тствующих математических ожиданий. Для получения несмещенной
оценки ковариации результат множит ся на
n
n 1
. Полученная таким
способом ковариационная матрица системы случайных величин X(0),
X(0,4), ..., X(2,4) — она же таблица значений корреляционной фун кции Rˆ x (t , t ' ) — приведена в таблице 8.2
Табл. 8.2
t
0
0,4
0,8
1,2
1,6
2,0
2,4
t΄
0,1632 0,1379 0,0795 0,0457
0
0,2385 0,2029 0,1621 0,0106 0,0642 0,0648
0,4
0,2356 0,2152 0,0827 0,0229 0,0251
0,8
0,2207 0,1527 0,0982 0,0896
1,2
0,1910 0,1491 0,1322
1,6
0,2407 0,2348 0,1711
2,0
0,2691 0,2114
2,4
0,2878
По главной диагонали таблицы стоят оценки дисперсий:
161
t
0
0,4
0,8
1,2
1,6
2,0
2,4
Dˆ x (t ) 0,1632 0,2385 0,2356 0,2207 0,2407 0,2691 0,2878
Извлекая из этих величин квадратные корни, найдем завис имость среднего квадратического отклонения ζ̂ x от времени:
t
ζ̂ x
0
0,4
0,8
1,2
1,6
2,0
2,4
0,404 0,488 0,485 0,470 0,491 0,519 0,536
Деля значения, стоящие в табл. 8.2, на произведения соответству ющих средних квадратических отклонений, получим таблицу значений
нормированной корреляционной функции ρ̂ x (t , t ' ) (табл. 8.3).
Табл. 8.3
t
0
0,4
0,8
1,2
1,6
2,0
2,4
t΄
1
0,700 0,405 0,241
0
1
0,856 0,707 0,053 0,306 0,299
0,4
1
0,943 0,345 0,090 0,095
0,8
1
0,643 0,390 0,344
1,2
0,829 0,612 0,524
1,6
1
0,923 0,650
2,0
1
0,760
2,4
1
Проанализируем полученные данные под углом зрения предп олагаемой стационарности с.п. X(t). Если судить непосредственно по
данным, полученным в результате обработки, то можно прийти к
выводу, что с.п. X(t) стационарным не является: его математическое
ожидание не вполне постоянно; дисперсия также несколько меняется
со временем; значения н.к.ф. вдоль параллелей главной диагонали
также не вполне постоянны. Однако, принимая во вн имание весьма
ограниченное число обработанных реализаций (n=12) и в связи с
этим наличие большого элемента случайности в полученных оце нках, эти видимые отступления от стационарности вряд ли можно
считать значимыми, тем более, что они не носят сколько -нибудь закономерного характера. Поэтому вполне
целесообразной будет
приближенная замена процесса X (t) стационарным. Для приведения процесса к стационарному прежде всего осредним по времени
оценки для математического ожид ания:
mˆ x
mˆ x (0) mˆ x (0,4) ... mˆ x (2,4)
7
0,02 .
162
Аналогичным образом осредним оценки для дисперсии:
Dˆ x
Dˆ x (0) Dˆ x (0,4) ... Dˆ x (2,4)
7
0,236 .
Извлекая корень, найдем осредненную оценку среднего квадратич еского отклонения: ζ̂ x 0,486 .
Перейдем к построению
нормированной
корреляционной
функции того стационарного процес са, которым можно заменить с.п.
X(t). Для с.п. корреляционная функция (а значит, н.к.ф.) зависит
только от η=t'−t; следовательно, при постоянном η корреляц ионная
функция должна быть постоянной. В таблице 8.3 постоянному η с оответствуют: главная диагональ ( η=0) и параллели этой диагонали
(η=0,4; η=0,8; η=1,2 и т. д.). Осредняя оценки н.к.ф. вдоль этих п араллелей главной диагонали, получим значения функции ρ̂ x ( ) :
t
0
0,4
0,8
1,2
1,6
2,0
2,4
ρ̂ x ( ) 1,00 0,84 0,60 0,38 0,13 -0,10 -0,30
График функции ρ̂ x ( ) представлен на рис. 8.10.
ρ̂x (η)
1,0
.
.
.
.
0
1
.2
3 t
.
Рис. 8.10
При рассмотрении рис. 8.10 обращает на себя внимание нал ичие
для некоторых η отрицательных значений корреляционной функции.
Это указывает на то, что в структуре с.п. имеется нек оторый элемент
периодичности, в связи с чем на расстоянии по времени, равном
примерно половине периода основных колебаний, наблюдается о трицательная корреляция между значениями с.п.: положительным о тклонениям от среднего в одном сечении соответствуют отрицател ьные отклонения через определенный промежуток времени, и наоб орот.
Такой характер корреляционной функции, с переходом на отр ицательные значения, очень часто встречается на практике. Обычно в
163
таких случаях по мере увеличения η амплитуда колебаний коррел яционной функции уменьшается и при дальнейшем увеличении η ко рреляционная функция стремится к н улю.
Как было отмечено ранее, стационарные с.п. могут обладать или
не обладать эргодическим свойством. Эргодическое сво йство состоит в том, что любая реализация эргодического стационарного с.п.
достаточной продолжительности является как бы «полномочным
представителем» всего ансамбля ре ализаций с.п.
Для эргодического стационарного с.п. X(t) математическое ожидание может быть определено из выражения
mx
M ( X (t ))
lim
T
1
2T
T
X (t )dt .
(8.22)
T
Достаточным условием выполнения этого равенства – эргодичности с.п. X(t) по математическому ожиданию – является
lim Rx (η) 0.
Дисперсия эргодического с.п. может быть вычислена по фо рмуле
Dx
1
D( X (t )) lim
T
2T
T
( X (t ) mx ) 2 dt.
(8.23)
T
Достаточным условием выполнения равенства (8.23) – эргодичности с.п. X(t) по дисперсии – является
lim Ry (η) 0,
где R y ( η) – к.ф. стационарного с.п. Y (t )
2
X (t ) .
К.ф. эргодического стационарного с.п. может быть определена
по формуле
Rx ( )
1
lim
2T
T
( X (t ) mx )( X (t
) mx )dt .
(8.24)
T
Достаточным условием выполнения равенства (8.24) – эргодичности с.п. X(t) по к.ф. – является
lim Rz (η) 0,
где Rz ( ) – к.ф. процесса Z(t, v)=X(t)X(t+ v).
Пример 8.3. Рассмотрим с.п. U(t)=X(t)+V, где X(t) – эргодический с.п., V – случайная величина с характеристиками m V и D V . Покажем, что с.п. U(t) будет неэргодическим. Действительно, характеристики с.п. U(t) будут
mU (t ) mx mv , RU ( η) Rx ( η) Dv .
Тогда
lim RU (η) lim( Rx (η) Dv ) lim Rx (η) lim Dv Dv .
Следовательно, с.п. U(t) является неэргодическим.
164
Пример 8.4. Рассматривается неслучайная величина а, как час тный случай с.п.: X(t)=а. Найти его характеристики и определить, является ли этот процесс стационарным и э ргодическим.
Решение. M(X(t))=a=const, D x (t)=R x (t,t)=R x (0)=0,
с.п. X(t)=а – стационарен и обладает эргодическим свойством.
Пример 8.5. Рассматривается случайная величина V как частный
случай с.п.: X(t)=V. Найти его характеристики и определить, являе тся ли этот процесс стационарным и эргод ическим.
Решение.
M ( X (t ))
M (V )
mv ,
о
Rx (t , t )
о
M ( X (t ) X (t ))
M (V
mv )(V
mv )
D(V )
Dv
Rx ( η ) .
Случайный процесс X(t)=V – стационарен, но не обладает сво йством эргодичности.
Пример 8.6. Рассматривается прямоугольны й волновой процесс
(случайная телеграфная волна) X(t). С.п. X(t) может принимать значение с, либо – с, причем число перемен знака в интервале ( t, t+η)
случайно; моменты перемен знака независимы, перемены происходят
со средней интенсивностью λ (рис. 8.11). Допустим также, что поведение процесса внутри интервала ( t, t+η) не зависит от поведения
процесса вне этого интервала. Определим A n как событие, состоящее
в том, что внутри интервала ( t, t+η) будет наблюдаться точно n перемен знака. Такой физический процес с описывается распределением Пуассона и вероятность события A n равна
(λ | η | ) n e
P ( An )
λ| η |
/ n!.
X(t)
c
0
.
.
. . .
t
-c
Рис. 8.11
Найдем характеристики этого процесса. Одномерный закон ра спределения с.п. X(t) имеет вид
X(t)
P(t)
-c
0,5
+c
0,5
Следовательно, mx (t )
Dx (t )
-c 0,5 c 0,5 0;
( c) 2 0,5 c 2 0,5 c 2 .
Определим теперь к.ф. процесса X(t). Любое произведение сечений X (t ) X (t η) равно либо с 2 , если знаки X(t) и X (t η) одинако165
вы, либо –с 2 , если знаки X(t) и X (t η) различны. Суммарная вероятность появления с 2 равна
P(A 0 )+P(A 2 )+P(A 4 )+…, а суммарная вероятность появл ения –с 2 есть
P(A 1 )+P(A 3 )+P(A 5 )+…. Следовательно,
Rx ( η )
M ( X (t ) X (t η)) c 2
( 1) n P( An )
n 0
c 2e
λ| η |
( 1) n (λ | η |) n / n! c 2e
2λ | η |
.
n 1
Отсюда следует, что с.п. X(t) стационарен и эргодичен. График
функции Rx ( η) приведен на рис.8.12.
Rx(η)
Dx=c2
kx(η)=c2e-2λ|η|
η
0
Рис. 8.12
Пример 8.7. Обобщенная случайная телеграфная волна. Как и в
предыдущем примере, на оси 0t имеется простейший поток событий
с интенсивностью λ. В момент наступления i-го события с.п. X(t)
принимает случайное значение X(t) (i=1,2,…), сохраняя его до следующего события в потоке (рис. 8.13).
X(t)
Xi
. .X .
. ..t
1
0
X0
η
X2
t
. .
t
Рис. 8.13
В начальный момент времени t=0 Х(0)=Х 0 . Случайные величины
Х 0 , Х 1 , …, Х i , … независимы и распределены одинаково с плотн остью f(x). Найти характеристики с.п. Х(t).
Решение. Так как одномерная плотность распределения с.п. Х(t)
равна f(x), то
mx (t )
M (Xi )
x f ( x) dx
mx ,
166
Dx (t )
( x mx ) 2 f ( x) dx
D( X i )
Dx .
Рассмотрим два сечения с.п. Х(t) и Х( t ), разделенные интервалом η= t −t, η>0. Если между точками t и t не появится ни одного
o
o
o
события в простейшем потоке, то X i (t ) X i (t ) X i . Если между
точками t и t появится хотя бы одно событие в простейшем пот оке,
то
o
o
X i (t )
X i , X i (t )
o
o
X j (i≠j).
Следовательно,
Rx (t , t )
Rx ( η )
e
λη
o
M (X
2
i)
(1 e
λη
o
o
)M ( X i X j )
Dx e
λη
(η
0) ,
так как величины X i и X j независимы при i≠j.
Аналогично, для η<0, получим R x (η)=D x e − λ ( − η ) . Объединяя последние две формулы, имеем R x (η)=D x e − λ |η | . Следовательно, рассматриваемый с.п. является стационарным и эргодич еским.
Пример 8.8. Стационарный белый шум. Исследуем предельное
поведение с.п. X(t) из предыдущего примера при условии, что инте нсивность простейшего потока λ
, дисперсия сечения этого про) , но при этом отцесса тоже неограниченно увеличивается ( Dx
ношение Dx / λ остается постоянным: Dlim
x
теристики с.п.
Z (t )
Dx / λ
c.
Найти харак-
lim X (t ).
λ
Dx
Dx / λ c
Решение. Преобразуем корреляционную функцию с.п. X(t) с учетом равенства D x /λ=c:
R x(η) Dxe
λ| η |
Dx
λe
λ
λ| η |
cλe
λ| η |
.
Тогда корреляционная функция с.п. Z(t) будет
Rz ( η)
lim cλe
λ| η |
λ
2c lim e
2
λ| η |
.
Под знаком предела стоит плотность распределения случайной
величины U, распределенной по закону Лапласа, симметричному о тносительно начала координат, у которого математическое ож идание
равно нулю, а среднее квадратическое отклонение равно 2 / λ. Следовательно,
167
λ
lim e
λ
2
λ| η |
δ(η) ,
где δ (η) - дельта – функция. Таким образом
Rz (η) 2 c δ (η).
(8.25)
Это означает, что с.п. Z(t) представляет собой стационарный б елый шум. Его можно представить как предельный случай последов ательности очень коротких импульсов, амплитуда которых предста вляет собой независимые случайные величины с очень большой ди сперсией, при этом отношение дисперсии этих импул ьсов к частоте
их появления является постоянной (конечной) вел ичиной.
Подобные процессы встречаются на практике при рассмотрении ра зличных естественных помех в каналах связи, «теплового шума» в
электронных устройствах и т.д.
8.5 Спектральное разложение стационарного случайного пр оцесса
Можно показать, что стационарный с.п. также может быть пре дставлен своим каноническим разложением
Vk cos ωk t U k sin ωk t ,
X(t) mx
(8.26)
k 0
где U k , V k – центрированные, некоррелированные случайные велич ины с дисперсиями D(U k )=D(V k )=D k . Тогда корреляционная функция
с.п. X(t) может быть представлена следующим разлож ением
Dk cos ωk (t t )
R(t, t )
k 0
Dk cos ωk τ
Rx(η) , (8.27)
k 0
где η t t . Координатными функциями разложения (8.26) явл яются
косинусы и синусы различных частот.
Каноническое разложение (8.26) называется спектральным ра зложением стационарного с.п. Оно может быть предста влено и в виде
Z k cos (ωk t ζ k ),
X(t) mx
(8.28)
k 0
где ζ k - фаза гармонического колебания элементарного стационарн ого с.п. – случайная величина, распределенная равномерно в интерв але (0, 2π); Z k – амплитуда гармонического колебания элеме нтарного
стационарного с.п. – тоже случайная величина.
Случайные величины Z k , ζ k , V k , U k связаны соотношениями
Z k cos ζ k
Vk ,
Z k sin ζ k
Uk .
Очевидно, что коэффициенты канонического разлож ения к.ф.
Rx ( η) и набор различных частот ωk (k=0,1,2…) в формуле (8.27)
должны зависеть от конкретного вида к.ф. Rx ( η) . Так как к.ф. ста168
ционарного с.п. X(t) является четной функцией аргумента η, т.е.
Rx ( η) Rx ( η), то еѐ можно разложить в ряд Фурье на интервале (-Т,
Т) по четным (косинусным) гармоникам, как это сделано в (8.27).
Здесь
ωk kω1 , ω1 2π /(2T ) π / T ,
Do
1
2T
T
Rx ( η)dη,
Dk
T
1 T
Rx ( η) cos ωk ηdη.
T T
Доказано, что коэффициенты D k являются неотрицательными величинами для любой корреляционной функции Rx ( η) стационарного
с.п. X(t). Таким образом, зная вид к.ф. Rx ( η) , можно получить значения (дисперсии) коэффициентов канонического разложения ( V k ,
U k ) и частоты ωk стационарного с.п. X(t). Тогда дисперсию стационарного с.п. (8.26) можно найти по формуле
Dx
Dk cos ωk 0
Rx (0)
k 0
Dk .
(8.29)
k 0
Таким образом, дисперсия стационарного с.п., представленного
разложением (8.26) равна сумме дисперсий всех г армоник его спектрального разложения.
Dk
D1 D2 D3
D0
Dk
0
ω1 2ω1 3ω1
kω1
ωk
Рис. 8.14
На рис.8.14 показан спектр дисперсий стационарного с.п., представленного своим спектральным разложением, на котором ωk kω1
(k=0,1,2…). Заметим, что разложени е к.ф. Rx ( η) в ряд (8.27) будет
тем точнее, чем больший интервал разложения Т будет взят. Напри2T , то спектр
мер, если взять другой интервал ( T , T ) , где T
дисперсий разложения с.п. X(t) на интервале (0, T ) , так и для разложения на интервале (0, T ) , должна быть одинаковой:
Dk
k 0
При
(T
Dk
Dx .
(8.30)
k 0
неограниченном увеличении периода разложения к.ф.
) коэффициенты разложения будут неограниченно умен ь169
шаться ( Dk
0), а число их в сумме (8.30) неограниченно увелич иваться. При этом величина Δω ω1 − интервал между соседними
частотами – будет также стремиться к н улю.
Запишем выражение (8.27) в виде
Rx ( η )
Dk cos ωk η
k 0
k
Dk
(cos k ωη) ω . (8.31)
0 ω
Введем обозначение
(8.32)
Dk / ω Dk / ω1 S x (ωk ).
Величина S x (ωk ) ω Dk представляет собой ту часть общей
дисперсии стационарного с.п. X(t), которая приходится на k-ю гармонику. С увеличением периода разложения ( T→∞) ступенчатая
функция S x (ωk ) будет неограниченно приближаться к плавной кр ивой S x (ω) , которая представляет собой плотность рас пределения
дисперсий по частотам непрерывного спектра.
Таким образом
(8.33)
S x (ω) lim Dk / ω .
ω
0
Функция S x (ω) называется спектральной плотностью стационарного с.п. X(t) или односторонней спектральной пло тностью.
Используя определение функции S x (ω) перепишем (8.31) в виде
Rx ( η)
lim
ω
0k
Dk
(cos k ωη) ω
0 ω
S x (ω) cos ωηdω . (8.34)
0
Таким образом, к.ф. и спектральная плотность стационарного
с.п. связаны между собой косинус − преобразованием Фурье. Т огда
спектральная плотность выражается через к.ф. стационарного с.п.
следующим образом:
2
Rx ( η) cos ωη dη.
π0
Свойства функции S x (ω) :
1) S x (ω) 0;
S x (ω)
S x (ω)dω
2)
(8.35)
Dx .
0
По аналогии с нормированной корреляционной функцией (н.к.ф.)
ρ x ( η)
Rx ( η) / Rx (0)
Rx ( η) / Dx
вводится в рассмотрение нормированная спектральная пло тность
(н.с.п.) стационарного с.п.:
s(ω) S x (ω) / Dx .
Н.к.ф. и н.с.п. связаны между собой преобразованием Фурье:
170
ρ x ( η)
s x (ω) cos ω η d ω,
0
2
ρ x ( η) cos ω η d η .
π0
s x ( ω)
Далее без вывода запишем спектральное разложение стациона рного с.п. X(t) в комплексной форме:
X (t )
mx
Wk e
i ω kt
,
(8.36)
k
а его корреляционная функция
Dk ei ω k t .
Rx ( η)
(8.37)
k
Здесь i
1 − мнимая единица, Wx
случайная величина, W
чина), iω
k
k
Vk
iU k
− комплексная
2
Wk ( Wk − комплексно сопряженная вели-
iωk .
Функция S x (ω)
*
S x (ω) / 2,
ω 0,
(8.38)
S x ( ω) / 2, ω 0,
называется спектральной плотностью стационарного случайного
процесса в комплексной форме или двусторонней спектральной
плотностью, заданной на всей частотной оси от -∞ до +∞.
*
Свойства функции S x (ω) :
1. S x (ω)
*
при
0
ω
;
S x* (ω) dω Dx ;
2.
3. S x (ω) S x ( ω).
Отсюда видно, что двусторонняя спектральная плотность пре дставляет собой действительную, неотрицательну ю и четную функцию частоты ω. Соотношение между функциями S(ω) и S * (ω) иллюстрируется рис. 8.15.
*
*
Sx(ω)
Sx (ω)
0
f
Рис. 8.15
171
С учетом (8.38) выражение для к.ф. примет вид:
S x* (ω)ei ω η d ω,
Rx ( η)
а спектральные плотности преобразуются к виду :
S x ( η)
S x* ( η)
S x ( η) / 2
1
Rx ( η)e
π
1
Rx ( η)e
2π
iωη
iωη
dη,
dη
ω
(
).
Для описания свойств двух стационарно связанных процессов
X(t) и Y(t) в частотной области используется взаимная спектрал ьная
плотность (в.с.п.), которая определяется как преобразование Фурье
1
Ryx ( η) e
2π
от взаимной корреляционной функции S *yx (ω)
iωη
dη ,
тогда взаимная корреляционная фун кция может быть определена как
*
S xy
(ω) ei ω η dη ,
Rxy ( η)
т.е в.к.ф. и в.с.п. связано между собой парой преобразования Ф урье.
Пример 8.9. Найти спектральную плотность с.п. X(t), представляющую собой случайную телеграфную волну (см. пример 8.6) с
2 2λ | η |
корреляционной функцией Rx ( η) c e
.
Решение.
1
Rx η e
2π
S ω
*
x
c2
2π
0
e
2λη iωη
iωη
dη
e
0
dη
c2
2π
2λη iωη
dη
0
e
2 λ| η |
e
iωη
dη
e
2 λ|η|
e
iωη
dη
0
c2
1
2 π 2 λ iω
c2
1
1
c2
4π
2 π 2 λ iω 2 λ i ω
2π (2λ) 2 ω 2
*
График S x (ω) показан на рис. 8.16
1
2 λ iω
c2
2λ
.
π (2λ) 2 ω 2
172
Sx ( ω )
c2
2
ω
Рис. 8.16
Пример 8.10. Найти спектральную плотность стационарного б елого шума.
Решение. У стационарного белого шума к.ф. имеет вид (см. пр имер 8.8)
Rx ( η) 2 c δ η , откуда
S x* (ω)
1
2
2cδ η e
iωη
dη
c
.
π
Величина с называется интенсивностью белого шума . Таким
образом, стационарный белый шум представляет с обой случайные
колебания на всех частотах, при этом дисперсия этих колебаний,
приходящихся на элементарный участок ∆ω, остается постоянной и
не зависит от частоты колебаний ω. Действительно, эта диспе рсия
будет приближенно равна
Dx
S x* (ω) ω
c
ω
π
и не зависит от частоты ω.
8.6 Классификация и определение марковских процессов
Выше уже было сказано, что существует два важных класса сл учайных процессов, которые заранее могут быть названы эргодич ескими. Первый – это класс гауссовских (нормальных) стаци онарных
процессов с абсолютно непрерывной спектральной пло тностью, т.е.
со спектральной плотностью, не имеющей острых максимумов
(дельта − функций). Ко второму классу (частный случай первого)
относятся марковские процессы, обладающие перечисленными сво йствами. Корреляционная функция марковского процесса имеет пр остую экспоненциальную форму.
В соответствии с классификацией случайных процессов (сокр ащенно с.п.) п.8.1 по значениям аргумента и пространству состо яний,
применительно к марковским процессам, будем различать марко вские цепи, марковские последовательности, марковские процессы с
конечным и бесконечным числом состояний (табл.8.4).
Наряду со скалярным (одномерным) процессом х(t) на практике
приходится рассматривать и многомерный процесс {х 1 (t), …, х M (t)}.
Приведем общее определение марковского процесса х(t).
173
Определение. Случайный процесс х(t) называется марковским,
если для любых n моментов времени t 1 < t 2 <…<t n из отрезка [0,T] условная функция распределения значения х(t n ) при фиксированных
значениях х(t 1 ), х(t 2 ),…, х(t n - 1 ) зависит только от х(t n - 1 ), т.е. справедливо соотношение
P{х(t n )≤x n |х(t 1 )=x 1 ,…,х(t n - 1 )=x n - 1 }=
=P{х(t n )≤x n |х(t n - 1 )=x n - 1 }
(8.39)
Например, для трех моментов времени t i >t j >t k формула (8.39)
принимает вид
P{х(t i )≤x i |х(t k )=x k ; х(t j )=x j }=P{х(t i )≤x i |х(t j )=x j }. (8.40)
Поэтому часто говорят, что характерное свойство марковсих
процессов состоит в следующем: если точно известно сост ояние
марковского процесса в настоящий момент времени ( t j ), то будущее
состояние (при t i ) не зависит от прошлого состояния (при t k ).
Укажем ещѐ одно общее и важное свойство марковских проце ссов: для них эволюция вероятности перехода P=P{х(t)≤x|х(t 0 )=x 0 }
описывается уравнением вида
d
P
dt
AP , где А – некоторый линей-
ный оператор (матрица – для дискретного процесса, дифференциал ьный оператор – для непрерывного процесса и т.д.).
Здесь мы ограничимся рассмотрением дискретных и непреры вных марковских процессов.
Табл. 8.4
Значение аргумента
Дискретные
Пространство состояний
Дискретное
Непрерывное
ζ(ti)
υk
x(ti)
υi
xi
υ2
υ1
t0 t1 t2
ti
Цепь Маркова
t
t0 t1 t2
Марковская
ность
ti
t
последователь-
174
Непрерывные
ζ(ti)
υk
x(t)
υi
t0
t0
t
t
марковский Непрерывный
процесс
Дискретный
процесс
марковский
8.6.1 Дискретный марковский процесс
Предположим, что случайный процесс ζ( t) представляет собой
ступенчатую кривую, т.е. может принимать только дискретные зн ачения { k , k 1, k }, причем смена этих значений (состояний) прои сходит в некоторые случайные моменты времени (табл.8.4)
Введем вероятности перехода
π i j (t 0 ,t)=P{ζ(t)=υ j |ζ(t 0 )=υ i }, t>t 0 .
(8.41)
Это есть условные вероятности принять системе состояния υ j в
момент времени t, если известно, что в предшествующий момент
времени t 0 она находилась в состоянии υ i .
Очевидно, что
K
π ij (t0 , t ) 1 , π ij (t0 , t ) 0, i, j
1, K ,
i 1
π ij (t0 , t0 )
δ ij
1, i
j,
0, i
j.
(8.42)
Для дискретного марковского процесса справедливо следу ющее
уравнение Колмогорова – Чепмена, которое приведем без вывода:
K
π ij (t0 , t
t)
πik (t0 , t ) π kj (t , t
t ), t
t0 ,
t
0.
(8.43)
k 1
Основная задача при рассмотрении марковских процессов сост оит в вычислении вероятностей перехода и безусловных (абсолю тных) вероятностей различных состояний, если известны н ачальное
состояние системы и одношаговые вероя тности перехода.
В данном случае вероятности перехода для малых временных
интервалов ∆t имеют вид
π kk (t , t t ) P{ζ(t t ) k ζ(t ) k } 1 akk (t ) t 0 ( t ), (8.44)
π kj (t , t
t)
P{ζ(t
t ) υ j ζ (t ) υk } akj (t ) t 0 ( t ), k
j.
Первое соотношение (8.44) физически выражает два факта: во –
175
первых, что при ∆t =0 система достоверно находится в состоянии υ k
и, во-вторых, вероятность перехода из состояния υ k в любое другое
зависит от рассматриваемого момента времени и для малого ∆ t пропорциональна длине ∆t. Второе соотношение (8.44) говорит о том,
что вероятность смены состояния (зависящая от ра ссматриваемого
момента t) за малый интервал ∆t также пропорциональна длине ∆t.
Так как вероятности перехода неотрицательны ( a k j (t ) 0), то для них
должно выполняться условие норм ировки
akk (t )
akj (t )
0, a k j (t ) 0.
(8.45)
j( j k )
Подставив (8.44) в правую часть уравнения (8.43) и перейдя к
пределу при ∆t→0, получим следующую систему линейных дифф еренциальных уравнений (прямые уравн ения):
t
π ij (t0 , t )
K
ak j (t ) π ik (t0 , t ), i, j
1, K ,
(8.46)
k 1
где a k j (t) удовлетворяют (8.45). Решение этой системы при начал ьных условиях (8.42) дает зависимость вероятностей перехода от
времени.
Если число возможных состояний системы конечно, то для л юбых непрерывных функций a k j (t), удовлетворяющих условию (8.45)
система (8.46) с начальными условиями (8.42) имеет еди нственное
неотрицательное решение, которое определяет дискретный марко вский процесс.
Дискретный марковский процесс остается марковским и в обра тном направлении. При аналогичных рассуждениях, выбрав промеж уточный момент времени близким к начальному моменту t 0 , можно
получить следующую систему линейных дифференциальных уравн ений (обратные уравнения):
t0
K
π ij (t0 , t )
k
aik (t0 ) π kj (t0 , t ) , t
t0 .
(8.47)
j
Уравнениям (8.46) удовлетворяют не только вероятнос ти переходов, но и абсолютные вероятности состояний р j (t). При начальных
вероятностях состояний p 0j
p j (t 0 ) вероятности состояний р j (t)
удовлетворяют системе уравнений
d
p j (t )
dt
a k j (t ) p k (t ).
(8.48)
k
Дискретный марковский процесс называется однородным, если
вероятности перехода π i j (t, t 0 ) зависят только от разности η=t−t 0 .
π i j (t, t 0 ) = π i j (η).
В этом случае функции a k j (t)=a k j постоянны и дифференциальные
уравнения упрощаются
176
d
π ij ( η)
dη
ak jπ ik ( η),
(8.49)
k
d
πij ( η) aii π ij ( η)
dη
aik π kj ( η).
k (k
(8.50)
j)
Если при η→∞ существуют предельные значения вероятностей п ерехода p lim πij(η),
η
которые не зависят от начального состояния, то говорят, что ма рковский процесс обладает эргодическим свойством и существует о днозначно – определенное стационарное состояние. Вероятности ст ационарных состояний определяются системой алгебраических ура внений
ak j pk 0,
pk 1.
(8.51)
k
k
Пример 8.11. Дискретный марковский процесс с двумя состо яниями (случайный телеграфный сигнал). Пусть пр оцесс ζ(t) в любой
момент времени может принимать лишь два значения υ 1 (t)=1 или
υ 2 (t)=−1, причем вероятность перехода 1→ − 1 за малое время ∆t равна λ∆t, а вероятность перехода −1→ 1 равна μ∆ t. Известны вероятно0
P {ζ(t 0 ) 1} и
сти начального состояния p1
p20
P { ζ(t 0 )
1} 1
p10 .
Определить вероятности перех ода
π i j (t 0 ,t)=P{ζ(t)=υ j |ζ(t 0 )=υ i } (где υ 1 =1, υ 2 =−1; i, j=1,2),
вероятности стационарного состояния p 1 и р 2 , а также среднее значение и корреляционную функцию пр оцесса ζ(t ) .
Из (8.44) следует, что а 1 2 =λ, а 2 1 =μ. Из (8.45) находим а 1 1 =−λ,
а 2 2 =−μ. Так как все коэффициенты а i j – постоянные величины, то
процесс ζ(t) является однородным. Дифференциальные уравнения
(8.46) примут вид
t
t
π i 1 (t0 , t )
λ π i 1 (t0 , t ) μ π i 2 (t0 , t ),
π i 2 (t0 , t )
μ π i 2 (t0 , t ) λ π i1 (t0 , t ), i=1,2.
(8.52)
Из условия нормировки (8.42) имеем π 1 2 (t, t 0 )=1−π i 1 (t, t 0 ). Поэтому первое из уравнений (8.52) можно записать иначе
t
π11 (t0 , t )
( λ μ ) π11 (t0 , t ) μ, t t0 .
(8.53)
Общее решение этого линейного неоднородного дифференциал ьного уравнения первого порядка с начальным условием π 1 1 (t, t 0 )=1
имеет вид
177
t
π11 (t0 , t ) μ e
( λ μ )( t s )
μ
λ
λ μ
λ μ
( λ μ )( t t 0 )
ds e
t0
η t t0
e
( λ μ)η
,
0.
В результате решения системы уравнений (8.52) для любых η>0
получим
π11(η) μ /( λ μ)
(λ μ)η
λ /( λ μ) e
π12(η) [λ /( λ μ)][1 e ( λ μ ) η],
π 22 ( ) λ/( λ μ) μ/( λ μ) e ( λ
π21(η) [μ /(λ μ)][1 e
( λ μ) η
,
(8.54)
μ) η
,
].
Эти вероятности переходов и определяют данный дискретный
марковский процесс.
Рассматриваемый марковский процесс эргодичен, поскольку при
t→∞ существуют предельные значения вероятностей перехода
р 1 =μ/(λ+μ),
р 2 =λ /(λ+μ),
которые определяют вероятности стационарного состояния.
По определению, среднее значение процесса ζ( t) равно
M ( ζ (t )) mζ (t ) 1 p1 (t ) 1 p2 (t )
p10 π11 ( η) (1 p10 ) π 21 ( η) (1 p10 ) π 22 ( η)
p10 π12 ( η).
Подставив выражение вероятностей перехода из (8.54), получим
mζ (t )
(μ λ ) /(λ μ ) 2 [ p10
( λ μ) η
μ/(λ μ)] e
, η t t0 .
Вычислим теперь корреляционную фун кцию
Rζ (s, η)
s, η 0.
M ζ (t0
s) ζ (t0
s η)
M ( ζ (t0
s))M ( ζ (t0
s η)),
Так как среднее значение произведения
M ζ(t0
s ) ζ(t0
s η)
p1 (t0
s ) π11 ( η)
p2 (t0
s ) π 22 ( η)
p1 (t0
s ) π12 ( η)
p2 (t0
s ) π 21 ( η),
то окончательное выражение для корреляционной фун кции будет
R ( s, η )
μ λ
λ μ
4λλ
(λ μ) 2
p10
μ
λ μ
e
(λ μ)s
p10
e
μ
λ μ
(λ μ)η
e
(λ μ)s
.
Предположим теперь, что в качестве вероятности начального состояния
взята
вероятность
стационарного
с остояния,
т.е.
0
p1 p1 μ/(λ μ). Тогда процесс ζ(t) будет стационарным с момента
m (t ) (μ λ)/(λ μ) const , а
времени t 0 ; его среднее значение
178
( λ μ)| η |
R ( s, η) Rζ ( η) 4 λ μ ( λ μ) e
.
корреляционная функция
Если λ=μ, то процесс ζ(t) принято называть случайным телеграфным сигналом. Полагая в предыдущих формулах λ=μ, нах одим
вероятности переходов, вероятности стационарного состояния, а
также среднее значение и корреляционную функцию для стациона рного состояния случайного телеграфного сигнала ζ(t):
2
π11(η)
π22(η)
(1 e
2λη
) / 2, π12(η) π21(η) (1 e
mζ 0, Rζ ( η) e 2 λ | η | .
2λη
) / 2,
р 1 =р 2 =1/2,
Сравните полученные результаты с результатами пр имера 8.6.
8.6.2 Непрерывный марковский процесс. Уравнение Фоккера –
Планка – Колмогорова
В противоположность дискретным процессам, непрерывные (н епрерывнозначные) процессы характеризуются тем, что в любом м алом интервале ∆t имеет место некоторое малое (порядка
t ) изменение состояния марковского процесса х(t).
В отличие от произвольного случайного процесса X(t), непрерывный
марковский процесс далее обозначен x(t). Возьмем в последовательные моменты времени
t 0 <t 1 <…<t n - 1 <t n значения случайного процесса
x 0 =x(t 0 ), x 1 =x(t 1 ),…, x n - 1 =x(t n - 1 ), x n =x(t n ).
Определение. Процесс x(t) является марковским, если усло вные
плотности вероятностей (плотности вероятности перехода) з ависят
только от последнего значения x n -1 в момент t n - 1 и не зависят от других, более ранних значений,т.е.
π n (tn , xn tn 1 , xn 1; ...; t1 , x1; t0 , x0 ) π(tn , xn tn 1 , xn 1 ), n 1. (8.55)
С другой стороны, условная плотность вероятности равна отн ошению безусловных плотностей, а именно:
π n (tn , xn tn 1 , xn 1; ...; t1 , x1; t0 , x0 )
f n 1 (t0 ,..., tn ; x0 ,..., xn ) / f n (t0 ,..., tn 1; x0 ,..., xn 1 ).
(8.56)
Иначе говоря, будущее поведение марковского процесса не зав исит от прошлого, если точно известно его состояние в настоящий
момент времени. Именно поэтому марковские процессы также наз ываются процессами без последействия.
Запишем формулу (8.56) в следующем виде:
f n 1 (t0 ,..., t n , x0 ,..., xn )
π(t n , xn t n 1 , xn 1 ) f n (t0 ,..., t n 1 , x0 ,..., xn 1 ).
Применяя последовательно это соотношение для раз ных n, получим
179
f n 1 (t0 ,..., t n , x0 ,..., xn )
π(t n , xn t n 1 , xn 1 )
(8.57)
π(t n 1 , xn 1 t n 1 , xn 2 ) π(t1 , x1 t0 , x0 ) f (t0 , x0 ).
Следовательно, многомерные плотности вероятностей марко вских процессов выражаются через плотность вер оятности перехода
π (t , x t , x ) и одномерную начальную плотность f(t 0 , x 0 ). Таким образом, характерное свойство марковских процессов состоит в том,
что начальная одномерная плотность вероятности и плотность вер оятности перехода полностью определяют марковский случайный
процесс.
Можно показать, что марковский процесс остается таковы м и в
обратном направлении, т.е.
π (t0 , x0 t1 , x1 ;...; t n , xn )
π (t0 , x0 t1 , x1 ), t0
t1 ... tn .
Плотность вероятности перехода непрерывного
процесса удовлетворяет следующим условиям:
1) π (t , x t0 , x0 ) 0 (неотрицательность);
2)
марковского
π(t , x t0 , x0 )dx 1 (нормированность);
3) lim π (t , x t0 , x0 ) δ ( x
лые промежутки времени);
4) π(t , x t0 , x0 )
x0 ) (малое изменение состояния за ма-
π(t , x t , x ) (t , x t0 , x0 )dx ,
т.е. удовлетворяет уравнению Колмогорова − Чепмена в интеграл ьной форме.
В тех случаях, когда плотность вероятности перехода за висит
η t t , т.е.
только
от
разности
временных
аргументов
π(t , x t , x )
π( , x , x), t ,t
0,
марковский случайный процесс называется однородным во врем ени.
Если при η→∞ плотность вероятности перехода стремится к н екоторому пределу
(8.58)
lim π ( , x , x) f st ( x),
η
не зависящему от «начального» состояния x , то говорят, что процесс эргодичен.
Если известна начальная плотность вероятности f(t 0 ,x 0 ) и найдена плотность вероятности перехода π (t , x t , x ) , то можно вычислить
другие характеристики марковского пр оцесса x(t).
Одномерная плотность вероятности в произвольный момент вр емени t будет равна
f (t , x)
f (t0 , x0 ) π (t , x t0 , x0 ) dx0 .
(8.59)
180
Одномерная плотность вероятности в стационарном состоянии не
зависит от времени и равна f s t (x), а двумерная плотность вер оятности
зависит
только
от
сдвига
η t t:
f 2 ( η, x, x )
f (t , t , x, x )
f st ( x ) π ( η, x , x).
Для стационарного процесса x(t) корреляционная функция равна
Rx ( η)
По
S x (ω)
x x f st ( x ) π ( η, x , x)dx dx ( x f st ( x ) dx ) 2 . (8.60)
функции
(8.60)
можно
найти
спектральную
пло тность
2
Rx ( η) cos ω η dη, ω 0.
π0
Плотность вероятности перехода π (t , x t0 , x0 ), t t0 непрерывного
марковского процесса удовлетворяет сл едующим уравнениям в частных производных:
t
t0
π (t , x t0 , x0 )
π (t , x t0 , x0 )
a(t , x) π (t , x t0 , x0 )
x
1 2
b (t , x) π (t , x t0 , x0 ) ,
2 x2
a (t0 , x0 )
x0
(8.61)
π (t , x t0 , x0 )
(8.62)
2
1
b (t0 , x0 ) 2 π(t , x t0 , x0 ).
2
x
Уравнение (8.61) называется уравнением Фокк ера−ПланкаКолмогорова или прямым уравнением (т.к. вх одит производная по
конечному времени t>t 0 ), а уравнение (8.62) уравнением Колмогор ова или обратным уравнением (так как входит производная по н ачальному времени t 0 <t). Такое название исходит от того, что прямое
уравнение для процесса броуновского движения встречалось в раб отах Фоккера (1914) и Планка (1917). Строгое математическое обо снование первого уравнения было дано А.Н.Колмогоровым; им же
впервые получено уравнение (8.62).
В этих уравнениях через a(t,x) и b(t,x) обозначены т.н. инфинитезимальные моменты 1-го и 2-го порядка процесса x(t). Вообще инфинитезимальным моментом n-го порядка процесса называется величина
K n (t , x)
lim
t
0
1
t
x(t
n
t ) x(t ) π(t
t , x t , x) dx .
Тогда
a(t,x)=K 1 (t,x),
b(t,x)=K 2 (t,x).
Если для марковского процесса моменты K n (t , x)
(8.63)
0, n=1,2;
181
0, n=3,4, …, то марковский процесс называется диффузи-
K n (t , x)
онным.
Для любых случайных процессов, для которых существуют к оэффициенты K n (t,x) справедливо следующее уравнение относ ительно
плотности вероятности перехода:
t
π(t , x t0 , x0 )
n
( 1) n n
K n (t , x) π (t , x t0 , x0 ) .
xn
1 n!
(8.64)
Далее будем рассматривать только частный случай уравнения
(8.64), когда первые два коэффициента K 1 (t,x) и K 2 (t,x) отличны от
нуля, а остальные – K 3 (t,x), K 4 (t,x),…равны нулю.
Для диффузионных марковских процессов уравнение (8.64) у прощается и переходит в уравнение Фоккера -Планка-Колмогорова
(8.61):
t
π(t , x t0 , x0 )
x
a (t , x) π (t , x t0 , x0 )
1 2
b (t , x) π(t , x t0 , x0 ) .
2 x2
(8.65)
По традиции, связанной с применением уравнения (8.65) для
изучения диффузионных процессов, уравнение (8.65) называют ди ффузионным уравнением, а коэффициенты a(t,x) и b(t,x) – соответственно коэффициентами сноса и диффузии процесса x(t). Коэффициент а(t,λ) характеризует среднее значение локальной ск орости, т.е.
2
a(t,x)=m(t,x), а коэффициент b(t , x) ζ (t , x) − локальную скорость
изменения дисперсии приращения марковского процесса. П оэтому
коэффициент диффузии b(t , x) 0.
Линейное уравнение в частных производных (8.65) относится к
уравнениям параболического типа и для отыскания его решения
можно применять обычные методы ре шения уравнений этого типа.
При этом решение должно быть неотрицательным, нормированным к
единице и должно удовлетворять начальному у словию
π (t , x t0 , x0 ) δ ( x x0 ).
(8.66)
Решение уравнения Колмогорова (8.65) дл я неограниченного
пространства при дельтообразном начальном условии (8.66) наз ывается фундаментальным решением задачи К оши.
Если значение марковского процесса x(t) в начальный момент
времени t 0 не фиксировано, а является случайным с плотностью в ероятности f 0 (x), то в качестве начального условия указывается эта
плотность f(t 0 ,x)=f 0 (x).
Доказано, что одномерная плотность вероятности марковского
диффузионного процесса удовлетворяет уравнению Колмогорова
(8.65). Оказывается, что при дельтообразном начально м распределе182
нии, плотность вероятности f(t,x) совпадает с плотностью вероятн ости перехода π (t , x t 0 , x0 ) , т.е. справедливо ура внение
t
f (t , x)
a (t , x) f (t , x)
x
1 2
b (t , x) f (t , x) .
2 x2
(8.67)
2
1 2
bij (t , x) .
2 i , j 1 xi x j
(8.68)
Это же уравнение справедливо и в случае многомерного марко вского процесса x(t)={x 1 (t),…, x М (t)}. Например, в двумерном случае
уравнение (8.67) относительно одномерной плотности в ероятности
f(t,x) имеет вид
2
t
f (t , x)
i 1
ai (t , x) f (t , x)
xi
Для отыскания решения уравнение Колмогорова (8.67), кроме
начального условия в виде дельта−функции, нужно указать ещѐ и
граничные условия. Граничные условия могут быть весьма разноо бразными и определяются существом физической задачи. Мы же д алее будем использовать уравнение (8.67) в связи с анализом си стем
массового обслуживания, а именно дл я диффузионного приближения
(диффузионной аппроксимации) основных случайных процессов –
процессов поступления и ухода требований в системе массового о бслуживания.
Рассмотрим основные граничные условия, необходимые при р ешении диффузионного уравнения Колмог орова. Для этого будем
трактовать плотность вероятности f(t,x) как концентрацию (относительное число) частиц в точке x в момент времени t. Поток частиц G
вдоль оси x складывается из систематического потока a·f, где а – локальная скорость систематического д вижения, и случайного (диффу-
1
( bf ), т.е.
2 x
1
a (t , x) f (t , x)
b (t , x) f (t , x) .
2 x
зионного) потока
G(t , x)
(8.69)
Из (8.67) и (8.69) следует, что уравнение Колмогорова предста вляет собой уравнение непрерывности
t
f (t , x)
x
G(t , x)
0,
(8.70)
выражающее сохранение числа частиц.
Если процесс x(t) может принимать значение от −∞ до +∞, то
уравнение (8.70) справедливо на всей прямой. И нтегрируя (8.70) по
x от −∞ до +∞ и учитывая, что
f (t , x)
0,
f (t , x) dx 1,
получим равенство
183
G (t ,
)
G (t , ) .
Помимо этого равенства, обычно в практических задачах выпо лняются нулевые граничные условия:
G (t , ) G (t , ) 0 , f (t , ) f (t , ) 0.
(8.71)
В тех случаях, когда процесс x(t) принимает ограниченные значения на интервале (c,d), уравнение (8.65) следует рассматривать
только в этой области. Тогда граничные условия нулевого потока
имеют вид
G (t , c) G (t , d ) 0 .
(8.72)
Это означает, что не допускается поток частиц через границы c и
d, и эти границы выступают как отражающие экраны (в силу непр ерывности частицы не теряются). Роль отражающих границ наглядно
иллюстрируется на рис. 8.17, где изображен один отр ажающий экран
в точке x=c.
В граничных точках c и d могут быть расположены поглощающие
экраны: частица, достигшая такого экрана, поглощается им (т.е. о стается там навсегда) и исключается из дальнейшего ра ссмотрения. В
этом случае граничное условие поглощения имеет вид
f (t , c) f (t , d ) 0.
(8.73)
x(t)
x0(t)
c
c
2
2
1
0
t
Отражающая
граница
f(t,x)
1
0
t
f0(t,x)
0
x
0
c
x
Рис. 8.17.
Влияние поглощающего экрана на поведение процесса и пло тность
вероятности
схематично
изображено
на
рис.
8.18.
184
x(t)
x0(t)
c
c
2
2
1
0
t
Поглoщающая
граница
f(t,x)
1
0
t
f0(t,x)
0
x
0
c
x
Рис. 8.18
Далее остановимся на нахождении решения уравнений (8.67) и
(8.68) для стационарного состояния. Так как эти уравнения относя тся к уравнениям параболического типа, то для их решения примен яются известные методы решения уравнения этого типа.
Например, при исследовании переходных процессов, нестаци онарное уравнение (8.67) можно решать с помощью шести следу ющих
методов: 1) метода разделения переменных, 2) метода преобразов ания Лапласа, 3) метода характеристической функции, 4) метода з амены независимых переменных, 5) метода гауссова пр иближения и
6) численных методов. Методы получения нестаци онарного решения
уравнения Колмогорова в этой книге не рассматрив аются.
Для стационарного состояния одномерная плотность вероятн ости
f st ( x) lim f (t , x), если она существует, вообще не зависит от вр еt
мени t и от начального распределения f 0 (x). Тогда f st ( x) / t 0 и,
следовательно, G(x)=G=const. Уравнение (8.67) переходит в лине йное дифференциальное уравнение для f s t (x):
d
b ( x) f st ( x)
dx
2a( x) f st ( x)
2G,
(8.74)
для которого хорошо известно общее решение:
f st ( x)
x
z
C
a( y )
2G x
a( y )
exp[2
dy ]
exp[2
dy ] dz .
b ( x)
b ( x) x
x b ( y)
x b ( y)
(8.75)
Здесь постоянная С определяется из условия нормировки, а в еличина потока G находится из граничных условий. В качестве ни жнего предела интегрирования x можно взять любую точку интервала, в котором определен процесс x(t). Например, при нулевых гра185
ничных условиях для потока (G=0) уравнение (8.74) будет иметь вид
d
b ( x) f st ( x)
dx
2 a ( x) f st ( x)
0,
а его общим решением будет
f st ( x)
x
C
a( y )
exp [2
dy ] ,
b ( x)
b
(
y
)
x
(8.76)
где постоянная С определяется из условия нормировки функции
плотности.
Таким образом, определив из конкретной постановки задачи к оэффициенты сноса a(x) и диффузии b(x) по формулам (8.63), в некоторых случаях можно сразу написать выражение для одномерной
плотности вероятности. Это показывает эффективность использов ания уравнения Колмогорова в практических применениях марко вских процессов.
8.6.3 Диффузионное приближение систем массового обслужив ания
11
10
9
8
7
6
5
4
3
2
1
0
N(t)
Число требований
Рассмотрим следующие фундаментальные вероятностные пр оцессы, описывающие системы массового обслуживания (СМО): пр оцесс обслуживания (требований) и процесс уходов (требований), о пределяемые как
N 1 (t) – число поступлений на интервале (0, t),
N 2 (t) – число уходов на интервале (0,t).
Типичные реализации таких ступенчатых вероятностных проце ссов показаны на рис. 8.19.
Значение N(t)= N 1 (t)−N 2 (t) в любой момент времени предста вляет
собой число требований в СМО, причем N(0)=0.
N1(t)
N2(t)
Время
t
Рис. 8.19
186
Таким образом, процессы поступления требований в СМО ( N 1 (t))
и ухода из неѐ (N 2 (t)) являются гауссовскими, т.е. распределенными
по нормальному закону. Рассмотрим вначале процесс N 1 (t). Время
поступления требования C n в потоке событий представляет собой
сумму n промежутков времени между моментами поступления тр ебований, т.е. η n =t 1 +t 2 +…+ t n , причем η 0 =0.
Для СМО типа GI/G/1 (с произвольными законами распредел ения
входного потока A(t) и времени обслуживания B(t)) считается, что
{t i } является множеством независи мых одинаково распределенных
случайных величин. Когда время t и, следовательно, число n становятся большими, η n является суммой большого числа нез ависимых и
одинаково распределенных случайных величин. Поэтому можно
ожидать, что здесь применима центральная предельная теорема, которая позволяет описать случайную величину η n , а следовательно, и
случайный процесс N 1 (t) как гауссовский. Совершенно аналогично
можно считать процесс уходов N 2 (t) распределенным по нормальному закону. Это предположение о нормальном распределении N 1 (t) и
N 2 (t) и следовательно, их разности N(t)= N 1 (t)−N 2 (t), является
краеугольным камнем диффузионного прибл ижения СМО.
При диффузионном приближении предполагается, что процесс
поступлений N 1 (t) и процесс уходов N 2 (t) аппроксимируются марковскими диффузионными процессами, распределенными по нормал ь2
2
ному закону со средними N1 (t ) и N 2 (t ) и дисперсиями ζ N1 (t ) и ζ N 2 (t )
соответственно. Тогда число требований в СМО N(t) также является
нормальным случайным процессом со средним значением
N (t ) N1 (t ) N 2 (t ) и дисперсией ζ 2N (t ) ζ 2N1 (t ) ζ 2N 2 (t ) , так как дисперсии независимых процессов складываются.
Таким образом, для системы GI/G/1 среднее значение и дисперсия процесса N(t) равны
N (t )
ζ 2N (t )
ζ 2λ
(η λ ) 3
t
ηλ
ρ 1
t
ημ
t
ημ
ζ μ2
(η μ )
3
t
at ,
(c 2 λ c 2 μ )t
bt ,
2
2
где a и b – постоянные коэффициенты сноса и диффузии, а c , c −
квадраты коэффициентов вариаций N 1 (t) и N 2 (t) соответственно.
Аппроксимируем дискретный процесс N(t) диффузионным процессом x(t) (рис. 8.20), для которого dx(t)=x(t+dt)−x(t) имеет нормальное распределение со средним a·dt и дисперсией b·dt, т.е. x(t)
определяется
стохастическим
дифференциальным
уравнением
187
dx(t )
adt
bdt ξ(t ) . Процесс ξ(t) является белым гауссовским
шумом с нулевым средним и единичной дисперсией.
Плотность распределения вероятностей f(t,x) неограниченного
процесса х(t) удовлетворяет диффузионному уравнению Колмогор ова
f (t , x )
b
2
f (t , x )
f (t , x )
.
(8.77)
2
t
2
x
x
Дополним уравнение (8.77) граничным условием отражения в т.
x=0
[
b df ( , x)
2
dx
a
af ( , x)]
x 0
0.
(8.78)
X(t) N(t)
1
0
Y
0
t
T
Рис. 8.20
При t→∞ решение уравнения (8.77) при условии (8.78) для стационарной плотности распределения процесса x(t) имеет вид
f x
2|a|
exp
b
2|a| x
b
21 ρ
exp
ρC 2 C 2
21 ρ
,
ρC 2 C 2
(8.79)
где ρ=λ/μ. Это решение также может быть получено из (8.76). След ует ожидать, что такое диффузионное приближение даст хороший р езультат только при больших знач ениях загрузки (ρ≈1).
В качестве приближения стационарного распределения pˆ ( n)
числа заявок, находящихся в СМО можно использовать в ыражение
pˆ (n)
n 1
f x dx
1 ρ̂ ρ̂ n ,
n
0, 1, 2, ... ,
(8.80)
n
где ρ̂
exp
21 ρ
.
ρC 2 C 2
В связи с тем, что для СМО GI/G/1/
р(0)=1−ρ, распределение
длины очереди (8.80) можно модифицировать
188
pˆ (n)
1 ρ,
при n
ρ 1 ρ̂ ρ̂ n 1 ,
при n 1.
0
(8.81)
Точность метода диффузионного приближения можно явно проверить только для СМО, для которых известны точные ре зультаты.
Для СМО M/G/1 среднее количество заявок в системе дается формулой Поллачека-Хинчина
2
ρ 2 (1 c )
,
Ν ρ
2 1 ρ
2
где ρ −коэффициент загрузки, c − квадрат коэффициента вариации
времени обслуживания в СМО.
На рис. 8.21 приведены графики относительных п огрешностей δ
в % ,
δ
Ν
Ν1
Ν
% для различных значений квадрата коэффицие н2
та вариации времени обслуживания c . Эта погрешность мала при
с μ ≈1 и растет при отклонении с μ от единицы, однако δ стремится к
нулю при ρ→1, как и следовало ожидать.
Рис. 8.21
40
C
20
C
0
1
- 20
C
- 40
- 60
C
C
Таким образом, одномерное диффузионное приближение дает
приемлемое решение только при умеренных и больших загрузках.
Далее рассмотрим двумерное диффузионное пр иближение СМО.
8.6.4 Обобщенная двумерная диффузионная модель систем массового обслуживания типа GI/G/1/∞ с бесконечной очередью и GI/G/1/m с конечной очередью и потерями
189
Будем рассматривать двумерный диффузионный процесс ( х 1 , х 2 ),
где х 1 (t) аппроксимирует на периоде занятости число зая вок N 1 (t),
поступивших в СМО к моменту времени t, а х 2 (t) - число заявок
N 2 (t), покинувших СМО к тому же времени. Так что текущее знач ение N − числа заявок, находящихся в СМО, определяется разностью
целой части от x 1 и целой части от х 2 : N=[x 1 ] − [х 2 ]. Рассмотрим для
процессов х i (i=1,2) в области N≥0 моменты времени t первого достижения ординатой процесса целочисленного уровня k+1 при начальном условии х i (0)=k (приращение ∆х i =1). Из теории случайных
процессов известно, что плотность распределения вероятностей эт ого времени t имеет вид
1
gi t
2πbi t
3
e
1 ai t 2
2bi t
,
(8.82)
где a i и b i соответственно коэффициенты сноса и диффузии пр оцессов
x i (i=1,
2).
C
помощью
табличного
интегр ала
t ν 1e
β
γt
t
dt
0
2
β
γ
ν
2
K ν 2 βγ ,
где K ν (•)- функция Макдональда порядка ν, могут быть в ычислены
математическое ожидание и дисперсия распределения (8.82). Потр ебуем, чтобы компоненты двумерного диффузионного процесса ( х 1 ,
х 2 ) в моменты времени первого прохождения целочисленного уровня
имели средние значения и дисперсии, совпадающие соо тветственно
со средними значениями и дисперсиями компонент дискретного
процесса (N 1 , N 2 ). Тогда можно выразить коэффиц иенты сноса
ai
ηi 1 и bi
Di ηi 3 диффузии через среднее значение ηi и диспер-
сию D i интервала времени между скачками дискретного процесса N i .
В этом смысле на уровне двух первых моментов распределений пр оцессы x i и N i будут согласованными в моменты п оступления и ухода
заявок.
В области Ω, определенной условиями N≥0 и N m a x =m (m–
максимально допустимое число заяво к в СМО), плотность распределения f(t, x 1 , x 2 ) векторного диффузионного процесса ( x 1 , x 2 ) удовлетворяет уравнению Колмогорова
f
t
2
i
b
( i
1 2
2
f
xi2
ai
f
)
xi
(8.83)
В случае СМО с бесконечной очередью ( m→∞) граница Г 2 и следовательно граничное условие отражения на этой границе в пост ановке задачи отсутствуют.
190
Так как период занятости начинается с уровня x 1 =1, то начальным условием для уравнения (8.83) будет
f(0, x 1 , x 2 ) =δ( x 1 −1)δ( x 2 ), где δ(•)дельта функция Дирака.
Рассматривая функционирование СМО только на периоде зан ятости, к уравнению (8.83) добавим граничное условие поглощ ения
f =0 и граничное условие отражения на гр анице Г 2 – grad f
0.
| Г1
| Г2
Граница Г 1 , определенная условием [N]=0 имеет ступенчатый характер (рис. 8.22) и физически означает завершение п ериода занятости.
Распределение ординаты процесса x 1 в момент достижения границы
Г 1 позволяет определить все основные характеристики функцион ирования СMO.
Рассмотрим вначале случай СМО GI/G/1/∞, т.е. сосредоточимся
на поведении траектории 1 двумерного процесса ( x 1 , x 2 ) на периоде
занятости (рис. 8.22).
Вследствие сложного характера границы, решение уравнения
(8.83) в области Ω будем искать в виде совокупности решений в п одобластях Ω k = (x 1 ≤k+1, x 2 ≤k) (k=1,2,...). Обозначим через θ k (y 2 ) распределение ординаты процесса x 2 в момент прохождения процессом
(x 1 , x 2 ) границы x 1 =k+1 области Ω k и через ψ k (y 1 ) − распределение
ординаты процесса x 1 в момент достижения границы x 2 =k той же области. Рассмотрим состояние СМО с момента поступления заявки в
СМО (x 1 =k+1) до момента окончания периода занят ости (x 2 =k) (рис.
8.22).
Тогда из−за марковского характера рассматриваемых проце ссов
начальным условием для решения уравнения (8.83) в областях Ω k
будет распределение θ k - 1 y2 , известное на предшествующем шаге.
Решим теперь уравнение (8.83) и выведем рекуррентные формулы
для определения плотностей распределений ординаты процесса x 2 в
момент прохождения процессом (x 1 , x 2 ) границы x 1 =k+1 области
Ω k −θ k (y 2 ) и ординаты процесса x 1 достижения границы x 2 =k той же
области ψ k (y 1 ). Для этого рассмотрим величину θ k (y 2 )dy 2 , равную интегральному значению компоненты вектора потока вероятн остей
a1 f k t , x1 , x 2
b1 f k (t , x1 , x 2 )
2
x1
через площадку dy 2 границы x 1 =k+1:
θ k y 2 dy2
dy2
a1 wk
0
b1 wk
2 x1
x1 k 1
y2 k x2
dt .
191
x1
y1
Г2
2 1 y2
m+1
3
2
1
3
2
2
1
2
y2
Ω3
Г1
3
2
Ω2
1
1
Ω1
1
2
3
4
5
6
x2
Рис. 8.22
Обобщенная двумерная диффузионная модель функциониров ания СМО:
− траектория 1 – для СМО GI/G/1/∞;
− траектория 2 – для СМО GI/G/1/m.
Решение уравнения (8.83) в области Ω k , в которой x 1 (0)=k,
x 2 (0)= y2 −случайная величина с распределением θ k 1 ( y2 ) при нулевых граничных условиях может быть получено при помощи функции
Грина
Qk (t , x1 , x2 | k , y2 )
( x1 k a1t ) 2
1
exp[
2b1t
2π b1b2 t
2( x1 k 1) 2
2(kx2
{1 exp[
]} {1 exp[
b1t
y 2 x2 y 2 k
b2t
( x2
y 2 a2t ) 2
]
2b2t
k 2 )2
]}.
Здесь два первых сомножителя представляют собой фундаментал ьное решение уравнения (8.83) при дельт ообразном начальном распределении, а два последних сомножителя выражают нулевые гр аничные условия при x 1 =k+1 и x 2 =k. Решение f k будет выражаться через функцию Q k следующим образом:
θ k -1 ( y2 )Qk (t , x1, x2|k, y2 )dy2 .
f k (t , x1, x2 )
0
Отсюда, учитывая выражение для Q k , приходим к рекуррентной
формуле для определения θ k (y 2 ) (k=1,2,...):
θ k ( y2 )
θ k 1 ( y2 )Qθ ( y2 y2 )dy2
(θ1 ( y 2 )
Qθ ( y 2 | 0)),
(8.84)
0
192
где
Qθ(y 2|y2 )
γ
K1 (2 β1 γ )
β1
[
1
2b1
β1
1
a
exp[ 1
b1
π b1b2
a2
( y2
b2
y2 1)]
γ
K1 (2 β 2 γ )];
β2
( y2
γ
y2 1) 2
;
2b2
a12
2b1
a22
;
2b2
β2
1
2b1
( y2
y2 1) 2
;
2b2
y2 [0, );
K1 ( ) −функция Макдональда. Аналогичные рассуждения приводят к
следующему выражению для ψ k (y 1 ) (k=1,2,...):
ψ k ( y1 )
θ k-1 ( y2 )Qψ ( y1 /y2 )dy2 (ψ1 ( y1 ) Qψ ( y1 | 0)),
(8.85)
0
Qψ(y1|y2 )
где
[
β3
(1 y1 ) 2
2b1
1 y2
a
a2
exp[ 1 (1 y1 )
(1 y2 )]
b1
b2
π b1b2
γ
K1( 2 β 3 γ )
β3
(1 y2 ) 2
;
2b2
β4
γ
K1( 2 β 4 γ )];
β4
(1 y1 ) 2
2b1
(1 y2 ) 2
;
2b2
y1 [0, ).
Введем далее в рассмотрение случайную величину ηλ – остаточное время, в течение которого СМО ожидает поступления непосре дственно следующей заявки (время простоя СМО) и обозн ачим через
ηλ и Dλ - среднее и дисперсию остаточного времени ηλ , а через p0 –
вероятность того, что обслуженная заявка оставляет СМО пу стой.
Через эти параметры можно выразить среднее значение и ди сперсию времени между заявками в выходном потоке из СМО.
Определим теперь параметры двумерного диффузионного пр иближения p0 , ηλ и Dλ , необходимые для вычисления характер истик
выходного потока из СМО. Плотность распред еления вероятностей
ψ y1
ψ k y1 ординаты процесса x 1 в момент достижения процесk 1
сом (x 1 , x 2 ) границы Г 1 позволяет определить остаточное время
ожидания ηλ (время простоя СМО). При известном зн ачении y 1 (рис.
8.22) ордината процесса x 1 должна получить приращение y 1 для того,
чтобы процесс N 1 изменился на единицу, т.е. поступила заявка в
193
пустую СМО. Условное распределение вр емени достижения уровня
y 1 , процессом (x 1 , x 2 ) имеет вид:
g (t | y1 )
1
2 πb1 t
3
exp[
( y1
a1t ) 2
]
2b1t
с параметрами ηλ ( y1 ) ηλ y1 и Dλ ( y1 ) Dλ y1 , где ηλ и Dλ соответственно среднее и дисперсия времени между соседними заявками во
входном потоке.
( y1 mψ ) 2 ψ( y1 )dy1 соответст-
y1ψ( y1 )dy1 и Dψ
Пусть mψ
0
0
венно математическое ожидание и дисперсия распределения ψ( y 1 ).
Тогда искомые параметры
η λ η λ mψ ,
(8.86)
Dλ
Dλ mψ
ηλ2 Dψ
(8.87)
выражаются через известные параметры входного потока ηλ и
D λ −среднего и дисперсии времени между соседними заявками и ра спределения ψ(y 1 ). Обозначим через p k вероятность того, что за весь
период занятости в СМО пришло ровно k заявок (k=1,2,...)
ψ k (y1 )dy1 .
pk
0
Пусть за достаточно большой интервал времени Т имело место m периодов занятости. Из них в среднем за m i =m·p i (i=1,2,...) периодов
занятости через СМО прошло ровно i заявок. Тогда вероятность p0
того, что обслуженная заявка оставляет СМО пустой может быть выражена через вероятности p k
m
1
i mi
i pi
p0
i 1
.
(8.88)
i 1
Таким образом, все три неизвестных параметра двумерной ди ффузионной аппроксимации СМО определены.
Рассмотрим теперь поведение траектории 2 двумерного диффузионного процесса (х 1 , х 2 ), что отражает функционирование СМО
GI/G/1/m с ограниченной очередью и потерями. Граница Г 2 определена максимально допустимым количеством m заявок в СМО и имеет
ступенчатый характер (рисунок 8.22).
При достижении траекторией процесса ( х 1 , х 2 ) границы Г 2 , ордината процесса х 1 мгновенно должна сдвинуться вниз на единицу, что
будет означать потерю очередной «лишней» заявки. Тогда видои з194
менятся рекуррентные формулы для вычисления стационарного ра спределения ординаты х 2 процесса (х 1 , х 2 ) θ k (y 2 ) по формуле (8.84), а
именно начиная с номера k=m−1, где m−максимально допустимое
число заявок в СМО
θ k y2
θ k y2 , если 0
θ k y2
θk
1
y2
m 1;
y2 , если m 1
y2
и m
y2
.
(8.89)
Другими словами, после вычисления распределения θ k (y 2 ) по
формулам (8.84), их нужно пересчитать по формуле (8.89). Тогда по
вероятностному смыслу распределений θ k (y 2 ) на границе Г 2 , можно
сразу определить вероятность потери з аявки
θ k y2 dy2 .
pотк
(8.90)
k mm
Что же касается формул (8.86) – (8.88) для вычисления параметров двумерной диффузионной аппроксимации p0 , η λ и D , то они
останутся такими же, изменятся только величины m ψ и D ψ , входящие
в них в силу пересчета распределений θ k (y 2 ) по (8.89).
Определим теперь характеристики СМО. Из соотношения (8.88)
следует, что величина 1/ p0 выражает среднее количество заявок,
прошедших через СМО за период занятости. Тогда средняя длина
периода занятости Y в СМО может быть определена через параметр
p0
Y
ημ
i
i mi
1 m
ημ /p0 ,
(8.91)
где ημ − среднее время обслуживания заявки в СМО. Из соотнош ения
(8.88) следует, что средняя длина периода пр остоя I
(8.92)
I p0 ηλ /p0 ,
где p0 =1−ρ, а ηλ – среднее интервалов времени между соседними
заявками во входном потоке.
Среднее время ожидания, как известно, может быть выражено
через первые два начальных момента распределения случайной в еличины I−периода простоя
W
Dλ
Dμ
η λ2 (1 ρ) 2
2η λ (1 ρ)
I2
,
2I
(8.93)
где D μ - дисперсия времени обслуживания.
Определим математическое ожидание квадрата случайн ой величины I. Для этого заметим, что I= ηλ , откуда учитывая (8.87), пол учим
195
I2
Dλ mψ
ηλ2m2ψ .
(8.94)
Подставляя (8.94) в (8.93), окончательно пол учим
W
Dλ
Dμ
p02 η λ2
p0 Dλ
p0 η λ2 m2ψ
2 p0 η λ
.
(8.95)
Среднюю длину очереди можно определить по формуле Литлла
N q λW ,
(8.96)
а среднее количество заявок N в СМО − по формуле
N λ(W ημ ) λU .
(8.97)
Точность метода обобщенной двумерной диффузионной аппро ксимации с использованием разработанной программы VNGG1, которая входит в интерактивную систему вероятностного модел ирования
вычислительных систем (PROBMOD), исследована для широкого
диапазона изменения параметров входного потока и закона обслуж ивания. При этом коэффициент загрузки ρ варьир овался от 0,1 до 0,9,
а коэффициенты вариаций распределений длин интервалов между
заявками во входном потоке C λ и времени обслуживания C μ – от 0 до
5.
В табл. 8.5 приведены значения среднего количества заявок N в
узле, а для сравнения в этой же таблице приведены значения N , полученные имитационным моделированием. Анализ этих данных п оказывает, что точность метода обобщенной двумерной диффузио нной аппроксимации, несомненно, выше точности известных м етодов
одномерной диффузионной аппроксимации. Таким образом, относ ительная погрешность предлагаемого метода для широкого диапазона
изменения параметров примерно равномерна и не пр евышает 10%.
При проведении экспериментов в качестве одного из параме тров
моделирования задавалось количество циклов занятости, кот орое в
зависимости от загрузки изменялось от 1000 до 20000.
Табл. 8.5
N
C
C
0,1
0,1
0,5
1,0
0,1
0,5
1,0
2,0
5,0
0,100
0,101
0,111
0,101
0,111
0,096
0,101
0,101
0,111
0,10
0,112
0,10
0,105
0,101
0,111
0,102
0,115
0,101
0,117
0,103
0,117
0,113
0,125
0,119
0,211
0,214
0,220
0,220
0,232
0,242
196
2,0
5,0
0,1
0,5
0,3
1,0
2,0
5,0
0,1
0,5
0,5
1,0
2,0
5,0
0,1
0,5
0,7
1,0
2,0
5,0
0,1
0,9
0,5
1,0
0,118
0,108
0,421
−
0,302
0,301
0,315
0,308
0,334
0,336
0,518
−
4,522
−
0,506
0,500
0,534
0,556
0,670
0,676
1,748
−
11,449
−
0,715
0,70
0,844
0,907
1,459
1,439
4,691
3,794
27,959
21,754
0,964
0,934
1,996
1,940
5,145
4,974
0,122
0,129
0,394
−
0,314
0,301
0,320
0,317
0,352
0,362
0,545
−
4,361
−
0,534
0,500
0,576
0,589
0,741
0,751
1,704
1,108
11,421
−
0,844
0,773
1,019
1,040
1,652
1,665
4,817
4,034
28,093
21,863
1,913
1,740
2,925
2,801
6,110
5,939
0,133
0,148
0,431
0,506
0,340
0,315
0,351
0,349
0,404
0,401
0,640
0,472
4,367
−
0,671
0,647
0,737
0,738
0,945
0,954
1,911
1,531
11,633
−
1,384
1,360
1,601
1,608
2,285
2,285
5,423
4,868
28,750
22,984
4,848
4,718
5,886
5,794
9,096
8,968
0,171
0,154
0,586
0,459
0,489
0,519
0,521
0,605
0,606
0,924
0,846
4,560
−
1,344
1,376
1,446
1,467
1,714
1,713
2,764
2,565
12,535
−
3,746
3,779
3,990
4,040
4,732
4,742
7,834
7,470
31,460
29,049
16,798
16,881
17,831
17,918
21,062
21,072
0,360
0,315
1,076
−
1,746
1,824
1,824
1,855
1,961
1,948
2,397
2,307
6,142
−
6,429
6,596
6,607
6,691
6,934
6,959
8,145
7,902
17,945
−
20,561
20,912
20,949
21,142
21,747
21,878
24,864
24,556
48,791
44,863
100,819
101,826
102,213
102,899
105,380
106,163
197
Продолжение табл. 8.5
2,0
5,0
18,135
17,551
111,128
107,642
19,036
18,317
112,004
107,616
22,112
21,317
115,126
−
34,153
33,796
127,566
−
118,207
117,274
212,596
−
1 – я строка – результаты двумерного диффузионного приближ ения,
2 – я строка – результаты имитационного моделиров ания.
198
9 МОДЕЛИРОВАНИЕ СЛУЧАЙНЫХ ВЕЛИЧИН, ПРОЦЕ ССОВ И ПОТОКОВ СОБЫТИЙ
9.1 Генерирование и статистический анализ псевдослуча йных
чисел
Рассмотрим последовательность чисел γ 0 ,γ 1 ,…, порождаемую рекуррентным уравнением
γ i + 1 ={Mγ i },
(9.1)
где М−целое (М>1), {A} означает дробную часть А. Для некоторого
множества начальных значений γ 0 последовательность, порождаемая
уравнением (9.1), будет равномерно распреде ленной в интервале
(0;1) и при достаточно больших значениях М по своим свойствам
близка к последовательности т.н. базовых случайных чисел.
Уравнение (9.1) преобразуем к форме, приспособленной к ари фметике с фиксированной запятой и ограниченной длиной ра зрядного
слова
ε i + 1 ≡ M ε i (mod p),
(9.2)
где ε i – целые положительные числа, не превышающие p; p − некоторая целая константа. Соотношение (9.2) определ яет значение ε i + 1
как остаток от деления произведени я M ε i на p. Очевидно, что значения элементов последовательн ости (9.1) равны γ i = ε i /p.
Последовательность (9.2) имеет период. Как только некоторое
значение ε n будет равно начальному (или некоторому другому,
имевшему уже место) значению, числа генерируем ые уравнением
(9.2), будут повторяться.
В соответствии с требованиями, предъявляемыми к генерат орам
псевдослучайных последовательностей, желательно, чтобы длина
периода была максимальной. Она будет зависеть от модуля p и начального значения ε 0 .
Учитывая двоичный способ представления чисел в ЭВМ, огран ичимся рассмотрением случая
ε i + 1 = Mε i (mod 2 S ),
(9.3)
-S
где S – длина разрядной сетки; γ i = ε i ·2 .
Качество псевдослучайных последовательностей определяетс я
проверкой их равномерности распределения и взаимной независим ости с помощью различных статистических тестов. Мы же в лабор аторных работах для этого будем использовать критерий согласия
Пирсона – χ 2 или же критерий Колмогорова – Смирнова.
Ниже на рисунке 9.1 приводится схема алгоритма генератора
псевдослучайных чисел RANDU (IX,IY,YFL) для 32-разрядной ЭВМ.
199
Начало
Ввод IX
IY=IX·65539
–
IY<0
+
IY=IY+2147483647+1
YFL=IY
YFL=YFL·0.4656613E-9
Конец
Рис. 9.1 – Схема алгоритма генератора псевдослучайных чисел
RANDU
Здесь последовательность псевдослучайных чисел определяется
из рекуррентного соотношения
ε i + 1 = (65539ε i ) mod 2 3 2 ,
(9.4)
Использованные обозначения: IX – начальное значение, любое
нечетное целое число, меньшее 2 3 2 ;
IY – получаемая целочисленная случайная величина,
YFL – получаемая случайная величина из интервала (0;1).
9.2 Моделирование непрерывных случайных вел ичин
Рассмотрим методы моделирования непрерывной случайной в еx
личины Х. Пусть f(x) – плотность распределения, а F ( x)
f ( x)dx −
функция распределения вероятностей случайной величины Х. Обо200
значим через F - 1 (y) – функцию, обратную к F(x). Покажем, что распределение случайной величины
x=F - 1 (δ),
(9.5)
где δ – базовая случайная величина, имеет функцию распредел ения
F(x). Действительно (рис. 9.2),
P(X<x)=P[δ<F(x)]=F(x).
Следовательно, алгоритм моделирования непрерывной случа йной величины сводится к определению значения этой величины по
(9.5) через реализацию базового случа йного числа.
F(x)
1
ξ
0
x
x
Рис. 9.2
В качестве примера рассмотрим экспоненциальное распредел ение с плотностью f(x)=λe - λ x , x≥0 и функцией распределения F(x)=1−e λx
, x≥0. Находим обратную функцию распределения x=(−1/λ)lnδ, которая и определяет алгоритм моделир ования.
Недостатком алгоритмов обратной функции является вычисление
функции, обратной функции распределения. Большинство распред елений не позволяет определить эту
функцию в явном виде через
элементарные функции. Поэтому трудоемкость алгоритмов опред еляется трудоемкостью решения относительно х уравнения вида
x
f ( x)dx δ .
(9.6)
Другой, широко используемый метод моделирования, состоит в
представлении исходного распределения в виде смеси других, более
простых с точки зрения имитации распределений:
f(x)=p 1 f 1 (x)+p 2 f 2 (x)+…+p S f S (x),
(9.7)
где p 1 +p 2 +…+p s =1, f i (x) – некоторые плотности распределения. Тогда
имитация осуществляется в два этапа. Сначала имитируется выбор
одного из S распределений, затем разыгрывается значение случайной
величины с этим распределением. Первое базовое число используе тся для моделирования дискретной случайной величины с рядом ра спределения вероятностей (p 1 ,p 2 ,…,p S ), второе (или последующие) –
201
для моделирования случайной величины с распределением f i (x)
(i=1,2,…,S) в зависимости от предшествующего р езультата.
Укажем ещѐ один способ моделирования случайных величин.
Так, нормальное распределение, распределение Эрланга, χ 2 – распределение и ряд других могут быть представлены в виде суммы
(композиции) более простых сл учайных величин.
В таблице 9.3 приведены алгоритмы имитации распределений,
рассмотренных в разделе 2.
Как правило, при решении важных задач методом имитационн ого моделирования исследователь проверяет качество ген ерирования
псевдослучайной последовательности.
Эта задача решается с использованием критериев согласия. Отл ичие применения этих критериев при оценке качества генерир ования
от классической задачи сглаживания статистических рядов заключ ается в том, что исследователь априори задаѐт закон ра спределения и
требуемые значения параметров псевдослучайной (сгенерированной)
последовательности, а при решении задачи сглаживания необходимо
решить задачу идентификации закона распред еления.
При оценке качества генерирования псевдослучайной последовательности в качестве теоретического закона распределения возмо жно использование:
1. заданного закона распределения с заданными пар аметрами;
2. заданного закона распределения с уточненными параметр ами
путѐм решения задачи аппроксимации закона распределения тем или
иным способом.
Рассмотрим последовательность этапов решения задачи оценки
качества генерирования применительно ко второму случаю, как б олее общему (рис. 9.3).
После ввода исходных данных первым шагом в решении этой з адачи является построение гистограммы наблюдаемого статистич еN
ского ряда {xi }i 1. Для этого необходимо выполнить следующие
этапы:
1. Определить диапазон изменения статистического ряда
x m i n −x m a x .
2. Определить ширину дифференциального коридор а:
Δx
xmax
xmin
M
,
(9.7)
где М – количество дифференциальных коридоров.
3.Определить частоту попадания анализируемой случайной в еличины в j-ый дифференциальный коридор:

pj
1 N
δ ij ,
Ni 1
(9.8)
202
1, если ent
где
δij
1
, если xi
2
xi
xmin
Δx
1
jΛxi
jΔx
xmax ;
(9.9)
0, иначе
− индикатор состояния.
Следует отметить, что δ i , j + 1 =1/2, если x i =jΔx
случае в j и j+1 коридоры добавляется по 1/2.
x≠x m a x , т.е. в этом
Начало
Начало
Ввод ПСП
Построение
гистограммы, оценка
статистических
характиристик
Выбор метода
аппроксимации,
критерия
приближения
Составление
системы уравнений
Выбор численного
метода и решение
системы уравнений
Критерии согласия
Конец
Конец
203
Рис. 9.3 – Схема алгоритма оценки качества
генерирования ПСП
4. Если частота попадания в какой-либо k-ый дифференциальный
коридор мала (p j <0,01÷0,02), то для уменьшения влияния случайн ости его объединяют с k+1 коридором. Эта операция может быть пр именена неоднократно.
Исходным материалом для построения гистограммы является
сгруппированный по дифференциальным коридорам статистич еский
ряд, представленный, как правило, в виде таблицы (см. табл. 9.1),
где hˆ j
pˆ j /Δ x j
Статистический ряд
Табл. 9.1
p̂ j
j x
0,099
ĥ j
0,99
1,006 1,003
0,1008 0,0997 0,0996
p̂ j
j x
ĥ j
0,1
0,1006 0,1003 0,0989 0,099 0,1067 0,0954
0,2
0,3
0,8
0,9
1
1,008
0,997
0,996
0,4
0,5
0,6
0,7
0,989
0,99
1,067
0,954
После построения гистограммы и оценки статистических хара ктеристик решают задачу уточнения параметров распределения, и спользуя тот или иной метод аппроксимации закона распредел ения.
Заключительным этапом решения задачи является проверка к ачества генерирования с использованием критериев согласия. Прим енение критериев согласия здесь полностью аналогично т ому, как это
делалось в п. 7.5. На основании данного статистич еского материала
необходимо проверить гипотезу H, состоящую в том, что случайная
величина Х подчиняется заданному закону распределения. Введем
случайную величину U, являющуюся мерой расхождения теоретич еского и статистического распределений. Закон распределения этой
случайной величины f u (u) зависит как от закона распределения сл учайной величины X, так и от числа опытов N. Если гипотеза Н верна,
то f u (u) определяется законом распределения f a (х) и числом опытов
N.
Вычислим вероятность события Р(u ≤ U) = Р д . Если эта вероятность мала, то гипотезу следует отвергнуть как малоправдоподо бную, если значительна − экспериментальные данные не противор ечат гипотезе Н. Далее в лабораторных работах будут испол ьзованы
критерии Пирсона и Колмогорова – Смирнова.
204
Если уточнение параметров распределения сгенерированной п оследовательности не производится, т.е. не решается задача аппро ксимации законов распределения, оценка качества генерирования
ПСП производится с использованием в качестве теорети ческого распределения заданного закона с заданными пар аметрами.
Для уточнения параметров распределения часто применяется м етод моментов. Согласно этому методу, параметры распределения
α 1 ,…,α m выбираются таким образом, чтобы несколько важнейших
числовых характеристик (моментов) теоретического распр еделения
были равны статистическим характеристикам. При составлении
уравнений для определения неизвестных параметров, как правило,
выбирают моменты низших порядков. Общими рекомендациями я вляются здравый смысл и простота решения полученной системы
уравнений. Рассмотрим несколько прим еров.
Определим параметры аналитического выражения плотности
распределения вероятностей генератора «белого шума» − стандар тной программы ПЭВМ. Теоретически закон распределения должен
1
быть равномерным f x(x)
b a
,a
x b с параметрами a=0, b=1.
Гистограмма приведена на рис. 9.4, а данные для расчѐтов − в
таблице 9.1.
«Белый шум»
(10 коридоров)
1,2
1
0,8
0,6
0,4
0,2
0
1
2
3
4
5
6
7
8
9 10
Рис. 9.4
Уравнения для определения двух неизвестных параметров ра спределения могут быть составлены различными способами. Потребуем, например, чтобы у статистического и теоретического распр еделений совпадали математическое ожидание и диспе рсия:
205
mˆ x
a b
;
2
Dˆ x
(b a)2
.
12
(9.10)
Отметим, что оценка начальных моментов статистического ряда
определяется выражением:
M
aˆk
k
x j pˆ j ,
(9.11)
j 1
где x j - среднее значение j интервала, а центральных –
k
μ̂ k
( 1 )s Cks α̂ k s mˆ xs .
(9.12)
s 0
Эта система уравнений имеет аналитическое решение:
a
mˆ x
3ζ̂ x
b
mˆ x
3ζ̂ x .
(9.13)
Для данного статистического распределения
mˆ x
Dˆ x
0,4994;
ζ̂ x
0,286719.
0,082208;
(9.14)
Подставив найденные оценки в выражения (9.13), получим:
а=0,003327, b=0,996553. Отсюда видно, что рассчитанные пар аметры
закона распределения незначительно, но отличаются от заданного
при генерировании. Следовательно, при проведении ст атистического
моделирования целесообразно проверять качество программных г енераторов и оценивать его реальные характер истики.
Применив критерий Пирсона, вычислим значение
2
χ = 7,77, что соответствует вероятности Р д >0,3 (приложение табл. 4).
Таким образом, можно принять гипотезу о том, что данный стат истический ряд соответствует равномерному распределению с на йденными параметрами.
Преимуществом метода моментов является простота определ ения
параметров распределения, недостатком − неоднозначность в выборе
уравнений, которых может быть большое кол ичество.
9.3 Задание №8 на самостоятельную работу
1. Сгенерировать временной ряд с заданным законом распред еления с объѐмом выборки, равным N=500 (количество реализации
для каждого модельного эксперимента равно 29).
206
2. Проверить качество генерирования, воспользовавшись для о пределения параметров аналитического выражения законов распред еления методом моментов.
3. Определить погрешности оценки параметров мод ели.
4. Пункты 1−3 повторить для объѐмов выборки N=1000, 2000,
5000.
9.4 Содержание отчѐта
1. Цель работы.
2. Метод и алгоритм моделирования некоррелированных време нных рядов для заданного закона распредел ения.
3. Обратная функция закона распределения вероятн остей.
4. Пример реализации некоррелированного временного ряда.
5. Примеры гистограмм для различного объѐма выборки −
N=500, 1000, 2000, 5000, М=20.
6. Значения параметров, определенные по методу моментов, и
модуль относительной погрешности оценки параметров закона ра спределения для N=500, 1000, 2000. 5000, представленные в табли чной форме (количество реализации для каждого модельного эксп еримента равно 29). Для определения параметра закона распредел ения и вычисления погрешности оценки параметра можно воспольз оваться пакетом Excel.
7. Графическая зависимость максимальной по модулю относ ительной погрешности оценки параметров закона распределения от
объѐма выборки − N=500, 1000, 2000, 5000. Для построения графических зависимостей можно воспользоваться пакетом Excel.
8. Выводы по работе.
Пример оформления результатов выполненной лабораторной р аботы для экспоненциального закона распределения приведен ниже
(пункты 4−7 отчѐта).
207
Рис. 9.5 − Генерирование ПСП с экспоненциальным законом ра спределения методом инверсного преобразован ия
208
Рис. 9.6 − Пример генерирования ПСП с экспоненциальным зак оном распределения
209
Рис. 9.7 − Пример генерирования ПСП с экспоненциальным зак оном распределения
210
Табл. 9.2 − Значения параметров, определенные по методу м оментов, и относительные погрешн ости оценки параметров закона
распределения
N=500
N=1000

№ α1


λ 1 / α1 δ
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
1,023301
1,040659
1,055888
0,987947
0,986923
0,938853
0,954599
1,017895
0,984126
1,102159
0,949253
1,030907
1,079226
1,060322
1,090786
1,093601
1,022129
1,018589
1,028225
0,951674
0,992457
1,043482
0,965577
1,143275
0,939876
1,041743
1,037215
0,961067
1,006451
0,97723
0,96093
0,94707
1,0122
1,01325
1,06513
1,04756
0,98242
1,01613
0,90731
1,05346
0,97002
0,92659
0,94311
0,91677
0,91441
0,97835
0,98175
0,97255
1,05078
1,0076
0,95833
1,03565
0,87468
1,06397
0,95993
0,96412
1,04051
0,99359
1
2
3
4
5
1,00292
0,99638
1,00708
0,98824
1,02102

λ λ № α
1
λ
0,023301
0,040659
0,055888
-0,01205
-0,01308
-0,06115
-0,0454
0,017895
-0,01587
0,102159
-0,05075
0,030907
0,079226
0,060322
0,090786
0,093601
0,022129
0,018589
0,028225
-0,04833
-0,00754
0,043482
-0,03442
0,143275
-0,06012
0,041743
0,037215
-0,03893
0,006451
N=2000
0,997089
1,003633
0,99297
1,0119
0,979413
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
-0,00291
0,003633
-0,00703
0,0119
-0,02059
0,94009
0,99149
1,01004
0,98566
1,02001
0,92825
1,02934
1,0109
0,99031
1,0059
0,94411
0,99562
0,9987
0,9672
1,1127
0,98334
1,01539
1,04018
0,98262
1,0151
0,99286
0,925
1,02148
0,97933
0,99113
1,00296
1,00701
1,01401
0,99266
1
2
3
4
5

λ λ
λ


λ 1 / α1
δ
1,063728
1,008583
0,99006
1,014549
0,980383
1,077296
0,971496
0,989218
1,009785
0,994135
1,059199
1,004399
1,001302
1,033912
0,898715
1,016942
0,984843
0,961372
1,017687
0,985125
1,007191
1,081081
0,978972
1,021106
1,008949
0,997049
0,993039
0,986184
1,007394
0,063728
0,008583
-0,00994
0,014549
-0,01962
0,077296
-0,0285
-0,01078
0,009785
-0,00587
0,059199
0,004399
0,001302
0,033912
-0,10129
0,016942
-0,01516
-0,03863
0,017687
-0,01488
0,007191
0,081081
-0,02103
0,021106
0,008949
-0,00295
-0,00696
-0,01382
0,007394
1,02181
0,98327
0,99148
0,98502
1,02117
N=5000
0,978656
1,017015
1,008593
1,015208
0,979269
-0,02134
0,017015
0,008593
0,015208
-0,02073
211
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
0,99564
0,96806
0,98639
1,02966
0,99591
0,99639
1,02298
0,99853
0,99237
0,99152
1,02363
1,00942
1,00899
0,98241
0,98853
0,9678
1,00999
0,98163
0,95262
0,9806
1,02819
1,01243
0,99446
0,97052
1,004379
1,032994
1,013798
0,971194
1,004107
1,003623
0,977536
1,001472
1,007689
1,008553
0,976915
0,990668
0,99109
1,017905
1,011603
1,033271
0,990109
1,018714
1,049737
1,019784
0,972583
0,987723
1,005571
1,030375
0,004379
0,032994
0,013798
-0,02881
0,004107
0,003623
-0,02246
0,001472
0,007689
0,008553
-0,02308
-0,00933
-0,00891
0,017905
0,011603
0,033271
-0,00989
0,018714
0,049737
0,019784
-0,02742
-0,01228
0,005571
0,030375
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
1,00947
1,00089
1,01286
0,98589
0,98445
0,99633
0,99761
0,99352
1,00774
1,00557
1,01113
0,99911
1,00916
0,99684
1,01254
1,00414
0,99648
1,01124
1,00915
1,00342
0,98785
0,98125
0,99468
1,02684
0,990619
0,999111
0,987303
1,014312
1,015796
1,003684
1,002396
1,006522
0,992319
0,994461
0,988993
1,000891
0,990923
1,00317
0,987615
0,995877
1,003532
0,988885
0,990933
0,996592
1,012299
1,019108
1,005348
0,973862
-0,00938
-0,00089
-0,0127
0,014312
0,015796
0,003684
0,002396
0,006522
-0,00768
-0,00554
-0,01101
0,000891
-0,00908
0,00317
-0,01238
-0,00412
0,003532
-0,01112
-0,00907
-0,00341
0,012299
0,019108
0,005348
-0,02614
212
Параметр закона распределения N=500
Параметр закона распределения N=1000
1,2
1,2
1
1
0,8
λ 0,6
0,8
λ 0,6
0,4
0,4
0,2
0
0,2
0
10
0
20
Параметр закона распределения N=2000
1,2
1
1
0,8
λ 0,6
0,8
λ 0,6
0,4
0,4
0,2
0
0,2
0
5
10
15
20
25
30
20
30
Параметр закона распределения N=5000
1,2
0
10
0
30
0
5
10
15
20
25
30
Минимальное значение модуля погрешности
0,16
0,14
0,12
0,1
δ 0,08
0,06
0,04
0,02
0
1000 2000 3000 4000 5000
Рис. 9.8 − Результаты моделирования
213
Табл. 9.3
Вид
распределения
Равномерное U(a,b)
Гистограмма
Плотность
1
,a
b a
x b
s
pi f i(x),
i 1
s
pi
Алгоритм
x=a+(b–a)ξ
Сначала
имитируется
дискретная
величина
i,
заданная
рядом распределения p i
x = m x +εζ:
Центральная
предельная
теорема
i 1
Нормальное
N(0, 1)
1
e
2πζ
Экспоненциальное
expo(β),
β=1/λ
Эрланга
порядка S
λe
Гиперэкспоненциальное
s
λx
2ζ
2
ε
ξi 6
0
x
1
lnξ
λ
,x
x
1
ln(ξ1...ξ s )
λ
λx
0
ξ 1 →i;
1
x
lnξ 2
λ
pi f i(x),
i 1
s
pi
12
i 1
,x
x se
s!
– равнораспредепараметbi
( x mx ) 2
1,
i 1
где f i (x) – экспоненциальное распределение с параметрами λ i
Вейбулла
αβ
Weibull (α,
β)
α α 1
x
α
e ( x / β) ,
x≥0
−
ξ 1 →i;
x=a i +(b i −a i )ξ 2
1,
где f i (x)
мерное
ление с
рами a i и
Примечания
Сумма s экспоненциальных величин.
См. примечание к распределению «гистограмма»
х=β(−lnξ) 1 / α
9.5 Аппроксимация законов распределения
9.5.1 Задача сглаживания статистических рядов. Теоретические
основы лабораторной работы
Необходимость в решении такой задачи возникает при обр аботке
результатов научных исследований, комплексных испытаний с ц е214
лью построения аналитических моделей законов распределения сл учайных величин, процессов, потоков событий.
Одним из методов, применяемых для решения задачи сглажив ания статистических рядов, является метод момен тов, рассмотренный
выше в п. 9.2.
Другим способом решения задачи сглаживания статистических
рядов является определение параметров аналитического выраж ения,
удовлетворяющих минимуму квадратической погрешности аппро ксимации:
M
fˆx x j
f a x j ,β1, β 2 ,...
2
min,
(9.15)
j 1
где M − число дифференциальных коридоров;
fˆx x j = pˆ j /
j – значение плотности распределения вероятн остей
в середине
j-го дифференциального коридора x j ;
f a x j , β1 , β 2 ,... − аналитическое выражение с неизвестными п араметрами.
Условиями минимума погрешности
является следующая система уравнений:
Δ
β1
Δ
β2
M
j 1
M
fˆx x j
f a x j , β1, β 2 ,...
fˆx x j
f a x j , β1, β 2 ,...
f a x j , β1, β 2 ,...
0;
β1
f a x j , β1, β 2 ,...
j 1
0;
β2
(9.16)
. . . . . .
Сложность этой системы зависит от вида аналитического выраж ения и числа неизвестных параметров, подлежащих определению. Как
правило, решение этой системы возможно лишь приближенными м етодами.
Так, например, при однопараметрической аппроксимации с и спользованием метода Ньютона, неизвестный параметр определяе тся
в результате решения следующего ура внения
M
βn
1
fˆx x j
fa x j , βn
j 1
βn
M
j 1
fˆx x j
2
fa x j , βn
fa x j , β
β
fa x j , β
fa x j , β
β2
β
. (9.17)
2
β βn
215
В качестве начального приближения можно выбрать значение
параметра, определенное по методу моментов.
Алгоритм завершает свою работу, когда выполняется следу ющее
условие:
βn 1 βn
,
(9.18)
где ε − погрешность вычисления параметра, задаваемая исследоват елем.
Для нахождения параметров двухпараметрического закона ра спределения необходимо решить систему уравнений (9.16) для дв умерного случая:
M
f1
[ fˆx ( x j )
f a ( x j , β1, β 2 )]
f a ( x j , β1, β 2 )
j 1
β1
M
f a ( x j , β1, β 2 )
f2
[ fˆx ( x j )
f a ( x j , β1, β 2 )]
β2
j 1
0;
(9.19)
0.
Решить эту систему можно только приближенными методами,
например, методом Ньютона. Воспользовавшись формулой для р ешения системы двух уравнений с двумя неизвестными по методу
Ньютона, получим:
β1( n
1)
β1( n)
β (2n
1)
β (2n)
1
f
( 2 f1 (β1( n) , β (2n) )
Δ β2
1
f
( 1 f 2 (β1( n) , β (2n) )
Δ β1
f1
f 2 (β1( n) , β (2n) )) ,
β2
f2
f1 (β1( n) , β (2n) ))
β1
(9.20)
(9.21)
где
Δ
f1 f 2
β1 β 2
f1
β2
f2
.
β1
Для вычислений необходимо знать значения частных произво дных
по неизвестным параметрам функций f 1 и f 2 . Их выражения приведены в формулах (9.22) − (9.25).
f1
β1
f2
β2
M
[ fˆx ( x j ) f a ( x j , β1, β 2 )]
2
β12
j 1
M
[ fˆx ( x j ) f a ( x j , β1, β 2 )]
j 1
f a ( x j , β1, β 2 )
2
f a ( x j , β1, β 2 )
β 22
[
[
f a ( x j , β1, β 2 )
β1
]2 , (9.22)
f a ( x j , β1, β 2 )
β2
]2 , (9.23)
216
M
f1
β2
f2
β1
M
[ fˆx ( x j )
2
f a ( x j , β1, β 2 )]
f a ( x j , β1, β 2 )
β1 β 2
j 1
f a ( x j , β1, β 2 )
f a ( x j , β1, β 2 )
β1
β2
[ fˆx ( x j ) f a ( x j , β1, β 2 )]
j 1
2
f a ( x j , β1, β 2 )
(9.24)
,
2
β 2 β1
f a ( x j , β1, β 2 )
β 2 β1
. (9.25)
При аппроксимации плотностей распределения вероятностей в
качестве аргумента используется середина дифференциального к оридора, что, в свою очередь, вносит дополнительные погрешности
при анализе асимметричных законов распределения. От этого недо статка свободна аппроксимация функций распределения вероятн остей.
Задача аппроксимации статистического ряда функциями распр еделения вероятностей ставится а налогично задаче аппроксимации
плотностей распределения вероятностей:
M
[ Fˆx ( x j ) Fa ( x j , β1, β 2 ,)]2
min ,
(9.26)
j 1
где M − число дифференциальных кор идоров;
j
Fˆx ( x j )
pˆ s
s 1
значение функции распределения вероятностей в конце j–го дифференциального коридора x j ;
Fa ( x j , β1 , β 2 , ...)
аналитическое выражение с неизвестными параметрами β 1 ,β 2 ,… .
Условиями минимума погрешности
является следующая система уравнений:
M
β1
β2
[ Fˆx ( x j ) Fa ( x j , β1 , β 2 , )]
Fa ( x j , β1 , β 2 , )
j 1
β1
M
Fa ( x j , β1 , β 2 , )
[ Fˆx ( x j ) Fa ( x j , β1 , β 2 , )]
j 1
β2
0;
0;
(9.27)
. . . . . . .
При однопараметрической аппроксимации с использованием м етода Ньютона, неизвестный параметр определяется в результате р ешения следующего уравнения:
217
M
βn
1
Fˆx x j
Fa x j , β n
Fa x j , β
β
j 1
βn
M
Fˆx x j
2
Fa x j , β n
j 1
Fa x j , β
Fa x j , β
β2
β
, (9.28)
2
β βn
и дальше все расчеты производятся аналогично случаю с плотност ями вероятностей.
Для нахождения параметров двухпараметрического закона ра спределения необходимо решить уравнение (9.27) для двумерного
случая.
Составим систему из двух уравнений для нахождения неизвес тных параметров аппроксимации. Эту систему можно получить, пр одифференцировав выражение (9.27) по неизвестным параметрам.
M
F1
F2
[ Fˆx ( x j ) Fa ( x j , β1, β 2 )]
Fa ( x j , β1, β 2 )
j 1
1
M
Fa ( x j , β1, β 2 )
[ Fˆx ( x j ) Fa ( x j , β1, β 2 )]
j 1
β2
0;
(9.29)
0.
Для решения системы (9.29) воспользуемся приближенным мет одом Ньютона. Способ нахождения неизвестных параметров аналог ичен случаю с плотностями распределения вероятностей по формула м
(9.20) и (9.21).
Для вычислений необходимо определить частные производные
по неизвестным параметрам β 1 , β 2 функций F 1 и F 2 :
F1
β1
F2
β2
F1
β2
F2
β1
M
[ Fˆx ( x j ) Fa ( x j , β1, β 2 )]
2
Fa ( x j , β1, β 2 )
β12
j 1
M
[ Fˆx ( x j ) Fa ( x j , β1, β 2 )]
2
β 22
j 1
M
[ Fˆx ( x j ) Fa ( x j , β1, β 2 )]
2
[ Fˆx ( x j ) Fa ( x j , β1, β 2 )]
j 1
Fa ( x j , β1, β 2 )
[
Fa ( x j , β1, β 2 )
β1
2
Fa ( x j , β1, β 2 )
β 2 β1
]2 , (9.30)
Fa ( x j , β1, β 2 )
β2
2
β1 β 2
j 1
M
Fa ( x j , β1, β 2 )
[
]2 , (9.31)
Fa ( x j , β1, β 2 )
β1 β 2
2
Fa ( x j , β1, β 2 )
β 2 β1
, (9.32)
. (9.33)
Значения неизвестных параметров вычисляются по итерацио нной процедуре до достижения заданной точн ости.
Для выполнения лабораторной работы необходимо изучить ра здел «Аппроксимация законов распределения» программной системы
218
«Моделирование и анализ случайных про цессов» (см. приложение
рис. 1, 2).
9.5.2 Задание №9 на самостоятельную работу
1. Сгенерировать временной ряд, распределенный по заданному
закону распределения N=500, M=10.
2. Построить гистограмму.
3. Определить параметры законов распределения методом моме нтов, аппроксимации плотностей распределения вероятностей, фун кций распределения по минимуму квадратической погрешности а ппроксимации.
4. Пункты 1-3 повторить для N=1000, 2000, 5000 и M=10. Определить М ( 0 ) – оптимальное число дифференциальных корид оров.
5. Проанализировать зависимость погрешности оценки параме тров законов распределения от объѐма выборки, числа дифференц иальных коридоров.
6. Качество аппроксимации определить, воспользовавшись крит ерием Пирсона и Колмогорова.
7. Загрузить N отсчетов случайного процесса из файл а (вариант
указывается преподавателем).
Построить график случайного процесса и его гистограмму. Мет одом аппроксимации ортогональными полиномами Лежандра постр оить график функции плотности вероятностей случайного пр оцесса.
9.5.3 Содержание отчѐта
1. Цель работы.
2. Методы и алгоритмы аппроксимации законов распр еделения.
3. Примеры экранных форм для аппроксимации законов распред еления вероятностей.
4. Значения параметров законов распределения, определенные по
методу моментов, аппроксимации плотностей распределения вероятностей и функций распределения по минимуму квадратической п огрешности аппроксимации, относительные погрешности оценки п араметров закона распределения, для N=500, 1000, 2000, 5000 и M=10,
М ( 0 ) , представленные в табличной форме (количество реализаций д ля
каждого модельного эксперимента ра вно 29).
5. Графики случайного процесса и функций плотности и распр еделения вероятностей случайного процесса.
6. Выводы по работе.
Пример оформления результатов выполненной лабораторной р аботы для экспоненциального закона рас пределения, а также аппроксимация закона распределения для примера случайного процесса
219
«Обороты высокого давления для двигателя НК – 36» приведены
ниже.
Значения параметра закона распределения λ и χ 2 при аппроксимации закона распределения по методу моменто в, плотности распределения вероятностей и функции распределения по минимуму ква дратической погрешности аппроксимации для N=500, М=10.
220
Табл. 9.4
№ Метод моментов
χ2
1
0.9603
5.5439
2
0.98
6.1867
3
0.9446 16.2528
4
0.9804
1.7875
5
1.0165
5.2636
6
0.9473
13.545
7
0.9549
5.7752
8
1.0333
10.256
9
0.9788
6.7865
10 0.9699
8.646
11 1.0022
13.856
12 1.0516
5.3593
13 1.0274
6.314
14 1.0496
3.8448
15 0.9409
7.1225
16 1.0549 11.7544
17 0.9992
1.7917
18 0.9645
7.985
19 1.0815 11.7833
20 1.0486
9.4825
21 0.9689
9.773
22 0.9844
5.1709
23 0.9728
7.0216
24
1.068
12.3235
25 0.9822
6.0582
26 0.9432
4.9787
27 0.9859
5.7124
28 0.9841 12.5944
29 0.9461
9.4224
8
f a (x, )
F a (x,
2
1.00579
0.9307
1.0176
0.9737
1.0799
0.9101
0.9339
1.0605
1.0062
0.9677
1.1132
1.0153
1.0169
1.0182
0.9537
1.1391
1.0515
0.9191
1.1122
1.0185
1.0246
0.9752
0.9655
1.0462
0.9514
0.8908
1.0979
0.9567
0.9359
χ
8.51
6.4984
22.636
1.8577
7.6052
12.5885
5.6472
11.4268
7.5619
8.5363
24.6434
4.5777
6.1396
3.8185
7.3787
18.9582
2.6638
7.3457
13.5319
8.8276
13.3076
5.1367
6.9621
12.1296
6.1036
5.9352
11.5524
11.6159
9.112
9
0.9674
0.9582
0.9602
0.984
1.0283
0.9189
0.9522
1.0195
0.9664
0.9574
1.0091
1.0273
1.0183
1.0314
0.9345
1.0871
1.0717
0.9452
1.0499
1.0401
0.9892
0.9816
0.965
1.0634
0.9728
0.9258
1.0068
0.9798
0.9265
)
χ2
5.798
6.0585
17.0424
1.7663
5.4085
12.6992
5.7334
9.9176
6.6783
8.1046
14.1086
4.7372
6.1564
3.735
7.0582
13.4777
1.7661
7.4891
10.7825
9.2218
10.614
5.1523
6.9599
12.2956
5.9853
5.0102
5.8126
12.3894
8.9192
12
Выделенные значения параметров соответствуют минимальн ому
значению χ 2 в строке, т.е. лучшему методу аппроксимации из ра ссмотренных.
В последней строке указано количество случаев, когда данный
метод аппроксимации дает лучший резул ьтат.
221
Рис. 9.9
222
Рис. 9.10
223
Рис. 9.11– Случайный процесс «Обороты высокого давления двиг ателя НК–36»
224
Рис. 9.12
225
Рис. 9.13
9.6 Аппроксимация корреляционных функций и спектрал ьных плотностей ортогональными функциями Л агерра
9.6.1 Теоретические основы лабораторной работы
Необходимость в решении данной задачи возникает при обр аботке результатов научных исследований, комплек сных испытаний с
целью построения аналитических моделей корреляционных функций
и спектральных плотностей мощности случайных проце ссов в тех
226
случаях, когда для выбора аналитической модели недостаточно а приорной информации о свойствах исследуемого проце сса.
В этом случае, как подсказывает практика, наиболее целесоо бразно применять разложение корреляционной функции в ряд по той
или иной системе ортогональных функций. Математическим обосн ованием этого метода является теорема Мерсера, согласно которой
симметричная и положительно определенная функция, которой и я вляется функция корреляции, может быть разложена в равномерно и
абсолютно сходящийся ряд вида:
Rx η
βk ψk η ,
(9.34)
k 0
где
– коэффициенты Фурье;
ψ k η – семейство базисных функций, ортонормированных в и нтервале (0, ) с весом ( ).
Это семейство характеризуется интегралом:
k
μ η ψ m η ψ n η dη
0
0, при m
n;
1, при m n.
(9.35)
Так как ряд сходится в интервале (0, ), то коэффициенты разложения k определяются выражением:
βk
Rx η ψ k η μ η dη .
(9.36)
0
В качестве системы базисных функций применяются ортог ональные функции Лагерра, Дирихле, Лежандра, Ха ара, Уолша и т. д.
Выбор системы базисных функций зависит, в основном, от возмо жности представления корреляционной функции минимальным числом
членов разложения для типовых моделей, удобством в р аботе.
Одной из распространенных систем ортогональных функций,
широко применяемых в аппроксимативном корреляционном анал изе,
являются ортогональные функции Лагерра, определяемые выражен ием:
Lk η, α
k
s 0
k!
αη s
e
k s ! s! 2
αη/2
.
(9.37)
Ортогональные функции Лагерра удовлетворяют следующему
свойству:
Lk η, α Ln η, α dη
0
0, если k n;
1
, если k n.
α
(9.38)
Следует подчеркнуть, что на практике приходится ограничиват ься конечным числом ряда (9.34).
227
Это приводит к появлению методической погрешности, знач ение
которой зависит как от свойств процесса, так и способа оценки п араметров модели.
Тогда для модели корреляционной функции
m
Rx η
β k Lk η, α ,
(9.39)
k 0
имеющей ограниченное число параметров, коэффициенты разлож ения, обеспечивающие минимум квадратической погрешности а ппроксимации:
m
Rx η
2
β k Lk η, α
dη
min ,
(9.40)
k 0
0
определяются формулой:
βk
α Rx η Lk η, α dη .
(9.41)
0
При таком способе определения коэффициентов разложения п огрешность аппроксимации, с учетом свойств ортогональных фун кций Лагерра, равна:
Rx2
0
1 m 2
η dη
βk .
αk 0
(9.42)
Из выражений (9.41) и (9.42) видно, что значения погрешности
аппроксимации
и коэффициентов разложения k зависят от численного значения параметра .
Как показали исследования, относительная погрешность аппро ксимации
δ
(9.43)
Rx2 η dη
0
зависит от величины этого параметра, вида корреляционной фун кции и еѐ показателя колебательности , числа членов разложения
ряда m.
Таким образом, необходимо разработать алгоритм поиска пар аметра , обеспечивающего минимум квадратической погрешн ости
аппроксимации.
Задача разработки алгоритма оценки параметра ортогональных
функций Лагерра может быть сведена к задаче параметрической а ппроксимации корреляционных функций. В результате получим ура внение, решив которое, определим значение параметра α, обеспеч ивающего минимум квадратической погрешности аппроксим ации:
228
β m + 1 =0.
(9.44)
Величина параметра α зависит от вида корреляционной фун кции,
показателя еѐ колебательности, а также числа членов разложения
ряда. Число корней уравнения (9.43) зависит от тех же фа кторов и, в
общем случае, равно m+1, и только один из них обеспечивает на именьшую погрешность аппроксимации. При прибл иженном решении
уравнения (9.43), например, методом Ньютона, значение α и соо тветствующее ему значение погрешности аппроксимации будут зав исеть от начального приближения α 0 .
Одной из отрицательных черт аппроксимации корреляционных
функций ортогональными функциями Лагерра является то, что еѐ
основное свойство
m
Rx 0
Dx
βk ,
(9.45)
k 0
как видно из выражения
m
βk
Sx ω
Dx
k 0
jω α / 2
jω α / 2
m 1
dω,
(9.46)
при произвольной величине α не выполняется при конечном m. Условие (9.44) при произвольной величине α выполняется лишь при
m
.
Для обеспечения условия (9.44) аналитическое выраж ение Rx η
можно искать в виде:
m
Rx η
ck Lk η, α ,
(9.47)
k 0
где
ck
βk
m
Dx .
(9.48)
βk
k 0
Легко проверить, что в этом случае Rx 0
m
βk
Dx . Однако
k 0
коэффициенты разложения с k , определенные по формуле (9.48), не
обеспечивают минимума квадратической погрешности аппроксим ации.
Таким образом, общим недостатком известных способов опред еления коэффициентов разложения является то, что они либо нар ушают основное свойство корреляционных функций, либо не обесп ечивают минимума квадратической погрешности аппрокс имации.
Уравнение для определения коэффициентов разложения корр еляционной функции b k
229
m
Rx η
bk Lk η, α ,
(9.49)
k 0
обеспечивающих минимум квадратической погрешности аппрокс имации при дополнительном условии
m
Rx 0
bk
Dx ,
(9.50)
k 0
имеет вид
m
Dx
k 0
βk
bk
βk
m 1
.
(9.51)
А для определения значения параметра α, обеспечивающего м инимум погрешности необходимо решить ура внение
m
Dx
bm
1
βm
1
βk
k 0
m 1
0.
(9.52)
Таким образом, при аппроксимации корреляционной функции
для обеспечения минимума квадратической п огрешности требуется
изменением параметра
добиться равенства нулю коэффициента
m + 1 . Значения b 0 , …, b m в этом случае будут оптимальными.
Рассмотренные алгоритмы (9.41), (9.44), (9.51) и (9.52) легко
реализовать на ЭВМ, однако все они, как указывалось выше, не л ишены существенного недостатка − в результате решения ура внений
(9.44) или (9.52) в общем случае возможно определение ( m+1) корней, обеспечивающих локальные минимумы погрешностей аппро ксимации.
Это обстоятельство накладывает определенные неудобства при
выборе диапазона изменения параметра функции Л агерра.
Для однозначного решения задачи, т.е. определения единственного корня, обеспечивающего погрешность аппроксимации, близкую
к минимуму, необходимо анализировать сигнал, пропорционал ьный
0.
Рассмотрим уравнение
β0
kζ 2x
α Rx η L0 η, α dη kζ 2x
0,
(9.53)
0
αη / 2
где L0 η, α e
− функция Лагерра нулевого порядка;
k – постоянная величина, которая, как видно из уравнения, мен ьше
2.
230
Например, для корреляционной функции (под номером 5 в сп и-
ζ 2xe
ске функций) Rx5 η
виду:
αη / 2
α e
λη
e
cos ω0 η это уравнение приводится к
λη
cos ω0 ηdη k
0.
(9.54)
0
Разрешив уравнение относительно
α
2
, получим:
λ2 1 k 2 k 2 k λ2
2 k
λ1 k
ω02
.
(9.55)
При k=1 выражение примет самый простой вид, а име нно:
α 2 λ2 ω02 .
(9.56)
Решив уравнение (9.54) для корреляционных фун кций
ζ 2x e
Rx,6,7 η
λ| η |
cosω0 η
λ
sinω0 | η | при k=1, получим:
ω0
α 2 2λ2 ω02  λ .
(9.57)
Специфика проведения аппроксимативного корреляционного анализа с
помощью ЭВМ заключается в «дискретизации» полученных ранее уравнений,
выборе численного метода для их решения, написании, отладке соответствующего программного обеспечения и проведении счѐта. Проанализируем различные алгоритмы определения коэффициентов разложения ортогонального ряда и
параметра функций Лагерра, которые для удобства представим в таблице 9.5.
Табл. 9.5
№
Алгоритм
Преимущества
Недостатки
Минимум погреш- m+1 корней
1
β m + 1 =0.
ности
m
Минимум погреш- m+1 корней
Dx
βk
ности,
k 0
2 b
β
0.
R η ζ2
m 1
3
4
m 1
m 1
ζ 2x
0
β 0 ζ 2x
0
β0
βm
1
0
x
x
Аналитическое решение, один коδ min
рень
Выход на глобаль- Сложность
ный минимум по- реализации,
грешности
увеличивается время
анализа
231
5
6
ζ 2x
β0
bm
0
m
Rx η
0
1
β 0 β1 ζ 2x
7
Выход на минимум
погрешности,
1 k βk
Один корень
δ min
Близок к δmin
m+1 корней
Простота определения α
δ min
0
ζ 2x
ζ 2x
Сложность
реализации,
увеличивается время
анализа
0
k 0
8
α
2ω0
Сравнительный анализ алгоритмов показывает, что с точки зр ения минимизации вычислительных затрат, обеспечения допу стимых
погрешностей аппроксимации и обеспечения лучшей сходимости
(уравнение имеет только один корень) наиболее целесообразно в ыбрать алгоритм 3. Параметр α, определенный по этому алгоритму,
находится вблизи α о п т и обеспечивает погрешности аппроксимации,
близкие к минимальным.
Например, квадратурная формула Симпсона при реш ении уравнения дает следующий результат:
α η
{ R x ( 0 ) R x ( 2n ) e
3
2[ Rx ( 2 η ) e
[ R x ( η) e
2
η/2
η/2
2n
η/2
... R x [ (2 n 2 ) η ] e
2n 2
2n 1
η/2
... R x [ (2 n 1) η] e
η/2
]
(9.58)
] } ζ 2x 0,
где n=J m a x /2.
Методика аппроксимации корреляционных функций ортогонал ьными функциями Лагерра заключается в выполнении следующих
этапов:
1. Определяются ординаты нормированной корреляционной функции ρ x J η J 0,... J max ;
2. Определяется параметр функций Лагерра α в результате реш ения уравнения (9.53);
3. Определяются коэффициенты разложения {β k } k = 0 , … , m в соответствии с выражением (9.41);
4. Определяются коэффициенты разложения { b k } k = 0 , … , m в соответствии с выражением (9.51);
5. Определяется число членов разложения ряда (9.39) m o p t , обеспечивающее минимальное значение погрешности аппроксимации
нормированной корреляционной функции δ;
6. Определяются параметры аппроксимирующего выражения: α,
232
m=m o p t , {β k } k = 0 , … , m , {b k } k = 0 , … , m , δ.
Определив параметры модели корреляционной функции
α
m
Ra η
m
β k Lk η, α 1 η
k 0
β k Lk
η, α 1 η ,
0 ,...
m,
(9.59)
k 0
оценим спектральную плотность мощности случайного процесса.
Для этого, подставив модель (9.58) в выра жение для определения
спектральной плотности мощности
Sx ω
1
2π 0
m
m
β k Lk η, α 1 η
k 0
β k Lk
η, α 1 η e
jωη
dη , (9.60)
k 0
с учѐтом определения ортогональных функций Лагерра (9.37), пол учим:
Sx ω
α/2
.
k
jω α/2
jω jω α/2
1
(9.61)
2ω. Тогда
α
Введем обозначение tgθ
Sx ω
k
1 m
1
jω α/2
βk
2π k 0
α/2 jω jω α/2
1 m
1
jtgθ 1
βk
απ k 0
1 jtgθ jtgθ 1
k
1
jtgθ 1
1 jtgθ jtgθ 1
k
.(9.62)
Или
Sx ω
1 m
cos θ
jsin θ cos θ
βk
α π k 0 cos θ jsin θ jsin θ cos θ
cos θ
jsin θ cos θ
cos
jsin θ jsin θ cos θ
k
.
k
(9.63)
Воспользовавшись формулами Эйлера, выражение (9.63) прив едем
к виду:
Sx ω
cosθ
απ k
cosθ m
βk
απ k 0
m
0
1k e
βk
jθ k
1
e
e jθ
e jθ
2k 1 θ
e 2k
1θ
1
e
jθ
e
jθ
e
2cosθ m
βk
απ k 0
k
jθ
1 k cos 2k 1 θ ,
233
где
θ arctg 2ω.
α
Для выполнения лабораторной работы необходимо изучить ра здел «Аппроксимативный анализ корреляционно -спектральных характеристик» программной системы «Моделирование и анализ случа йных процессов» (см. приложение рис. 3).
9.6.2 Задание №10 на самостоятельную работу
1. Сгенерировать временной ряд с заданным видом корреляцио нной функции и со следующими параметрами − M=ent[η k m a x /∆η],
N=12,5М, δ=0,02.
2. Вычислить корреляционную функцию.
3. Задать вручную начальное приближение параметра функции
Лагерра и найти значения параметров аналитического выражения
корреляционной функции α, b 0 ,…, b m , воспользовавшись метод
Симпсона. Определить погрешности аппро ксимации.
4. Определить спектральную плотность мощности и частоту, с оответствующую максимуму спектральной плотности мощности.
5. Повторить пункты 1−4 для объѐмов выборки N=kM, где k=25,
50, 100.
6. Проанализировать зависимость погрешности оценки параме тров корреляционной функции и аппроксимации от объѐма выбо рки.
7. Повторить пункты 1−4 для объѐмов выборк и N=25М 1 , где
M 1 =M/2, M/3, M/4.
8. Проанализировать зависимость погрешности аппроксимации
корреляционной функции от M 1 – числа отсчѐтов корреляционной
функции.
9. Повторить пункты 1−4 для N=25М и δ=0,02; 0,05; 0,1; 0,2.
10. Проанализировать зависимость погрешнос ти аппроксимации
корреляционной функции от ∆η.
9.6.3 Содержание отчѐта
1. Цель работы.
2. Метод и алгоритмы аппроксимации корреляционных функций
ортогональными функциями Лагерра.
3. Примеры экранных форм для аппроксимации корреляционных
функций и спектральных плотностей мощности ортогональными
функциями Лагерра.
4. Зависимости погрешности оценки параметра функции Лаге рра и
аппроксимации от объѐма выборки N.
5. Зависимости погрешности аппроксимации корреляционной
функции от M 1 .
6. Зависимость погрешности аппроксимации коррел яционной
функции от ∆η.
234
7. Параметры модели, представленные в табличной фо рме.
8. Выводы по работе.
Ниже приведены примеры экранных форм для аппроксимации
корреляционных функций и спектральных плотностей мощности о ртогональными функциями Лагерра.
Рис. 9.14 − Экранная форма аппроксимации корреляционной фун кции ортогональными функциями Лагерра
235
Рис. 9.15 − Экранная форма аппроксимации корреляционной фун кции ортогональными функциями Лагерра
236
Рис. 9.16 − Экранная форма аппроксимации
спектральной плотности
237
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ
1. Бендат Дж., Пирсол Л. Измерение и анализ случайных проце ссов;
Пер. с англ. Матушевского Г.В. и Привальского В.Е. М.: Мир. -1974.464с.
2. Вентцель Е.С. Теория верроятностей: Учеб. для вузов. -7-е изд. –
М.: Высш. шк., 2001.- 575с.
3. Вентцель Е.С., Овчаров Л.А. Теория случайных процессов и еѐ
инженерные приложения. М.: Наука. Гл. ред. физ. -мат. лит. – 1991.384с.
4. Гмурман В.Е.Теория вероятностей и математическая ст атистика:
Учеб. пособие. – 8-е изд. – М.: Высш.шк., 2002.- 479с.
5. Кельтон В., Лоу А. Имитационное моделирование. Кла ссика CS.
3-е изд. – СПб.: Питер; Киев: Издательская группа BHV, 2004.-847с.
6. Клейнрок Л. Теория массового обслуживания: Пер. с англ. /Под.
ред. В.И. Неймана. – М.: Машиностроение, 1979.- 432с.
7. Клейнрок Л. Вычислительные системы с очередями: Пер. с англ.
/Под. ред. Б.С. Цыбакова. – М.: Мир, 1979.- 597с.
8. Коваленко И.Н., Филиппова А.А. Теория вероятностей и матем атическая статистика. Учеб. пособие для вузов. М.: Высшая шк ола. 1973.- 368с.
9. Прохоров С.А. Моделирование и анализ случайных процессов.
Лабор. практикум. – 2-е изд., перераб. и дополн. Самара.: СНЦ РАН,
2002.- 277с.
10. Пугачев В.С. Теория вероятностей и математическая статист ика:
Учеб. пособие. – 2-е изд., испр. и дополн. – М.: ФИЗМАТЛИТ,
2002.- 496с.
11. Тарасов.В.Н. Вероятностное компьютерное моделирование сло жных систем. Самара.: СНЦ РАН, 2002.- 194с.
12. Тарасов В.Н. Бахарева Н.Ф. Компьютерное моделирование в ычислительных систем. Теория, алгоритмы, программы. Допущ ено
УМО вузов по университетскому пол итехническому образованию в
качестве уч. пособия по направлению 230100. – Оренбург: ИПК
ОГУ, 2005.- 183с.
13. Тарасов В.Н., Кругликов В.К. Анализ и расчет сетей массового
обслуживания с использованием двумерной диффузио нной аппроксимации. Автоматика и телемехан ика. АН СССР, 1983.с.74-83.
14. Теория вероятностей. /Под. ред. д.т.н., проф. В.С. Зарубина и
д.ф.-м.н., проф. А.П. Крищенко. Изд. 3 -е, исправ. – М.: МГТУ им.
Н.Э.Баумана, 2004.- 456с.
15. Тихонов В.И., Миронов М.А. Марковские процессы. М.: Сов. р адио, 1977.- 488с.
238
ПРИЛОЖЕНИЕ
λm
Значения функции Р(m; λ) =
e
m!
λ
Табл. 1
m
0
1
2
3
4
5
6
7
8
λ
0,1
0,90484
09048
00452
00015
0,2
81873
16375
01637
00109
00005
0,3
74082
22225
03334
00333
00025
00002
0,4
67032
26813
05363
00715
00072
00006
0,6
54881
32929
09879
01976
00296
00036
00004
0,7
49659
34761
12166
02839
00497
00070
00008
00001
0,8
44933
35946
14379
03834
00767
00123
00016
00002
0,9
40657
36591
16466
04940
01111
00200
00030
00004
1,0
36788
36788
18394
06131
01533
00307
00051
00007
00001
4,0
01832
07326
14653
19537
19537
15629
10420
05954
02977
01323
00529
00192
00064
00020
00006
00002
4,5
01111
04999
11248
16872
18981
17083
12812
08236
04633
02316
01042
00426
00160
00055
00018
00005
00002
5,0
00674
03369
08422
14037
17547
17547
14622
10444
06528
03627
01813
00824
00343
00132
00047
00016
00005
00001
5,5
00409
02248
06181
11332
15582
17140
15712
12345
08487
05187
02853
01426
00654
00277
00109
00040
00014
00004
00001
6,0
00248
01487
04462
08924
13385
16062
16062
13768
10326
06884
04130
02253
01126
00520
00223
00089
00033
00012
00004
00001
λ
m
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
0,5
60653
30327
07582
01264
00158
00016
00001
1,5
0,22313
33470
25102
12551
04707
01412
00353
00076
00014
00002
2,0
13534
27067
27067
18045
09022
03609
01203
00344
00086
00019
00004
00001
2,5
08208
20521
25652
21376
13360
06680
02783
00994
00311
00086
00022
00005
00001
3,0
04979
14936
22404
22404
16803
10082
05041
02160
00810
00270
00081
00022
00006
00001
3,5
03020
10569
18496
21579
18881
13217
07710
03855
01687
00656
00230
00073
00021
00006
00001
239
Значения функции
( x)
1
e
2π
x2
2
Табл. 2
х
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
0
0,39894
39695
39104
38139
36827
35207
33322
31225
28969
26609
24197
21785
19419
17137
14973
12952
11092
09405
07895
06562
05399
04398
03547
02833
02239
01753
01358
01042
00792
00595
1
39892
39654
39024
38023
36678
35029
33121
31006
28737
26369
23955
21546
19186
16915
14764
12758
10915
09246
07754
06438
05292
04307
03470
02768
02186
01709
01323
01014
00770
00578
2
39886
39608
38940
37903
36526
34849
32918
30785
28504
26129
23713
21307
18954
16694
14556
12566
10741
09089
07614
06316
05186
04217
03394
02705
02134
01667
01289
00987
00748
00562
х
0
3,0 0,00443
4,0 00013
Сотые доли x
3
4
5
6
39876 39862 39844 39822
39559 39505 39448 39387
38853 38762 38667 38568
37780 37654 37524 37391
36371 36213 36053 35889
34667 34482 34294 34105
32713 32506 32297 32086
30563 30339 30114 29887
28269 28034 27798 27562
25888 25647 25406 25164
23471 23230 22988 22747
21069 20831 20594 20357
18724 18494 18265 18037
16474 16256 16038 15822
14350 14146 13943 13742
12376 12188 12001 11816
10567 10396 10226 10059
08933 08780 08628 08478
07477 07341 07206 07074
06195 06077 05959 05844
05082 04980 04879 04780
04128 04041 03955 03871
03319 03246 03174 03103
02643 02582 02522 02463
02083 02033 01984 01936
01625 01585 01545 01506
01256 01223 01191 01160
00961 00935 00909 00885
00727 00707 00687 00668
00545 00530 00514 00499
Десятые доли x
2
00238
00006
4
00123
00002
7
8
39797 39767
39322 39253
38466 38361
37255 37115
35723 35553
33912 33718
31874 31659
29659 29431
27324 27086
24923 24681
22506 22265
20121 19886
17810 17585
15608 15395
13542 13344
11632 11450
09893 09728
08329 08183
06943 06814
05730 05618
04682 04586
03788 03706
03034 02965
02406 02349
01888 01842
01468 01431
01130 01100
00861 00837
00649 00631
00485 00470
6
00061
00001
9
39733
39181
38251
36973
35381
33521
31443
29200
26848
24439
22025
19652
17360
15183
13147
11270
09566
08038
06687
05508
04491
03626
02898
02294
01797
01394
01071
00814
00613
00457
8
00029
240
Значения интеграла Лапласа Ф0 ( x)
x
1
e
2π 0
t2
2 dt
Табл. 3
х
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
х
3,0
4,0
0
0,00000
03983
07926
11791
15542
19146
22575
25804
28814
31594
34134
36433
38493
40320
41924
43319
44520
45543
46407
47128
47725
48214
48610
48928
49180
49379
49534
49653
49744
49813
1
00399
04380
08317
12172
15910
19497
22907
26115
29103
31859
34375
36650
38686
40490
42073
43448
44630
45637
46485
47193
47778
48257
48645
48956
49202
49396
49547
49664
49752
49819
0
0,49865
49997
Сотые доли х
2
3
4
5
6
7
00798 01197 01595 01994 02392 02790
04776 05172 05567 05962 06356 06749
08706 09095 09483 09871 10257 10642
12552 12930 13307 13683 14058 14431
16276 16640 17003 17364 17724 18082
19847 20194 20540 20884 21226 21566
23237 23565 23891 24215 24537 24857
26424 26730 27035 27337 27637 27935
29389 29673 29955 30234 30511 30785
32121 32381 32639 32894 33147 33398
34614 34850 35083 35314 35543 35769
36864 37076 37286 37493 37698 37900
38877 39065 39251 39435 39617 39796
40658 40824 40988 41149 41308 41466
42220 42364 42507 42647 42786 42922
43574 43699 43822 43943 44062 44179
44738 44845 44950 45053 45154 45254
45728 45818 45907 45994 46080 46164
46562 46638 46712 46784 46856 46926
47257 47320 47381 47441 47500 47558
47831 47882 47932 47982 48030 48077
48300 48341 48382 48422 48461 48500
48679 48713 48745 48778 48809 48840
48983 49010 49036 49061 49086 49111
49224 49245 49266 49286 49305 49324
49413 49430 49446 49461 49477 49492
49560 49573 49585 49598 49609 49621
49674 49683 49693 49702 49711 49720
49760 49767 49774 49781 49788 49795
49825 49831 49836 49841 49846 49851
Десятые доли х
2
4
6
49931
49966
49984
49999
8
03188
07142
11026
14803
18439
21904
25175
28230
31057
33646
35993
38100
39973
41621
43056
44295
45352
46246
46995
47615
48124
48537
48870
49134
49343
49506
49632
49728
49801
49856
9
03586
07535
11409
15173
18793
22240
25490
28524
31327
33891
36214
38298
40147
41774
43189
44408
45449
46327
47062
47670
48169
48574
48899
49158
49361
49520
49643
49736
49807
49861
8
49993
241
Значения χ 2 в зависимости от r и р.
Табл.4
p
0,99 0,98 0,95 0,90 0,80 0,70 0,50 0,30 0,20 0,10 0,05 0,02 0,01 0,001
r
1 0,000 0,001 0,004 0,016 0,064 0,148 0,455 1,074 1,642 2,71 3,84 5,41 6,64 10,83
2 0,020 0,040 0,103 0,211 0,446 0,713 1,386 2,41 3,22 4,60 5,99 7,82 9,21 13,82
3 0,115 0,185 0,352 0,584 1,005 1,424 2,37 3,66 4,64 6,25 7,82 9,84 11,34 16,27
4 0,297 0,429 0,711 1,064 1,649 2,20 3,36 4,88 5,99 7,78 9,49 11,67 13,28 18,46
5 0,554 0,752 1,145 1,610 2,34 3,00 4,35 6,06 7,29 9,24 11,07 13,39 15,09 20,5
6 0,872 1,134 1,635 2,20 3,07 3,83 5,35 7,23 8,56 10,64 12,59 15,03 16,81 22,5
7 1,239 1,564 2,17 2,83 3,82 4,67 6,35 8,38 9,80 12,02 14,07 16,62 18,48 24,3
8 1,646 2,03 2,73 3,49 4,59 5,53 7,34 9,52 11,03 13,36 15,51 18,17 20,1 26,1
9 2,09 2,53 3,32 4,17 5,38 6,39 8,34 10,66 12,24 14,68 16,92 19,68 21,7 27,9
10 2,56 3,06 3,94 4,86 6,18 7,27 9,34 11,78 13,44 15,99 18,31 21,2 23,2 29,6
11 3,05 3,61 4,58 5,58 6,99 8,15 10,34 12,90 14,63 17,28 19,68 22,6 24,7 31,3
12 3,57 4,18 5,23 6,30 7,81 9,03 11,34 14,01 15,81 18,55 21,0 24,1 26,2 32,9
13 4,11 4,76 5,89 7,04 8,63 9,93 12,34 15,12 16,98 19,81 22,4 25,5 27,7 34,6
14 4,66 5,37 6,57 7,79 9,47 10,82 13,34 16,22 18,15 21,1 23,7 26,9 29,1 36,1
15 5,23 5,98 7,26 8,55 10,31 11,72 14,34 17,32 19,31 22,3 25,0 28,3 30,6 37,7
16 5,81 6,61 7,96 9,31 11,15 12,62 15,34 18,42 20,5 23,5 26,3 29,6 32,0 39,3
17 6,41 7,26 8,67 10,08 12,00 13,53 16,34 19,51 21,6 24,8 27,6 31,0 33,4 40,8
18 7,02 7,91 9,39 10,86 12,86 14,44 17,34 20,6 22,8 26,0 28,9 32,3 34,8 42,3
19 7,63 8,57 10,11 11,65 13,72 15,35 18,34 21,7 23,9 27,2 30,1 33,7 36,2 43,8
20 8,26 9,24 10,85 12,44 14,58 16,27 19,34 22,8 25,0 28,4 31,4 35,0 37,6 45,3
21 8,90 9,92 11,59 13,24 15,44 17,18 20,3 23,9 26,2 29,6 32,7 36,3 38,9 46,8
22 9,54 10,60 12,34 14,04 16,31 18,10 21,3 24,9 27,3 30,8 33,9 37,7 40,3 48,3
23 10,20 11,29 13,09 14,85 17,19 19,02 22,3 26,0 28,4 32,0 35,2 39,0 41,6 49,7
24 10,86 11,99 13,85 15,66 18,06 19,94 23,3 27,1 29,6 33,2 36,4 40,3 43,0 51,2
25 11,52 12,70 14,61 16,47 18,94 20,9 24,3 28,2 30,7 34,4 37,7 41,7 44,3 52,6
26 12,20 13,41 15,38 17,29 19,82 21,8 25,3 29,2 31,8 35,6 38,9 42,9 45,6 54,1
27 12,88 14,12 16,15 18,11 20,7 22,7 26,3 30,3 32,9 36,7 40,1 44,1 47,0 55,5
28 13,56 14,85 16,93 18,94 21,6 23,6 27,3 31,4 34,0 37,9 41,3 45,4 48,3 56,9
29 14,26 15,57 17,71 19,77 22,5 24,6 28,3 32,5 35,1 39,1 42,6 46,7 49,6 58,3
30 14,95 16,31 18,49 20,6 23,4 25,5 29,3 33,5 36,2 40,3 43,8 48,0 50,9 59,7
242
tγ
Значения t γ , удовлетворяющие равенству 2 S n 1 (t )dt
симости от γ и n−1.
γ в зави-
0
Табл.5
γ
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
0,95
n-1
1
0,158 0,325 0,51 0,727 1,000 1,376 1,963 3,08 6,31 12,71
2
142
289
445
617 0,816 1,061 1,336 1,886 2,92
4,3
3
137
277
424
584
765 0,978 1,25 1,538 2,35 3,18
4
134
271
414
569
741
941 1,190 1,533 2,13 2,77
5
132
267
408
559
727
920 1,156 1,476 2,02 2,57
6
131
265
404
553
718
906 1,134 1,440 1,943 2,45
7
130
263
402
549
711
896 1,119 1,415 1,895 2,36
8
130
262
399
546
706
889 1,108 1,397 1,86 2,31
9
129
261
398
543
703
883 1,100 1,383 1,833 2,26
10
129
260
397
542
700
879 1,093 1,372 1,812 2,23
11
129
260
396
540
697
876 1,088 1,363 1,796 2,2
12
128
259
395
539
695
873 1,083 1,356 1,782 2,18
13
128
259
394
538
694
870 1,079 1,35 1,771 2,16
14
128
258
393
537
692
868 1,076 1,345 1,761 2,14
15
128
258
393
536
691
866 1,074 1,341 1,753 2,13
16
128
258
392
535
690
865 1,071 1,337 1,746 2,12
17
128
257
392
534
689
863 1,069 1,333 1,740 2,11
18
127
257
392
534
688
862 1,067 1,33 1,734 2,1
19
127
257
391
533
688
861 1,066 1,328 1,729 2,09
20
127
257
391
533
687
860 1,064 1,325 1,725 2,09
21
127
257
391
532
686
859 1,063 1,325 1,725 2,09
22
127
256
390
532
686
858 1,061 1,323 1,721 2,08
23
127
256
390
532
685
858 1,060 1,321 1,717 2,07
24
127
256
390
531
685
857 1,059 1,319 1714 2,07
25
127
256
390
531
684
856 1,058 1,318 1,711 2,06
26
127
256
390
531
684
856 1,058 1,316 1,708 2,06
27
127
256
389
531
684
855 1,057 1,315 1,706 2,06
28
127
256
389
530
683
855 1,056 1,314 1,703 2,05
29
127
256
389
530
683
854 1,055 1,313 1,701 2,05
30
127
256
389
530
683
854 1,055 1,311 1,699 2,04
40
126
255
388
529
681
851 1,05 1,310 1,697 2,04
60
126
254
387
527
679
848 1,046 1,303 1,684 2,02
120 126
254
386
526
677
845 1,011 1,296 1,671 2,00
0,126 0,253 0,385 0,524 0,674 0,842 1,036 1,289 1,658 1,98
n-1
0,1
0,2
0,3
0,4
0,5
0,6
0,7 1,282 1,645 1,96
γ
243
γ
n-1
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
n-1
γ
0,98
31,8
6,96
4,54
3,75
3,36
3,14
3
2,9
2,82
2,76
2,72
2,68
2,65
2,62
2,6
2,58
2,57
0,98
Продолжение табл.5
γ
0,99 0,999
0,98
n-1
63,7 636,6 18 2,55
9,92 31,6
19 2,54
5,84 12,94 20 2,53
4,6 8,61
21 2,52
4,03 6,86
22 2,51
3,71 5,96
23
2,5
3,5
5,4
24 2,49
3,36 5,04
25 2,48
3,25 4,78
26 2,48
3,17 4,59
27 2,47
3,11 4,49
28 2,47
3,06 4,32
29 2,46
3,01 4,22
30 2,46
2,98 4,14
40 2,42
2,95 4,07
60 2,39
2,92 4,02 120 2,36
2,9 3,96
2,33
n-1
0,99 0,999
0,98
γ
0,99 0,999
2,88
2,86
2,84
2,83
2,82
2,81
2,8
2,79
2,78
2,77
2,76
2,76
2,75
2,7
2,66
2,62
2,58
3,92
3,88
3,85
3,82
3,79
3,77
3,74
3,72
3,71
3,69
3,67
3,66
3,65
3,55
3,46
3,37
3,29
0,99 0,999
244
Пакет программ генерирования и
аппроксимации законов распределения случайных процессов
Анализ случайного процесса
Построение
гистограммы
Оценка статистических характеристик
Генерирование случайного процесса с заданным видом закона распределения
Аналитический метод
Приближенный метод
Проверка качества генерирования
Построение фазового портрета
Аппроксимация
законов распределения
Идентификация
случайного процесса
Метод моментов
Аппроксимация плотностей распределения вероятностей
Аппроксимация функций
распределения
Аппроксимация ортогональными полиномами
Проверка качества аппроксимации
Рис.1
Структура программы генерирования и аппроксимации законов
распределения случайных процессов.
245
Генерация случайного
процесса с заданным
видом закона
распределения
Загрузка N отсчетов
случайного процесса
из файла
Загрузка из файла значений
длин дифференциальных
коридоров и плотности
вероятности в этих
коридорах
Блок получения
статистических данных
Оценка моментных
характеристик
случайного процесса
Построение графика
случайного процесса
Расчет и построение графика
структурной функции
случайного процесса
Расчет и построение
графика функции
распределения случайного
процесса
Расчет и построение
гистограммы
случайного процесса
Расчет и построение
графика плотности
распределения
вероятностей случайного
процесса
Блок оценки характеристик случайного процесса
Нахождение
параметров
аппроксимирующей
функции методом
моментов
Нахождение
параметров
аппроксимирующей
функции
параметрическим
методом
Нахождение
параметров
аппроксимирующей
функции методом
моментов
Нахождение
параметров
аппроксимирующей
функции
параметрическим
методом
Блок аппроксимации
Оценка качества
аппроксимации по критерию
Пирсона
Оценка качества аппроксимации
по критерию Колмогорова
Блок оценки качества аппроксимации
Рис.2
Блочная структура программы генерирования и аппроксимации законов распределения случайных процессов
246
Автоматизированная
система
Подсистема
задания
входных
воздействий
Генерирование
СП с заданным
видом КФ
Ввод
данных из
файла
Подсистема
генерирования
НВР
Подсистема
первичной стат.
обработки
Подсистема
идентификации КФ
Подсистема
аппроксимации КФ
Метод
р-преобразования
Центрирование
СП
Анализ
фазовых
портретов
Функциями
заданного
вида
Адаптивно - временная
дискретизация
Нормирование
СП
Проверка
качества
идентификации
Функциями
Лагерра
Дискретизация
с «дрожанием»
Оценка числовых
характеристик
(моменты первых
порядков)
Аддитивная
случайная
дискретизация
Подсистема
спектрального
анализа
Вычисление КФ
С помощью
классических
алгоритмов
Метод с
использованием ИКФ
Рис.3
Структура программы аппроксимативного анализа
корреляционно-спектральных характеристик
247
Документ
Категория
Без категории
Просмотров
1
Размер файла
6 457 Кб
Теги
matem, process, statistika, sluch, teoria, verojatn
1/--страниц
Пожаловаться на содержимое документа