close

Вход

Забыли?

вход по аккаунту

?

166.Основы статистической радиофизики. Ч

код для вставкиСкачать
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Министерство образования и науки Российской Федерации
Федеральное агентство по образованию
Ярославский государственный университет им. П.Г. Демидова
И.Т. Рожков
Основы
статистической
радиофизики
Часть 1
Учебное пособие
Рекомендовано
Научно-методическим советом университета
для студентов, обучающихся по специальности
Радиофизика и электроника
Ярославль 2008
1
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
УДК З 841-017я73
ББК 537.86:519.22
Р 63
Рекомендовано
редакционно-издательским советом ЯрГУ
в качестве учебного издания. План 2007 года
Рецензенты:
кафедра радиолокации и радиотехнических систем
Ярославского ВЗРУ ПВО;
В.Е. Туров, кандидат технических наук, профессор
Р 63
Рожков, И.Т. Основы статистической радиофизики :
учебное пособие / И.Т. Рожков ; Яросл. гос. ун-т. – Ярославль: ЯрГУ, 2007. – Ч. 1. – 104 с.
ISBN 978-5-8397-0605-7
Первая часть учебного пособия посвящена основным
характеристикам случайных величин и процессов, законам
распределения, решению задач по определению различных
характеристик. Учебное пособие может быть использовано
во всех случаях, где требуется находить соответствующие
характеристики случайных процессов.
Пособие предназначено для студентов, обучающихся
по специальности 010801 Радиофизика и электроника
(дисциплина "Статистическая радиофизика", блок ОПД),
очной формы обучения. Может быть использовано во всех
случаях, где потребуется решать вопросы преобразования
случайных процессов.
УДК З 841-017я73
ББК 537.86:519.22
© Ярославский
государственный
университет, 2008
ISBN 978-5-8397-0605-7
2
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Предисловие
Основой для этой книги послужили лекции по статистической
радиофизике, которые автор читал в течение ряда лет в Ярославском
государственном университете.
Радиофизические методы сейчас широко применяются в естествознании и народном хозяйстве и в перспективе область их применения станет еще шире.
Радиофизика объединила разделы физики, развитые применительно к изучению задач радиотехники и электроники, а статистическая радиофизика представляет собой теоретическую базу, используемую для описания случайных процессов, имеющих место в устройствах и системах, где носителем информации являются электромагнитные колебания и волны радиодиапазона. Статистическая радиофизика является одной из основных дисциплин специальности
“Радиофизика и электроника”.
Следует отметить, что имеющиеся книги [1, 2, 3 и другие] по статистической радиофизике содержат различные области приложения
радиофизики. Их объединяет изложение теории случайных процессов.
Однако в аналогичных книгах по статистической радиофизике авторы
не касаются обширной и интенсивно развивающейся области, которая
тоже опирается на применение статистических методов в радиосвязи
при обнаружении сигналов, оценивании параметров случайных процессов, распознавании образов. Как правило, случайные явления, с которыми приходиться иметь дело в радиофизике, – это процессы, протекающие во времени, или, еще шире, поля, зависящие от времени и
пространства.
Книга состоит из трех частей. В первой части рассматриваются
случайные величины, процессы и их преобразование безынерционными элементами; во второй – преобразование случайных процессов
линейными системами, узкополосные процессы; в третьей части –
элементы математической статистики и теория оценки параметров
случайных величин и процессов.
Направленность книги соответствует специальности “Радиофизика и электроника”.
В конце каждой главы приведены задачи с решениями, позволяющими легче и быстрее усвоить содержание материала.
Предполагается, что читатель владеет основами дифференциального и интегрального исчисления, теории вероятностей в объеме вузовской программы.
3
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
1. Случайные величины
1.1. Общие сведения
о случайных величинах и процессах
Случайной называется величина, которая в результате опыта
принимает то или иное значение, какое именно зависит от случайных обстоятельств опыта и заранее предсказано быть не может.
Примерами случайных величин могут служить: число импульсов, подавляемых помехой в пачке импульсов в радиоприемнике; число выстрелов до первого попадания в мишень; величина
мгновенного шумового напряжения в некоторый момент времени
на выходе радиоприемника; время безотказной работы транзистора; амплитуда радиолокационного импульса, отраженного от
самолета, и другие.
В первых двух примерах случайная величина является дискретной, а в трех следующих – непрерывной. Множество значений, которое может принять случайная величина в первом и втором примерах конечно, а в остальных примерах бесконечно.
Для описания случайной величины нужно указать ее возможные значения. Но одним перечислением ее возможных значений случайная величина полностью не определяется. Необходимо еще знать, насколько часто будут осуществляться одни значения случайной величины и насколько редко – другие, или, что
то же самое, насколько вероятно наступление тех или иных значений случайной величины.
Соотношение, устанавливающее зависимость между возможными значениями дискретной случайной величины и их вероятностями, называется законом распределения этой величины. Но
такое понятие утрачивает смысл для непрерывной случайной величины, которая имеет бесконечное множество значений.
Универсальной характеристикой, одинаково пригодной как
для дискретных, так и для непрерывных случайных величин, яв4
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
ляется функция распределения, а также другие характеристики,
которые будут рассмотрены далее.
Отметим, что физической случайной величиной могут быть
напряжение, ток, частота, фаза, время прихода радиосигнала на
вход приемника и многие другие.
В радиофизике наиболее часто приходится использовать случайные величины, зависящие от времени, или пространства, или
частоты по отдельности, или от всех этих характеристик одновременно. Такие случайные величины называются случайными
процессами.
Случайный процесс характеризуется тем, что какая-либо физическая величина изменяется в некотором абстрактном пространстве случайным образом. Конкретный вид случайного процесса в определенном опыте называется реализацией случайного
процесса (например, фотография осциллограммы с экрана осциллографа на одном ходе развертки луча).
Употребляются также термины “выборочная функция”, “траектория случайного процесса”. Иногда вместо термина “случайный процесс” применяют в том же смысле термины “стохастический процесс” или “вероятностный процесс”. Для формального
обозначения зависимости случайного процесса от аргументов
применяются случайные функции.
Если ξ(t) есть случайная функция, представляющая случайный процесс, то ее значение ξ(t1) при фиксированном значении
аргумента t1 является случайной величиной. Это означает, что
при неизменных условиях опыта значения ξ(t1) в реализациях,
полученных для идентичных систем (источников случайного
процесса), будут различными.
В зависимости от характера изменения времени, случайной
функции и методов рассмотрения случайные процессы согласно
[4] можно разделить на три группы: импульсные, флуктационные
и специального вида.
Импульсные процессы представляют собой последовательность одиночных импульсов в общем случае разной формы, следующих друг за другом через случайные промежутки времени.
Реализации импульсного случайного процесса представляют собой кусочно-разрывные функции времени. Примером могут служить импульсные помехи в радиотехнических системах, а также
5
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
некоторые виды атмосферных помех (грозовые разряды) и помех
от электрических аппаратов (коллекторных электродвигателей,
электротранспорта) и других устройств.
Флуктационные процессы представляют собой результирующий эффект очень большого числа часто следующих элементарных импульсов, налагающихся друг на друга. Реализация
флуктационного процесса имеет вид непрерывной функции времени. К числу флуктационных процессов относятся тепловые и
космические шумы, шумы полупроводниковых и электронных
приборов, шумы на выходе радиоприемников и другие.
К случайным процессам специального вида относятся такие
процессы, которые имеют место в различных устройствах или на
их выходе, например, сигнал на выходе передатчика радиостанции с частотным, временным или кодовым уплотнением каналов
передачи информации. В простейшем случае это может быть амплитудно-модулированный сигнал с речевым сообщением. Такие
процессы могут создаваться специально для различных целей
(для имитации процессов или создания помех радиоприемным
устройствам и т.д.). Гармоническое колебание, модулированное
по амплитуде случайным флуктационным процессом, а по частоте – случайными импульсами, является процессом специального
вида.
Если рассматривать случайный процесс ξ(t) непрерывным и
дискретным как по времени t, так и по значению ξ(t), то его
можно представить четырьмя группами случайных процессов [1,
5].
Случайный процесс общего типа: t и ξ(t) могут принимать
любые значения, т.е. являются непрерывными. Эта группа процессов совпадает с флуктационными процессами по первой [4]
классификации.
Дискретный случайный процесс: t – непрерывно, а величины
ξ(t) дискретны. Реализация такого процесса представляет собой
случайную ступенчатую функцию времени. Примером может
служить напряжение на выходе квантующего устройства по амплитуде.
Случайная последовательность общего типа: t дискретно, а
ξ(t) может принимать любые значения. Реализация этого процесса представляет собой импульсный случайный процесс.
6
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Дискретная случайная последовательность: t и ξ(t) – дискретны. Такой случайный процесс можно наблюдать на выходе
квантующего устройства по амплитуде и времени.
Приведенные две классификации случайных процессов позволяют представить их многообразие. Они предназначены для
общей характеристики.
Существует еще большая группа квазидетерминированных
случайных процессов, которые описываются функциями заданного вида, содержащими один или несколько параметров:
ξ(t) = S(t; v1,v2,...), S – функция заданного вида, t – время,
v1,v2,,... – параметры, которые могут зависеть от времени или не
зависеть.
Если заданная функция представляет собой гармоническую
функцию, такой случайный процесс называется квазигармоническим. Перейдем теперь к способам описания случайных процессов.
1.2. Плотность вероятностей,
ее свойства
Предположим, что имеется большое число N полностью одинаковых источников случайного процесса ξ(t), работающих в
одинаковых условиях. Если к каждому источнику подключить
одинаковые регистрирующие приборы и отсчитать мгновенные
значения, то получим отсчеты ξ1(t1), ξ2(t1), ..., ξN(t1), которые отличаются друг от друга.
Выделим из общего числа N те значения n1 отсчетов, которые
попали в достаточно малый интервал (ξ, ξ+Δ ξ). Оказывается, что
при достаточно большом числе N относительная доля
n1
N
значе-
ний, заключенных в этом интервале, стремится к некоторой определенной величине, пропорциональной Δ ξ и зависящей от t1
как от параметра, т.е. lim n1 = W 1 (ξ, t1 )Δξ , где функция W1(ξ ,t1)
N →∞
N
называется одномерной плотностью вероятности случайного
процесса. Одномерная плотность вероятности является важной,
но неполной характеристикой случайного процесса. Она характе7
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
ризует процесс ξ(t) статистически, но не дает представления о
динамике его развития, например, как влияет ξ(t1) на значение
этого процесса в момент t2 > t1.
Более полной характеристикой случайного процесса является
двумерная плотность вероятности, характеризующая случайный
процесс в два момента времени t1 и t2.
Для ее определения берут отсчеты на выходе N идентичных
источников случайных процессов в два момента времени t1 и t2 ,
т.е. ξ1(t1), ξ2(t1), ..., ξN(t1) и ξ1(t2), ξ2(t2), ..., ξN(t2). Выделим из этих
отсчетов ту часть n2 , которые в момент времени t1 заключены в
пределах (ξ1, ξ1+Δξ1) и в момент t2 в пределах (ξ2, ξ2+Δξ2).
Тогда можно записать lim n2 = W 2 (ξ 1, ξ 2 , t1, t 2 ) Δξ 1 Δξ 2 . Функция
N →∞
N
W2(ξ1 ,ξ2 ,t1,t2) называется двумерной плотностью вероятности. В
общем случае двумерная плотность вероятности также не дает
исчерпывающего описания случайного процесса ξ(t). Она позволяет судить о связи между вероятными значениями случайной
функции в два момента времени. Достаточно полное и детальное
описание случайного процесса дается многомерными плотностями вероятностей. Чем больше размерность плотности вероятности, тем детальнее описывается случайный процесс.
Плотности вероятности должны удовлетворять следующим
условиям [4]:
1. Условию положительной определенности
W n (ξ1 ,..., ξ n , t1 ,..., tn ) ≥ 0 ;
(1.2.1.)
2. Условию нормировки
∞
∞
 ...  W n (ξ1,..., ξ n , t1,..., tn )dξ1... dξ n = 1;
−∞
(1.2.2)
−∞
3.Условие симметрии, т.е. функция W n (ξ1 ,..., ξ n , t1 ,..., tn ) ,
являющаяся симметричной относительно своих аргументов, не
должна изменяться при любой перестановке аргументов ξ1, ...,ξn.
Для двумерной плотности вероятности условие симметрии имеет
вид
W2(ξ1 ,ξ2 ,t1,t2)= W2(ξ2 ,ξ1 ,t2,t1);
8
(1.2.3)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
4. Условию согласованности: при любом m<n
W m (ξ1,..., ξ m , t1,..., t m ) =
∞
∞
−∞
−∞
=  ...  W n (ξ1,..., ξ m , ξ m +1,..., ξ n , t1,..., t n )dξ m +1... dξ n
(1.2.4)
Последнее условие показывает, что из плотности вероятности
большей размерности легко находятся плотности вероятности
меньшей размерности путем интегрирования ее по “лишним” аргументам.
1.3. Функция распределения
и ее свойства
Иногда вместо плотностей вероятности рассматривают
функции распределения вероятностей. Одномерная функция распределения вероятностей определяет относительную долю случайных значений величин xi(t1), i=1, 2, ..., N→ ∞, меньших некоторой величины ξ1:
ξ1
F1 (ξ1, t1 ) =  W 1 [x i (t )]dx i .
(1.3.1)
−∞
Двумерная функция распределения вероятностей определяется соотношением
F2 (ξ1, ξ 2, t1, t 2 ) =
ξ1 ξ 2
  W 2 ( x1, x 2, t1, t2 ) dx1dx 2 .
(1.3.2)
−∞−∞
Аналогично определяются другие функции распределения
вероятностей большой размерности.
Если функции распределения дифференцируемы, то выполняются формулы: W 1 (ξ 1, t1 ) =
∂F1 (ξ 1, t1 )
,
∂ξ 1
∂ 2 F2 (ξ 1, ξ 2 , t1, t2 )
W 2 (ξ 1, ξ 2 , t1, t2 ) =
.
∂ξ 1∂ξ 2
9
(1.3.3)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Функция распределения должна удовлетворять следующим
условиям:
1. Функция распределения F(ξ) есть неубывающая функция
своего аргумента, т.е. при ξ2>ξ1 F(ξ2) ≥ F(ξ1).
(1.3.4)
2. На минус бесконечности функция распределения равна ну(1.3.5)
лю: F(-∞)=0.
3. На плюс бесконечности функция распределения равна
единице:
F(+∞)=1.
(1.3.6)
4. Вероятность попадания случайной величины в интервал
[a,b] находится по формуле
b
F1 ( a ≤ ξ 1 ≤ b) =  W 1 (ξ 1, t ) dξ 1 = F1 ( b) − F1 ( a) .
(1.3.7)
a
Функция распределения любой прерывистой случайной величины есть разрывная ступенчатая функция, а непрерывной
случайной величины представляет собой функцию, непрерывную
во всех точках.
1.4. Характеристическая функция
и ее свойства
Случайный процесс можно описывать характеристической
функцией, которая представляет собой преобразование Фурье от
соответствующей плотности вероятности. Для n-мерной характеристической функции случайного процесса справедливо следующее выражение
∞
∞
−∞
−∞
Θ n ( u1,..., un , t1,..., tn ) =  ...  W n (ξ 1,..., ξ n , t1,..., tn ) ×
× exp( ju1ξ1 +...+ junξ n ) dξ1... dξ n .
(1.4.1)
Отсюда видно, что характеристическую функцию можно определить как математическое ожидание экспоненты и записать в
виде Θ n ( u1,..., un , t1,..., t n ) = exp( ju1ξ 11 +...+ junξ n ) .
10
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Скобки  .  обозначают операцию математического ожидания или операцию статистического усреднения, т.е. усреднение
по ансамблю реализаций. Для независимых случайных величин
характеристическая функция равна произведению характеристических функций отдельных величин, т.е.
Θ n ( u1,..., un , t1,..., tn ) = exp( ju1ξ 1 ) ... exp( junξ n ) =
= Θ1 ( u1 )... Θ n ( un ) .
(1.4.2)
Этот результат часто используется при вычислении плотности вероятности суммы независимых случайных величин. Для
одномерной характеристической функции имеет место следующее прямое и обратное преобразование Фурье:
∞
Θ1 ( u1, t1 ) =  W 1 (ξ 1, t1 ) e ju1ξ1 dξ 1 ;
−∞
1 ∞
W 1 (ξ 1, t1 ) =
Θ1 ( u1, t1 )e− ju1ξ1 du1 .

2π −∞
(1.4.3)
Аналогичные соотношения имеются для характеристических
функций большей размерности [5].
Характеристические функции должны удовлетворять следующим условиям:
1. Условию нормировки, т.е. Θ1(0,0)=1;
2. Условию симметрии: при любой перестановке аргументов
значение характеристической функции не изменяется. Например,
Θ2(u1,u2,t1, t2)= Θ2(u2,u1,t2, t1);
3. Условию согласованности: из большей размерности всегда
можно получить характеристическую функцию меньшей размерности путем приравнивания к нулю лишних аргументов. При
m< n имеем Θm(u1, ..., um, t1, ..., tm)= Θn(u1, ..., um, 0, ..., 0, t1, ..., tm).
Здесь um+1 = 0, ..., un = 0, т.е. из n-размерной характеристической
функции получена m-размерная характеристическая функция путем приравнивания к нулю (n-m) аргументов.
11
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
1.5. Условная плотность вероятности
и ее свойства
При решении многих задач приходится оперировать условными плотностями вероятности. При ее определении отправной
является формула [6]:
W (ξ 1, t1 / ξ 2 , t2 ) =
W 2 (ξ 1, ξ 2 , t1, t2 )
,
W 1 (ξ 2 , t2 )
(1.5.1)
∞
где W 1 (ξ 2 , t2 ) =  W 2 (ξ 1, ξ 2 , t1, t2 ) dξ 1 .
−∞
Плотность вероятности W(ξ1, t1 / ξ2, t2) называется условной
плотностью вероятности для ξ1 при заданной величине ξ2. Условная плотность вероятности W(ξ1, t1 / ξ2, t2) содержит больше
(но не меньше) сведений о ξ1 , чем безусловная вероятность W(ξ1,
t1). В некоторых случаях информация о ξ2 не прибавляет информации о ξ1. Это значит, что ξ1 не зависит от ξ2. Тогда условная
плотность вероятности равна безусловной плотности вероятности, т. е. имеет место равенство
W ( ξ 1, t1 / ξ 2 , t2 ) = W 1 (ξ 1, t1 ) .
Из (1.5.1) следует, что
W 2 (ξ 1, ξ 2 , t1, t2 ) = W 1 (ξ 1, t1 ) ⋅ W 1 (ξ 2 , t2 ) .
(1.5.2)
Эти формулы выражают необходимое и достаточное условие
независимости двух случайных величин ξ1 и ξ2. Когда величины
ξ1 и ξ2 связаны функциональной зависимостью, т.е. ξ1 = q(ξ2), где
q – функция, то знание ξ2 полностью определяет ξ1. В данном
случае двумерная плотность вероятности выражается формулой
W 2 (ξ 1, ξ 2 , t1, t2 ) = δ (ξ 1 − q(ξ 2 ))W 1 (ξ 2 , t2 ) .
(1.5.3)
В определение W2(ξ1, ξ2, t1, t2) введена дельта-функция для
сохранения условия согласованности и нормировки (1.2.4, 1.2.2)
плотности вероятности. Формулы (1.5.1) и (1.5.3) обобщаются и
12
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
распространяются на несколько случайных величин [6]. Условная
плотность вероятности удовлетворяет условию нормировки, положительной определенности, условию согласованности, которые указывались для безусловной плотности вероятности в подразделе 1.2.
Следует отметить, что применение для описания случайного
процесса плотности вероятности, или характеристической функции, или функции распределения производится по усмотрению
пользователя. Применение любой из перечисленных характеристик при решении конкретной задачи приводит к одинаковым
результатам. Обычно используется та характеристика случайного
процесса, которая позволяет получить конечный результат наиболее простым способом.
1.6. Числовые характеристики
случайных величин
Во многих вопросах практики нет необходимости характеризовать случайную величину полностью. Зачастую достаточно бывает указать только отдельные числовые характеристики.
Характеристики случайных величин, которые в сжатой форме
позволяют выразить наиболее существенные особенности распределения, называются числовыми характеристиками случайной величины. В радиофизике такие характеристики и операции с ними
играют огромную роль. К наиболее важным числовым характеристикам относятся математическое ожидание, дисперсия, среднеквадратическое отклонение, моменты, мода, медиана, коэффициенты ассиметрии и эксцесса. Рассмотрим их для дискретных и непрерывных случайных величин. Дискретная случайная величина
характеризуется (задается) рядом распределения вида
ξi
ξ1
ξ2
...
ξn
pi
p1
p2
...
Pn
где ξi , pi – значение дискретной случайной величины и соответствующая ей вероятность. Основные числовые характеристики
определяются по следующим формулам:
13
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
n
m =  ξ i pi – математическое ожидание
(1.6.1);
i=1
n
σ 2 =  (ξ i − m ) 2 pi – дисперсия
(1.6.2);
i=1
σ = σ 2 – среднеквадратическое значение;
n
mν =  ξ νi pi – начальный момент любого порядка ν =1,2,... (1.6.3);
i=1
n
μ ν =  (ξ i − m)ν pi – центральный момент любого порядка
(1.6.4),
i=1
(ξi – m) – центрированная случайная величина.
Из этих формул видно, что для определения перечисленных
характеристик случайной величины необходимо иметь ряд распределения, т.е. значения дискретной случайной величины и соответствующие вероятности. Отметим, что при ν=1 имеем центральный момент первого порядка μ1 =0. Это видно из (1.6.4),
так как
n
n
i=1
i=1
 pi = 1, а  ξ i pi = m . При ν=2 получается формула
(1.6.2) для дисперсии, т.е. μ 2 = σ 2 .
Непрерывная (аналоговая) случайная величина задается
плотностью вероятности W1(ξ1, t1). Тогда соответствующие числовые характеристики определяются по формулам:
∞
m =  ξW 1 (ξ, t1 ) dξ – математическое ожидание,
(1.6.5);
σ 2 =  (ξ − m ) 2W 1 (ξ, t1 ) dξ – дисперсия,
(1.6.6);
−∞
∞
−∞
σ = σ 2 – среднеквадратическое значение;
∞
mν =  ξ νW 1 (ξ, t1 ) dξ – начальный момент ν–го порядка; ν =1,2,3,...,
−∞
(1.6.7);
∞
μ ν =  (ξ − m )ν W 1 (ξ, t1 ) dξ – центральный момент ν–го порядка,
−∞
(1.6.8).
14
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Для количественной характеристики ассиметрии функции
плотности вероятности используется коэффициент ассиметрии,
определяемый по формуле
γ1 =
μ3
3
μ22
=
μ3 χ 3
= 2,
3
σ
χ2
(1.6.9)
где μ2 ,μ3 – центральные моменты второго и третьего порядков,
χ2 и χ3 – кумулянты второго и третьего порядков, определение
которых будет дано ниже. При γ1 > 0 ассиметрия кривой плотности вероятности имеет место справа от математического ожидания, а при γ1 < 0 – слева.
Плосковершинность плотности вероятности характеризуется
коэффициентом эксцесса, определяемым по формуле
γ2=
μ4
μ4
χ4
−
3
=
−
3
=
,
2
4
2
μ2
σ
χ2
(1.6.10),
где μ4 – центральный момент четвертого порядка, χ4 – кумулянт
четвертого порядка. При γ2 > 0 вершина кривой плотности вероятности является более острой, а при γ2 < 0 – менее острой. Коэффициенты γ1 и γ2 характеризуют кривую плотности вероятности по сравнению с нормальной (гауссовой) плотностью вероятности.
Кумулянты (или семиинварианты) являются одномерными
характеристиками случайных величин и выражаются через начальные и центральные моменты следующим образом [4]
χ 1 = m1 ; χ 2 = m2 − m12 = μ 2 ; χ 3 = m3 − 3m1m2 + 2m13 = μ 3 ;
χ 4 = m4 − 3m22 − 4 m1m3 + 12m12 m2 − 6m14 = μ 4 − 3μ 22 ,
(1.6.11)
где m1, m2, m3, m4 – начальные моменты первого, второго, третьего и четвертого порядка; μ2, μ3, μ4 – центральные моменты второго, третьего и четвертого порядка.
Наиболее распространенными характеристиками случайных
величин является математическое ожидание и дисперсия.
15
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Свойства математического ожидания.
1. Математическое ожидание константы равно самой константе, т.е. c=c.
2. Математическое ожидание от произведения константы на
случайную величину равно константе, умноженной на математическое ожидание случайной величины, т.е. cξ=cξ=cm.
3. Математическое ожидание суммы (разности) двух случайных независимых величин равно сумме (разности) математических ожиданий двух случайных величин, т.е.
x±y=x±y=mx±my,
(1.6.12).
Для зависимых случайных величин применяются композиционные формулы [4], которые будут рассмотрены отдельно.
4. Математическое ожидание произведения двух независимых случайных величин равно произведению математических
ожиданий этих величин, т.е.
xy = xy = mxmy,
(1.6.13).
Если случайные величины x и y зависимы, то используются
композиционные формулы [4].
5. Математическое ожидание частного двух случайных независимых величин равно отношению математических ожиданий
этих величин, т.е.
x
x
m
=
= x.
y
y
my
(1.6.14)
При зависимых x и y используются композиционные формулы [4].
Свойства дисперсии.
1. Дисперсия константы равна нулю: D(c)=0.
2. Дисперсия произведения случайной величины на константу равна произведению квадрата константы на дисперсию случайной величины: D(cξ)=c2 D(ξ).
3. Дисперсия суммы (разности) двух независимых случайных
величин равна сумме дисперсий случайных величин
D(x±y)=D(x)+D(y).
16
(1.6.15)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
При коррелированных случайных величинах x и y дисперсия
их суммы (разности) определяется по формуле
D ( x ± y ) = D ( x ) + D ( y ) ± 2R x y D ( x ) ⋅ D ( y ) ,
(1.6.16)
где Rxy – коэффициент линейной корреляции между случайными
величинами x и y.
4. Дисперсия произведения двух независимых случайных
величин равна произведению дисперсии случайных величин
D(x⋅y)=D(x)⋅D(y).
(1.6.17)
Вычисление дисперсии произведения и частного двух зависимых случайных величин производится с применением композиционных формул, которые будут рассмотрены далее.
Размерность математического ожидания совпадает с размерностью самой случайной величины, а размерность дисперсии
есть квадрат размерности случайной величины.
Для электрического напряжения или тока дисперсия представляет собой мощность случайной составляющей на единичном
сопротивлении.
Отметим, что для характеристики точности случайной величины (физического параметра) применяется коэффициент вариации, который представляет собой одно из соотношений
υ1 =
σ
m
, υ2 =
2σ
3σ
, υ3 =
,
m
m
где m, σ – математическое ожидание и среднеквадратическое
значение случайной величины соответственно.
Коэффициенты вариации υ1 ,υ2 и υ3 характеризуют точность
несмещенной оценки параметра, имеющего нормальную плотность вероятности, с вероятностью, примерно равной 0,683,
0,954, 0,997 соответственно.
Оценка параметра называется несмещенной, если ее среднее
значение равно истинному значению параметра [7].
Кроме важнейшей из характеристик положения плотности
вероятности – математического ожидания, – на практике применяются и другие характеристики, в частности мода и медиана
случайной величины.
17
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Модой случайной величины называется ее наиболее вероятное значение. Термин “наиболее вероятное”, строго говоря, применим только к дискретным величинам. Для непрерывной величины модой является то значение, при котором плотность вероятности максимальна. Для нахождения непрерывной моды случайной величины необходимо найти максимум плотности вероятности по известным правилам. Для симметричной унимодальной плотности вероятности мода совпадает с математическим
ожиданием.
Медианой случайной величины ξ называется такое ее положение, для которого выполняется условие
P(ξ<ξме)=P(ξ>ξме),
где ξме – абсцисса, соответствующая медиане плотности вероятности. Иначе, геометрически медиана – это абсцисса точки, в которой площадь, ограниченная кривой плотности вероятности, делится пополам, т.е.
P (ξ < ξμ ε ) = P(ξ > ξμ ε ) = 0.5 .
1.7. Законы распределения
случайных величин
Законы распределения случайных величин устанавливают
связь между значениями случайной величины и вероятностью
появления этого значения. Они могут быть получены как на основе теоретических предпосылок, так и на основе опытных данных.
Законы распределения могут быть дискретными (для дискретных случайных величин) и непрерывными (для непрерывных
случайных величин).
В статистической радиофизике применяются дискретные и
непрерывные законы распределения случайных величин. Рассмотрим наиболее распространенные законы распределений случайной величины.
18
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Дискретные законы случайной величины
Равномерный (прямоугольный) закон.
Равномерным считается распределение, при котором все значения случайной величины (в области ее существования) равновероятны. Равномерное распределение встречается весьма часто,
например при передаче цифровых данных в виде “1” и “0” двоичными кодами, при выпадении орла или решки в процессе бросания монеты, выпадении цифр на гранях кубика и т. д.
Распределение вероятностей равно
− ∞ < ξ < 1;
0,

P (ξ = k ) =  1 / m , 1 ≤ ξ ≤ m ;
 0,
m < ξ < ∞,

(1.7.1)
где m – число значений случайной величины; k – номер дискретной случайной величины.
Функция распределения вероятностей:
 0, − ∞ < n < 1,

P (ξ ≤ n) = n / m , 1 ≤ n ≤ m ,
0,
m < n < ∞,

(1.7.2)
где n – число случайных величин.
Параметры распределения:
m+1
,
m1 =
2
m2 + 1
, μ3 = 0 ,
σ = μ2 =
12
2
γ 1 = 0, γ 2 = −1,2 +
4
,
m2 − 1
где m1 , σ , μ 2 , μ 3 , γ 1 , γ 2 – математическое ожидание, дисперсия,
второй и третий центральные моменты, коэффициент симметрии
и эксцесса.
2
Биномиальный закон (закон Бернулли).
К биномиальному закону приводит распространенная задача
повторения опытов. Закон дает вероятность того, что в последо19
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
вательности из m независимых испытаний событие наступает
ровно k раз. Это распределение используется в статистике, а также в различных вероятностных расчетах.
Биномиальный закон определяется функцией:
− ∞ < ξ < 0,
 0,

P (ξ = k ) = C mk pk qm − k , 0 ≤ ξ ≤ m ,
1,
m < ξ < ∞,

(1.7.3)
m!
– число возможных сочетаний из m по k, p –
(m − k )!k !
вероятность наступления события, q – вероятность ненаступления события.
Функция распределения вероятностей:
где Cmk =
− ∞ < ξ < 0,
 0,
n

P (ξ ≤ n) =   C mk pk qm − k , 0 ≤ ξ ≤ m,
 k =0
m < ξ < ∞,
1,
(1.7.4)
где n – число случайных величин.
Параметры распределения:
m1=mp, μ2 =mpq, μ 3 =mpq(1-2p), μ 4 =3m2p2q2 +mpq(1-6pq),
γ1 =
1 − 6 pq
1− 2 p
, γ2 =
mpq
mpq
Вероятность того, что событие не произойдет ни разу, определяется равенством Fm(0)=qm, а вероятность того, что событие
будет иметь место все m раз – равенством Pm(m)=pm. Очевидно,
что
m
 Pm (k ) = 1
k =0
- условие нормировки.
При больших m пользоваться формулой (1.7.3) нецелесообразно; она приводится [9] к локальной формуле Лапласа:
20
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Pm ( k ) =
где σ =
2
1
2πσ
2
e
δ
− k2
2σ
,
(1.7.5)
mpq , δ k = k − k m = k − mp .
Закон Пуассона.
При большом числе испытаний и малой вероятности события
биномиальное распределение сходится к распределению Пуассона [6, 9].
Закон Пуассона имеет вид
− ∞ < ξ < 0,
 0,
 k
P (ξ = k ) =  λ − λ
 k ! e , 0 ≤ ξ < ∞,
(1.7.6)
где λ – математическое ожидание.
Закон Пуассона дает вероятность появления события k раз за
время t, если можно считать, что вероятность наступления события за интервал Δt пропорциональна этому интервалу и события
в различные моменты времени независимы.
Закону Пуассона, например, соответствует распределение
числа электронов, вышедших из катода за время t, распределение
числа телефонных вызовов за время t и т. д..
Функция распределения вероятностей имеет вид
− ∞ < n < 0,
0,
n k
P (ξ ≤ n) =  λ − λ
e , 0 ≤ n < ∞.
k
=0 k !
(1.7.7)
Параметры распределения:
m1= λ , μ2 = λ , μ 3 = λ , μ 4 = 3λ + λ , γ 1 =
2
5
1
λ
,γ2 =
1
λ
.
Пределы применимости закона Пуассона показаны в [6] и
сводятся к тому, что последовательность событий должна удовлетворять следующим условиям: поток событий должен быть
стационарным, без последействия, ординарным. В стационарном
потоке вероятность наступления некоторого числа событий в те21
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
чение заданного отрезка времени зависит только от величины
этого отрезка и не зависит от начала отсчета времени. Отсутствие
последействия в потоке означает, что отдельные события в нем
происходят независимо одно от другого. Свойство ординарности
потока заключается в том, что вероятность наступления двух событий на достаточно малом интервале времени является исчезающе малой в сравнении с вероятностью наступления одного
события.
Существуют и применяются другие дискретные законы [6,9].
Непрерывные законы случайных величин
Равномерный закон
Равномерным считается распределение, при котором все значения случайной величины в области ее существования равновероятны. Равномерное распределение характерно для фазы случайного вектора, составляющие которого распределены нормально. Оно широко используется в радиофизических расчетах, например при расчете характеристик гармонического колебания со
случайной фазой, при расчете интенсивности отказов в теории
надежности и других случаях.
Равномерный закон имеет плотность вероятности
 0, − ∞ < ξ < a,
 1
W (ξ ) = 
, a ≤ ξ ≤ b,
b
−
a

b < ξ < ∞,
 0,
(1.7.8)
где a и b – пределы изменения случайной величины ξ .
Функция распределения равна
 0, − ∞ < ξ < a,
ξ − a
F (ξ) = 
, a ≤ ξ ≤ b,
b
−
a

b < ξ < ∞.
 0,
(1.7.9)
Параметры распределения:
m1 =
1
(b + a ) ,
2
μ2 =
1
(b − a ) 2 ,
12
22
μ3 = 0,
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
1
. .
(b − a ) 4 , γ 1 = 0, γ 2 = −12
80
μ4 =
Нормальный закон
Нормальный закон распределения случайной величины имеет
особое значение. Он применим в более широких условиях, чем
другие законы, и имеет ряд замечательных свойств. Часто этот закон называют законом Гаусса или гауссовским распределением.
Главная особенность, выделяющая нормальный закон среди
других законов, состоит в том, что он является предельным законом, к которому приближаются другие законы распределения.
Сумма достаточно большого числа независимых (или слабо
зависимых) случайных величин, подчиненных каким угодно законам распределения, приближенно подчиняется нормальному
закону, и это выполняется тем точнее, чем больше количество
случайных величин суммируется.
Примером нормального закона могут быть ошибки измерений, шумы на выходе линейной части любого радиоприемника
при отсутствии сигнала на его входе, размеры деталей при металлообработке и т. д. [1 – 9].
Плотность вероятности нормального закона имеет вид
W (ξ ) =
1
2πσ
2
e
−
( ξ − m1 )2
2σ 2
, − ∞ < ξ < ∞,
(1.7.10)
где m1 ,σ 2 – математическое ожидание и дисперсия – основные
параметры распределения; σ – среднее квадратическое отклонение.
Функция распределения равна
 ( x − m1 ) 2  .
1 ξ
F (ξ) =
 exp − 2σ 2  dx
2πσ −∞


(1.7.11)
Вероятность попадания нормально распределенной случайной величины в заданный интервал равна
 (ξ − m1 )2  .
1 b
F ( a ≤ ξ < b) =
exp −
dξ

2

2σ
2πσ a


23
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Переходя к новой переменной интегрирования t = ( ξ –m1)/σ ,
получим
 b − m1 
 a − m1  ,
P ( a ≤ ξ < b ) = Ф
 − Ф

 σ 
 σ 
1
где Ф(z ) =
2π
z
−
t2
2
 e dt
(1.7.12)
– табулированный интеграл вероятности
−∞
[4, 5, 12]. Пользуясь таблицами функции Ф(z) и формулой
(1.7.12), можно установить, что вероятность попадания нормально распределенной случайной величины в интервал от – σ до σ
относительно среднего значения равна 0.683, в интервал от –2 σ
до 2 σ равна 0.945 и в интервал от –3 σ до 3 σ равна 0.997. Последний интервал иногда называют интервалом трех сигм и используют для характеристики точности случайной величины. Из
симметричности нормального закона следует, что все нечетные
центральные моменты равны нулю, а четные выражаются формулой [4]:
μν = ξ
ν

(ν − 1)σ ν пр и ν = 2n,
=
, ,3,...
0 пр и ν = 2n − 1, г д е n = 12
При вычислении часто приходится иметь дело с интегралом
вероятности Ф(-z). Тогда пользуются выражением
Ф(-z) = 1 – Ф(z).
(1.7.13)
Параметры распределения:
m1 = m1 , μ2 = σ 2 , μ3 = 0 , μ4 = 3σ 4 , γ 1 = 0 , γ 2 = 0 .
Из анализа этих параметров видно, что коэффициенты симметрии и эксцесса равны нулю. Это и естественно, так как назначение этих коэффициентов состоит в том, чтобы характеризовать
сравнительную крутость и плоскостность данного закона по
сравнению с нормальным.
Закон Релея
Этому закону подчиняется модуль вектора на плоскости, составляющие которого по осям ординат и абсцисс независимы и
24
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
распределены нормально. Закон Релея применяется для исследования распределения замираний радиосигналов при ионосферном
и тропосферном рассеянии. Шумовой процесс на выходе линейного детектора в радиоприемнике описывается законом Релея.
Плотность вероятности имеет вид
− ∞ < ξ < 0;
0,
2

ξ
W (ξ) =  ξ − 2σ 2
, 0 ≤ ξ < ∞,
σ 2 e

(1.7.14)
где σ – дисперсия процесса, подчиняющегося нормальному закону, огибающая которого описывается выражением (1.7.14).
Функция распределения закона Релея:
2
− ∞ < ξ < 0,
 0,
2
ξ
F (ξ) = 
−
2σ 2
1 − e
, 0 ≤ ξ < ∞.
(1.7.15)
Параметры распределения:
m1 =
σ π
2
≈ 1,25σ ,
(π − 3) π
μ3 =
σ
2
3
μ2 =
2,
4−π 2
σ ≈ 0,43σ 2 ,
2
32 − 3π 2 4
μ4 =
σ ,
4
γ 2 = −0,3.
γ 1 = 0,63 ,
Обобщенный закон Релея
Обобщенный закон Релея применяется в радиофизике для
описания распределения огибающей аддитивной смеси высокочастотного сигнала и шума. Распределение длины вектора, координаты которого независимы и распределены нормально с одинаковыми дисперсиями и различными средними, также распределены по обобщенному закону Релея.
Плотность вероятности имеет вид
25
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
− ∞ < ξ < 0,
0,
2
2

ξ +a
W (ξ) =  ξ − 2σ 2  aξ 
I 0  2  , 0 ≤ ξ < ∞,
σ 2 e
σ 

(1.7.16)
где a – амплитуда детерминированной величины, I0(z) – функция
Бесселя от мнимого аргумента нулевого порядка или вырожден2
ная функция Бесселя нулевого порядка [6, 9, 12]; σ – дисперсия
шумового процесса.
Функция распределения:
− ∞ < ξ < 0,
0,
ξ
2
2
 x + a   ax 
F (ξ) =  x
exp

− 2σ 2 I 0  σ 2  dx , 0 ≤ ξ < ∞.
 −∞σ 2


(1.7.17)
При a = 0 (отсутствие регулярной составляющей сигнала)
обобщенный закон Релея переходит в закон Релея (1.7.14), так
как I0(0) =1.
Параметры распределения:
a2
π 
a 2   a 2  a 2  a 2   − 4σ 2
,
m1 = σ
I
I
e
+
 1 +
2  0
2
2 1
2 
2  2σ   4σ  2σ
 4σ  
 σ2
m1 = a  1 + 2 
 2a 
 σ2
μ2 = σ  1 − 2 
 4a 
2
п р и a >> σ ,
при a >> σ ,
γ 1 = 0,63 п р и
γ 1 = 0,07 п ри
a
σ
a
σ
= 0,
= 3.
При необходимости другие параметры можно вычислить по
формулам (1.6.7), (1.6.8), (1.6.10), (1.6.11).
26
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Логарифмический нормальный закон
Распределение “логнормальный закон” встречается у случайных величин, логарифм которых распределен нормально. Логарифмический нормальный закон широко используется в теории
надежности; этим законом аппроксимируются распределения полей атмосферных и промышленных помех.
Плотность вероятности имеет вид
− ∞ < ξ < 0,
0,

2
 (ln ξ − a) 
1
W (ξ ) = 
exp −
2
 , 0 ≤ ξ < ∞,
 ξ σ 2π
σ
2


(1.7.18)
где a – регулярная величина, σ 2 – дисперсия шумового процесса.
Функция распределения:
 0,

F (ξ ) =  1

 2π
− ∞ < ξ < 0,
(ln ξ − a
σ
−
(1.7.19)
t2
2
 e dt , 0 ≤ ξ < ∞.
0
Параметры распределения:
m1 = e
a+
σ
2
2
, μ 2 = exp(2a + σ )( e
2
3
2
σ
2
2
− 1) ,
2
μ3 = exp( 3a + σ 2 )( 2 − 3eσ + e3σ ) ,
2
2
2
μ 4 = exp(4 a + 2σ 2 )( e 6σ − 4 e 3σ + 6eσ − 3) ,
2
γ1 =
2
γ2 =
2 − 3eσ + e 3σ
(e
σ2
2
− 1)
3/ 2
2
2
,
2
e 6σ − 4e 3σ − 3e 2σ + 12 eσ − 6
(e
σ2
− 1)
2
.
Распределение Накагами (m – распределение)
При распространении радиоволн через среду со случайными
неоднородностями (в частности через ионосферу или тропосферу) сигнал в точке приема подвержен замиранию (федингам). Это
27
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
объясняется тем, что принимаемый сигнал представляет собой
сумму нескольких составляющих, проходящих различные пути и
имеющих различные амплитуды и фазы. Распределение огибающей такого сигнала хорошо описывается распределением Накагами, которое обобщает другие распределения.
Плотность вероятности распределения Накагами имеет вид
− ∞ < ξ < 0,
 0,
2

mξ
W (ξ) =  2m m ξ 2 m −1 − σ 2
, 0 ≤ ξ < ∞,
 Г ( m) σ 2 m e

где ξ – огибающая сигнала; m и σ
Г(m) – гамма-функция;
m=
При m =
ξ
2 2
[ξ − ξ
2
2
]
2
2
1
m ≥ , (1.7.20)
2
– параметры распределения;
1
≥ ,
2
σ 2= ξ
2
.
1
(1.7.20) переходит в одностороннюю нормальную
2
плотность вероятности:
 ξ2  2
W (ξ ) =
exp − 2  ,σ ≥ 0 .
2
2πσ
 2σ 
2
(1.7.21)
Если m = 1, то из (1.7.20) получим плотность вероятности Релея
 ξ 2
W(ξ ) = 2 exp − 2  ,ξ ≥ 0 .
σ
 σ 
2ξ
(1.7.22)
При m > 1 формула (1.7.20) дает хорошую аппроксимацию
для плотности обобщенного закона Релея (плотность вероятности
Райса)
 ξ 2 + ξ 02   2ξξ 0 
I0 
,ξ ≥ 0 ,
W(ξ ) =
exp −
σ0
σ
σ
0

  0 
2ξ
28
(1.7.23)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
1
где I 0 (z ) =
2π
π
π e
zCos (ϕ −ψ )
dϕ – функция Бесселя нулевого порядка от
−
мнимого аргумента, ξ 0 – регулярная составляющая огибающей
сигнала.
2
Между параметрами m, σ и σ 0 , ξ 0 имеется следующая связь
[4]:
σ4
σ2
2
,ξ 0 =
m2 − m,
σ = σ0 +ξ ,m = 4
4
m
σ − ξ0
2
2
0
σ0 =
(m −
m
σ2
m2 − m
)
Функция распределения закона Накагами имеет вид
0, − ∞ < x < 0,

ξ
 mx 2 
F (ξ ) =  2m m
2 m −1
 x exp  − σ 2  dx , 0 < x < ∞.
 Г ( m)σ 2 m −∞
Параметры распределения:
1
Г (m + )
σ
2 ,
m1 =
m Г ( m)
1
Г 2 (m + )
σ
2 ,
μ2 = σ 2 −
2
m Г ( m)
2
1 
1

3
Г
(
m
)
Г
(
m
)
+
+
σ  1

,
2
2
+2
μ 3 = 3 2  − 2m

3
 Г ( m)
m  2
Г ( m) 


3
1
1 



Г 2m + 
Г 4m +  



σ
2 3
2 ,
μ4 =
−

( m + 1) + 4(1 − m)
2
4
m
Г ( m)
m Г ( m) 


4
γ1 =
μ4
μ3 ,
γ
=
− 3.
2
2
3
μ
2
2
μ2
29
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Отметим, что для аппроксимации плотностей вероятности
случайных величин применяются и другие законы, которые можно найти в [4, 5, 6, 9, 12].
1.8.Задачи по разделу 1
Задача 1. Проверить выполнение условий для плотности
вероятности случайной величины, если она подчиняется закону
Релея.
Решение. Известно, что закон Релея имеет вид:
ξ
 ξ2 
 exp − 2 ,0 < ξ < ∞,
W1 (ξ ) = σ 2
 2σ 
0,−∞ < ξ < 0.

Условие положительной определенности (1.2.1) проверяется
непосредственной подстановкой положительного значения ξ .
Видно, что оно выполняется.
Условие нормировки (1.2.2) в нашем случае будет
∞
 −ξ 2
 ξ 
ξ
 σ 2 exp − 2σ 2 dξ =  − e 2σ  = 1,
0



0
∞
2
2
т.е. выполняется.
Выполнение условий симметрии (1.2.3) и согласованности
(1.2.4) легко проверяются на примере двухмерной плотности вероятности для нормальных случайных величин.
Задача 2. Проверить выполнение условий для функции распределения (интегральной функции) случайной величины, если
она подчиняется закону Релея.
Решение. Функция распределения для закона Релея имеет вид
0,−∞ < ξ ≤ 0,

F1 (ξ ) = 
 ξ2 
1 − exp − 2σ 2 ,0 < ξ < ∞.



30
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Для проверки условия (1.3.4), что F1 (ξ ) неубывающая функция, достаточно взять ξ 2 > ξ1 и подставить в (п.1.2). В результате
видно, что F1 (ξ 2 ) > F1 (ξ1 ) .
При подстановке ξ = −∞ в (п.1.2.) убеждаемся, что выполняется второе условие (1.3.5), т.е. F1 (− ∞ ) = 0 . Из (п.1.2) видно, что
ξ в [− ∞,0] не существует, т.е. ξ = 0 .
При подстановке ξ = ∞, F1 (+ ∞ ) = 1, что подтверждает выполнение условия (1.3.6).
Для проверки условия (1.3.7) необходимо задать ξ в интервале [a, b], где b > a .
Тогда
 ξ2 
ξ
F1 ( a ≤ ξ ≤ b) =  W 1 (ξ )dξ =  2 exp  − 2  dξ =
 2σ 
a
aσ
b
b
b
a
 −ξ 2
 − b2

−
2
=  − e 2σ  = − e 2σ + e 2σ  = F1 ( b) − F1 ( a) ,


 a 
2
2
2
что подтверждает выполнение (1.3.7).
Аналогично проверяются условия для функции распределения случайной величины, подчиняющейся другим законам.
Задача 3. Проверить выполнение условий для характеристической функции стационарной нормальной случайной величины, имеющей двухмерную характеристическую функцию
1


Θ 2 (u1 , u2 ) = exp jm(u1 + u2 ) − σ 2 [u12 + 2 R(τ )u1u2 + u22 ].
2


Решение. Условие нормировки проверяется подстановкой
u1 = u2 = 0 .
Из (п.1.3) видно, что Θ 2 (0,0 ) = 1 – условие нормировки.
Из (п.1.3) также видно, что перестановка местами u1 и u2 не
изменяет значения характеристической функции, что свидетельствует о выполнении условия симметрии: Θ2 (u1 , u2 ) = Θ2 (u2 , u1 ).
31
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Условие согласованности проверяется подстановкой, например, u2 = 0 в (п.1.3). Тогда из двухмерной получается одномерная
характеристическая функция, т.е. Θ1 (u1 ) = Θ2 (u1 , u2 = 0) . Это свойство используется, если требуется из большей размерности получить меньшую размерность характеристической функции. При
этом достаточно приравнять нулю лишние аргументы.
Задача 4. Дано дискретное распределение
i
xi
pi
1
2
3
4
0
1
2
3
0.3
0.3
0.2
0.2
Найти математическое ожидание mξ , дисперсию σ ξ , вероят2
ность того, что случайная величина больше или равна mξ .
Решение. Пользуясь формулами (1.6.1) и (1.6.2), находим
mξ = 1.3,σ ξ2 = 1.21, F (ξ ≥ mξ ) = 0.4 .
Задача 5. Найти математическое ожидание, дисперсию и
вероятность того, что случайная непрерывная величина больше
или равна математического ожидания.Случайная величина имеет
равномерную плотность вероятности с параметром а = 1, b =2.
Решение. Математическое ожидание и дисперсия находятся
по формулам:
b
b
a
a
m =  ξW (ξ ) d ξ =  ξ
1
1
d ξ = ( a + b ) = 1.5;
2
(b − a )
b
b
1
2
σ =  (ξ − m ) W (ξ ) d ξ =
(ξ − m ) d ξ =

b−a a
a
2
2
b −m
1
x3
2
=
x dx =
3
b − a a −m
(b − a )
b −m
≅ 0.0833,
a −m
32
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
x = ξ − m; dx = d ξ
где ξ = a; x = a − m
ξ = b; x = b − m
Вероятность того, что ξ больше или равна m будет
b
1
m−a
ξ =
= 0. 5 .
F (ξ ≥ m ) =  W (ξ )dξ =
−
−
b
a
b
a
−∞
a
m
Задача 6. Найти моду и медиану закона Релея, если σ = 1.
Решение. По определению мода – это максимум плотности
вероятности. Берем производную от плотности вероятности закона Релея (1.7.14) по переменной ξ , приравниваем к нулю и нахо1
−
дим абсциссу моды ξ μ = σ . Ордината моды равна W (ξ μ ) = 1 e 2 .
σ
Задача 7. Найти медиану плотности вероятности, подчиняющейся закону Релея, если σ = 1.
Решение. По определению медианой называется линия, перпендикулярная оси абсцисс и делящая плотность вероятности таким образом, что площади под кривой равны между собой и равны 0.5.
В нашем случае можно составить уравнение, пользуясь фор−
ξ 2м е
мулой (1.7.15), т.е. F (ξ м е ) = 1 − e 2σ = 0.5 .
2
ξ
Отсюда находим − м е2 = ln 0.5 ; ξ м е = σ −2 ln 0.5 ≅ 1177
. .
2σ
Задача 8. Определить коэффициент ассиметрии γ 1 и коэффициент эксцесса γ 2 , если случайная величина имеет равновероятную плотность вероятности с параметрами a и b .
Решение. Используем формулы (1.6.9) и (1.6.10), согласно
которым γ 1 = μ3 , γ 2 = μ 4 − 3.
3
μ 22
2
μ2
Сначала определяем математическое ожидание по (1.6.5), ис1
пользуя условие, что W (ξ ) =
, a ≤ ξ ≤ b. Далее находим
b−a
33
2
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
μ 2 , μ3 и μ 4 по формуле (1.6.8) при v = 2;3;4 соответственно.
Получаем
(b − a ) ; μ = 0; μ = (b − a ) .
1
m = (a + b ); μ 2 =
3
4
2
12
80
2
4
Подставляя эти значения в формулы для γ 1 и γ 2 , имеем
γ 1 = 0, γ 2 = −1.2.
Задача 9. Име.тся две случайные дискретные независимые
величины x и y . Их математические ожидания и дисперсии равны: mx = 3, m y = 5,σ x2 = 4,σ y2 = 9.
Найти математическое ожидание и дисперсию суммы, разности, произведения и частного этих случайных величин.
Решение. По условию случайные величины независимы, поэтому используем формулы (1.6.12), (1.6.13) и (1.6.14) для нахождения математических ожиданий:
3
mx + y = 8, mx − y = −2, mxy = 15, m x = .
5
y
Дисперсии определяем по формулам (1.6.15), (1.6.17):
D ( x ± y ) = D ( x) + D( y ) = 13; D ( xy ) = D( x) D ( y ) = 36.
Примечание. Если случайные величины зависимы между собой, то используются композиционные формулы [4, 5, 6].
Задача 10. Две случайные величины имеют статистическую
связь между собой с коэффициентом корреляции Rxy = −0.3 , а
2
2
также дисперсии σ x = 4 и σ y = 9. Найти дисперсию суммы и
разности случайных величин x и y .
Решение. При этом необходимо применить формулу (1.6.16).
Тогда
σ 2x + y = σ 2x + σ 2y + 2R x y σ 2x σ 2y = 4 + 9 − 2 ⋅ 0.3 ⋅ 2 ⋅ 3 = 9.4 ,
σ 2x − y = σ 2x + σ 2y − 2R xy σ 2x σ 2y = 4 + 9 + 2 ⋅ 0.3 ⋅ 2 ⋅ 3 = 16.6 .
34
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Задача 11. Функция распределения вероятностной случай-
ной величины ξ имеет вид
0,−∞ < ξ ≤ −1,

F (ξ ) = 0.5 + 0.5ξ ,−1 < ξ < 1,
0,1 ≤ ξ < ∞.

Найти
вероятность
того,
что
1) ξ ≤ 0.25 ;
3) − 0.5 ≤ ξ ≤ 0.5.
Ответ: 1) F (ξ ≤ 0.25) ≅ 0.89;
2) F (ξ ≥ 0.75 ) ≅ 0.234;
3) F (− 0.5 ≤ ξ ≤ 0.5) ≅ 0.5.
3
2) ξ > ;
4
Задача 12. Две случайные величины x и y имеют нулевые
математические ожидания. Их дисперсии соответственно равны
16 и 36. Коэффициент корреляции этих величин равен
0.5.Определите дисперсию суммы и разности этих величин.
Ответ: σ x2+ y = 76,σ x2− y = 28.
Задача 13. Плотность распределения вероятностей случайной величины x равна W ( x ) = U ( x )e − x , а статистически независимой от нее случайной величины y равна W ( y ) = 3U ( y )e −3 y .
Найдите
z = x + y.
плотность
Ответ: W2 ( z ) =
вероятности
случайной
величины
∞ ∞
1
Θ1 (u1 )Θ1 (u2 )e − iu x − ju y du1du2 ,


4π − ∞ − ∞
∞
∞
где Θ1 (u1 ) =  u ( x )e − x + ju x dx; Θ1 (u2 ) = 3  u ( y )e − 3 y + ju y dy.
1
2
2
1
2
−∞
−∞
Задача 14. Найдите одномерную характеристическую
функцию гауссовской случайной величины с нулевым математическим ожиданием и дисперсией σ 2 = 0.5 .
2 ∞
Ответ: Θ1 (u ) =
exp(− ξ 2 + juξ )dξ .

2π − ∞
35
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Задача 15. Для нормального закона случайной величины
показать, что выполняется условие нормировки и положительной
определенности.
∞
Ответ:  W (ξ ) dξ = 1 ; W (ξ ) ≥ 0 .
−∞
Задача 16. Задан интегральный закон распределения
0,ξ < 0,

F (ξ ) = ax 3 ,0 ≤ ξ ≤ 1,
1,ξ > 1.

Найти значения параметра "а", плотность вероятности W (ξ ),
а затем вероятность того, что случайная величина ξ будет лежать
в интервале от ξ1 до ξ 2 , если
1) ξ1 = 0,ξ 2 = 0.5; 2) ξ1 = 0.2,ξ 2 = 0.4; 3) ξ1 = 0.2,ξ 2 = 0.8.
0,ξ < 1,
Ответ: a = 1;W (ξ ) = 3 x 2 ,0 ≤ ξ ≤ 1,
0, x > 1.

F (0 < ξ < 0.5) = 0.125; F (0.2 < ξ < 0.4 ) = 0.056;
F (0.22 < ξ < 0.8) = 0.504.
Задача 17. Найти моду и медиану показательно-степенного
распределения
W (ξ ) =
1 m −ξ
ξ e , ξ > 0 , при m = 1.
m!
Ответ: ξ μ = 1;ξ μe ≅ 1.7 (получается из решения трансценξ μe
дентного уравнения e
= 2ξ μe + 2 )
Задача 18. Найти моду и медиану для нормального закона с
2
математическим ожиданием m и дисперсией σ .
Ответ: ξ μ = m,ξ μe = m.
36
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Задача 19. В нижеприведенной таблице дано распределение
вероятностей дискретной случайной величины ξ i .
i
ξi
pi
1
2
3
4
5
3
6
9
12
15
0.3
0.25
0.2
0.15
0.1
Найти математическое ожидание, дисперсию и среднеквадратическое значение случайной величины.
Ответ: m = 7.5;σ 2 = 15.75;σ = 3.96.
Задача 20. Показать, что если плотность вероятности случайной величины W (ξ ) является четной функцией, то математическое ожидание m = 0 , а дисперсию можно определять по фор-
муле
∞
σ = 2  ξ 2W (ξ )dξ .
2
0
Задача 21. Найти характеристическую функцию равномерного закона
 1
, a ≤ ξ ≤ b,

W (ξ ) =  b − a
0,ξ > a,ξ > b.
Ответ: Θ1 ( u ) =
1
e jξb − e jξa ) .
(
ju ( b − a )
37
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
2. Случайные процессы
2.1. Общие сведения
о случайных процессах
Случайный процесс характеризуется тем, что какая-либо физическая величина изменяется в некотором пространстве, причем
это изменение вероятностное. Конкретный вид случайного процесса в определенном опыте называется реализацией случайного
процесса. Употребляются также термины "траектория случайного
процесса" и "выборочная функция".
Случайные процессы часто бывают функциями времени, например, осцилограммы напряжения собственных шумов радиоприемного устройства, атмосферных, индустриальных и других
помех.
Для формального обозначения зависимости случайного процесса от аргументов применяются случайные функции, например
ξ(t). Здесь ξ(t) не определяется однозначно через t. В этом состоит существенное отличие случайной функции от детерминированной, значение которой однозначно определяется значением
аргумента.
Случайная функция может зависеть не от одного, а от нескольких аргументов. Например, напряжение шумов на выходе
радиоприемника зависит от напряжения питания в сети и высоты
подъема антенны.
Наряду со случайным процессом одной переменной рассматривают случайные функции нескольких переменных, получивших название случайных полей или многомерных сигналов. Различают скалярные и векторные поля. Количество переменных в
принципе может быть любым. Так как случайный процесс ξ(t)
или скалярное случайное поле ξ(x,y) при фиксированных значениях аргументов представляют собой случайные величины, то
для их описания применяются те же вероятностные характеристики, что для случайных величин, а именно: плотности вероятности, функции распределения, характеристические функции,
моментные и корреляционные функции (см. раздел 1).
38
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
2.2. Средние значения случайных величин
и моменты случайного процесса
Хотя полное описание случайного процесса представляется
многомерными плотностями вероятностей, в ряде случаев целесообразно использовать более простые характеристики случайного процесса. К таким характеристикам относятся моментные и
корреляционные (кумулянтные) функции. Использование более
простых характеристик нельзя указать из-за того, что отсутствует
метод пересчета плотностей вероятности при инерционных преобразованиях процессов, неизвестен физический механизм устройства, формирующего случайный процесс, по характеру решаемой задачи не требуется знать более сложные характеристики
случайного процесса, можно ограничиться ориентировочными
оценками характеристик процесса.
В качестве более простых характеристик случайного процесса, чем плотность вероятности, можно использовать моментные и
корреляционные функции.
Под моментными характеристиками случайного процесса
ξ(t), заданного на некотором интервале, понимают функции,
симметричные относительно своих аргументов, являющимися
статистическими средними (математическими ожиданиями) произведений.
При оперировании со случайными величинами и сучайными
процессами очень важную роль играют средние значения, определяемые следующим образом:
Для дискретных случайных величин:
n
ξ = ξ p(ξ ) – математическое ожидание
i
i
i =1
ξ
2
n
(2.2.1)
= ξ P(ξ ) – среднее значение (математическое ожидание)
i
i
2
i =1
квадрата случайной величины ξ
n
(2.2.2)
< ξ >= ξ P(ξ ) – среднее значение k-й степени случайной веi
i
k
k
i =1
личины
(2.2.3)
39
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
n
 P (ξ i ) = 1 – условие нормировки,
(2.2.4)
i =1
где P (ξ i ) – вероятность значения случайной величины ξ i .
Для непрерывных случайных величин:
∞
ξ =  ξW 1 (ξ)dξ – математическое ожидание
(2.2.5);
−∞
∞
ξ 2 =  ξ 2 W 1 (ξ)dξ – среднее значение квадрата случайного про-
цесса
−∞
(2.2.6)
∞
ξ k =  ξ k W 1 (ξ )dξ – среднее значение к-й степени случайного
−∞
процесса,
(2.2.7)
где W1(ξ) – одномерная плотность вероятности случайного процесса ξ(t).
Все выше сказанное в равной степени относится и к случайным процессам с той лишь разницей, что моменты случайной
функции будут зависеть от времени (в общем виде) в силу того,
что от времени зависит само распределение W1(ξ).
В теории случайных процессов важную роль играют смешанные моменты, в частности, смешанный момент второго порядка
∞ ∞
ξ(t1)ξ(t 2) =   ξ(t1)ξ(t 2)W 2 (ξ1, ξ 2 , t1, t 2)d ξ1 d ξ 2 , (2.2.8)
−∞−∞
где ξ(t1), ξ(t2) – значения процесса в соответствующие моменты
времени, а (2.2.8) – центральный момент второго порядка, называемый функцией корреляции (если одного процесса, то функцией автокорреляции; если двух процессов, то функцией взаимной
корреляции):
[ξ(t ) −
ξ(t1) ][ξ(t 2) − ξ(t 2)
− ξ(t1) ξ(t 2) = K (t1, t 2)
1
40
]
= ξ(t1)ξ(t 2) −
(2.2.9)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Член ξ ( t1 )ξ ( t 2 ) носит название функции ковариации. При
ξ (t1 ) = ξ (t2 ) = 0 функция корреляции равна функции ковариации.
При t1 = t2 = t функция корреляции становится равной дисперсии ξ(t) в момент времени t, т.е.
K (t1 , t 2) = K (t ) =
ξ
2
(t ) − ξ (t ) 2 = σ ξ ( t ) .
2
(2.2.10)
Среднее значение определяет “центр тяжести” распределения
в момент времени t; дисперсия характеризует ширину распределения или разброс относительно центра тяжести в момент времени t (физически, если ξ(t) – напряжение, то σ ξ2 ( t ) – это мощность
случайной составляющей процесса ξ(t)).
Функция корреляции или взаимной корреляции служит характеристикой линейной статистической связи между значениями случайной функции в два различных момента времени t1 и t2.
Более удобно для этой цели рассматривать коэффициент корреляции (автокорреляции или взаимной корреляции), определяемый как
R (t1 , t 2) =
K (t1 , t 2)
σ ξ (t )
2
=
ξ (t1)ξ(t 2) − ξ(t1) ξ(t 2)
σ ξ (t ) σ ξ (t )
2
2
1
.
(2.2.11)
2
Коэффициент корреляции R(t1, t2) пропорционален функции
корреляции и равен единице при t1 = t2. Коэффициент корреляции
может находиться в пределах от –1 до +1.
В случае когда значения, принимаемые случайной функцией
в два различных момента времени t1 и t2 являются статистически
независимыми, двумерное распределение распадается на произведение двух одномерных:
W 2 (ξ1, ξ 2 , t1 , t 2) = W 1 (ξ 1 , t1 )W 1 (ξ 2 , t 2 ).
(2.2.12)
Из определения смешанного момента второго порядка (2.2.8)
следует, что
ξ(t1 )ξ(t 2 ) = ξ(t1 ) ξ(t 2 ) .
41
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
При этом функция корреляции (2.2.9) и коэффициент корреляции (2.2.11) обращаются в нуль.
Таким образом, статистическая независимость значений процесса в два разных момента времени влечет за собой отсутствие
корреляции. Отметим, что обратное неверно, когда существует
связь нелинейная между двумя значениями процесса.
2.3. Стационарные
и нестационарные процессы
В статистической радиофизике, радиотехнике и вообще в физике и других науках большую роль играют так называемые стационарные случайные процессы.
Именно устойчивость статистических характеристик служит
причиной разделения случайных процессов на стационарные и
нестационарные.
Случайный процесс ξ(t) является стационарным, если любая
n-мерная функция распределения (плотность вероятности, интегральная функция распределения, характеристическая функция)
его значений не меняется при любом сдвиге всей группы точек
t1, t2, ..., tn вдоль оси времени. Из этого определения следует, что
для стационарного случайного процесса выполняются следующие условия:
одномерная плотность вероятности неизменна в любой момент времени W 1 (ξ, t ) = W 1 (ξ, t + Δt ) = W 1 (ξ) , т.е. от времени не
зависит;
двумерная плотность вероятности зависит только от разности
t1–t2=τ, т.е. W 2 (ξ 1, ξ 2 , t1 , t 2 ) = W 2 (ξ 1, ξ 2 , τ ) , т.к. вместо t1 можно
взять любой момент времени, например t1 = 0;
трехмерная плотность вероятности зависит только от двух
разностей t2–t1 и t3–t1 и так далее.
Очевидно, n-мерная плотность вероятности стационарного
случайного процесса зависит от (n–1) разностей, определяющих
взаимное положение всех точек отсчетов.
Поскольку одномерная плотность вероятности стационарного процесса от времени не зависит, то и все характеристики, определенные через эту плотность, также не зависят от времени, в
42
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
частности: одномерная интегральная функция распределения,
одномерная характеристическая функция, все моменты одномерной плотности вероятности, в том числе и наиболее распространенные характеристики случайного процесса – математическое
ожидание и дисперсия.
Такие случайные процессы, которые подчиняются вышеизложенному условию, называются стационарными процессами в
узком смысле. Они наблюдаются в установившихся режимах работы источников таких процессов при неизменных внешних условиях и постоянстве параметров цепей, пропускающих эти процессы. Если режимы работы источников случайных процессов
или параметры цепей, пропускающих процесс, не остаются постоянными по времени, то случайный процесс на выходе источника изменяется, что является признаком нестационарности случайного процесса, т.е. его характеристики зависят от времени.
Примером нестационарного случайного процесса может служить любой источник шумовых колебаний в переходном режиме
(например, напряжение генератора шума на выходе фильтра в течение некоторого времени после подачи его на вход, даже если на
него подается стационарный процесс; случайный процесс, содержащий в своем составе детерминированный сигнал, зависящий от времени и т.п.).
Если ограничить стационарный случайный процесс требованием, при котором математическое ожидание и дисперсия не зависят от времени, а функция автокорреляции определяется только разностью отсчетов τ =t2 – t1, т.е. K(t1, t2) = K(τ), то такой случайный процесс называется стационарным в широком смысле.
Понятно, что из стационарности в узком смысле следует стационарность в широком смысле, но не наоборот.
Самый широкий класс случайных процессов – это нестационарные случайные процессы, менее узкий класс случайных процессов – случайные процессы в широком смысле и еще более узкий класс – случайные процессы в узком смысле.
43
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
2.4.Эргодичность случайного процесса
Стационарный случайный процесс ξ(t) называется эргодическим, если при нахождении любых статистических характеристик
(математического ожидания, дисперсии, плотности вероятности и
т.д.) усреднение по статистическому ансамблю реализаций может
быть заменено усреднением по времени одной реализации за достаточно большой промежуток времени T.
Обозначая усреднение по времени чертой сверху, запишем
математическое ожидание эргодического случайного процесса
∞
1T
ξ = m =  ξW 1 (ξ ) dξ = lim  ξ (t )dt ,
T →∞ T 0
−∞
(2.4.1)
где ξ(t) – реализация случайного процесса за время T.
Математического ожидание равно постоянной составляющей
выбранной реализации ξ(t).
Дисперсия подобного процесса определяется формулой
[
σ = ξ−ξ
2
]
∞
2
=  (ξ − ξ ) 2 W 1 (ξ ) dξ =
−∞
2
1 ∞
= lim  ξ(t ) − ξ dt = ξ 2 (t )− (ξ )2 ,
T →∞ T −∞
[
∞
где ξ 2 (t ) = lim 1  ξ 2 (t )dt ;
T
T →∞
]
(2.4.2)
1 ∞
ξ = lim  ξ(t )dt ,
T →∞ T −∞
−∞
где ξ 2 (t ) представляет собой среднюю мощность реализации ξ(t),
а (ξ )2 = m 2 – мощность постоянной составляющей.
Дисперсия σ2 имеет здесь наглядный смысл мощности флуктуационной составляющей эргодического процесса. Большинство
случайных процессов в радиофизике можно отнести к эргодическим.
Аналогично находится функция автокорреляции эргодического случайного процесса:
[
][
]
K (τ ) = ξ1 − ξ ξ 2 − ξ =
44
∞ ∞
  [ξ1 − ξ ][ξ 2 − ξ ] ×
−∞−∞
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
T
1
×W 2 (ξ1 , ξ2 ,τ )d ξ1dξ2 = lim  ξ (t ) − ξ  ξ (t − τ ) − ξ  dt ,
T →∞ T 0
(2.4.3)
где W2(ξ1, ξ2, τ) – двумерная плотность вероятности случайного
эргодического процесса ξ(t);
ξ – среднее значение, определяемое по (2.4.1);
τ – сдвиг отсчетов ξ(t) в моменты времени t2 и t1 .
Левые части выражений (2.4.1; 2.4.2; 2.4.3) определяют соответственно математическое ожидание, дисперсию и функцию автокорреляции путем статистического усреднения по ансамблю
реализаций, которого на практике у наблюдателя чаще всего не
имеется в наличии, т.к. для этого необходимо огромное количество источников случайного процесса.
Правые части выражений (2.4.1; 2.4.2; 2.4.3) определяют соответственно, математическое ожидание, дисперсию и функцию
автокорреляции путем усреднения одной реализации ξ(t) за время
T, которое на практике всегда имеется в наличии, т.к. для этого
необходим всего лишь один источник случайного процесса. В
этом огромное практическое значение свойства эргодичности
случайного процесса.
Поясним эргодическое свойство для интегрального закона
распределения случайного процесса. Будем наблюдать в течение
длительного времени T некоторую реализацию ξ(t) случайного
процесса ξ(t). Пусть за время Т суммарное время пребывания
реализации ξ(t) в пределах от a1 до а2 равно tn (T)=Δt1 +Δt2 +...+Δtn.
Отношение t k (T )
называется относительным временем
T
пребывания реализации ξ(t) в пределах от a1 до a2. Для эргодического процесса вероятность нахождения процесса ξ(t) между а1 и
а2 равна
Δt + Δt 2 +...+ Δt n
t k (T )
. (2.4.4)
= lim 1
T
T
T →∞
T →∞
P ( a1 < ξ < a2 ) = lim
Правую часть (2.4.4) удобно использовать для экспериментального определения интегрального закона распределения стационарного случайного процесса.
Для того чтобы случайный процесс был эргодическим, прежде всего он должен быть стационарным в широком смысле. Дос45
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
таточным условием эргодичности является стремление к нулю
функции автокорреляции при неограниченном росте временного
сдвига τ, т.е.
K (τ ) = 0 .
lim
τ →∞
В математике показано, что требования эргодичности случайного процесса можно несколько ослабить. Оказывается, что
случайный процесс эргодичен, если выполняется условие Слуцкого
1T
 К (τ )dτ = 0 .
lim
T →∞ T 0
(2.4.5)
Требование (2.4.5) справедливо применительно к гармоническому процессу со случайной начальной фазой, имеющему вид
U (t ) = U 0 cos(ω 0t + ϕ ) ,
(2.4.6)
где U0 и ω0 постоянны, а ϕ – случайная величина с равномерным
распределением в интервале −π ≤ ϕ ≤ π.
Так как
 1
пр и π ≤ ϕ ≤ π,
W 1 (ϕ ) =  2π
0 пр и ϕ < π , ϕ > π ,
то математическое ожидание
U0 π
U = U 0 cos(ω 0 t + ϕ ) =
 cos(ω 0t + ϕ )dϕ = 0 .
2π − π
(2.4.7)
Аналогично находится дисперсия:
σ = [U − U
2
]
2
= U
2
U 02 π
cos2 (ω 0t + ϕ )dϕ =
=

2π − π
U 02 1 π
U 02 1 π
=
⋅  dϕ +
⋅  cos(2ω 0 t + 2ϕ )dϕ .
2π 2 − π
2π 2 − π
Так как второе слагаемое равно нулю, то
U 02
.
σ =
2
2
46
(2.4.8)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Функция автокорреляции случайного процесса (2.4.6) находится следующим образом:
K (t1, t 2 ) = K (τ ) = U (t ) ⋅U (t + τ ) − U (t ) U (t + τ ) =
= U (t ) ⋅U (t + τ ) = U 02 cos(ω 0t + ϕ ) ⋅ cos(ω 0t + ω 0τ + ϕ ) =
U 02
U 02
=
cos ω 0τ +
cos(2ω 0t + ω 0τ + 2ϕ =
2
2
U 02
=
cos ω 0τ .
2
(2.4.9)
В (2.4.9) применена формула
1
cos α ⋅ cos β = [cos(α − β ) + cos(α + β )] и второе слагаемое равно
2
нулю, так как представляет собой математическое ожидание гармонического колебания со случайной фазой с равномерным распределением.
Из (2.4.7; 2.4.8) видно, что случайный процесс (2.4.6) является стационарным процессом в широком смысле.
Применив (2.4.9) к условию (2.4.5), видим, что при увеличении Т выражение (2.4.5) стремится к нулю, т.е. выполняется менее жесткое условие эргодичности стационарного процесса, а
именно
T
T
1
1 U 02
U 02
K
d
d
(
τ
)
τ
=
⋅
cos
ω
τ
τ
= lim
sinω0T → 0
0
lim
lim

2 0
T →∞ T 0
T →∞ T
T →∞ 2T ω0
2.5. Корреляционные функции
и их свойства
Функция корреляции между значениями одного случайного
процесса в два различных момента времени называется автокорреляционной функцией. Общее определение автокорреляционной
функции дается соотношением (2.2.9), а применительно к стационарным процессам она будет иметь вид
K (τ ) = ξ(t )ξ(t + τ ) − m 2 ,
47
(2.5.1)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
где m – математическое ожидание.
Если имеется два стационарных процесса ξ(t) и η(t) с математическими ожиданиями mξ и mη, то можно рассматривать функцию корреляции между этими процессами:
K ξη (t1 , t 2 ) = ξ (t1 ) − mξ  η (t2 ) − mη  ,
(2.5.2)
K ηξ (t1 , t2 ) = η (t1 ) − mη  ξ (t 2 ) − mξ  .
Если функции корреляции Kξη(t1, t2) и Kηξ(t1, t2) зависят
лишь от разности τ = t1–t2, то процессы ξ(t) и η(t) называются
стационарно связанными и для них справедлива формула
K ξη (t1 , t 2 ) = K ξη (τ ) = K ηξ ( −τ ).
(2.5.3)
В отличие от автокорреляционной функции корреляции
(2.5.2) называются взаимными корреляционными функциями.
Формулы (2.5.1) и (2.5.2) обобщаются и распространяются на
комплексные случайные процессы [10]. Если ξ(t) и η(t) комплексные случайные функции с математическими ожиданиями
mξ и mη, то автокорреляционная и взаимно корреляционная
функции определяются по формулам:
[
][
]
K (τ ) = ξ (t1 ) − m ξ ξ * (t1 + τ ) − m ξ* ,
[
K ξη (t1 , t 2) = ξ(t1) − mξ
*
(
t
)
−
η
][ 2 mη] ,
*
(2.5.4)
(2.5.5)
где звездочкой обозначены комплексно-сопряженные величины.
Для выяснения физического смысла корреляционной функции рассмотрим два частных случая, когда две действительные
стационарные случайные функции ξ(t) и η(t) независимы и, наоборот, жестко связаны. Первый случай, когда ξ(t) и η(t+τ) независимы. По формуле (2.2.12) можно написать
W 2 (ξ, η τ ) = W 1 (ξ )W 1 (ητ );
η(t + τ ) = ητ
Подставим это в (2.2.8) и воспользуемся (2.2.9). Тогда получим
48
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
K ξη (t1 , t2 ) = ξ (t ) − mξ  η (t + τ ) − mη  =
=
∞ ∞
  [ξ(t ) − mξ ][η(t + τ ) − mξ ] ⋅W 2 (ξ, η τ )dξ dη =
−∞−∞
=
∞
∞
−∞
−∞
 [ξ(t ) − mξ ]W 1 (ξ)dξ  [η(t + τ ) − mη ]W 1 ( η τ ) dη τ = 0 ,
так как математические ожидания центрированных случайных
величин равны нулю.
В результате имеем Kξη(τ)=0, т.е. случайные функции некоррелированы.
Второй случай, когда ξ(t) и η(t) связаны детерминированной
линейной зависимостью ξ(t)=±aη(t)+b, где a и b – постоянные величины. В данном случае математическое ожидание
mξ = ξ (t ) = ±a η (t ) + b = ±amη + b.
(2.5.6)
Из (2.5.6) видно, что математические ожидания mξ и mη также связаны линейной зависимостью. Дисперсия при этом равна
σξ
2
[
= ξ(t ) − mξ
]
2
[
]
= ± aη(t ) + b mamη − b
2
= a2 σ η ,
2
т.е. имеется линейная связь дисперсий σ ξ2 и σ η2 . Функция взаимной корреляции определится как
K ξη (t , t ) = ξ (t ) − mξ  η (t ) − mη  .
Подставив сюда (2.5.6), получим
K ξη (t, t ) = ± a σ η = σ ξ σ η .
2
Видно, что взаимная функция корреляции связана линейно с
дисперсией σ η2 .
В [11] показано, что абсолютная величина корреляционного
момента двух случайных величин ξ и η не превышает среднего
геометрического произведения их дисперсий, т.е
49
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
σ ξσ η = σ ξσ η.
ξ(t )η(t ) ≤
2
2
Таким образом, если стационарные случайные функции независимы, то функция корреляции между ними равна нулю для
всех значений τ.
Функция взаимной корреляции для линейно связанных случайных функций равна произведению их среднеквадратических
значений, взятому с соответствующим знаком. Поэтому можно
сказать, что корреляционная функция дает качественное представление о линейной зависимости между значениями одной или
двух случайных функций в выбранные моменты времени.
Часто приходится оперировать автокорреляционной функцией стационарных случайных процессов, которая обладает следующими свойствами.
1. Она является четной, т.е.
K(τ)=K(–τ).
(2.5.7)
Это следует из определения стационарного процесса, т.е. из
условия независимости его характеристик от начала отсчета времени. Поэтому
K (τ ) =< ξ ( t ) ξ ( t + τ ) > − m 2 = ξ ( t − τ ) ξ ( t ) − m 2 = K ( −τ ) .
2. Абсолютное значение автокорреляционной функции при
любом τ не может превышать ее значения при τ=0, т.е.
K ( τ ) ≤ K ( 0) = σ 2 .
(2.5.8)
Этот результат следует из очевидного неравенства, поскольку математическое ожидание положительной функции не может
быть отрицательным:
{[ξ( t ) − m] ± [ξ( t + τ ) − m]}
2
≥ 0.
Отсюда получаем
[ξ ( t ) − m]2 ± 2 ξ ( t ) − m ξ ( t + τ ) − m +
+ [ξ ( t + τ ) − m ] = 2σ 2 ± 2K ( τ ) ≥ 0.
2
50
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
σ 2 ≥ K (τ ) .
Следовательно,
3. Для стационарных процессов справедливо соотношение
lim K (τ ) = 0.
(2.5.9)
τ →∞
Физически этот результат объясняется тем, что случайные
процессы, наблюдаемые в стационарно и устойчиво работающих
системах, обычно имеют конечное время корреляции. Реакция
таких систем на мгновенное воздействие типа δ-функции имеет
конечное время затухания. Поэтому последующее значение процесса оказывается практически независимым или некоррелированным с предыдущим значением, если они разделены интервалом времени, превышающим время корреляции (об интервале
корреляции будет сказано дальше).
На рис. 2.5.1 приведены две функции корреляции, удовлетворяющие перечисленным трем условиям:
K (τ ) = σ
2
2
e τ;
−α
K (τ ) = σ
2
−α τ
e
cosω 0 τ ,
где α – параметр фильтра.
Рис. 2.5.1. Графики двух корреляционных функций
Для гауссова фильтра низкой частоты α=πΔƒэ; для низкочастотного RC – фильтра в виде интегрирующей цепочки α=1/RC;
Δƒэ – эффективная полоса частот фильтра. Вид корреляционной
51
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
функции определяется структурой системы, через которую проходит или возникает в ней случайный процесс.
4. Не всякая функция, удовлетворяющая указанным трем
свойствам, может быть корреляционной функцией.
Корреляционная функция должна удовлетворять дополнительному условию:
∞
 K (τ ) cos ωτdτ ≥ 0.
(2.5.10)
0
Это условие показывает, что спектральная плотность процесса должна иметь конечное значение. Отметим, что функции взаимной корреляции не обладают указанными свойствами. Свойства (2.5.7) и (2.5.8) обобщаются на нестационарные процессы. При
этом они имеют следующий вид:
K (t1, t 2) = K (t 2 , t1); K (t1 , t 2) ≤ σ (t1)σ ( t 2).
2.6. Коэффициент корреляции.
Интервал корреляции
Из формул (2.5.4) и (2.5.5) видно, что корреляционные функции характеризуют не только степени связи между случайными
функциями, но и зависят от их дисперсий. Действительно, если,
например, одна из функций ξ(t) или η(t) весьма мало отличается
от своего математического ожидания (почти постоянна), то корреляционная функция будет мала независимо от степени связи
между функциями. Для количественной оценки линейной зависимости случайных функций целесообразно ввести нормированные автокорреляционные и взаимно корреляционные функции.
Они определяются соответственно формулами
R (τ ) =
K (τ )
σ
2
;
R ξη (t1, t 2) =
K ξη (t1, t 2) .
σ ξσ η
(2.6.1)
Нормированные корреляционные функции R и Rξη называются коэффициентами автокорреляции и взаимной корреляции. Ко52
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
эффициент корреляции характеризует не всякую зависимость, а
линейную и может находиться в пределах ±1.
Нелинейная зависимость ξ(t) и η(t) характеризуется моментами высших порядков вида
∞ ∞
ξ (t1 )η (t2 ) =   ξ i1 (t1 )η i2 (t2 )W 2 (ξ, η, t1, t2 )dξdη , (2.6.2)
i1
i2
−∞ −∞
где i1 =1,2,3,…, i 2 = 1,2,3,….
Зависимость между случайными процессами ξ(t) и η(t) более
высокого порядка, чем линейная, практически не используется.
Процессы ξ(t) и η(t), для которых Rξη(t1,t2)=0 при любом τ=t2-t1,
называются некоррелированными.
Выше мы убедились, что независимые функции ξ(t) и η(t)
всегда являются некоррелированными. Однако обратное утверждение неверно, так как условие независимости является более
жестким, чем условие некоррелированности. Условие отсутствия
линейной корреляции еще не означает, что нет нелинейной зависимости.
Из перечисленных ранее свойств автокорреляционной функции вытекают следующие свойства коэффициента автокорреляции:
R (τ ) ≤ R (0) = 1;
R (τ ) = R ( −τ ) ;
R (τ ) = 0 ;
lim
τ →∞
∞
 R (τ )cos ωτdτ ≥ 0 .
(2.6.3)
0
Важной характеристикой случайного процесса является интервал корреляции или время корреляции.
Под интервалом корреляции понимается величина τk, определяемая соотношением
∞
1∞
τ k =  ρ(τ ) dτ =  ρ(τ ) dτ ,
2 −∞
0
(2.6.4)
где ρ(τ) – модуль огибающей коэффициента корреляции.
Геометрически интервал корреляции равен основанию прямоугольника с высотой ρ(0)=1, имеющему ту же площадь, что и
53
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
площадь, заключенная между кривой ρ(τ) при τ>0 и осью абсцисс (рис. 2.6.1).
Величина τk дает ориентировочное представление о том, на
каком интервале времени в среднем имеет место коррелированность между значениями случайного процесса. На практике τk
позволяет решать вопрос различения случайных процессов по какому-либо параметру, например в системах передачи информации определить разнесение по времени передачи сигналов, разнесение антенн по пространству, разнесение по частоте и т.п.
Рис. 2.6.1. Определение интервала корреляции
2.7. Выбор времени усреднения
случайного процесса
Из предыдущего изложения видно, что статистические характеристики эргодических случайных процессов зависят от времени усреднения одной реализации x(t). Практически важно
знать, из каких соображений необходимо выбирать время усреднения T.
Покажем, что дисперсия матожидания эргодического случайного процесса, полученного усреднением по времени, стремится к нулю с ростом времени T.
Пусть
1T
x T =  x (t ) dt .
T 0
54
(2.7.1)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Вычтем из обеих частей выражения (2.7.1) среднее статистическое значение x
1T
x T − x =  [ x (t ) − x ]dt .
T 0
(2.7.2)
Возведем обе части равенства (2.7.2) в квадрат и статистически усредним
[x
T
− x
]
2
1 T

=   [ x (t ) − x ]dt 
T 0

2
=
1T
1T
=
 [ x (t ) − x ]dt ⋅ T  [ x (t ) − x ]dt .
T 0
0
(2.7.3)
Левая часть (2.7.3) есть дисперсия матожидания x , полученного при усреднении по времени, которую обозначим через
σ 2 (T ) . Тогда, поменяв порядок статистического усреднения и
интегрирования, (2.7.3) запишем в виде
σ (T ) =
2
1
T
2
TT
  [ x (t ) − x ][ x (t ) − x ] dtdt ;
0 0
при τ = t2 − t1 → 0 .
1 TT
σ (T ) ≅ 2   [ x (t1 ) − x
T 00
2
][ x (t ) − x ] dt dt
2
1 TT
= 2   K (τ ) dt1dt2 ,
T 00
1
2
=
(2.7.4)
где K (τ ) = σ 2 R (τ ) ; σ2 и R(τ) – дисперсия и коэффициент автокорреляции процесса x(t).
Сделаем замену переменных интегрирования в (2.7.4). Обозначим
τ = t2 − t1 ,
t0 =
t1 + t2
,
2
55
(2.7.5)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
откуда находим
τ
t1 = t0 − ;
2
τ
t2 = t0 + .
2
(2.7.6)
Это связь старых переменных интегрирования с новыми.
Перейдем к переменным τ и t0 , учитывая четность функции
автокорреляции случайного процесса x(t), т.е.
K (τ ) = K (−τ ) .
Из выражений τ = t2 − t1 и t1 = t0 −
(2.7.7)
τ
2
находим dt2 = dτ и
dt1= dt0 (2.7.8), считая в первом случае t1, а во втором случае τ
константами.
Из (2.7.4) видно, что старые переменные интегрирования t1 и
t2 изменяются в пределах от 0 до T. Область интегрирования
можно изобразить на рис. 2.7.1.
Рис. 2.7.1. Область интегрирования по t1 и t2
Определим область интегрирования по новым переменным τ
и t0 . Для этого воспользуемся выражением (2.7.6).
При t1 = 0 имеем 0 = t0 −
τ
2
При t1 = T имеем T = t0 −
При t2 = 0 имеем 0 = t0 +
τ
2
τ
2
При t2 = T имеем T = t0 +
, откуда t0 =
τ
2
.
, откуда t0 = T +
τ
τ
2
.
, откуда t0 = − .
τ
2
2
, откуда t0 = T −
56
τ
2
.
(2.7.9)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Задавая различные значения для τ в пределах от –T до T в
выражениях (2.7.9), построим область интегрирования по новым
переменным τ и t0 (рис. 2.7.2).
Рис. 2.7.2. Область интегрирования по τ и t0
Из рис. 2.7.2 видно, что τ изменяется от –T до T, а t0 от τ
до
2
при отрица-
T −τ
при положительных τ и от − τ до T + τ
2
2
2
тельных τ.
Используя четность функции автокорреляции процесса x(t),
(2.7.7), (2.7.8) и рис. 2.7.2 , выражение (2.7.4) запишем в виде
T −τ 2
2 T
2 T
τ
σ (T ) = 2  K (τ ) dτ  dt0 = 2  (1 − ) K (τ )dτ =
T 0
T 0
T
τ 2
2
2σ 2 T
τ
=
(1 − )R (τ ) dτ .

T 0
T
(2.7.10)
Из (2.7.10) видно, что для вычисления дисперсии матожидания при усреднении по времени необходимо знать R(τ) – коэффициент автокорреляции случайного процесса x(t).
Однако для двух частных случаев (при малых T и больших T)
можно получить приближенные выражения для σ2 (T).
При T<< τ, когда отсчеты случайного процесса в моменты t1
и t2 отстоят близко друг от друга, можно считать, что R(τ) ≈ 1.
Тогда согласно (2.7.10)
57
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
2σ 2 T
τ
(1 − )dτ = σ 2 ,
σ (T ) =

T 0
T
2
(2.7.11)
т.е. дисперсия среднего по времени равна дисперсии процесса
x(t). Другими словами, усреднение при таком выборе интервала
усреднения T не дает эффекта, так как T<< τ. Это все равно что
усреднение не проводится (предельный случай).
При Т>>τ, когда отсчеты случайного процесса в моменты t1 и
t2 отстоят далеко друг от друга, в (2.7.10) величиной τ Т можно
пренебречь по сравнению с единицей.
Тогда
2σ 2 Т
R (τ ) dτ .
σ (Т ) =

Т 0
2
(2.7.12)
При стремлении Т к большому значению можно из (2.7.12)
записать, что
2σ 2
σ (Т ) ≤
Т
2
Т →∞

0
2σ 2τ к ,
R (τ ) dτ =
Т
(2.7.13)
Т →∞
где
 R (τ )dτ = τ к .
0
Из (2.7.13) находим
1
2
σ (Т )  2τ к 
≤
 .

σ
Т 
(2.7.14)
Левая часть (2.7.14) характеризует относительный разброс
матожидания, полученного усреднением по времени, т.е. точность временного усреднения.
Задаваясь отношением
σ (Т )
и зная интервал корреляции
σ
случайного процесса τк , из (2.7.14) находим время усреднения
T ≤
2τ к
 σ (T ) 


 σ 
58
2
(2.7.15)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
σ
Из (2.7.12) видно, что lim
T →∞
2
(T ) = 0 .
Это означает, что с рос-
том времени усреднения случайная величина x T стремится к неслучайной величине x .
2.8. Определение основных характеристик
случайного процесса при усреднении
статистически, по времени и по выборке
Рассмотрим определение основных характеристик (математического ожидания, дисперсиии и корреляционной функции)
при различных видах усреднения.
Отметим, что применяется три вида усреднения, которые изложены выше. Их применение зависит от априорных данных о
процессе, с которыми имеем дело, от вида самого процесса и других факторов.
Так, при усреднении статистически для нахождения математического ожидания, дисперсии, корреляционной функции необходимо знать аналитическое выражение плотности вероятности
случайного процесса.
Тогда для стационарного процесса используются соответственно формулы (1.6.5); (1.6.6) и (2.4.1). Пределы интегрирования
в этих формулах задаются из соображений существования конкретного случайного процесса, т.е. при этом должны выполняться условия для плотности вероятности, которые описаны в разделе 1.2.
Метод статического усреднения применяется в основном в
теории.
При усреднении по времени необходимо знать, что случайный процесс является эргодическим. При этом используются
следующие формулы для нахождения математического ожидания, дисперсии и корреляционной функции соответственно:
1T
m = mT =  ξ (t )dt ,
T 0
59
(2.8.1)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
1T
2
σ = σ =  [ξ(t ) − m ] dt ,
T 0
2
(2.8.2)
2
T
1
K (τ ) = K T (τ ) =
T
T
 [ξ (t ) − m] [ξ (t − τ ) − m] dt ,
(2.8.3)
0
где ξ(t) – случайный процесс, Т – время усреднения, которое определяется исходя из необходимой точности вычисляемых характеристик согласно формуле (2.7.15). Из (2.7.15) видно, что необходимо знать интервал корреляции τk случайного процесса и задать погрешность в виде относительного значения σ(Т)/σ, например σ(Т) / σ = 0.1 или σ(Т) / σ = 0.05.
Усреднение по времени бòльшее применение нашло в соответствующих приборах. Усреднение по выборке нашло применение на практике, так как при этом требуется знать характеристики случайного процесса. Но для получения достоверных результатов необходимо иметь выборку отсчетов случайного процесса
достаточного объема. При усреднении по выборке используются
следующие формулы соответственно для математического ожидания, дисперсии и коэффициента взаимной корреляции:
1 n
ξ = ξi ,
n i =1
(2.8.4)
1 n
σ =
 (ξ i − ξ )2 ,
n − 1 i=1
2
n
rx , y =
 (x
i
(2.8.5);
− x )( yi − y )
i =1
n
n
2
2
(
x
−
x
)
(
y
−
y
)

i
 i

i =1
 i =1

1
2
,
(2.8.6)
где ξi, xi, yi – выборки значений случайных процессов; i=1,2,3…;
ξ , x , y i – средние значения случайных процессов ξ(t), x(t), y(t).
Если необходимо найти функцию автокорреляции по выборке, то
применяется формула
60
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
1 n
K x =  ( x i − x )( x ( i − k ) − x ) ,
n i =1
(2.8.7)
где k – номер отсчета, с которым вычисляется корреляция.
Вычисление функции взаимной корреляции производится по
формуле
K xy
1 n
=  ( x i − x )( yi − y ) ,
n i=1
(2.8.8)
Значения i для x и y задаются от их совпадения и до тех пор,
пока значение Kxy = 0 или до заданного значения от максимума,
которое соответствует равенству значений i при x и при y.
Вопросы точности вычесления статистических характеристик
по выборке случайного процесса представляют собой отдельную
задачу, с которой можно ознакомиться по [11].
2.9. Спектральная плотность
случайного процесса
Пусть имеем ансамбль реализации стационарного процесса
ξ(t) с нулевым математическим ожиданием. Каждая реализация
имеет достаточно большую длительность Т. Введем формальную
T
спектральную функцию F (ω ) =  ξ (t ) e− jωt dt и комплексно-сопря0
*
женную ей функцию F (ω ) . Тогда можно записать
2
T T
F (ω ) ⋅ F (ω ) = F (ω ) =   ξ (t )ξ (t ′)e− jω ( t −t ′ ) dtdt ′ .
∗
(2.9.1)
0 0
Статистически усредним левую и правую часть (2.9.1):
F (ω )
2
T T
=   ξ (t )ξ (t ′) e− jω ( t −t ′ ) dtdt ′ .
(2.9.2)
0 0
Здесь <ξ(t)ξ(t′)> = K(t–t′), так как m = 0. В выражении (2.9.2)
вместо t введем новую переменную интегрирования τ = t–t′. Тогда dτ = dt, так как t′=const; t = τ+t′. Изменяя t в пределах от нуля
до T, определим, что новая переменная τ изменяется от –T до T
61
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
при изменении t′ от 0 до Т. Выражение (2.9.2) можно записать в
следующем виде:
F (ω )
2
=
T
 K (τ )e
− jωτ
−T
T
T
0
−T
dτ  dt ′ = T  K (τ ) e− jωτ dτ .
При Т→∞ интеграл в этом выражении есть S(ω) – спектральная плотность процесса, которую можно записать
S (ω ) = lim
F (ω )
2
.
T
T →∞
(2.9.3)
Формулу (2.9.3) можно рассматривать как определение спектральной плотности стационарного случайного процесса. Определим теперь спектральную плотность стационарного случайного
процесса как преобразование Фурье от корреляционной функции:
∞
S (ω ) =  K (τ )e− jωτ dτ ,
(2.9.4)
1 ∞
K (τ ) =
S (ω )e jωτ dω .

2π −∞
(2.9.5)
−∞
Выражение (2.9.4) есть прямое преобразование Фурье, а
(2.9.5) – обратное преобразование Фурье.
При τ = 0 из (2.9.5) получаем
1
K (0) = σ =
2π
2
∞
 S (ω )dω .
(2.9.6)
−∞
Если случайный процесс ξ ( t ) рассматривать как флуктуирующее напряжение или ток, то σ можно рассматривать как
среднюю мощность, выделяемую на сопротивлении в 1 Ом.
S (ω )dω
выделяется составляющими
Часть этой мощности
2π
спектра частот между ω и ω+Δω. Функция S(ω ) характеризует
распределение мощности по спектру. Иногда S (ω ) называют
энергетическим спектром.
2
62
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Формулы (2.9.4) и (2.9.5) были независимо получены американским ученым Н. Винером и русским ученым А.Я. Хинчиным и
поэтому называются формулами Винера-Хинчина. Иногда формулы Винера-Хинчина записываются в нормированном виде. Для
этого необходимо выражения (2.9.4) и (2.9.5) разделить на дис2
персию σ .
Упростим формулы (2.9.4) и (2.9.5), используя свойство четности функции автокорреляции случайного процесса:
∞
S (ω ) =  K (τ )e
− jωτ
−∞
∞
dτ =  K (τ )[cos ωτ − j sin ωτ ]dτ =
−∞
∞
= 2 K (τ ) cos ωτdτ .
(2.9.7)
0
Аналогично функция автокорреляции (2.9.5) может быть
представлена в виде
1 ∞
1 ∞
jωτ
K (τ ) =
S (ω )e dω =
S (ω )[cos ωτ − j sin ωτ ]dω =


2π −∞
2π −∞
=
1∞
S (ω )cos ωτdω .

π
(2.9.8)
0
В выражениях (2.9.7) и (2.9.8) интеграл от нечетной функции
равен нулю. В (2.9.7) спектральная плотность определена для положительных и отрицательных частот, причем S (ω ) = S ( −ω ) .
Это "математическая" спектральная плотность. Введём одностороннюю "физическую" спектральную плотность S ( f ) , которая
отлична от нуля при f > 0 .
Обозначим
Отсюда
S ( f ) = S (ω ) + S ( −ω ) = 2S (ω ) .
S (ω ) =
S ( f ) . Подставив это выражение в (2.9.7) и (2.9.8), получим
2
формулы Винера-Хинчина для односторонней физической спектральной плотности, которыми удобно пользоваться при расчетах
на практике:
63
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
∞
S ( f ) = 4 K (τ ) cos(2πfτ )dτ .
(2.9.9)
0
∞
K (τ ) = 4  S ( f ) cos(2πfτ )df .
(2.9.10)
0
Спектральная плотность случайного процесса не содержит
сведений о фазе процесса, поэтому по ней нельзя найти случайный процесс как функцию времени.
Рассмотрим теперь, как экспериментально определяется
спектральная плотность случайного процесса.
В реальных условиях с точным спектром функции не приходится иметь дело, так как экспериментально нельзя получить
точную гармонику спектра, а можно лишь выделить сумму гармонических составляющих в малой полосе частот.
Рассмотрим функцию, которая представляет собой установившийся случайный процесс на выходе линейного фильтра, т.е.
∞
F (ω 0 , t 0 ) =  G(t 0 − t )ξ(t )dt ,
(2.9.11)
−∞
где G ( t − t 0 ) – импульсная характеристика линейного фильтра,
ξ (t ) – входной стационарный процесс, ω 0 – средняя круговая
частота фильтра, t 0 – момент отсчета процесса на выходе фильтра.
Выразим импульсную характеристику через передаточную
характеристику фильтра
1 ∞
G(t 0 − t ) =
K ( jω )e jω (t0 −t ) dω .

2π −∞
(2.9.12)
Подставим (2.9.12) в (2.9.11) и разделим переменные интегрирования, т.е. представим в виде
1
F (ω 0 , t 0 ) =
2π
1
=
2π
∞
jωt0
∞
− jωt
 K ( jω )e dω  ξ(t )e dt =
−∞
−∞
∞
jωt
 f (ω )K ( jω )e dω ,
0
−∞
64
(2.9.13)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
где f (ω ) =
∞
 ξ(t )e
− jωt
dt .
−∞
Умножим обе части равенства (2.9.13) на комплексносопряженные выражения и статистически усредним левую и правую части. В правой части усреднение произведем под интегралом
F (ω 0 , t 0 )
=
2
=
∞ ∞
1
f (ω ) f * (ω ' ) K ( jω )K * ( jω )e jt (ω −ω ') dωdω ' ,


4π −∞−∞
0
2
(2.9.14)
∞
где f (ω ' ) =  ξ (t ' )e− jω 't ' dt – сопряженный спектр.
*
−∞
Упростим выражение
f (ω ) f (ω ' ) =
*
∞ ∞
jω 't ' − jωt
dtdt ' =
  ξ(t )ξ(t ') K ( jω )e
−∞−∞
=
∞ ∞
jω 't ' − jωt
dtdt '
  K (t − t ' )e
(2.9.15)
−∞−∞
Введем новые переменные интегрирования: τ = t − t ' и
t + t ' . Представим старые переменные интегрирования t и
t0 =
2
t ' через новые τ и t 0 : t = t 0 +
τ
; t ' = t0 −
τ
. Считая
2
2
t ' = const , имеем dτ = dt и τ = const , dt '= dt 0 . Новые переменные интегрирования τ и t 0 изменяются от – ∞ до + ∞. Преобразуем показатель экспоненты с учетом новых переменных интегрирования:
τ
jω ' t ' − jωt = j(ω ' −ω )t 0 − j(ω ' +ω ) .
2
Тогда (2.9.15) будет
65
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
∞
f (ω ) f (ω ' ) =  K (τ ) e
*
− j (ω ' −ω )
−∞
τ
2
∞
dτ  e j ( ω ' − ω ) t 0 =
−∞
∞
= 2πδ (ω ' −ω )  K (τ )e
− j (ω ' + ω )
τ
2
dτ .
−∞
По определению внутренний интеграл равен 2πδ (ω ' −ω ) и
∞
 K (τ )e
− j (ω ' +ω )
τ
2
dτ = S (
−∞
ω ' +ω
2
).
 ω ' +ω  . Подставив это в
f (ω ) f * (ω ' ) = 2πδ (ω ' −ω ) S 

 2 
(2.9.14) и разделив переменные интегрирования, получим
Тогда
F (ω 0 , t 0 )
1
=
2π
∞
∞
2
 K ( jω ) dω  S (
−∞
ω ' +ω
−∞
2
2
=
)e jt0 (ω −ω ')δ (ω ' −ω )dω ' .
(2.9.16)
Подынтегральное выражение внутреннего интеграла (2.9.16)
имеет смысл при ω = ω ' . Тогда, используя свойство фильтрации
дельта-функции, выражение (2.9.16) представим в виде
F (ω 0 , t0 )
2
1
=
2π
∞
2
 S (ω ) K ( jω ) dω .
(2.9.17)
−∞
Предположим, что в пределах энергетической полосы частот
Δf э модуль передаточной характеристики фильтра K ( jω ) = const .
Тогда справедливо равенство S (ω ) ≈ S (ω 0 ) и (2.9.17) будет:
F (ω 0 , t0 )
2
1 ∞
2
= 2S (ω 0 )  K ( jω ) dω = S (ω 0 )K 02 Δf э ,
2π 0
∞
где Δf э = 12  K ( j ω ) 2 dω , S ( f 0 ) = 2S (ω 0 ) – физическая спектраль-
K0
0
2π
ная плотность.
Отсюда односторонняя спектральная плотность равна
66
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
S ( f0 ) =
1
lim
K 0 Δf →0
F (ω 0 , t0 )
Δf э
2
.
Для большинства стационарных случайных процессов статистическое усреднение можно заменить временным усреднением.
Тогда
1
1
S ( f0 ) = 2 lim lim
К 0 T →∞ Δfэ→0 Δf эT
T
2
 F (ω 0 , t0 ) dt0 ,
0
где Т – интервал усреднения.
Приближенно спектральная плотность имеет вид
1
S ( f0 ) ≈ 2
К 0 Δf эT
T
2
 F (ω 0, t0 ) dt0 .
(2.9.18)
0
По формуле (2.9.18) можно построить измеритель спектральной плотности случайного процесса (рис. 2.9.1).
Рис. 2.9.1. Структурная схема измерителя S ( f0 )
Взаимная спектральная плотность определяется следующим
образом. Пусть имеются два стационарных случайных процесса
ξ ( t ) и η(t ) с функциями взаимной корреляции Kξη (τ ) и
Kηξ (τ ) .
Тогда, используя преобразования Винера-Хинчина, можно
рассматривать взаимные спектральные плотности двух случайных процессов:
∞
S ξη (ω ) =  K ξη (τ )e
−∞
− jωt
dτ ,
∞
Sηξ (ω ) =  K ηξ (τ )e− jωt dτ . (2.9.19)
−∞
Для взаимных корреляционных функций справедливы обратные преобразования Фурье:
67
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
1
K ξη (τ ) =
2π
∞
 Sξη (ω )e
−∞
jωτ
1
dω , K ηξ (τ ) =
2π
∞
jωτ
 Sηξ (ω )e dω . (2.9.20)
−∞
Спектральную плотность суммы двух стационарных и стационарно связанных случайных процессов ζ (t ) = ξ (t ) + η(t )
можно определить следующим образом.
Пусть ξ ( t ) = η ( t ) = 0 .
Тогда
Kζ (τ ) = [ξ (t ) + η(t )][ξ (t + τ ) + η(t + τ )] =
= ξ(t )ξ(t + τ ) + η(t )η(t + τ ) + ξ(t )η(t + τ ) +
+ ξ(t + τ )η(t ) = K ξ (τ ) + K η (τ ) + K ξη (τ ) + K ηξ (τ ) . (2.9.21)
На основе формулы Винера-Хинчина находим спектральную
плотность суммы двух случайных процессов:
S ζ (ω ) = S ξ (ω ) + S η (ω ) + S ξη (ω ) + S ηξ (ω ) .
(2.9.22)
Если процессы ξ ( t ) и η ( t ) некоррелированы, то
K ξη (τ ) = 0, K ηξ (τ ) = 0; S ξη (ω ) = 0, S ηξ (ω ) = 0 .
и согласно (2.9.21) и (2.9.22) имеем:
K ζ (τ ) = K ξ (τ ) + K η (τ ); S ζ (τ ) = S ξ (τ ) + S η (τ ) .
(2.9.23)
При τ = 0 дисперсия σ h2 = σ ξ2 + σ η2 .
Можно показать, что разность двух случайных некоррелированных процессов подчиняется выражению (2.9.23).
2.10. Задачи
Задача 1. Найти время усреднения стационарного эргодического процесса z ( t ) , имеющего интервал корреляции τ к = 2с ,
при котором первоначальная дисперсия процесса уменьшается в
десять раз.
68
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Решение. Найдем сначала время усреднения по приближен2
( t ) 2τ K
σ
2
2
,
где
– дисперсия процессов
ной формуле
σ
(
t
),
σ
≤
z
2
Tус р
σz
после усреднения и до усреднения соответственно, Tус р – время
усреднения.
Из формулы находим
Tус р ≤
2τ K
2 ⋅ 0,2
=
= 4c .
2
σ (T )
0,1
σ z2
Примечание. Для более точного определения времени усреднения следует воспользоваться общей формулой
2σ z2
σ (T ) =
Tус р
Tус р

2
(1 −
0
τ
) Rz (τ ) dτ ,
Т ус р
где Rz (τ ) – коэффициент корреляции реализации процесса z ( t )
до усреднения, который должен быть известен. Применение указанной выше формулы часто приводит к необходимости численного интегрирования и решения трансцендентных уравнений.
Задача 2. Найти физическую спектральную плотность случайного стационарного процесса S ξ (ω ) , имеющего корреляци−α τ
онную функцию Kξ (τ ) = σ e
.
Решение. Используем преобразование Винера-Хинчина для
математической спектральной плотности случайного процесса
2
∞
S ξ (ω ) =  K ξ (τ )e− jωτ dτ и подставим сюда Kξ (τ ) :
−∞
S ξ (ω ) = σ
2
∞
e
−α τ
−∞
e
− jωτ
 0 (α − jω )τ
dτ = σ   e
dτ +
−∞
σ2

+  e− (α + jω )τ dτ  =
e(α − jω )τ
 α − jω
−∞
0
69
2
0
+
−∞
σ2
α + jω
∞
e− (α + jω )τ
=
0
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
σ2
σ2
2ασ 2
.
=
+
= 2
2
α − jω α + jω α + ω
Используя связь физической спектральной плотности с математической в виде S ξ ( f ) = 2S ξ (ω ) , получим
4ασ 2 ,
Sξ ( f ) = 2
α +ω2
1
– параRC
метр фильтра нижних частот, R – сопротивление в омах, С – емкость в микрофарадах.
что соответствует фильтру нижних частот, где α =
Задача 3. Найти спектральную плотность S ξ (ω ) случайного стационарного процесса, имеющего осциллирующую корреля2
ционную функцию K ξ (τ ) = σ 2 e−α τ cos ω 0τ , где σ – дисперсия,
α = πΔf э – параметр колебательной системы, Δf э – эффективная
полоса частот системы, ω 0 = 2πf 0 – круговая резонансная частота системы.
Решение. Используя прямое преобразование Фурье (формулу
Винера-Хинчина) для спектральной плотности процесса ξ ( t ) и
e jω 0τ + e − jω 0τ
, находим
формулу cos ω 0τ =
2
∞
S ξ (ω ) =  K ξ (τ )e
− jωτ
dτ = σ
∞
e
−α τ
cos ω 0τ e − jωτ dτ =
−∞
−∞
σ2  0
2

dτ +  e[ α + j (ω +ω 0 ) ]τ dτ  =
e
2 −∞
0



1
1
= 2σ 2  2
+
,
2
2
2
α
+
(
ω
−
ω
)
α
+
(
ω
+
ω
)


0
0
=
[ α − j ( ω −ω 0 ) ] τ
∞
где первое слагаемое описывает спектральную плотность процесса в области отрицательных частот, а второе – в области положительных частот. Физическая спектральная плотность будет равна
70
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
1
. Из полученной формулы
α 2 + (ω + ω 0 ) 2
видно, что спектральная плотность в этом случае сдвинута относительно начала координат вправо на частоту ω 0 (сравните с
Sξ ( f ) в задаче 2.10.2).
S ξ ( f ) = 2S ξ (ω ) = 4σ 2α
Задача 4. Определить интервал корреляции случайного стационарного процесса, имеющего корреляционную функцию
Kξ (τ ) = σ 2 e −α τ , где α = 1 ; R=100 кОм; С=0,47 мкФ.
Решение.
τK =
RC
По
определению
интервал
корреляции
∞
1
 ρ (τ ) dτ , где ρ (τ ) – модуль огибающей коэффициента
2 −∞
корреляции случайного процесса.
В
нашем
случае
коэффициент
корреляции
Kξ (τ )
−α τ
. Огибающая коэффициента корреляции
Rξ (τ ) =
=
e
2
σ
равна коэффициенту корреляции, т.е. ρ (τ ) = e
функция e
−α τ
−α τ
. Так как
симметрична относительно начала координат
(четная), то τ К =
∞
 ρ (τ ) dτ . Подставив сюда e
−α τ
, находим:
0
∞
τ К =  e −ατ dτ =
0
1
= RC = 47 мкс.
α
Задача 5. Определить интервал корреляции случайного стационарного процесса ξ ( t ) , имеющего функцию корреляции
K ξ (τ ) = σ 2 e −α τ cos ω 0τ , где α = πΔf э ; Δf э =5кГц.
Решение. Коэффициент корреляции
K ξ (τ )
R ξ (τ ) =
= e −α τ cos ω 0τ . Огибающая коэффициента корреля2
ции
σ
ρ (τ ) = e −α τ . Так как
ρ (τ ) – четная функция, то
ρ (τ ) = ρ (τ ) = e −α τ . Поэтому интервал корреляции
71
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
∞
∞
1∞
1
τ K =  ρ(τ ) dτ =  ρ(τ )dτ =  e −ατ dτ = =
α
2 −∞
0
0
=
1
≅ 0,066 ⋅ 10− 3 = 6,6 ⋅ 10− 5 – = 66мкС .
3
π ⋅ 5 ⋅ 10
Задача 6. Найти дисперсию σ ξ2 по известной корреляционной функции стационарного случайного процесса ξ ( t )
2
K ξ (τ ) = σ 2 e −ατ cos ω 0τ , где σ ξ2 – дисперсия процесса ξ ( t ) ,
α = πΔf э 2 – параметр системы, на выходе которой имеем ξ ( t ) ;
Δf э – эффективная полоса частот системы.
Решение. Используя свойство корреляционной функции стационарного случайного процесса Kξ (τ = 0) = σ ξ 2 , подставляя в
формулу Kξ (τ ) τ = 0 . Тогда имеем
2
2
K ξ (τ = 0) = σ ξ e −α ⋅0 cos(ω 0 ⋅ 0) = σ ξ .
Задача 7. Для гауссова фильтра низкой частоты найти эфΔf э
, если спекфективную полосу частот Δf э и отношение
Δf 0 , 5
тральная плотность случайного процесса ξ ( t ) имеет вид
2
π − ω4α
S ξ (ω ) =
e , −∞ ≤ ω ≤ ∞ , где α – параметр системы, на
α
выходе которой наблюдается процесс ξ ( t ) ; Δf 0,5 – полоса частот
процесса на уровне 0,5 по мощности.
Решение. Определим физическую спектральную плотность
как
S ξ ( f ) = 2S ξ (ω ) = 2
π
e
α
−
ω2
4α
, − ∞ ≤ ω ≤ ∞; ω = 2πΔf .
72
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
По
определению
∞
Sξ ( f )
0
Sξ ( f 0 )
Δf э = 
эффективная
полоса
частот
равна
df , где Sξ ( f 0 ) – максимальная спектральная
плотность нулевой частоты f 0 .
 π
Тогда Δf э =  2

 α
−1
2
2
2
2
∞ − ( 2π ) f
 π  − (2π4)α f
df =  e 4α df .
  2 α e
0
0
2πf
После замены переменной интегрирования на x =
полу2 α
π
α ∞ − x2
1 α
.
Здесь
интеграл
равен
[13].
чим Δf э =
e
dx
=

π0
2 π
2
Для определения полосы частот на уровне 0,5 по мощности
Sξ ( f )
составим уравнение
= 0,5, где f заменим на Δf 0,5 . ИсSξ ( f 0 )
пользуя выражение спектральной плотности Sξ ( f ) и значение
∞
 ( 2π ) 2 Δf 02,5 
Sξ ( f 0 ) , находим 0,5 = exp−
 , откуда после взятия на4α


турального логарифма от обеих частей уравнения, определяем
1
полосу частот Δf 0,5 =
2 ln 2 . Теперь находим отношение
π
π
α
π
Δf э
π
=
=
= 1,063 ≈ 1.
Δf 0,5 2 α ln 2 2 ln 2
Из полученного результата видно, что эффективная полоса
частот с гауссовой спектральной плотностью практически равна
полосе частот на уровне 0,5 по мощности. Указанное соответствие часто используется на практике. Если Sξ ( f ) не гауссова, то
Δf э ≠ Δ f 0 , 5 .
Задача 8. Найти корреляционную функцию Rξ (τ ) стационарного процесса ξ ( t ) с математическим ожиданием mξ = 0 и
спектральной плотностью
73
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
N 0
 2 , − ω 2 ≤ ω ≤ −ω 1,

N
S ξ (ω ) =  0 , ω 1 ≤ ω ≤ ω 2 ,
2
0, ω < −ω 2 , ω > ω 2 , ω 1 > ω > −ω 1.

S ξ (ω ) соответствует идеальному полосовому фильтру.
Решение. По формуле обратного преобразования Фурье
(формулы Винера-Хинчина) находим
1 ∞
1  N 0 −ω 2 jωτ
jωτ
K ξ (τ ) =
 S ξ (ω )e dω = 2π  2  e dω +
2π −∞
 − ω1
ω2
N 0 ω 2 jωτ  1
N
ω
+
e dω  =
N 0  cos ωτdω = 0 sin ωτ ω 2 =

1
2 ω1
2πτ
 2π ω1
N0
(sin ω 2τ − sin ω 1τ ) =
2πτ
N
ω + ω1
ω − ω1
= 0 2 cos( 2
τ ) sin( 2
τ ).
2πτ
2
2
=
Введем обозначения ω 0 =
ω 2 + ω1
2
чим
K ξ (τ ) =
ΔωN 0
cos ω 0τ
2π
sin
; Δω = ω 2 − ω 1 . Тогда полу-
Δωτ
2 = σ 2 ρ (τ )cos ω τ ,
1 1
0
Δωτ
2
ΔωN 0 2πΔfN 0
=
= ΔfN 0 – дисперсия процесса ξ ( t ) ;
2π
2π
Δωτ
sin
2 – огибающая коэффициента корреляции.
ρ1 (τ ) =
Δωτ
где σ 12 =
2
74
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Были
использованы
sin x − sin y = 2 cos
формулы
x+y
x − y.
⋅ sin
2
2
e jωτ = cos ωτ + j sin ωτ
и
Из формулы для Kξ (τ ) при ω 1 = 0 , что соответствует идеальному фильтру нижних частот, получается формула для корреляционной функции процесса на выходе идеального ФНЧ, т.е.
K ξ (τ ) =
где
σ 22 =
ρ 2 (τ ) =
ω 2N 0 –
2π
sin ω 2τ
ω 2τ
ω N sin ω 2τ
N0
sin ω 2τ = 2 0
= σ 22 ρ 2 (τ ) ,
2πτ
2π
ω 2τ
дисперсия
процесса
на
выходе
ФНЧ,
– коэффициент корреляции процесса (он же равен
модулю огибающей коэффициента корреляции).
Задача 9. Дана корреляционная функция гармонического
колебания S (t ) = A0 cos(ω 0t + ϕ ) со случайной начальной фазой
ϕ , имеющей плотность вероятности равновероятную, т.е.
1
W1 (ϕ ) =
, − π ≤ ϕ ≤ π . Найти математическую спектральную
2π
плотность S (ω ) и физическую S ( f ) .
Решение. Известно, что корреляционная функция гармонического колебания с равновероятной плотностью вероятности наA02
чальной фазы ϕ имеет вид K S (τ ) =
cos ω 0τ , где ω 0 – круго2
вая частота, τ – разность двух отсчетов.
Используем связь спектральной плотности с корреляционной
функцией, т.е. преобразование Фурье. Тогда
∞
S (ω ) =  K S (τ )e
−∞
− jωτ
A02 ∞
dτ =
cos(ω 0τ )e − jωτ dτ =

2 −∞
∞
A02  ∞ − j (ω −ω 0 )τ

− j ( ω +ω 0 ) τ
=
=
e
d
τ
+
e
d
τ




4 −∞

0
A02π
=
[δ (ω − ω 0 ) + δ (ω + ω 0 )],
2
75
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
где
∞
e
− j ( ω −ω 0 ) τ
∞
dτ = 2πδ (ω − ω 0 );
−∞
e
− j ( ω +ω 0 ) τ
dτ = 2πδ (ω + ω 0 ) ;
−∞
δ (ω ± ω 0 ) – дельта-функция. Физическая спектральная плотность
равна
S ( f ) = [S (ω ) + S ( −ω )] = 2S (ω ) .
Применим соотношение δ (ω ) = δ ( f ) , которое следует из
2π
свойства дельта-функции
∞
∞
∞
−∞
−∞
−∞
1 =  δ (ω )dω =  δ ( f )df =  δ ( f )
dω
.
2π
Учитывая это, выразим физическую спектральную плотность
следующим образом:
A02
1 1
S ( f ) = 2S (ω ) = 2A π
δ ( f − f0 ) = δ ( f − f0 ) ,
2 2π
2
2
0
A02
A0
где
и
– соответственно эффективное напряжение и мощ2
2
ность гармонического колебания.
Задача 10. Найти мощность случайного процесса на выходе
линейного фильтра, если при экспериментальных измерениях получена амплитудно-частотная характеристика следующего вида:
U (ω ) = a exp[ −α (ω − ω 0 )], 0 ≤ ω ≤ ∞,
где a = 1, α = 0,01 – коэффициенты, полученные при аппроксимации экспериментальной АЧХ; ω 0 = 2πf 0 ; f 0 – резонансная
частота системы, равная 5 Гц , U - напряжение в вольтах.
Решение. Спектральную мощность случайного процесса находим как U 2 (ω ) = a2 exp[ −2α (ω − ω 0 )] . Мощность случайного процесса определится по формуле
76
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
∞
∞
P = U (ω )dω = a  e −2α (ω −ω 0 ) dω =
2
2
0
0
∞
= a exp(2αω 0 )  e −2αω dω =
2
0
 1
= a exp(2αω 0 ) ⋅  −  e −2αω
 2α 
2
∞
0
a2
=
exp(2αω 0 ).
2α
Подставив значения a , α и f 0 в полученную формулу, найдем
P=
1
exp( 2 ⋅ 0,01 ⋅ 2π ⋅ 5) = 93,72[ B 2 ].
2 ⋅ 0,01
Задача 11. Найти вероятность того, что напряжение огибающей узкополосного нормального процесса на выходе линейного детектора с σ ξ = 1B превысит порог, равный 2В.
Ответ: P (U ≥ 2) = 0,135.
Задача 12. Найти интервал корреляции τ K гармонического
процесса,
корреляционная
функция
которого
равна
2
A
K (τ ) = 0 cos ω 0τ , где ω 0 = 2πf , f = 100Гц , A0 – константа.
2
Ответ: τ K = ∞ .
Задача 13. Найти одномерную характеристическую функцию θ1 (U ) процесса ξ ( t ) , имеющего плотность вероятности
 (ξ − m) 2 
1
W1 (ξ ) =
exp−
 , - ∞ ≤ ξ ≤ ∞.
2
σ
2
σ 2π


2
U2
σ

Ответ: θ1 (U ) = exp  jmU −
.
2


Задача 14. Имеется два случайных процесса: ξ ( t ) и
η( t ) = αξ ( t ) ; α = const. Считая ξ ( t ) гауссовским с математи77
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
ческим ожиданием mξ = 0 и дисперсией σ , записать совмест2
ную плотность вероятности W2 (ξ , η ).
1
 ξ2 
Ответ: W2 (ξ , η) =
exp − 2  ⋅ δ (η − αξ ).
σ 2π
 2σ 
Задача 15. Два гауссовских некоррелированных случайных
процесса ξ ( t ) и η ( t ) имеют математические ожидания и дисперсии соответственно mξ , mη , σ ξ2 , σ η2 . Записать совместную
плотность вероятностей W2 (ξ , η ).
 (ξ − mξ ) 2 (η − mη ) 2 
Ответ: W2 (ξ , η ) =
exp−
−
.
2
2
2πσ ξ σ η
2
2
σ
σ
η
ξ


1
Задача 16. Случайный процесс x(t ) образован как произведение детерминированной функции ϕ ( t ) и случайной функции
y (t ) , т.е. x(t ) = ϕ (t ) ⋅ y(t ) . Требуется по математическому ожиданию указать стационарен или нестационарен процесс x( t ) .
Задача 17. Имеется два случайных процесса ξ ( t ) и η (t ) .
Определить корреляционную функцию суммы и разности процесса z ( t ) = ξ ( t ) ± η ( t ) для случаев, когда они коррелированы и
когда
некоррелированы.
Математические
ожидания
mξ = 0, mη = 0.
ξ (t )
Ответ:
При
некоррелированных
K z ( t1 , t 2 ) = Kξ ( t1 , t 2 ) + Kη ( t1 , t 2 ) в обоих случаях;
и
η(t )
При коррелированных ξ ( t ) и η ( t )
K z (t1 , t 2 ) = Kξ ( t1 , t 2 ) + Kη (t1 , t 2 ) ± Kξη (t1 , t 2 ) ± Kηξ (t1 , t 2 ).
Задача 18. Найти корреляционную функцию Kξ (τ ) и спектральную плотность S ξ (ω ) для стационарного случайного сигнала ξ (t ) = A m sin(ω 0t + ϕ ) , где Am и ω 0 – постоянные ампли78
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
туда и частота; ϕ – случайная начальная фаза, равномерно распределённая на интервале [-π,π].
Am2
Am2 π
Ответ: K ξ (τ ) =
;
cos ω 0t S ξ (ω ) =
δ (ω + ω 0 ) + δ (ω − ω 0 )] .
[
2
2
∞
1
Примечание: δ (ω ) =
e jωτ dτ – дельта-функция.

2π −∞
Задача 19. Заданы два взаимно не коррелированных случайных процесса ξ ( t ) и η(t ) с нулевыми математическими ожиданиями и корреляционными функциями Kξ ( t1 , t 2 ) и Kη ( t 1 , t 2 ) . Доказать, что корреляционная функция произведения этих процессов z (t ) = ξ (t ) ⋅ η(t ) равна произведению корреляционных функций сомножителей: K z (t1 , t 2 ) = Kξ (t1 , t 2 ) ⋅ Kη ( t1 , t 2 ).
Задача 20. Определить корреляционную функцию комn
плексного случайного процесса ξ(t ) =  α i e jω it , где ω i – постоi =1
янная угловая частота; α i – взаимно не коррелированные случайные величины с нулевыми математическими ожиданиями
2
mi = 0 и дисперсиями σ i .
n
Ответ: K ξ (τ ) =  σ 2i e jω it .
i =1
Задача 21. Найти корреляционную функцию сигнала
S (t ) = A m ξ (t )cos(ω 0t + ϕ ) , где ξ ( t ) – стационарный случайный
процесс с нулевым математическим ожиданием и корреляционной функцией Kξ (τ ) ; Am и ω 0 – постоянные величины, а ϕ –
случайная начальная фаза, равномерно распределённая на интервале [-π, π], не зависящая от ξ ( t ) .
A m2
Ответ: K S (τ ) =
K ξ (τ )cos ω 0τ .
2
79
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Задача 22. Найти спектральную плотность S ξ (ω ) стационарного случайного процесса ξ ( t ) , корреляционная функция которого равна Kξ (τ ) = σ ξ2 exp( −α 2τ 2 ).
σ ξ2 π
 ω2 
Ответ: S ξ (ω ) =
exp  − 2  .
 4α 
α
Задача 23. Показать, что автокорреляционная функция
флуктуаций ξ ( t ) Kξ (τ ) не изменяется при добавлении к случайному процессу детерминированной постоянной составляющей; mξ = 0 .
Задача 24. Получить общее выражение для спектральной
плотности случайного процесса z ( t ) , полученного суммированием и вычитанием случайных стационарных процессов ξ ( t ) и
η(t ) для двух случаев: ξ ( t ) и η(t ) коррелированы и некоррелированы.
Ответ: S z (ω ) = S ξ (ω ) + S η (ω ) – для некоррелированых ξ ( t )
η(t ) ; S z (ω ) = S ξ (ω ) + S η (ω ) ± S ξη (ω ) ± S ηξ (ω ) – для коррелированых ξ ( t ) и η ( t ) ;
и
Задача 25. Вычислить математическое ожидание mA и дис2
персию σ A огибающей A( t ) гауссового стационарного процесса
ξ ( t ) , имеющего дисперсию σ ξ2 .
π
4−π
Ответ: mA = σ ξ
; σ A2 = σ ξ2 
.
 2 
2
Задача 26. Даны корреляционные функции:
2
1. K(τ ) = σ exp( − α τ );
1
2
;
2. K(τ ) = σ
2 2
1+ α τ
2
2 2
3. K(τ ) = σ exp( − α τ );
80
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
4. K(τ ) = σ
2
sin ατ
,
ατ
2
где α – параметр, σ – дисперсия.
Найти интервал корреляции.
Ответ: 1. τ K =
3. τ K =
;
2. τ K =
π
;
2α
1 π
;
α 2
4. τ K =
π
.
2α
1
α
Задача 27. Определить корреляционную функцию K(τ ) и
спектральную плотность S (ω ) случайного сигнала
n
S (t ) =  A mi sin(ω i t + ϕ i ), − ∞ < t < ∞ ,
i =1
где Ami и ω i – постоянные амплитуда и угловая частота;
ϕ 1 ,ϕ 2 , ,ϕ n – взаимно независимые случайные начальные фазы,
равномерно распределенные на интервале [-π, π].
Ответ:
1 n 2
π n 2
K (τ ) =  Ami cos ω it; S (ω ) =  Ami [δ (ω + ω i ) + δ (ω − ω i )] .
2 i =1
2 i =1
Задача 28. Определить спектральную плотность стационарного случайного процесса ξ ( t ) с корреляционной функцией
 2 τ 
σ ξ 1 −  , τ ≤ T ;
K ξ (τ ) =   T 
0,
τ >T.

 ωT
 sin 2
2
Ответ: S ξ (ω ) = σ ξ 
ωT

 2
2


.


81
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
3. Статистические критерии
приема сигналов
3.1. Статистический подход
к задаче приема и обработки сигналов
Всякое сообщение является совокупностью сведений о некоторой материальной системе, которая представляет собой источник сообщения (ИС). Для того чтобы сообщение было передано
получателю, необходимо воспользоваться некоторым физическим процессом: звуковыми колебаниями, электрическим процессом и т. п.
Изменяющаяся физическая величина, отображающая в процессе передачи сообщение, называется сигналом. Так, например,
при телеграфной радиосвязи сообщением может быть текст телеграммы, записанный на бланке, а сигналом – напряжение на входе антенны.
Устройство, преобразующее сообщение в сигнал, называется
передающим устройством (ПРД). Совокупность средств, предназначенных для передачи сигнала, представляет канал связи.
Здесь под «средством» понимаются технические средства и физическая среда, в которой происходит передача сигнала.
Сигнал с выхода канала поступает на приемное устройство
(ПРМ), его назначением является преобразование принятого сигнала в сообщение. Восстановленное сообщение поступает к получателю (ПС), которым могут быть человек или техническое
средство. Для получателя сообщение и сигнал заранее неизвестны. Поэтому принимаемый сигнал является случайным процессом.
Помимо принимаемого сигнала в канале всегда присутствуют
другие случайные процессы, называемые помехами или шумами.
Наличие помех вызывает принципиальную неоднозначность при
восстановлении сообщения.
Источник сообщения, передающее устройство, канал, приемное устройство и получатель сообщения образуют линию связи
(рис.3.1.).
82
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
ИС
ПРД
ПРМ
ПС
Рис. 3.1.
Системой связи называется линия, в которой заданы методы
преобразования сообщения в сигнал и восстановления сообщения
по принятому сигналу. Сообщения, предназначенные для передачи по каналу связи, могут быть непрерывными или дискретными.
Примером непрерывных сообщений являются речь, музыка, изменение температуры в некотором месте и т.д. Для таких источников два нетождественных сообщения отличаются друг от друга
сколь угодно мало.
Часто, однако, встречаются источники, имеющие дискретный
ряд состояний. Простейшим примером дискретного источника
является источник, выдающий сообщения в виде текста, записанного, например, русским алфавитом. В каждый данный момент
времени этот источник выдает одну букву из конечного множества (алфавита).
Заметим, что непрерывные сообщения можно превратить в
дискретные, если наложить два ограничения – передавать сообщение с определенной точностью и в определенные моменты
времени. Типичными примерами систем связи, в которых передаются дискретные сообщения, являются телеграфные системы
передачи данных.
Непрерывные сообщения передаются в системах телефонной,
телевизионной связи и т.д.
При большом объеме алфавита прибегают еще к дополнительному расчленению букв, называемому кодированием. В этом
случае каждой букве соответствует некоторая последовательность символов α (кодовая комбинация). Объем такого вторичного алфавита определяется основание кода m и числом символом в
кодовой комбинации n (длиной кодовой таблицы).
При mn ≥ 1 число комбинаций будет достаточно для передачи
всех «букв» алфавита L. Это условие можно выполнить при лю83
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
бом целом m ≥ 2 При m = 1 это условие не выполняется, так как
1n = 1 при любом n.
Дискретные системы связи, в которых используется код с
m=2, называется двоичным. Они особенно широко применяются
на практике. Так, например, во многих телеграфных системах используется пятиразрядный двоичный код (n = 5, m = 2), обеспечивающий передачу сообщений с объемом алфавита L = 25 = 32.
Такие коды, в которых все кодовые комбинации содержат
одинаковое число разрядов n, называются равномерными. Иногда
используются и неравномерные коды, например код Морзе.
Для передачи кодовые символы преобразуются в элементы
сигнала S канала связи. Этот процесс называется модуляцией
(или манипуляцией при передаче дискретных сигналов). При
приеме сигналов производится обратная операция: демодуляция,
принятие решения о сигнале и декодирование.
Функциональная схема преобразования дискретных сообщений в линии связи приведена на рис. 3.2., где X – сообщение, α –
кодированное сообщение, S – сигнал, β – восстановленная последовательность кодовых сигналов, y – сообщение на выходе декодера; УПР – устройство принятия решения, структурная схема
которого определяется решаемой задачей системы связи (обнаружение, различение или оценка параметра).
X
ИС
α
Кодер
S
Мод.
β
Дем.
УПР
Y
Декод
ПС
U
Рис. 3.2.
3.2. Прием сигналов в канале с помехами.
Понятие о статистических критериях
принятия решений
Сигнал в канале передается в виде некоторых процессов конечной длительности. Если бы сигнал U(t) на выходе канала
представлял такую же функцию S(t), которая была подана на
вход, то можно было бы с полной достоверностью восстановить
84
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
переданное сообщение. То же самое было бы справедливо, если
бы в канале существовали только регулярные, заранее известные
искажения.
В реальных каналах наряду с регулярными искажениями
имеют место нерегулярные искажения (помехи, шумы). Помехи
могут представлять совокупность случайных напряжений, поступающих на вход приемного устройства вместе с сигналами. Помехи, которые линейно складываются с сигналом, называются
аддитивными. При наличии только аддитивных помех принимаемый сигнал можно выразить следующим образом:
U(t)=μ S(t - τ )+n(t)
(3.1.)
где μ – коэффициент передачи канала (обычно μ<<1), характеризующий ослабление сигнала при его прохождении через канал;
τ – величина запаздывания сигнала, определяемая протяженностью канала и скоростью распространения сигнала (зависит от
физической природы канала); n(t) – аддитивная помеха.
Помимо аддитивных помех могут быть нерегулярные искажения сигнала, вызванные изменением параметров канала в процессе передачи (величин μ, τ, многолучевость и т.п.); при этом μ и
τ могут нерегулярным образом изменяться во времени.
Подобные помехи называют мультипликативными. Таким
образом, принимаемый сигнал будет
U(t)= μ ( t ) ⋅ S  t-τ ( t )  +n(t)
(3.2)
Чаще всего μ и τ изменяются очень медленно по сравнению с
длительностью элементов сигнала.
Если изменением значений μ и τ можно пренебречь, то считается, что канал имеет постоянные параметры.
Приведенные формулы относятся к однолучевому распространению сигнала. Во многих случаях (особенно при ионосферном распространении, в подвижных системах связи) сигнал S(t)
может приходить на вход приемного устройства по «k» различным путям, с различным уровнем и временем запаздывания.
При таком «многолучевом распространении на входе приемного устройства имеем сигнал
85
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
k
U(t)=  μi s ( t − τ i ) + n ( t )
(3.3)
i =1
Величины μi и τi, вообще говоря, могут изменяться в процессе
передачи сообщения. Следовательно, в реальном канале не существует жесткой функциональной связи между переданным и принятым сигналами. Вследствие этого всегда имеется некоторая вероятность того, что восстановленное сообщение будет в той или
иной мере отличаться от переданного.
Мера соответствия принятого сообщения переданному называется верностью передачи информации. В дискретных системах
связи этой мерой обычно является вероятность правильного
приема элемента сообщения (или кодового символа).
При передаче непрерывных сообщений, как будет показано
ниже, абсолютно точно воспроизведение переданного сообщения
принципиально невозможно. Можно воспроизвести его только с
некоторой степенью точности. В этом случае мера верности определяется различными характеристиками в зависимости от назначения данной линии связи. При этом часто применяется отношение мощности сигнала к мощности помех для оценки качества принимаемого сообщения.
Строго говоря, по принятому сигналу можно судить только о
величине вероятности того, что был передан тот или иной сигнал
из множества сигналов, используемых в данной системе связи.
Здесь речь идет об условной вероятности того, что от источника
был послан, скажем, элемент сообщения X, если на выходе канала появился сигнал U(t).
Эта условная вероятность может быть определена по формуле Байеса (12):

P ( X k )W U

X
 Xk  ,
P  k  =
 U
i P ( X i )W U X i 
(3.4)
где Р(Xi) – вероятность выбора элемента Xi из всех возможных
для передачи (определяется свойствами источника);
W(U/Xi) – условная вероятность приема сигнала при передаваемом элементе Xi (определяется свойствами канала).
86
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Суммирование производится по всем возможным сообщениям источника. В случае источника непрерывных сообщений вместо вероятностей элемента сообщения следует рассматривать
плотности вероятностей и суммирование заменить интегрированием. Величины Р(Xi) и Р(Xi/U) часто называют априорной (доопытной) и апостериорной (послеопытной) вероятностями.
Если в дискретной системе связи приемное устройство преобразует приходящий сигнал U в элемент сообщения Yk, совпадающий с возможным переданным элементом Xk, то апостериорная вероятность Р(Xk /U) есть не что иное, как вероятность того,
что X действительно передавалось. Таким образом, Р(Xk /U) в
данном случае является вероятностью правильного приема.
Пусть для данного принятого сигнала U(t) и для двух возможных элементов сообщения Xk и Xr выполняется неравенство
P 

Xk
 > P  Xr 
 U
U 


(3.5)
Тогда приемное устройство, преобразующее сигнал U(t) в
элемент сообщения Yk (совпадающий с Xk), обеспечивает
бòльшую вероятность правильного приема, чем другое устройство, преобразующее этот сигнал в элемент сообщения Yr (совпадающий с Xr). Следовательно, наибольшую вероятность приема
обеспечивает такое приемное устройство, которое всякий принятый сигнал преобразует в сообщение, имеющее наибольшую апостериорную вероятность. Подобное воображаемое приемное устройство В.А. Котельников назвал идеальным приемником. Решение о том, какое сообщение передавалось, должно определяться
на основе анализа принимаемого сигнала с учетом всех тех сведений, которые имеются, – характере источника, системе кодирования и модуляции, свойствах канала связи (среды распространения радиоволн и антенно-фидерного тракта).
Установление соответствия между принятым и переданным
элементами сообщения производится в устройстве принятия решения, находящемся обычно в демодуляторе или после него
(U → β), и декодирующем устройстве (β → Y). Поэтому эти устройства иногда называют первой и второй решающей схемами.
87
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Принципы решающих схем могут быть весьма различными.
Они определяются задачами, которые решает система связи (различение, обнаружение, оценка параметра или их комбинаций).
Получение высокой верности и большой скорости передачи
информации требует различного выбора всей системы связи. В
частности, нужно целесообразно выбирать используемые сигналы и методы преобразования сообщений в сигнал (кодирование
информации) и применять оптимальные решающие схемы.
Правильный выбор системы связи требует учета всех особенностей источника сообщения, канала связи, условий эксплуатации и других требований. Для того чтобы построить статистические критерии и иметь возможность сравнить различные источники сообщений, в каналы связи и приемные устройства необходимо ввести количественную меру оценки информации, содержащейся в сообщении и переносимой сигналами.
Ограничимся системами передачи дискретных сообщений,
при этом будем рассматривать прием одного элемента сигнала.
Задачу сформируем в более общем виде. Найдем оптимальную структуру приемного устройства (решающую схему) при наличии определенных сведений о сигнале и помехе. Для общности
не ограничиваемся двоичыми сигналами, а также не будем предполагать реализации элемента сигнала простыми, то есть состоящими из отрезка синусоиды. Затем определим вероятность ошибок при оптимальной решающей схеме. Следует определить, в
каком смысле понимается оптимальность. Этот вопрос сложный.
Воспользуемся идеями математической статистики, той ее ветвью, которая называется теорией статистических решений. Для
получения максимального значения вероятности правильного
приема сообщения решающая схема должна выбирать из всего
ансамбля сообщений то, которое имеет наибольшую апостериорную вероятность. Это представляет собой один из возможных
подходов к определению оптимальности или один из критериев
оптимальности. Согласно такому критерию оптимальным является то приемное устройство, которое обеспечивает наименьшую
вероятность ошибочного приема сообщения. Этот критерий был
впервые использован в теории связи В.А. Котельниковым и носит
название критерия идеального наблюдателя. Несмотря на естест88
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
венность этого критерия, он не всегда применим. Поэтому следует ознакомиться и с другими критериями оптимальности.
Рассмотрим преобразование принятого сигнала в сообщение
как задачу на проверку гипотез.
Пусть для передачи различных кодовых символов используются некоторые реализации элемента сигнала Sr (t), соответствующие символам αr (r=1,2…, m). На вход приемного устройства
поступает принимаемый сигнал U(t), который вследствие помех и
искажений в канале не будет в точности подобен переданной
реализации Sr (t). Поэтому приемное устройство должно выбирать одну из возможных m гипотез:
1) передаваемый сигнал – S1 (t);
2) передаваемый сигнал – S2(t),
…
m) передаваемый сигнал – Sm(t).
Все возможные реализации U(t) образуют пространство принимаемых сигналов. В каждой точке пространства сигналов U(t)
соответствует одна из m гипотез, то есть один из возможных кодовых сигналов. Следовательно, пространство сигналов оказывается разбитым на m непересекающихся областей βr, каждая из которых соответствует принятию определенной гипотезы, то есть
приему определенного кодового символа. Каждое приемное устройство (решающая схема) осуществляет свое разбиение пространства сигналов на области. Одно из таких разбиений показано на рис. 3.3.
Если бы помеха отсутствовала, то U(t) = μSr(t) и U(t) в пространстве сигналов (рис. 3.1) отобразилась бы точками μSr (t), где
r = 1,2, …, m. Поскольку помеха присутствует, действительно
принимаемый сигнал будет отклоняться от точки μSr (t).
Малые отклонения более вероятны, чем большие. Поэтому
область βr ставится в соответствие тому, что принят сигнал μSr
(t), если сигнал попал в эту область. Если помеха не выведет точку μSr (t) за пределы области β, то прием будет правильным, то
есть решающая схема выдает именно тот кодовый символ, который передавался. Но возможен и случай, когда помеха выведет
89
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
μSr (t) за пределы области βr. При этом возникает ошибка. Изменяя границы между областями, можно, влияя на вероятности
ошибок одного рода, увеличивать вероятности ошибок другого
рода. Тем не менее всегда существует такое расположение областей, которое в том или ином смысле лучше всякого другого расположения.
β2
β1
μS2
β3
β4
μS3
μS4
μS1
β5
μS5
Рис. 3.3
При двоичной системе пространство сигналов разделяется на
две области ( β 1 и β 2). Пусть принимаемый сигнал
U(t)= μ Sr (t)+n(t)
где μ – весовой коэффициент; Sr(t) – r-ый элемент сигнала; n(t) –
аддитивная помеха.
Итак, выбор оптимального приемного устройства сводится к
выбору оптимального разбиения пространства сигналов на области, то есть определению того, какая гипотеза принимается при
данной реализации сигнала U(t). Оптимальное разбиение пространства сигналов можно найти методами теории статистических решений, если задан критерий оптимальности.
90
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
3.2. Критерий идеального наблюдателя
Применение критерия оптимального наблюдателя в решающей схеме приемника обеспечивает наименьшую безусловную
вероятность ошибок или, другими словами, наибольшую вероятность правильного приема. Целесообразность его применения
определяется решаемой задачей, о чем будет сказано ниже.
Предположим, что решающая схема выбрана. Это значит, что
для всякой реализации
U(t) известно, к какой области βr (см. рис.3.1) она принадлежит. Пусть передается некоторый символ αr. Он преобразуется в
элемент сигнала S(t), который, проходя по каналу связи, претерпевает изменения вследствие наличия помех и искажений и поступает на приемное устройство в виде некоторой реализации
U(t). Пусть имеем возможность определить условную (многомерную) плотность распределения вероятности U(t), если передавался символ αr, то есть ω (U| α r). Проинтегрировав эту плотность по
области βi, найдем условную вероятность того, что данной решающей схемой будет принят символ βi, если передавался символ αr:
(3.6)
P ( βi | α r ) =  ω (U | α r ) dU
βi
Заметим, что передавался символ αr, а был принят символ βi,
где i = r, то есть произошла ошибка.
Условная вероятность правильного приема, если передавался
символ αr, равна
(3.7)
P ( β r | α r ) =  ω (U | α r ) dU
βr
Полная вероятность правильного приема находится как среднее статистическое
q=
m
 P (α ) P ( β
r
r =1
r
| αr ) =
m
  P (α ) ω (U
r
r =1 β r
| α r ) dU ,
(3.7а)
где m – число символов сигнала; Р(αr) – априорная вероятность
появления символов αr, которая формируется источником сообщения.
91
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Вероятность (3.7а) зависит от априорной вероятности P(αr),
от свойств помех в канале, определяющих условные плотности
распределения принимаемого сигнала ω(U/αr), и от способа разбиения пространства сигналов на области βr, то есть от выбора
решающей системы.
Оптимальной, в смысле критерия идеального наблюдателя,
является решающая схема (устройство принятия решений –
УПР), которая обеспечивает максимум вероятности правильного
приема (3.7а) или минимум вероятности ошибочного приема.
Пусть принята некоторая реализация U(t). От выбора способа
разбиения пространства сигналов зависит значение индекса «r» в
подынтегральном выражении P(αr)ω(U/αr). Очевидно, что максимум вероятности правильного приема обеспечит такое разбиение
пространства сигналов, при котором реализации U(t) относятся к
области βn, если P(αr)ω(U/αn) превышает P(αr)ω(U/αr) при всех
индексах r ≠ n. Поэтому правило решения можно записать в виде
P (α r )ω (U | α n ) > P (α r )ω (U | α r )
(3.8)
для всех r ≠ n, r = 1,…,m.
Приемник, работающий в соответствии с этим правилом, называется идеальным приемником Котельникова.
Неравенство (3.8) можно представить в другом виде, если
разделить на безусловную плотность вероятности ω (U ) обе части
(3.8). Тогда получим
P (α r )ω (U | α n )
ω (U )
>
P (α r )ω (U | α r )
ω (U )
(3.9)
Здесь согласно формуле Байеса левая и правая части (3.9)
есть апостериорные плотности вероятности P(αn|U) и P(αr|U). Тогда идеальный приемник Котельникова выдает правильно символ
βn, если для всех r ≠ n имеем P(αn|U) > P(αr|U), и ошибочно, если
имеем обратное неравенство P(αn|U) < P(αr|U). Неравенство (3.8)
можно представить в таком виде
ω (U | α n ) P (α r )
>
ω (U | α r ) P (α n )
92
(3.10)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Поясним смысл правила решения в формуле (3.10). Для этого
ознакомимся с понятием о функции правдоподобия и отношения
правдоподобия. Условную плотность распределения вероятности
ω(U|αr) обычно рассматривают как функцию случайной величины
реализации U, характеризующую распределение ее вероятности,
когда известно, что передавался символ αr. В статистике функцию ω(U|αr) рассматривают как функцию случайной величины αr
(здесь случайно передаются символы αr), полагая значение U (в
данном случае реализации принятого сигнала) известным. При
таком подходе ω(U|αr) называют функцией правдоподобия гипотезы о передаче символа αr. Чем больше значение этой функции
при данной реализации сигнала U(t), тем правдоподобнее, что передавался символ αr. Отношение (левая часть) в (3.10) называют
отношением правдоподобия гипотез о передаче символов αr и αr.
Оно обозначается
ω (U | α n )
= Λn
r
ω (U | α r )
(3.11)
Выражение (3.10) с использованием (3.11) можно записать
Λn >
r
P (α r )
P (α n )
(3.12)
В частном случае, когда все символы сообщения имеют одинаковые априорные вероятности P(αn)=P(αr)=1/m, выражение
(3.12) упрощается и будет иметь вид
Λn > 1 ,
r
(3.13)
где r = 1, 2, …, m; r ≠ n.
Такой же алгоритм принятия решения имеет место в двоичной системе передачи символов сообщения с одинаковой априорной вероятностью символов αn и αr.
Критерий идеального наблюдателя имеет следующие недостатки. Первый недостаток – необходимо знать априорные вероятности передачи различных символов. В большей части систем
связи априорные вероятности известны, однако бывают случаи,
когда их трудно определить даже приблизительно, например появление самолетов противника.
93
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Второй недостаток – уравнительный подход к различного рода ошибкам при приеме сигналов с различными априорными вероятностями, например цифровой последовательности при вводе
в цифровую ЭВМ.
Третий недостаток – применение критерия идеального наблюдателя при резко различных априорных вероятностях, например в системе передачи сигналов о пожаре и его отсутствии.
Из перечисленных недостатков видно, что критерий идеального наблюдателя следует применять обоснованно и с известной
осторожностью.
3.3. Критерий максимального
правдоподобия
Отметим некоторые особенности критерия максимального
правдоподобия. Функцией правдоподобия называют условную
плотность вероятности распределения f (Z|Si), где Z – множество
наблюдаемых отсчетов входного процесса, S – сигнал, i=1, 2.
Наиболее правдоподобна та гипотеза, для которой выполняется
условие
f ( Z | Si ) = max  f ( Z | Si ) 
(3.4)
Этот алгоритм является частным случаем критерия идеального наблюдателя при Р(Si )=Р(Sj )= 1/m, где m – число отсчетов.
Критерий максимального правдоподобия получил наибольшее распространение потому, что он имеет ряд преимуществ по
сравнению с другими: оценка оказывается состоятельной при
оценке одного параметра, для эффективной оценки она является
единственной, оценка использует всю информацию, доставляемую статистикой; оценки обладают свойством инвариантности
относительно преобразований параметра; при больших объемах
выборки распределение оценки является приблизительно нормальным; сравнительная простота вычислений и возможность
практической реализации устройств.
К недостаткам максимального правдоподобия относится следующее: необходимо знать функцию правдоподобия; критерий
пригоден, когда функция правдоподобия унимодальная (имеется
94
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
только один максимум), что наблюдается при больших отношениях сигнал/шум [7].
3.4. Критерий Неймана-Пирсона
Ситуация, соответствующая предыдущему критерию, имеет
место в радиолокации. Радиолокационный приемник, принимая отраженный сигнал от объекта, должен в простейшем случае определить, имеется ли на данном направлении и данном расстоянии объект. Здесь возможны два рода ошибок – пропуск объекта (помеха
подавила сигнал) и ложная тревога (помеха стала сигналом), которые нельзя считать равноценными. Кроме этого, критерий идеального наблюдателя применить нельзя, так как априорную вероятность наличия объекта (например самолета) практически определить невозможно. При обнаружении сигналов используется специальный статистический критерий, называемый критерием Неймана-Пирсона. Прежде чем сформулировать его, заметим, что при
разбиении пространства сигналов на две области (наличия и отсутствия объекта) можно всегда уменьшить пропуск объекта (цели)
ценой увеличения вероятности ложной тревоги и наоборот. Действительно, уменьшая, например, объем области, соответствующей
наличию цели, можно сколь угодно уменьшать вероятность ложной тревоги, но при этом возрастает вероятность пропуска цели.
В реальных условиях частые появления ложной тревоги вызывают необходимость принятия конкретных мер по защите от
нападения, особенно в условиях ракетно-ядерной войны. Поэтому всегда возможно задать некоторую величину допустимой вероятности ложной тревоги, исходя из конкретной задачи, решаемой при обнаружении сигнала. Очевидно, что будут существовать различные методы разбиения пространства сигналов на две
области β (отсутствия цели) и β (наличия цели), при который вероятность ложной тревоги равна
F =  ω (U | α 0 ) dU
(3.15)
β1
где α0 – цель отсутствует; β1 – область пространства, которая определена для сигнала.
95
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Получается такая ситуация, что цели нет (нет и сигнала), а
сигнал U(t), представляющий только помеху, попал в область β1.
Уравнение (3.15) не определяет однозначно способ разбиения
пространства сигналов, но все же указывает некоторый класс
возможных разбиений. Плотность распределения вероятности
ω (U/ α 0) в (3.15) есть не что иное, как плотность распределения
помехи. Поэтому вероятность ложной тревоги определяется статистической структурой помехи и выбором области β1. Различные выборы области β1, удовлетворяющие (3.5), приведут к различным значениям вероятности пропуска цели:
Pпр =
β ω (U
α1 ) dU = 1 −  ω (U α1 ) dU = 1 − D
β1
0
где
β ω (U / α )dU = D
1
(3.16)
– вероятность правильного обнаружения
1
цели.
Согласно критерию Неймана-Пирсона приемник, выдающий
решение о наличии цели (β1) или ее отсутствии (β0), является оптимальным в том случае, если при заданной вероятности ложной
тревоги F он обеспечивает наибольшую вероятность правильного
обнаружения D. Критерий Неймана-Пирсона можно представить
через отношение правдоподобия в виде
Λ1 >
0
ω (U | α1 )
>h
ω (U | α 0 )
(3.17)
где h – некоторый порог, определяемый допустимой вероятностью ложной тревоги, при которой обеспечивается требуемая вероятность правильного обнаружения D.
Таким образом, видно, что операция обнаружения сигнала
характеризуется двумя параметрами D и F.
Применение критерия Неймана-Пирсона не требует знания
априорных вероятностей наличия и отсутствия целей. Однако
при этом он связан с произвольным заданием вероятности ложной тревоги F. Этот критерий пригоден для тех случаев, когда
ошибки различного рода резко отличаются по своим последствиям. Для обычных систем связи с применением простых сигналов
критерий Неймана-Пирсона не используется. Однако в последнее
время в системах передачи информации интенсивно внедряются
96
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
широкополосные (шумоподобные) сигналы, где применение критерия Неймана-Пирсона обязательно для решения задачи обнаружения, прежде чем решать задачу различения. Этот специальный вопрос здесь не рассматривается.
3.5. Критерий минимального
среднего риска
Критерий минимального среднего риска является обобщением критерия идеального наблюдателя, которое заключается в том,
что качество приема определяется не просто вероятностью ошибок различного рода, а и тем, насколько опасны последствия
ошибок различного рода.
Пусть передаются символы αr (r, 1, 2 …, m), априорные вероятности которых Р(αr) будем считать известными. Предположим,
что передан символ αn и принят символ βr. При n=r это означает
правильный прием, при n ≠ r имеет место ошибочный прием. Если ощибки не являются равноценными, то можно каждой паре
символов αn и βn приписать некоторую численную величину «выигрыша» или «потери». Приняв правильно символ αn, мы имеем
некоторый выигрыш, а приняв его неправильно – некоторую потерю, величина которой зависит от того, какой символ αr принят
вместо βn .
В дальнейшем будем говорить только о потерях. Обозначим
Lnr – потерю, имеющую место, если передавался символ αn и принят символ βr. Значения Lnr, конечно, не зависят от системы связи, а определяются в каждом конкретном случае степенью важности передаваемых сообщений и величиной опасности ошибочного приема того или иного символа. Назовем условным риском
Rn условное математическое ожидание потери Lnr при передаче
символа αr:
Rn =
m
 P (β
r =1
r
| α n )L nr =
m
 L  ω (U
β
nr
r =1
| α n ) dU
(3.18)
1
Безусловное математическое ожидание потери, называемое
средним риском R можно определить с помощью (3.6), если его
усреднить по предаваемым символам α
97
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Rср =
m
m
 P (α ) L  ω (U
β
n
r =1
nr
r =1
| α n ) dU
(3.9)
1
Выражение (3.9) называют байесовским критерием или критерием минимального среднего риска, который заключается в
том, что оптимальным считается приемник, основанный на таком
разбиении пространства сигналов на области βr, при котором
обеспечивается наименьшее значение среднего риска.
В оптимальном байесовском приемнике будут чаще происходить ошибки, связанные с малыми потерями, но зато реже ошибки, связанные с большими потерями. Если все ошибки равноценны, то есть Lnr = const при n ≠ r и Lnn=0, то критерий минимального среднего риска совпадает с критерием идеального наблюдателя.
В теории решений о принятом сигнале введено понятие
функции потерь. Функция потерь представляет собой зависимость различия принятого сигнала αr от принятого αn. Этой функции L(αn, αr) приписываются потери каждой комбинации сигналов αn и αr.
Физический смысл функции потерь состоит в том, что каждой возможной ошибке в приеме сигнала приписывается определенный неотрицательный вес. Выбор той или иной функции потерь производится в зависимости от конкретной задачи, для которой проводится прием сигналов. Общего правила выбора
функции потерь не существует. В практике применяются следующие функции потерь, зависящие от величин ошибок:
– простая L(αn,αr)=L(0)–δ(αn–αr), где δ(αn–αr) – дельтафункция Дирака;
линейная по модулю L(αn,αr)= |αn – αr|;
квадратичная L(αn,αr)= (αn – αr)2;
0, при | α n − α r |< η
(
)
L
α
,
α
=

n
r
прямоугольная
1, при | α n − α r |> η
экспоненциальная (функция потерь с насыщением)
 (α n − α r )2 
L(α n , α r ) = 1 − exp −
 , где η – некоторая константа.
2η 2


98
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Приведенные функции потерь являются симметричными
функциями разности |αn – αr|. Отклонения в любую сторону одинаково нежелательны. Вместе с этим не исключены задачи, где
могут встретиться случаи, в которых отношение наблюдателя к
знаку ошибок разное. Для таких ситуаций функции потерь будут
несимметричными. Функция потерь является случайной функцией.
Отметим, что в литературе рассматриваются и другие критерии приема сигналов. К ним относятся максимум апостериорной
плотности вероятности, минимаксный, информационный критерии.
99
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Вопросы для повторения
1. Дайте определение системы передачи информации.
2. Почему в теории связи применяются статистические методы?
3. Дайте определение канала связи. Его содержание.
4. Назовите примеры источников информации и получателей
информации.
5. Дайте определение сигнала. Чем различаются сообщение и
сигнал?
6. Назовите модели канала и их принципиальное различие.
7. Что такое верность передачи информации?
8. Определите различие между непрерывными и дискретными сообщениями. Приведите примеры.
9. В чем различие между априорной и апостериорной вероятностью сообщений?
10. Проясните смысл задач различения, обнаружения, оценки
параметра.
11. В чем заключается задача на проверку по данным наблюдения? Как они связаны с проблемой приема?
12. Что называется статистическим критерием?
13. Перечислите известные Вам статистические критерии
принятия решения.
14. Сформулируйте критерий идеального наблюдателя.
15. При каком условии критерий минимального среднего
риска совпадает с критерием идеального наблюдателя?
16. Какие из известных Вам статистических критериев проверки гипотез применимы, если об априорных вероятностях этих
гипотез ничего не известно?
17. Какую роль играет функция потерь в критерии среднего
риска?
100
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
18. Построите график квадратичной функции потерь.
19. Приведите пример применения прямоугольной функции
потерь.
20. Поясните термин «идеального наблюдателя».
21. Где в приемнике находится устройство принятия решения?
22. Расскажите
Пирсона.
принцип
действия
критерия
Неймана-
23. Дайте определение функции правдоподобия и функции
отношения правдоподобия. Укажите ее достоинства и недостатки.
24. Назовите наиболее характерные области применения статистических критериев идеального наблюдателя НейманаПирсона.
25. Установите принципиальное различие между критерием
идеального наблюдателя и критерием Неймана-Пирсона.
101
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Список литературы
1. Рытов, С.М. Введение в статистическую радиофизику. Ч. 1:
Случайные процессы / С.М. Рытов. – М.: Наука, 1976. – С. 496.
2. Анищенко, В.С. Введение в статистическую радиофизику:
учеб. пособие / В.С. Анищенко. – Саратов: СГУ, 1979. – Ч. 1. –
С. 89.
3. Анищенко, В.С. Введение в статистическую радиофизику:
учеб. пособие. / В.С. Анищенко. – Саратов: СГУ, 1982. – Ч. 2. –
С. 140.
4. Тихонов, В.И. Статистическая радиотехника / В.И. Тихонов. – М.: Сов. радио, 1966. – С. 678.
5. Левин, Б.Р. Теоретические основы статистической радиотехники. Кн. 1 / Б.Р. Левин. – М.: Сов. Радио, 1974. – С. 552.
6. Тихонов, В.И. Статистическая радиотехника / В.И. Тихонов. – 2-е изд., перераб. и доп. – М.: Радио и связь, 1982. – С. 624.
7. Рожков, И.Т. Методы обработки радиосигналов: учеб. пособие / И.Т. Рожков. – Ярославль: ЯрГУ, 1987. – С. 78.
8. Вентцель, Е.С. Теория вероятностей / Е.С. Вентцель.
2-е изд., перераб. и доп. – М.: Госиздат физ.-мат. лит., 1962. –
С. 564.
9. Заездный, А.М. Основы расчетов по статистической радиотехнике / А.М. Заездный. – М.: Связь, 1969. – С. 448.
10. Пугачев, В.С. Теория случайных функций / В.С. Пугачев. – М.: Физматгиз, 1960. – С. 325.
11. Гмурман, В.Е. Теория вероятностей и математическая
статистика. учеб. пособие для вузов / В.Е. Гмурман. – 5-е изд.,
перераб. и доп. – М.: Высшая школа, 1977. – С. 479.
12. Горяинов, В.Т. Статистическая радиотехника: примеры и
задачи: учеб. пособие для вузов / В.Т. Горяинов, А.Г. Журавлев,
В.И. Тихонов ; под ред. В.И. Тихонова. – 2-е изд., перераб. и доп.
М.: Сов. радио, 1980. – С. 544.
13. Двайт, Г.Б. Таблицы интегралов и другие математические
формулы / Г.Б. Двайт ; под ред. К.А. Семендяева. – М.: Наука,
1977. – С. 224.
102
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Оглавление
Предисловие............................................................................................... 3
1. Случайные величины ............................................................................ 4
1.1. Общие сведения о случайных величинах и процессах ............... 4
1.2. Плотность вероятностей, ее свойства .................................... 7
1.3. Функция распределения и ее свойства ...................................... 9
1.4. Характеристическая функция и ее свойства ......................... 10
1.5. Условная плотность вероятности и ее свойства ................. 12
1.6. Числовые характеристики случайных величин ....................... 13
1.7. Законы распределения случайных величин ............................... 18
1.8.Задачи по разделу 1 ..................................................................... 30
2. Случайные процессы........................................................................... 38
2.1. Общие сведения о случайных процессах .................................. 38
2.2. Средние значения случайных величин и моменты случайного
процесса ...................................................................................... 39
2.3. Стационарные и нестационарные процессы ......................... 42
2.4.Эргодичность случайного процесса........................................... 44
2.5. Корреляционные функции и их свойства .................................. 47
2.6. Коэффициент корреляции. Интервал корреляции .................. 52
2.7. Выбор времени усреднения случайного процесса .................... 54
2.8. Определение основных характеристик случайного процесса
при усреднении статистически, по времени и по выборке ... 59
2.9. Спектральная плотность случайного процесса ...................... 61
2.10. Задачи ........................................................................................ 68
3. Статистические критерии приема сигналов...................................... 82
3.1. Статистический подход к задаче приема и обработки
сигналов....................................................................................... 82
3.2. Прием сигналов в канале с помехами. Понятие о
статистических критериях принятия решений .................... 84
3.2. Критерий идеального наблюдателя ......................................... 91
3.3. Критерий максимального правдоподобия................................ 94
3.4. Критерий Неймана-Пирсона ..................................................... 95
3.5. Критерий минимального среднего риска ................................. 97
Вопросы для повторения ...................................................................... 100
Список литературы ............................................................................... 102
103
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Учебное издание
Рожков Иван Трофимович
Основы
статистической
радиофизики
Часть 1
Учебное пособие
Редактор, корректор Л.Н. Селиванова
Компьютерная верстка И.Н. Ивановой
Подписано в печать 11.03.2008 г. Формат 60х84/16.
Бумага тип. Усл. печ. л. 6,04. Уч.-изд. л. 5,76.
Тираж 100 экз. Заказ
Оригинал-макет подготовлен
в редакционно-издательском отделе ЯрГУ.
Ярославский государственный университет.
150000 Ярославль, ул. Советская, 14.
Отпечатано
ООО «Ремдер» ЛР ИД № 06151 от 26.10.2001.
г. Ярославль, пр. Октября, 94, оф. 37
тел. (4852) 73-35-03, 58-03-48, факс 58-03-49.
104
Документ
Категория
Физико-математические науки
Просмотров
23
Размер файла
858 Кб
Теги
статистический, основы, 166, радиофизики
1/--страниц
Пожаловаться на содержимое документа