close

Вход

Забыли?

вход по аккаунту

?

Ivanovbiryukov2

код для вставкиСкачать
Федеральное агенТство по образованию
Государственное образовательное учреждение
высшего профессионального образования
САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
АЭРОКОСМИЧЕСКОГО ПРИБОРОСТРОЕНИЯ
Ю. П. Иванов, Б. Л. Бирюков
ИНФОРМАЦИОННО-СТАТИСТИЧЕСКАЯ
ТЕОРИЯ ИЗМЕРЕНИЙ
Модели сигналов и
анализ точности систем
Учебное пособие
Санкт-Петербург
2008
УДК 519.216
ББК 22.172
И20
Рецензенты:
кафедра процессов управления Балтийского государственного
технического университета; доктор технических наук,
профессор С. Н. Шаров
Утверждено
редакционно-издательским советом университета
в качестве учебного пособия
И20
Иванов Ю. П., Бирюков Б. Л. Информационно-статистическая теория измерений. Модели сигналов и анализ точности систем: учебное пособие /
Ю. П. Иванов, Б. Л. Бирюков. – СПб.: ГУАП, 2008. – 160 с.
ISBN 978-5-8088-0313-8
Рассматриваются принципы построения, математические модели
и методы анализа информационно-измерительных систем и их
сигналов применительно к летательным аппаратам. Излагаемый
материал основывается на использовании теории вероятности и
случайных процессов, метода пространства состояний, интегральных
и дискретных преобразований, а также элементов функционального
анализа.
Предназначено для студентов, обучающихся по специальности
190300 «Авиационные приборы и измерительно-вычислительные
комплексы» и направлению 551500 «Приборостроение».
УДК 519.216
ББК 22.172
ISBN 978-5-8088-0313-8
© ГУАП, 2008
© Ю. П. Иванов,
Б. Л. Бирюков, 2008
Оглавление
Предисловие................................................................... 5
Глава 1. Общая характеристика информационно-измерительных систем...................................................................... 7
1.1. Основные понятия и назначение информационно-измерительных систем летательных аппаратов................ 7
1.2. Классификация информационно-измерительных
систем летательных аппаратов................................ 11
1.3. Основные свойства и качество информационно-измерительных систем.................................................. 18
Глава 2. Модели сигналов.................................................. 25
2.1. Основные понятия................................................. 25
2.2. Характеристики и параметры сигналов..................... 27
2.3. Классификация сигналов и помех............................ 31
2.4. Описание типовых сигналов.................................... 37
2.4.1. Простейшие сингулярные детерминированные
функции..................................................... 37
2.4.2. Прямоугольный симметричный импульс
с единичной высотой .................................... 43
2.4.3. Модулированные сигналы............................. 45
2.4.4. Квазидетерминированные сигналы................. 48
2.4.5. Дискретизированные сигналы........................ 48
2.5. Пространство сигналов........................................... 53
2.5.1. Пространство детерминированных сигналов..... 53
2.5.2. Пространство случайных сигналов.................. 59
2.6. Дискретные представления сигналов
при помощи рядов................................................. 62
2.6.1. Конечномерные представления реализаций
сигналов..................................................... 62
2.6.2. Представление случайных сигналов
при помощи обобщённых рядов Фурье............ 66
2.6.3. Представление случайных сигналов
при помощи ряда Карунена–Лоэва................. 73
2.6.4. Представление случайных сигналов при помощи канонических разложений Пугачёва......... 77
2.6.5. Сравнительная характеристика представлений
случайных сигналов при помощи рядов........... 80
2.7. Спектральное представление случайных сигналов...... 81
2.7.1. Частотное разложение стационарного случайного процесса на конечном интервале времени 81
2.7.2. Частотное представление стационарного случайного
процесса на бесконечном интервале
времени.Спектральная плотность
стационарного случайного процесса................ 82
2.7.3. Белый шум.................................................. 85
2.7.4. Понятие формирующего фильтра.................... 86
2.8. Интегральные представления сигналов..................... 88
2.8.1. Общие основы интегральных преобразований... 88
2.8.2. Преобразование Гильберта............................. 91
2.8.3. Преобразование Фурье.................................. 95
2.9. Представление сигналов в пространстве состояний..... 98
2.9.1. Построение модели сигнала в пространстве
состояний................................................... 98
2.9.2. Представление случайных процессов
в пространстве состояний ............................. 105
2.10. Представление дискретных во времени сигналов...... 107
2.10.1. Представление сигнала с ограниченной частотной полосой в виде ряда В. А. Котельникова.... 107
2.10.2. Дискретное преобразование Фурье................ 111
2.10.3. Дискретное преобразование Лапласа и
z-преобразование......................................... 115
2.10.4. Особенности дискретизации случайных
сигналов..................................................... 117
Глава 3. Статистический анализ и оценка точности
линейных систем............................................................. 120
3.1. Постановка задачи................................................. 120
3.2. Модели линейных систем........................................ 121
3.3. Общие правила преобразования случайныхсигналов
линейными системами........................................... 127
3.4. Статистические характеристики выходных сигналов
элементарных звеньев............................................ 132
3.5. Статистические характеристики выходного сигнала
системы во временном представлении....................... 136
3.6. Статистические характеристики стационарных
выходных случайных сигналов в частотном
представлении...................................................... 142
3.7. Преобразование случайных сигналов системами
в пространстве состояний.............................................. 153
Заключение.................................................................... 158
Библиографический список .............................................. 159
Предисловие
В учебном пособии рассматриваются вопросы, необходимые для
изучения будущими бакалаврами, инженерами и магистрами дисциплины «Информационно-статистистическая теория измерений»
(ИСТИ) и входящие в программу, составленную в соответствии с
государственным образовательным стандартом высшего профессионального образования для специальности 190300 «Авиационные
приборы и измерительно-вычислительные комплексы» и направления 551500 «Приборостроение». Содержание вопросов и форма их
изложения сформировалась на основе материалов лекций, которые
на протяжении ряда лет читались студентам Санкт-Петербурского
государственного университета аэрокосмического приборостроения.
Учебное пособие состоит из двух частей. Первая часть, которая
рассматривается в данной книге, имеет три главы.
В первой главе раскрывается содержание понятия ИИС, указывается место ИИС в приборном оборудовании летательного аппарата, определяются её основные задачи, приводится классификация
ИИС летательного аппарата по их назначению, используемой математической модели, типу применяемых сигналов. Даётся определение качества ИИС, основных её свойств и показателей их оценок,
таких как эффективность, точность, надёжность, инвариантность,
динамические характеристики, помехозащищённость, адаптивность, робастность и других.
Во второй главе приводятся основные математические модели
сигналов, помех измерения и результатов измерения датчиками
ИИС, используемыми в приборном оборудовании летательного аппарата. Изложение материала в пособии ведётся от общего к частному
и базируется на представлении сигналов в евклидовом и гильбертовом пространствах. Модели сигналов рассматриваются в частотновременном аспекте с раскрытием их изоморфизма. Общей моделью,
наиболее адекватной реальным физическим процессам, воздействующим на датчики информации, является случайный процесс. В
пособии рассматриваются модели сигналов в виде частичных сумм
обобщённых рядов Фурье, Карунена–Лоэва, канонических рядов
Пугачёва, рядов Котельникова, позволяющих упростить модели
сигналов и решить ряд новых задач синтеза ИИС на основе использования интервального представления случайных процессов. При
изучении реализаций случайных процессов рассматриваются различные детерминированные функции времени, в том числе гармонические и сингулярные функции. В качестве моделей помех могут
быть использованы многие модели сигналов, представленные в пособии, а также белый гауссовский шум.
В третьей главе рассматриваются методы оценки качества линейных ИИС и описания выходных сигналов при использовании
первых двух моментов случайных процессов как во временной, так
и в частотной областях. При этом рассматриваются как стационарные, так и нестационарные ИИС при воздействии нестационарных
и стационарных случайных входных процессов. В этом же разделе
рассматриваются методы анализа преобразований сигналов в пространстве состояний.
Вторая часть пособия посвящена рассмотрению методо­логии
синтеза ИИС оценки и классификации сигналов
Изложение материала базируется на использовании теории вероятности и случайных процессов, в частности марковских, пространства состояний сигналов и систем, элементов функционального анализа, доступных для студентов технических вузов.
Ю.П.Ивановым написаны предисловие, главы 1 и 2, за исключением пп. 2.8.3, 2.10.2, 2.10.4, а также п. 3.2; Б.Л.Бирюковым подготовлена глава 3, а также написаны пп. 2.8.3, 2.10.2, 2.10.4 и заключение.
Глава 1. Общая характеристика
информационно-измерительных систем
1.1. Основные понятия и назначение
информационно-измерительных систем
летательных аппаратов
Рассмотрим (рис. 1.1) общую структурную схему систем измерения и управления летательным аппаратом [10]. На схеме обозначено: ЛА – летательный аппарат; ИССиИП – информационно-измерительные системы и измерительные приборы ЛА; СУТД – система управления траекторным движением ЛА; ИОСУТД – исполнительные органы системы управления траекторным движением
ЛА; ОСУ – обобщённая система управления ЛА; РВ – руль высоты;
РН – руль направления; Э – элероны; X(t) – векторы–столбцы (размерности которых указаны в скобках) полезных сигналов, являющихся функциями времени; H(t) – векторы–столбцы внешних и
внутренних помех измерения, являющихся функциями времени;
Xˆ (t) – векторные функции времени оценок полезных сигналов;
U(t) – векторные функции времени управляющих сигналов положением в пространстве ЛА; δв, δн, δэ – углы поворота рулей управления ЛА соответственно по высоте, направлению и крену.
H(d×1)(t)
Xпр (k×1)(t)
B
B
ЛА
δв
РВ
РН
Э
δн
δэ
H2 (ν×1)(t)
B
X(q×1)(t)
HH
×1)(t)
1 1(l(lЧ1)(t
B
B
B
B
H3 (υ×1)(t)
X1 (r×1)(t)
B
Xˆ ( g × )(t)
B
ИИСиИП
СУТД
Xˆ (ω× )(t)
ОСУ (ЭВМ )
B
U(p×1)(t)
ИОСУТД
U1 (s×1)(t)
B
B
X2 (f×1)(t)
B
B
Рис. 1.1. Структурная схема систем измерения и управления летательным аппаратом
ЛА совершает движение в пространстве в некоторой системе координат OXYZ, связанной с Землёй, по заранее известной или вычисляемой в зависимости от полётной ситуации или задач ЛА траектории
в возмущенной среде. Среда характеризуется такими параметрами,
как давление, плотность, температура, влажность и т. д. Процессы,
протекающие в среде, носят случайный характер и могут быть математически описаны случайными величинами или процессами.
В условии случайных возмущений среды устойчивое относительно заданной (или программной) траектории полёта Xпр(t) движение
ЛА возможно только при наличии управления аэродинамическими силами, действующими на рулевые поверхности рулей РВ, РН,
элероны и т. д. Управляющие сигналы U(t) вырабатываются системой управления траекторным движением. Управляющие сигналы
поступают на исполнительные органы СУТД только при наличии
информации о положении осей симметрии и параметрах движения
ЛА, а также их производных.
Эта информация может быть получена с помощью измерительных приборов и информационно-измерительных систем, входящих
в состав бортового оборудования ЛА. Применительно к контуру
СУТД информационно-измерительные системы измеряют векторфункцию X(q×1)(t) размерности (q×1), характеризующую реальную
траекторию движения ЛА и производные её ухода от программной
траектории движения, преобразуя их в выходные сигналы ИИС
Xˆ ( g × )(t) . СУТД вырабатывает в соответствии с некоторыми законами сигналы управления U(p×1)(t), поступающие на исполнительные органы системы управления траекторным движением
(ИОСУТД). Исполнительные органы системы управления траекторным движением управляют поверхностями РВ, РН, Э, отклоняя их
соответственно на углы δв, δн и δэ и обеспечивая в каком-то смысле
близость компонент векторов Xпр(k×1)(t) и X(q×1)(t). Таким образом
обеспечивается устойчивое движение ЛА относительно программной Xпр(t) траектории движения.
Рассмотренную задачу общего траекторного движения ЛА обычно разделяют на две задачи:
– определение положения центра масс ЛА в некоторой системе
координат (СК) 0XYZ, связанной с Землёй или другой планетой, в
любой момент времени – задача навигации;
– определение положения осей симметрии ЛА, скоростей и ускорений их изменения во времени и стабилизация их относительно
программной траектории движения – задача пилотирования ЛА.
На рис. 1.1 векторы возмущающих воздействий H(t), действующие на ЛА и различные элементы бортового оборудования, имеют
различную размерность (d, l, ν, υ) и, возможно, различные по мощности и физической природе компоненты, так как бортовое оборудование может находиться внутри фюзеляжа как в герметических,
так и негерметических отсеках и на различных расстояниях от источников помех.
Полёт ЛА невозможен без двигателей (силовых установок – СУ),
создающих тягу и подъёмную силу, обеспечивающие возможность
движения ЛА над поверхностью Земли. Работа двигателей требует
наличие запаса топлива на борту ЛА. Поэтому возникают задачи
контроля состояния и управления работой СУ, а следовательно, и
задачи измерения параметров режимов работы двигателей, запаса
и расхода топлива.
Полёт ЛА, связанный с наличием на борту ЛА экипажа или пассажиров, требует реализации условий жизнеобеспечения на борту
ЛА, поскольку с подъёмом на высоту атмосферные условия значительно меняются (давление и температура падают по сравнению с
их значениями на Земле, плотность воздуха и его состав также меняются с высотой) по сравнению с условиями на Земле. В связи с
этим возникает задача управления условиями жизнеобеспечения в
зоне места работы экипажа и нахождения пассажиров, а следовательно, и в необходимости измерения совокупности физических величин, характеризующих условия жизнеобеспечения в зоне места
работы экипажа и нахождения пассажиров.
ЛА может иметь и специальные задачи – фотографирование земной поверхности, распыление удобрений и другие задачи, требующие специальных измерений.
Перечисленные задачи значительно шире рассмотренной задачи траекторного движения и учтены на рис. 1.1 наличием векторов
X1(r×1)(t), X2(f×1)(t), Xˆ (ω× )(t) , размерностей r×1, f×1 и ω×1 соответственно, а также обобщённой системы управления (ОСУ). В состав обобщённой системы управления входит СУТД и дополнительная система управления, вырабатывающая сигналы U1(s×1)(t), определяемые параметрами процессов, не связанными непосредственно
с задачей управления траекторным движением.
Если выделить средства измерения как объекты проектирования из общего состава бортоH(l×1)(t)
вого оборудования (рис. 1.2),
то можно сформулировать
X(m×1)(t)
Xˆ (n × )(t)
постановку задачи проекИИСиИП
тирования бортовых измерительных средств как раз- Рис. 1.2. Информационно-измерительная система ЛА
работку алгоритмов работы
и конструкции информационно-измерительных систем (ИИС) при
известных свойствах, формах представления и диапазонах изменения компонент векторов сигналов X(m×1)(t), возмущений H(l×1)(t) и
векторов показаний Xˆ (n × )(t) ИИС. Таким образом, на ИИС и ИП
воздействует вектор полезных сигналов X(t) размерности m×1, где
m = q+r+f, на выходе которых наблюдается вектор сигналов Xˆ (t)
размерности n×1, где n = g+ω.
При этом требуется обеспечить определённую техническими
условиями степень близости свойств компонент Xˆ i (t) к соответствующим свойствам компонент Xi(t), i = 1, 2, …, m, отражающую
степень адекватности отображения измеряемых физических величин или процессов в соответствующие им сигналы ИИС или показания ИП. При этом в качестве моделей сигналов Xi(t), оценок Xˆ i (t)
i = 1, 2, …, m и помех Hj(t), j = 1, 2, …, n используются случайные
процессы и случайные величины. При проектировании одного прибора, одной измерительной системы m = 1, n = 1, l = 1.
Бортовое измерительное оборудование образуется как совокупность приборов и ИИС, обеспечивающих получение и обработку измерительной информации обо всех процессах и их параметрах, которые
в совокупности обеспечивают возможность выполнения всех задач летательным аппаратом, включая безаварийные взлёт и посадку.
В измерительной технике под средством измерения понимают
всякое техническое средство, используемое в измерениях и имеющее нормируемые метрологические характеристики. Таким образом, метрологические свойства средств измерения, в том числе
и бортовых средств измерения, нормированы, т. е. удовлетворяют
нормам, ограничениям, установленным соответствующей технической документацией.
Под прибором понимают средство измерения, предназначенное
для выработки сигнала измерительной информации в форме, удобной для непосредственного восприятия наблюдателем. Бортовые
приборы ЛА имеют в своём составе отсчётные устройства (шкала
и стрелка, шкала и уровень, цифровой счётчик и др.), по которым
оператор (член экипажа) может снять отсчёт измеряемой физической величины.
Под ИИС понимают совокупность средств измерения и вспомогательных устройств, связанных между собой каналами связи, единым алгоритмом работы и обеспечивающих получение, передачу, и
обработку измерительной информации для использования в системах управления и представление ее в форме, удобной оператору.
Таким образом ИИС в отличие от ИП ЛА производят обработку
и выдают измерительную информацию в форме сигналов, исполь10
зуемых в автоматических системах управления и других устройствах (например, бортовой ЦВМ) и, кроме того, как правило, имеют
выводы и на индикационную панель оператора. Обработка измеряемой информации ИИС включает в себя различные преобразования
(нормализация, квантование, дискретизация, классификация) сигналов с целью согласования работы отдельных узлов системы и выделение сигналов на фоне шумов (фильтрация и оценивание).
Значительный объём бортового оборудования, устанавливаемого
на борту ЛА, огромное число схемных элементов в нём остро ставят
проблему его надёжности. Недостоверность измерительной информации, связанная с наличием погрешности или наличием отказов
в оборудовании, может привести к использованию нагружённых
сверх нормативных уровней режимов работы бортового оборудования, в том числе и силовых установок, увеличивая вероятность
отказов бортового оборудования и снижая качество решения задач
бортовым оборудованием и летательным аппаратом в целом. Поэтому главными являются задачи повышения надёжности бортового
оборудования и исключение возможности попадания недостоверной
измерительной информации в какие-либо каналы ОСУ ЛА.
Следовательно, возникают задачи контроля состояния бортового
оборудования и планёра, в том числе контроля критических (аварийных с точки зрения возможности устойчивого полёта) пилотажно-навигационных параметров и управление структурой бортового
оборудования с целью исключения поступления недостоверной измерительной информации в каналы контуров ОСУ ЛА.
1.2. Классификация информационно-измерительных систем
летательных аппаратов
Классификацию ИИС ЛА будем производить по назначению и
принципу действия систем, по характеру представления сигналов
и способу передачи измерительной информации, по виду используемой математической модели ИИС и способу индикации измерительной информации.
1. По назначению ИИС можно подразделить на следующие классы:
– пилотажные системы;
– навигационные системы;
– пилотажно-навигационные системы;
– системы измерения параметров состояний силовых установок;
– системы измерения запаса топлива и управления положением
центра масс ЛА;
11
– системы жизнеобеспечения и жизнедеятельности экипажа и
пассажиров;
– системы контроля критических (аварийных) значений пилотажно-навигационных параметров;
– системы измерения и записи (хранения) параметров процесса
полёта;
–системы измерения и контроля параметров бортового оборудования ЛА.
Современные бортовые ИИС отличаются от ИИС, используемых
для других целей, тем, что для улучшения характеристик, таких
как точность получаемых оценок, достоверность принимаемых
решений, надёжность навигационных приборов, помехозащищённость информационно-измерительных систем строятся как комплексные системы. В этом случае используется несколько разных по
физическому принципу работы измерителей одного и того же параметра и оптимально-инвариантный алгоритм обработки информации. Например, курсовые системы (КС) имеют в своём составе гироскопические, магнитные, спутниковые, астрономические и другие измерители курса, наблюдаемые сигналы которых могут быть
использованы для повышения точности оценок курса ЛА.
При классификации по назначению выделена группа ИИС определения физических величин (параметров траектории полёта),
необходимых как для решения задачи пилотирования, так и навигации – истинная воздушная скорость V, путевая скорость W, число
Маха M, вектор линейного ускорения A, угловые характеристики в
навигационной 0XYZ и пилотажной 0XсYсZс (связанной с летательным аппаратом) системах координат. В том числе угол атаки α (угол
между проекцией вектора истинной воздушной скорости Vв полёта
на вертикальную плоскость и строительной осью ЛА) и угол скольжения β (угол между проекцией Vг вектора V на горизонтальную
плоскость и продольной осью ЛА). К этому классу относятся ИИС
пилотажно-навигационных параметров.
Кроме того, выделена система измерения запаса топлива и управления центром масс ЛА, поскольку запас топлива является важным
параметром, характеризующим возможную длительность полёта.
Система измерения и контроля аварийных значений пилотажно-навигационных параметров помимо получения измерительной
информации предполагает использование операции контроля. В
этих системах осуществляется сравнение текущей измерительной
информации с критическими значениями параметров и выработка
соответствующего сигнала (больше, меньше, в допуске), а также
осуществляется поиск причины возникшей полётной ситуации (от12
каз того или иного оборудования ЛА, наличие каких-либо непредвиденных влияний окружающей среды и др.). Задачей таких систем
может быть анализ полётной ситуации и определение путей выхода
из сложившейся критической ситуации и выработка рекомендаций
пилоту или сигналов управления, обеспечивающих устойчивое
движение ЛА относительно заданной траектории с требуемым качеством и с высокой вероятностью. Подобная система в целом является не только измерительной и управляющей, но и анализатором
ситуации и определения возможных путей выхода из критической
ситуации и должна опираться на принципы структурной и параметрической адаптации к возникшей ситуации и на идеологию теории
сатистических решений. Если система обладает такими свойствами
на всей траектории полёта, то она может быть названа автоматом
безопасности полёта ЛА.
Средства измерения и записи (хранения) параметров процесса
полёта предназначены для сохранения и записи реализаций параметров процесса полёта при авариях ЛА с целью последующего
анализа причин аварии и конструктивной доработки бортового оборудования, обеспечивающего безаварийность полётов с требуемой
вероятностью.
В составе бортового оборудования имеются также автоматизированные средства контроля (АСК) состояний бортового оборудования. Распределённые по отдельным видам бортового оборудования
встроенные АСК обычно решают задачу контроля работоспособности, т. е. соответствия показателей качества или параметров состояния проверяемого объекта установленных технической документацией пределам работоспособного или неработоспособного состояния объекта контроля. При этом обычно используется двухальтернативный контроль, когда экипажу выдаются сигналы «годен»
или «негоден». Эти сигналы могут обобщаться по отдельным видам
бортового оборудования.
2. По принципу действия (или роду физических величин), используемых в процессе преобразования измеряемых физических
процессов в выходную информацию различают:
– механические системы;
– электромеханические системы;
– оптические системы;
– радиотехнические системы;
– электронные системы;
– тепловые системы.
Гироскопическими системами называются электромеханические системы, в которых используются свойства гироскопа.
13
На практике часто применяются смешанные ИИС, использующие различные виды физических процессов (оптикомеханические,
электрооптикомеханические, радиооптические и т.д.).
3. По характеру представления сигналов в процессе выработки
выходной измерительной информации можно выделить:
– аналоговые системы;
– импульсные системы;
– цифровые системы;
Также используют следующие смешанные системы:
– аналогоимпульсные;
– аналого-цифровые;
– импульсно-цифровые.
В аналоговых ИИС (в том числе при измерении физических процессов в форме редко появляющихся импульсов, например ударных
ускорений при посадке ЛА) сигналы на всех этапах преобразования
измеряемых физических процессов в выходные сигналы являются
непрерывными функциями времени.
В импульсных ИИС основные этапы преобразования измерительной информации в выходной сигнал осуществляются с помощью сигналов, дискретизированных по времени, – импульсов, появляющихся во времени по определённому закону (через равные
промежутки времени при равномерной дискретизации), у которых
информация об измеряемом физическом процессе заложена в одном
или нескольких параметрах – амплитуде импульса, длительности
импульса или частоте появления.
В цифровых ИИС помимо дискретизации сигналов по времени
(обычно используется равномерная дискретизация) осуществляется
и дискретизация по уровню. При этом область возможных значений
разбивается обычно равномерно на некоторое количество квантов
∆, а значению отчёта уровня сигнала X(t) в некоторый производный
момент времени ti, i = 1, 2, …, ставится и в соответствие наибольшее
число квантов такое, что разность между уровнем сигнала X(ti) и
его отсчётом (квантованным по уровню сигналом) X(ti)–X∆(ti) минимальна. Отсчитанный уровень сигнала X∆(ti) представляется в цифровом виде с помощью кода (двоичного, восьмеричного, двоично-десятичного и т.п.).
4. По характеру передачи измерительной информации ИИС можно классифицировать в зависимости от наличия или отсутствия дистанционной передачи измерительной информации от измерительного преобразователя, непосредственно воспринимающего измеряемый физический процесс, к преобразователю, обеспечивающему
выдачу сигнала ИИС или отсчёт показаний индикатора. Для ИИС
14
и приборов, даже простейших, характерно наличие дистанционной
передачи (проводной или осуществляемой с помощью специальных
электромеханических устройств) в составе конструкции, поскольку первичный измерительный датчик устанавливается в месте измерения физического процесса, а индикатор – на приборной доске
одного или нескольких членов экипажа. При этом некоторые ИИС,
например, связанные с измерением параметров среды в кабине ЛА,
которые устанавливаются в зоне оперативной деятельности экипажа, могут и не иметь дистанционной передачи.
Таким образом, по указанному признаку ИИС подразделяются
на дистанционные и недистанционные.
5. По виду математической модели ИИС можно классифицировать с точки зрения используемого математического оператора.
Математическое выражение закона, в соответствии с которым по
заданной реализации y(t) входного сигнала определяется реализация выходного сигнала xˆ (t), называют [4, 6] оператором системы
Aτt { }
xˆ (t) = Aτt {y(τ)}, τ∈ [t0 ,t] , (1.2.1)
где фигурные скобки в обозначении оператора Aτt { } заключают
функцию, над которой производятся действия оператора, индекс τ
внизу обозначает аргумент этой функции, по которому действует
оператор, индекс t вверху указывает на зависимость оператора от
времени, t0 – начальный момент времени. Входной сигнал можно
представить в виде
Y(t) = G{X(t), H(t)} ,
где G – оператор композиции полезного сигнала X(t) и помехи измерения H(t).
В этом плане все математические модели ИИС можно разделить
на линейные и нелинейные. Динамическая система называется линейной, если её оператор линеен. Оператор Aτt { } называется линейным, если при любых числах n, скалярных числах c1, c2, …, cn и при
любых функциях z1(t), z2(t), …, zn(t), принадлежащих линейному
пространству Z выполяется следующее соотношение:
 n
 n
Aτt  ∑ cν ⋅ zν (τ)  = ∑ cν ⋅ Aτt {zν (τ)}, ν=
 ν=
(1.2.2)
т. е.
результат действия этого оператора на любую линейную комбинацию данных функций является линейной комбинацией результа15
тов его действия на каждую функцию в отдельности. Динамическая
система линейна тогда и только тогда, когда линейной комбинации
любых входных воздействий соответствует та же линейная комбинация соответствующих выходных функций. Это свойство линейных систем, выраженное формулой (1.2.2), называется принципом
суперпозиции. Принцип суперпозиции опирается на два важных
свойства линейных систем – однородности и аддитивности. Свойст­
во однородности связано с возможностью выноса скалярных величин из-под знака оператора, а свойство аддитивности определяется
равенством процедур взятия оператора от суммы входных воздействий сумме взятия операторов от каждого входного воздействия в
отдельности. Поэтому линейные системы можно определить как такие системы, для которых справедлив принцип суперпозиции.
Линейные и нелинейные ИИС по виду математической модели
можно подразделить на безынерционные и инерционные.
Безынерционными называются системы, использующие метод
обработки сигналов, при котором не учитываются прошлые показания измерителей к моменту выработки оценки. Для безынерционной системы справедливо следующее соотношение:
xˆ (t) = A t {y(t)} . (1.2.3)
Для инерционных систем оценка сигнала производится в соответствии со следующим выражением:
xˆ (t) = Aτt {y(τ)}, τ∈ [t0 ,t] , (1.2.4)
где τ может принимать континуум значений, либо счётное число
дискретных значений в текущем интервале времени [t0, t].
Линейные инерционные ИИС по признаку зависимости или независимости реакции ИИС xˆ (t) от момента времени поступления наблюдаемого сигнала y(τ), где τ∈[t0, t], подразделяются на стационарные и нестационарные ИИС. Стационарность или независимость от
времени есть инвариантность преобразования к временным сдвигам
в том смысле, что для любого y(t) и любого t0, если xˆ (t) = Aτt {y(τ)} , то
xˆ (t − t0 ) = Aτt {y(τ − t0 )} .
Для линейных систем связь выходного и входного сигналов может быть записана в виде
∞
xˆ (t) =
∫ g (t, τ)y(τ)dτ ,
(1.2.5)
где
g(t, τ) – импульсная весовая функция, представляющая собой
реакцию системы на единичный δ-импульс, подаваемый на вход в
момент времени τ при нулеых начальных условиях:
−∞
16
g (t, τ) = Aτt {δ(t − τ)}; ∞, t = 0 ,
δ(t) = 
 0, t ≠ 0 . (1.2.6))
Оператор Aτt {} инвариантен во времени тогда, когда импульсная
реакция (весовая функция) g(t, τ) зависит только от разности аргументов t−τ. Линейный оператор в этом случае соответствует выражению
∞
xˆ (t) =
∫ g (t − τ)y(τ)dτ ,
(1.2.7)
−∞
т. е.
x̂ есть свёртка g и y; свёртку часто обозначают символически
xˆ = g ⊗ y .
Физически реализуемые системы характеризуются тем, что на
их операторы наложено существенное ограничение: они должны
быть неупреждающими или казуальными. Это условие легко выразить через импульсную реакцию. Для того, чтобы выходной сигнал
xˆ (t) зависел бы только от предыдущих значений входного сигнала
y(t) необходимо и достаточно наложить следующее условие на импульсную реакцию:
g(t, τ) = 0 при всех τ >t . (1.2.8)
Это ограничение часто вводят в запись самой операции:
t
xˆ (t) =
∫ g (t, τ)y(τ)dτ ,
(1.2.9)
−∞
не
оговаривая
условие
на
функцию
g(t,
τ).
Многие динамические ИИС могут быть достаточно точно описаны дифференциальными уравнениями конечного порядка. Указанные математические модели особенно часто используются для описания цепей с сосредоточенными параметрами. Математическую
модель ИИС при использовании дифференциального оператора n-го
порядка можно записать в следующем виде:
n
di xˆ (t)
i =0
dti
∑ ai (t)
n −
di y(t)
i =0
dti
= ∑ bi (t)
(1.2.10)
,
где ai(t) и bi(t) – непрерывные функции. Если коэффициенты уравнения постоянны, то параметры системы не зависят от времени.
17
6. По способу индикации ИИС ЛА подразделяются на ИИС с непосредственной выдачей информации оператору и регистрирующие
ИИС ЛА, выдающие информацию на запись на какой-либо материальный носитель (бумажная лента, магнитная плёнка, электронные носители информации и т. д. ).
ИИС с непосредственной выдачей информации оператору по виду
индикационного канала, используемого оператором, подразделяются на:
– ИИС со зрительной индикацией;
– ИИС со звуковой индикацией;
– ИИС с тактильной (чувствительность кожи к раздражителям –
давлению, температуре и др.) индикацией.
Индикаторы ИИС зрительного канала оператора по способу выдачи информации подразделяются на индикационные, использующие те или иные отсчётные устройства (шкала и стрелки, световой
столб и шкала, цифровая запись, световая сигнализация от дискретных сигналов и т.п.) и изобразительные (карта местности, отображение сигналов в виде пространственных рисунков и др.).
1.3. Основные свойства и
качество информационно-измерительных систем
Качество ИИС характеризуется совокупностью свойств, определяющих пригодность выполнять поставленные задачи в соответ­
ствии с назначением.
Основное назначение ИИС ЛА заключается в своёвременном и
точном измерении навигационных и других физических и медикобиологических параметров или в достоверности их классификации
с целью обнаружения критических ситуаций.
Характерной особенностью задачи оценки качества ИИС ЛА является многообразие свойств, определяющих успешность выполнения требуемых задач, таких как точность, длительность, надёжность работы, удобство эксплуатации, затраты на производство и
содержание и т.д.
В связи с этим понятие качества рассматриваемых ИИС является
многогранным, комплексным, включающим различные свойства.
К основным свойствам ИИС, определяющим их качество можно отнести следующие:
1) эффективность;
2) точность;
3) достоверность;
4) надёжность;
18
5) помехозащищенность;
6) робастность;
7) инвариантность;
8) адаптивность.
Для количественной оценки качества ИИС вводят показатели качества и свойств ИИС. Показатель качества – это число, характеризующее в принятой системе единиц свойство систем. Вычисление показателя качества позволяет произвести сравнение различных ИИС и определить, какая система является лучшей по сравнению с другими.
Система, для которой показатель качества принимает экстремальное значение, называется оптимальной. Оптимальная система – это наилучшая система в смысле данного показателя качества
из всех возможных систем данного класса. Определение оптимальных систем составляет задачу синтеза ИИС.
При анализе определяются показатели качества известной системы, а при оптимальном синтезе определяются сами ИИС, обеспечивающие наилучшие значения показателей качества.
1. Эффективность.
Эффективность ИИС – есть мера целесообразности её применения.
В качестве показателя качества эффективности можно использовать относительную величину затрат:
C
Э =− ,
C
где С – стоимость затрат на создание ИИС ЛА, обеспечивающей заданную точность измерения и оценки полезного сигнала или достоверность принимаемых решений; С1 – допустимые затраты, предоставленные на создание ИИС ЛА с требуемыми характеристиками.
2. Точность.
В ИИС ЛА одними из основных операций являются измерение
и оценка параметров сигналов. Процесс измерения параметров сигналов характеризуется точностью. Под точностью ИИС понимают
качество её средств измерения и алгоритмов обработки сигналов,
отражающих близость к нулю погрешностей измерения и ошибок
оценок. Для ИИС ЛА характерно, что наблюдаемый сигнал и погрешность измерения являются случайными процессами. Для оценки показателя качества используется величина среднего риска, который в случае определения точности обработки векторного сигнала X(t) характеризуется средним квадратом ошибки оценки
R = M[ET E] , (1.3.1)
19
где E = Xˆ − X – вектор ошибки измерения или оценки Xˆ (t) , «Т» –
знак транспонирования вектора (аргумент t в приведённых выражениях для простоты записи опущен). Преобразуем выражение (1.3.1)
в форму, удобную для использования. Обозначим среднее значение

вектора ошибки оценки M[E] = E и E = E − Μ [E ] – центрированное
значение ошибки оценки, тогда выражение (1.3.1) можно представить в следующем виде:



T
R = M[ET E] = M[( E − E + E)T ⋅ ( E − E + E)] = M[E T E] − 2M[E T E] + E E =
 
=Tr{M[E E T ] + E E T } = Tr{KE + E E T } ,
где Tr{} – след матрицы; KE – корреляционная матрица ошибок оценок сигнала X; E E T – матрица, определяемая смещённостью ошибки оценки E = M[Xˆ ] − M[X] или наличием систематических ошибок
при измерении и оценке сигнала X.
3. Достоверность.
При исследовании ИИС контроля состояний приборного оборудования ЛА, обнаружения и распознавания сигналов, классификации сигналов, т. е. в том случае, когда число альтернативных принимаемых решений z = 0, 1, ..., N по результатам наблюдения Y(t)
счётное и чаще всего конечное, важнейшей характеристикой является достоверность принимаемых решений.
Достоверность ИИС определяет степень доверия к принимаемым
решениям. В качестве показателя достоверности ИИС используется
вероятность принятия правильных решений по результатам наблюдений.
Пусть в общем случае векторный наблюдаемый сигнал
Y = G{X, H}, есть известная композиция полезного сигнала X и помехи H, где Y∈Ω, X∈Ω, Н∈Ω, а Ω – область возможных значений соответствующих векторов. Рассмотрим случай двуальтернативного
решения, когда по результатам наблюдения принимается одно из
двух взаимоисключающих решений z = 0, 1. Каждое реальное решение определяется попаданием вектора Y в соответствующую область Φ0 или Φ1.При этом Φ0∩Φ1 = Ω, Φ0∪Φ1 = ∅. Кроме реальных решений будем рассматривать идеальные решения zT = 0, 1, которые
определяются попаданием вектора X в соответствующие области Ω0
или Ω1, Ω0∩Ω1 = Ω, Ω0∪Ω1 = ∅.
Безусловные достоверности D0, D1 соответственно каналов «0»,
«1» и общая безусловная достоверность D могут быть определены в
виде следующих совместных вероятностей:
20
Ω0
Φ1
B
B
Φ0
Ω1
B
B
Рис. 1.3. Процесс принятия решения: X ∈ Ω0 ⇒ zT = 0, X ∈ Ω1 ⇒ zT = 1,
Y ∈ Φ0 ⇒ z = 0, Y ∈ Φ1 ⇒ z = 1
D0 = P{X ∈Ω0 ; Y ∈Φ 0 } ,
D = P{X ∈Ω; Y ∈Φ } ,
D = D0 + D .
Безусловные вероятности появления ошибок при двуальтернативном решении определяются следующими соотношениями:
α = P{X ∈Ω0 ; Y ∈Φ } ,
β = P{X ∈Ω; Y ∈Φ 0 } .
При рассмотрении процесса контроля приборного оборудования
ЛА безусловную вероятность α называют риском изготовителя, а
β – риском заказчика.
Безусловная вероятность появления ошибок при принятии двуальтернативного решения
γ = α+β .
4. Надёжность.
Для ИИС высокие точность и достоверность являются необходимыми, но недостаточными свойствами, так как даже высокоточные
и высокодостоверные системы могут не выполнить поставленных
задач, если в процессе их работы будут появляться отказы в аппаратуре. Поэтому при оценке качества ИИС необходимо учитывать
свойство, присущее всем приборам – надёжность системы.
Надёжность – это свойство выполнять заданные функции, сохраняя во времени значения установленных эксплуатационных
показателей в заданных пределах, соответствующих заданным режимам и условиям использования, технического обслуживания,
ремонта, хранения и транспортирования объекта эксплуатации.
Для ИИС ЛА наибольшее значение имеет свойство надёжности,
характеризуемое безотказностью аппаратуры в процессе полёта.
Одним из способов обеспечения требуемой безотказности является
введение в бортовое приборное оборудование структурной избыточности путём резервирования узлов или приборов ИИС ЛА.
21
Надёжность – комплексное свойство, а отдельные его компоненты характеризуют:
– безотказность;
– ремонтопригодность;
– сохраняемость;
– долговечность;
– помехозащищённость.
5. Помехозащищённость.
В процессе работы ИИС ЛА на неё воздействуют внутренние и
внешние помехи. Под помехой будем понимать любой дестабилизирующий фактор, действующий на сигнал и вызывающий потерю
информации, т. е. помеха – это причина возникновения погрешности или сбоя. Помехи по характеру воздействия можно подразделить
на флюктационные и систематические.
Флюктационные помехи представляет собой последовательность
импульсов, имеющих случайные амплитуду, длительность, форму
и время появления отдельных импульсов.
Систематические помехи могут иметь постоянные или изменяющиеся во времени значения.
Воздействие помех на ИИС приводит к появлению недопустимых погрешностей или даже к срыву функционирования систем.
Поэтому важным свойством ИИС является помехозащищённость.
Способность ИИС нормально функционировать (т. е. получать, обрабатывать, выдавать информацию) при наличии помех называется помехозащищённостью системы.
Чем меньше отличие выходного сигнала от полезного при воздействии помех, тем большей помехозащищённостью обладает система. Современные ИИС, как правило, работают под воздействием
большого числа интенсивных дестабилизирующих факторов. Поэтому для нормального функционирования ИИС необходимо применять специальные меры по повышению её помехозащищенности.
Любое повышение помехозащищённости ИИС связано с введением
избыточности и усложнением аппаратуры.
В качестве показателя помехозащищённости ИИС можно ввести
следующий критерий:
Kп =
∆R / R *
∆a / a*
,
где R* – оптимальный показатель качества рассматриваемой ИИС
при номинальных значениях параметров помех; a* – номинальное
значение рассматриваемого параметра помехи; DR – изменение по22
казателя качества ИИС при отклонении рассматриваемого параметра от номинального значения на заданную величину Da.
6. Робастность.
Робастность – это малая чувствительность показателя качества
к изменению параметров ИИС.
Показатель робастности можно определить следующим соотношением:
∆R / R *
Kр =
,
∆b / b*
где b* – номинальное значение рассматриваемого параметра ИИС;
DR – изменение показателя качества ИИС при отклонении рассматриваемого параметра от номиR
нального значения на заданную
величину Db.
Из рис. 1.4 видно, что изменение одного и того же параметра b
приводит к различным изменени∆R1 ∆ R2
ям показателя качества. Система,
у которой изменение параметра
*
0
b* b + ∆b
b
b приводит к менее заметным
Рис. 1.4. Примеры зависимостей
изменениям показателя качестпоказателей качества
ва R, является более робастной
R двух одинаковых по напо отношению к другой.
значению ИИС от изменения одного и того же
7. Инвариантность и адаппараметра b
тивность.
К моменту проектирования
ИИС обычно объёма априорной информации недостаточно для полного оптимального синтеза систем. Особенно это типично относительно информации о полезном сигнале. Поэтому иногда ограничиваются проектированием ИИС, показатель качества которой был
бы независим (инвариантен) от характеристик полезного сигнала.
Можно также построить ИИС инвариантной относительно заданного типа помех. Таким образом, инвариантность систем – это свойство независимости показателя качества от характеристик полезного
сигнала или от возмущающих воздействий. Для обеспечения свойства инвариантности требуется введение дополнительных каналов
приёма и обработки полезного сигнала.
Другим способом преодоления априорной неопределенности является построение адаптивной ИИС. Адаптивная ИИС изменяет,
приспосабливает алгоритмы обработки сигналов с целью сохране23
ния высокого показателя качества в зависимости от вида входной
информации.
При оценке качества ИИС приходится часто учитывать одновременно несколько разнородных её свойств. В этом случае единый общий критерий показателя качества можно представить в виде функ­
ции некоторых критериев
W = ϕ(W1, W2, …, Wk) .
Каждое Wi оценивает частное i-е свойство ИИС. Частные критерии
можно объединить в единый общий критерий W, используя следующие элементарные действия над частным критериям:
k
W = ∑ λi Wi ,
i =
где параметр λi – «вес» частного критерия Wi. В этом случае общий
результат представляет собой сумму частных результатов, каждый
из которых имеет свою значимость. В том случае, когда общая задача ИИС решается, если частные критерии принимают значения не
менее заданных Wi*, i = 1…k, общий критерий может быть определен следующим соотношением:
, Wi ≥ Wi* ,
W=
*
0 , Wi < Wi , i = ,k .
24
Глава 2. Модели сигналов
2.1. Основные понятия
Для всех ИИС ЛА характерна общность структурного построения используемых методов анализа и синтеза и показателей качества их работы. Общим для всех указанных систем и входящих
в них устройств является также то, что их функционирование непосредственно связано с сигналами. Так, например, навигационная
ИИС осуществляет измерение физических процессов, таких как изменение давления Р, температуры Т, относительной влажности ∆ и
т. д. Совокупность указанных физических процессов, характеризующих состояние среды, в которой находится ИИС ЛА, определяет
воздействия, содержание информацию или сигналы. Электрические сигналы на выходе измерителей (первичных датчиков) или параметры сигналов должны соответствовать первичным физическим
воздействиям. Физические процессы, не отнесенные к классу сигналов и приводящие к искажению, т. е. к нарушению соответствия
между первичными физическими процессами и электрическими
сигналами измерителей, называются помехами. К помехам можно
отнести возмущения, вызванные вибрацией, случайным изменением температуры, нечувствительностью измерителя, турбулентностью атмосферы и т. д.
Характеризуя сигнал с точки зрения его функционального назначения, т. е. отвечая на вопрос «для чего служит сигнал», можно
дать следующее определение: сигнал есть материальный носитель
информации.
Понятие информации базируется на двух философских категориях: отражении и многообразии. «Информация есть отраженное
многообразие» – это определение, данное Л.А.Урсулом [7], подчеркивает, что информация возникает в процессе отражения и при наличии определенного выбора из множества явлений.
В качестве сигналов используются не сами по себе объекты, а их
состояния. Образование сигнала заключается в изменении состояний физического объекта, произведенного по определенным правилам.
Таким образом, сигнал есть изменение материального объекта,
произведенное по заранее определенным правилам.
Одному и тому же измеряемому физическому явлению может
быть поставлен в соответствие целый ряд физически различных сигналов. Сохранение информации обеспечивается взаимно однозначным соответствием сигналов. В теории множеств существует поня25
тие изоморфизма множеств, придающее точный смысл несколько
неопределенному понятию соответствия сигналов. Рассмотрим понятие изоморфизма для дискретных множеств. Два множества X и
Y, состоящие из элементов x∈X и y∈Y называются изоморфными,
если выполняются следующие условия:
– каждый элемент xm∈X может быть взаимно однозначно сопоставлен с элементом ye∈Y, т. е. xm→ye и ye→xm;
– каждая операция (из некоторого класса операций), преобразующая элемент xn∈X в xm∈X в множестве Х, f(xn) = xm может быть
взаимно однозначно сопоставлена с операцией ϕ, преобразующей
элемент yk∈Y в ye∈Y, ϕ(yk)→ye, т. е. f→ϕ, ϕ→f;
– если xn∈X соответствует yk∈Y и xm∈X соответствует ye∈Y, если
f(xn) = xm и f→ϕ, то для всех x, y, f ϕ(yk)→ye.
Смысл первых двух условий очевиден, последнее условие обеспечивает удовлетворение того требования, чтобы элементы xm и ye,
полученные из соответствия друг другу операций f и ϕ, тоже соответствовали друг другу. В приложении к теории сигналов каждое
множество, упоминаемое в приведенном определении, представляет собой множество физически однородных сигналов. Операции f и
ϕ являются операциями перекодирования. Переход из одного множества в другое эквивалентен переходу от сигнала одной физической природы к соответствующему сигналу другой природы. С этой
точки зрения смысловое (семантическое) содержание информации,
несомой сигналом, исчерпывается изоморфным соответствием между сигналами и событием, отражаемым данным сигналом. В свете
понятия изоморфизма задача построения математической модели
сигнала выглядит как задача построения множества математических образов, изоморфного множеству реальных сигналов.
В соответствии с определением информации одна единственная функция измеряемого параметра не может служить моделью
сигнала. Такая функция приобретает сигнальные свойства только
тогда, когда она входит в некоторое многообразие функций. Следовательно, моделью сигнала может служить набор однозначных
функций измеряемого параметра. В качестве конкретной реализации сигнала используется какая-либо одна из этих функций. Такой
модели соответствует понятие случайного процесса как множества
функций параметра t, на котором определена вероятностная мера.
Каждая конкретная функция называется реализацией случайного
процесса.
26
2.2. Характеристики и параметры сигналов
Под характеристикой сигнала будем понимать зависимость параметров сигнала от времени или частоты. Параметр есть количественное выражение свойства сигнала. Необходимость исследования
характеристик и параметров сигналов вызвана задачами анализа,
синтеза и оптимизации сигналов и информационно-измерительных
систем. Рассмотрение характеристик и параметров сигналов целесообразно производить раздельно применительно к реализациям
сигнала как детерминированным функциям и сигналам как множеству случайных функций.
Основными задачами теории сигналов являются рассмотрение и
исследование числовых характеристик, параметров, методов представления и основных моделей сигналов, в том числе спектральных
характеристик сигналов.
Понятие спектра сигнала возникло из представления периодического сигнала x(t) как функции времени в виде ряда, состоящего
из косинусоид (синусоид), называемых гармониками:
x(t) =
N
∑ An cos(ωn t + ϕn ) ,
n =0
с определенным соотношением их амплитуд An, частот ωn и фаз ϕn.
Частоты гармоник ωn кратны частоте ω1, т. е. ωn = nω1 , где ω1 –
частота первой или основной гармоники, период которой по времени равен периоду сигнала T, т. е. ω1 = 2π/T. Если использована комплексная форма записи косинусоид, то ряд имеет вид
x(t) =
N
∑
n =− N
Cn e jωnt ,
где последовательность коэффициентов Cn, в общем случае комплексных, называется дискретным комплексным спектром сигнала
x(t), в то время как последовательность модулей |Cn| образует амплитудный спектр, а фаз arg(Cn) – фазовый. На точность представления
сигнала влияет количество гармоник N, а также способ определения коэффициентов ряда. Как правило, коэффициенты Cn определяются по формуле
b
Cn =
x(t) e − jnωt dt, b − a = T ,
T ∫a
которые в этом случае называются коэффициентами ряда Фурье.
Обобщением представления сигналов посредством рядов Фурье является представление
27
∞
x(t) =
j ωt
∫ X( jω)e dω ,
2 π −∞
∞
X( jω) =
∫ x(t) e
− j ωt
dt ,
−∞
где X(jω) – прямое преобразованием Фурье функции x(t) и называется комплексным спектром сигнала, который теперь уже может
быть непериодическим. В отличие от спектров при использовании
рядов Фурье спектр X(jω) – сплошной, т. е. является не последовательностью, а функцией непрерывного аргумента – частоты ω. Первое интегральное выражение является обратным преобразованием
Фурье функции X(jω). Оба преобразования являются взаимно однозначными, и, следовательно, X(jω) несёт в себе всю информацию
о сигнале x(t). Комплексный спектр может быть выражен через вещественные функции
X( jω) = A (ω) e j ϕ(ω) ,
где A(ω) и ϕ(ω) – амлитудный и фазовый спектры соответственно.
Дополнительные сведения о спектрах и их свойствах приводятся в
последующих разделах.
К часто используемым параметрам реализаций сигналов при
анализе и оптимизации моделей сигнала относятся: практически
реальные длительность, время нарастания и полоса частот сигнала,
определяемые соответственно интервалами времени и частоты, при
которых амплитудные значения убывают до заданного значения
относительно максимальных величин, а также средний квадрат
ошибки оценки или воспроизведения, энергия, мощность, средняя
частота, период дискретизации по времени и величина кванта, т. е.
величина дискретизации амплитуды реализации сигнала, амплитуда A, частота ω, фаза ϕ гармонического сигнала x(t) = A sin(ωt+ϕ).
К основным характеристикам сигналов, описываемых случайным процессом, относятся закон распределения параметров сигнала и, в частном случае, огибающей узкополосного случайного сигнала, наличие свойства марковости, стационарности и эргодичности исследуемого случайного процесса, зависимость спектральной
плотности дисперсии стационарного сигнала от частоты, вид корреляционной функции и математического ожидания сигнала как
функции времени.
В теории сигналов широко используются следующие параметры
и показатели качества ИИС и случайных сигналов: среднеквадратическая точность оценки и фильтрации сигналов, достоверность
28
классификации, длительность среднего интервала корреляции,
среднее число выбросов за заданный уровень, практически реальная полоса частот спектральной плотности, вероятность недостижения заданных границ сигналом, средняя энергия и мощность,
средняя частота непрерывного и средняя частота повторения дискретного сигналов и т. д. При оптимизации ИИС и сигналов наиболее
часто в качестве критериев оптимальности используется средний
квадрат ошибки и достоверность классификации сигналов. Средний квадрат ошибки оценки сигнала в векторном случае определяется в виде
M[( Xˆ (t) − X(t))T ( Xˆ (t) − X(t))] = Tr{M[( Xˆ (t) − X(t))( Xˆ (t) − X(t))T ]} , (2.2.1)
где Xˆ (t) – оценка сигнала X(t); Xˆ (t) и X(t) – векторы–столбцы размерности m×1; Tr{} – след матрицы.
Достоверность классификации сигналов есть вероятность принятия правильных решений о принадлежности сигнала к определённому классу по результатам наблюдений.
Рассмотрим некоторые характеристики и параметры сигналов,
описываемых случайными процессами. Математическое ожидание X(t) векторного сигнала X(t) размерности m×1 определяется по
формуле
∞
M[X(t)] = X(t) =
∫ x(t)f (x,t)dx , (2.2.2)
−∞
где f(x, t) – многомерная плотность распределения сигнала, в общем
случае зависящая от времени.
Матрица корреляционной функции Kx(t1, t2) вещественного сигнала X(t) размерности m×m и ее элементы Kxij (t,t2 ) равны
Kx (t,t2 ) =
Kx (t,t2 )
Kx2 (t,t2 )
......
Kxm (t ,t2 )
Kx2 (t,t2 )
Kx22 (t,t2 )
......
Kx2m (t,t2 )
................... ................... ...... ....................
Kxm (t,t2 )
Kxm2 (t,t2 )
......
Kxmm (t ,t2 )
, (2.2.3)
∞ ∞
Kxij (t,t2 ) =
∫ ∫ (xi (t ) − xi (t ))(xj (t2 ) − xj (t2 ))f (xi ,xj ;t,t2 )dxdx2 , (2.2.4)
−∞ −∞
где xi(t), xj(t) – компоненты случайного векторного сигнала X(t) в
момент времени t, i, j = ,m ; X(t), Xi (t), Xj (t) – математическое ожидание векторного сигнала X(t) и компонент его; f(xi, xj; t1, t2) – сов29
местная плотность распределения Xi и Xj в моменты времени t1и t2.
Величина
∞
Dxi = Kxi (t = t,t2 = t) = ∫ (xi (t) − xi (t))2 f (xi ,t)dx, i = ,m (2.2.5)
−∞
определяет дисперсии компонент сигнала X(t) в момент времени t.
Многие сигналы, соответствующие физическим процессам на борту ЛА, можно рассматривать как стационарные в широком смысле,
т. е. их корреляционные функции зависят только от разности рассматриваемых моментов времени, а математические ожидания не
зависят от времени
Kxij (t,t2 ) = Kxij (t2 − t ) = Kxij (τ), i = ,m ,
M[xi (t)] = xi (t) = const, i = ,m . (2.2.6)
Среди различных законов распределения случайного процесса
{x(t), t∈T} наиболее широкое применение имеет нормальный закон
распределения для гауссовского случайного процесса.
Случайный процесс называется гауссовским, если для n любых
моментов времени t1, …, tn из T (n – произвольное целое число) n
случайных m-мерных векторов X(t1), …, X(tn) имеют совместное нормальное распределение
f ( X* ) =
(2π)
nm
Kx*
 
exp  − ( X * − X * )T Kx* − ( X * − X * )  , (2.2.7)
2


где X* – nm-мерный вектор–столбец вида X*T = [X1, …, Xn], Xi = X(ti) –
вектор размерности m×1; Kx* = Kxlk , l,k = ,n – корреляционная
матрица размера nm×nm, а Kxlk = M ( X(tl ) − X(tl ))( X (tk ) − X(tk ))T  ;
Kx* − – обратная корреляционная матрица; Kx* – определитель матрицы Kx* .
Большое применение в практических приложениях находит
класс случайных процессов, называемых марковскими. Широкое
использование указанных процессов обусловлено, с одной стороны,
возможностью для них получения аналитических выражений для
широкого класса задач анализа и синтеза в пространстве состояний
линейных и нелинейных ИИС, с другой стороны, достаточно точным приближением этих моделей сигналов к реальным сигналам.
Случайный процесс {X(t), t∈T} называется марковским, если для
любых n моментов времени t1<t2<…<tn из T, где n – любое целое число, условная плотность распределения вероятностей X(tn) при условии, что известны X(t1), …, X(tn−1), имеет следующее свойство:
30
f (xn | xn −,..., x ) = f (xn | xn − ) , (2.2.8)
справедливое для произвольных m-мерных векторов x1 = x(t1), …,
xn = x(tn).
Если считать tn−1 текущем временем, а tn−2, …, t1 – прошедшим,
то вероятностный закон, описывающий поведение процесса в будущем, т. е. во время tn , зависит только от текущего значения процесса и совершенно не зависит от его поведения в прошлом. Это свойство называется «марковостью».
2.3. Классификация сигналов и помех
По виду используемых математических моделей сигналы можно
разделить на детерминированные сигналы, или реализации сигналов, и собственно сигналы, или случайные сигналы. Детерминированные сигналы – такие сигналы, значения которых в любой
момент времени полностью известны, т. е. предсказуемы с вероятностью, равной единице. Сигналы или случайные сигналы – такие
сигналы, значения которых в любой момент времени невозможно
предсказать с вероятностью, равной единице.
В свою очередь сигналы и их реализации по характеру представления можно разделить на следующие классы:
– сигналы, произвольные по величине и непрерывные по времени;
– сигналы, произвольные по величине и дискретные по времени;
– сигналы, квантованные по величине и непрерывные по времени;
– сигналы, квантованные по величине и дискретные по времени;
– цифровые сигналы.
Сигналы первого типа иногда называют аналоговыми или непрерывными в связи с тем, что они задаются по оси времени на
несчетном множестве точек. По оси ординат аналоговые сигналы
могут иметь разрывы 1-го рода. Для сигналов второго типа термин
«дискретный» характеризует способ задания его на временной оси.
Эти сигналы называют еще импульсными. Сигналы третьего типа
определены на всей временной оси, однако величина сигнала может
принимать лишь дискретные значения. Дискретизация сигнала по
величине называется квантованием. Квантование и дискретизация
используются при предоставлении сигналов в цифровой форме с
помощью цифрового кодирования, поскольку уровни можно пронумеровать числами с конечным числом разрядов. Сигналы могут
быть модулирующими и модулированными. Модулирующие сигналы, обычно низкочастотные, несут измерительную информацию
и предназначены для модуляции более высокочастотного сигнала,
являющегося переносчиком информации и физически согласован31
ного с каналом передачи информации. Модулированные сигналы –
это сигналы, параметры которых изменяются в соответствии с законами изменения параметров модулирующего сигнала. В качестве
таких параметров могут быть использованы амплитуда, частота,
фаза, частота повторения, длительность или величина задержки
импульсов и т. д.
Реализации сигналов можно также классифицировать по нижеследующим признакам. Для этой цели введем следующие обозначения. Будем рассматривать сигнал как элемент множества X.
Само множество X определяется некоторым свойством P, которое
есть утверждение, справедливое для любого элемента множества.
Условно это изображается так: X = {x;P}, т. е. X есть множество всех
x, для которых справедливо P. Вводя дополнительные обозначения,
можно записать P ⇒ x ∈ X , что означает «P верно для любого x, принадлежащего X». Определив свойство P, задают тем самым множество сигналов.
Гармонические сигналы. Обозначим через Xc множество всех
гармонических (синусоидальных) сигналов, т. е.


Xc =  x; x(t) = Re eα+ j (θ+2πft)  , − ∞ < t < ∞ , α, θ, f ∈ R  .


Утверждение α, θ, f ∈R в (2.3.9) означает, что эти параметры могут произвольно выбираться из множества всех действительных
чисел R. Поэтому Xc содержит гармонические колебания со всевозможными амплитудами, фазами и частотами.
Часто свойство P для конкретного множества можно указать в
другой форме, например
 d2 x(t)

Xc = x;
+ λ2 x(t) = 0, −∞ < t < ∞, λ ∈ R  .
(2.3.10)
2
dt


Решение дифференциального уравнения (2.3.10) определяет гармонический сигнал.
Периодические сигналы. Будем обозначать через XT множество
периодических сигналов с периодом T, т. е.
XT = {x; x(t + T ) = x(t), −∞ < t < ∞}.
(2.3.11)
Ограниченные сигналы. Множество сигналов, мгновенные значения которых ограничены по величине некоторым вещественным
положительным числом K, обозначается
XK = {x; x(t) ≤ K, −∞ < t < ∞}.
32
(2.3.12)
Ясно, что
x ∈ XK ⇒ x ∈ XK2 , если K2>K1 .
Сигналы с ограниченной энергией. О сигналах из множества
 ∞

XE = x; ∫ x2 (t)dt ≤ E 
 −∞
 (2.3.13)
говорят, что их энергия ограничена величиной E, где E – положительное вещественное число.
Интеграл в выражении (2.3.13) физически трактуют как энергию, подразумевая, что X(t) – есть напряжение на нагрузочном сопротивлении 1 Ом. Интеграл по времени от квадрата этого напряжения есть полная энергия, выделяющаяся на нагрузке.
Сигналы ограниченной длительности. Пусть Xτ – это множество сигналов, которые равны нулю за пределами интервала времени
−τ ≤ t ≤ τ
Xτ = {x, x(t) = 0 для всех t > τ}.
Заметим, что X ∈ Xτ ⇒ X ∈ Xτ2 , если τ2 ≥ τ1 .
Сигналы с ограниченной полосой. Пусть Xw – это множество сигналов с полосой, ограниченной частотой W, т. е.
∞


XW = x; X( jω) = ∫ x(t)e − jωt dt = 0, ω > W  ,


−∞
где X(jω) – спектр сигнала x(t).
Классификация случайных сигналов частично совпадает с классификацией случайных процессов. При этом можно выделить следующие практически важные классы сигналов: марковские сигналы; гауссовские сигналы, n-мерные законы распределения значения
которых, соответствующие любым временным сечениям, являются
нормальными; стационарные или квазистационарные сигналы, т. е.
сигналы, являющиеся стационарными на заданном интервале времени; квазидетерминированные сигналы – такие сигналы X(U, t),
которые определяются функциями случайного вектора U и времени
t и при каждой реализации случайного вектора U являются детерминированными функциями времени, и альтернативные им варианты.
33
Множество случайных сигналов можно также классифицировать аналогично реализациям сигналов по следующим свойствам:
– сигналы, ограниченные в среднем по величине:

XKC =  X; M [X(t) ] =

∞

−∞

∫ x(t)f (x(t))dx < K; −∞ < t < ∞  ,
где f(x(t)) – плотность распределения значений сигнала x(t) в момент
времени t;
– сигналы с ограниченной в среднем энергией


∞
 ∞ ∞
XE =  X;M  ∫ x2 (t)dt  = ∫ ∫ x2 (t)f (x(t))dxdt ≤ E  ; (2.3.14)
 −∞
 −∞ −∞

 – сигналы с ограниченной средней длительностью
∞


Xτ =  X; τ = ∫ tf (t)dt ≤ τd  ,
−∞


где f(t) – плотность распределения длительности сигнала X(t); τd –
допустимое среднее значение длительности сигнала;
– случайные стационарные сигналы с практически (в теоретическом аспекте случайные сигналы имеют неограниченный спектр)
ограниченной полосой
∞


XWC =  X; S(ω) =
K (τ)e − jωτ dτ = 0, ω > W 
∫
2π −∞


при условии, что
W
∫
S(ω)dω = Kd Dx ,
−W
где Dx – дисперсия процесса X(t); Kd – известное значение коэффициента (0 < Kd ≤ 1).
Основные классы детерминированных (реализаций) и случайных сигналов представлены соответственно на рис. 2.1, 2.2. К сингулярным сигналам относят такие сигналы, для которых не удов∞
летворяются соотношения (2.3.13), (2.3.14) или
∫
−∞
34
x(t) dt < ∞ .
Модели сигналов
детерминированные
случайные
Детерминированные
несингулярные
непрерывные
сингулярные
дискретные
дискретные
по времени
описанные
в частотной
области
функция
знака
квантованные
δ - функция
коды
описанные
во временной
области
интегральное
представление
описанные
в пространстве
состояний
ряды
функции
комплексной
переменной
единичная
функция
моменты
интегралы
различные
функции
модулированные
сигналы
немодулированные
сигналы
по амплитуде
по частоте
по фазе
Рис. 2.1. Классификация реализаций сигналов
35
Случайные
сингулярные
непрерывные
несингулярные
дискретные
дискретные
непрерывные
………...
марковские
гауссовские
во временной
области
………...
в частотной
области
интегральное
представление
описанные
в пространстве
состояний
ряды
функции
комплексной
переменной
разные
функции
функционал
распределения
закон
распределения
моменты
корреляционные
функции
Рис. 2.2. Классификация сигналов
36
негауссовские
нестационарные
стационарные
немарковские
………...
………...
2.4. Описание типовых сигналов
2.4.1. Простейшие сингулярные детерминированные функции
Функция называется сингулярной (вырожденной), если
+∞
∫
x(t) dt = ∞ .
(2.4.1)
−∞
Если условие (2.4.1) выполняется, то некорректно
применять напрямую преобразования Фурье и Лапласа.
1. Функция знака
Функция знака определяется следующим выражением:
−, t < 0 ,

sign(t) =  0, t = 0 ,
 , t > 0 .

(2.4.2)
Используется также следующее представление
функции знака:
sign(t) =
x(t)
.
x(t)
Умножение произвольной функции x(t) на функцию знака означает изменение знака x(t) в момент времени t = 0. В связи с тем, что
в данном случае условие (2.4.1) выполняется, для нахождения спектра функции sign(t) поступают следующим образом:
а) образуют sign-образную функцию;
б) получают для sign-образной функции преобразование Фурье;
в) в результате предельного перехода получают спектр функции
знака.
Введём sign-образную (рис. 2.3)), используя экспоненциальные
функции (α>0)
sign∧(t) = e −αt1(t)−eαt1(−t).
sign(t)
1
∧
sign (t)
t
0
–1
Рис. 2.3. Зависимости функций знака и знако-образной от времени
37
Тогда функцию знака можно определить соотношением
(2.4.3)
sign(t) = lim e −αt ⋅ (t) − eαt ⋅ (−t)  ,
α→0
единичная функция
где
, t > 0 ;

(t) = /2, t = 0 ;
0, t < 0 .

(2.4.4)
Преобразование Фурье от функции знака
определяется следующим соотношением:
0
∞

F ( jω) = F {sign(x)}= lim  ∫ (e −αt ⋅ e − jωt )dt − ∫ (e αt ⋅ e − jωt )dt  =
α→0 

−∞
0
0
∞

= lim  ∫ (e −(α+ jω)t )dt − ∫ (e(α− jω)t )dt  =
α→0 
−∞
0

∞

α− jω)t
= lim 
(e −(α+ jω)t ) −
e(
α→0  −(α + jω)
(α − jω)
0

(
)

=
−∞ 

0


−2 jω
2
= lim 
−
=
.
 = lim 2
2
α→0  −(α + jω) (α − jω ) α→0 α − ( jω)
jω


(2.4.5)
Выражение (2.4.5) является комплексным спектром функции
2
знака. Амплитудный спектр равен F ( jω) = . Фазовый спектр опω
π
ределяется значением − на всех частотах. Амплитудный спектр
2
функции знака изображен на рис. 2.4.
2. Единичная функция (единичный скачок, функция Хевисайда)
F (ω)
0
Рис. 2.4. А мплитудный спектр функции знака
38
ω
Единичная функция (рис. 2.5) определяется соотношением
(2.4.4) и её также можно определить через функцию знака
(t) =
+ sign(t) .
2 2
1(t)
1
1
2
0
t
Рис. 2.5. Единичная функция
Умножение сигнала на 1(t) равносильно включению этого сигнала в момент времени t = 0
x(t), при t > 0 ,


(t) ⋅ x(t) =  x(t), при t = 0 ,
2
0, при t < 0 .
С помощью единичной функции описываются финитные сигналы (ограниченные по времени).
Преобразование Фурье от единичной функции можно получить,
используя следующее соотношение:
F {(t)} = F {} + F {sign(t)} .
2
2
Можно показать, что для константы A преобразование Фурье будет равно
+∞
F { A} = A
∫e
− j ωt
+∞
dt = 2πA ⋅
−∞
e − jωt dt = A ⋅ 2π ⋅ δ(ω) ,
∫
2π −∞
где δ(ω) – дельта-функция, тогда
F{1} = 2π δ(ω) ,
F {(t)} = π δ(ω) +
.
jω (2.4.6)
39
Амплитудный спектр единичной функции показан на рис. 2.6.
F (ω)
ω
0
Рис. 2.6. Амплитудный спектр единичной функции
Таким образом, спектр единичной функции отличается от спектра функции знака наличием у первого дельта-образной составляющей.
3. δ-функция (δ-импульс, единичный импульс, импульсная функ­
ция, функция Дирака)
Будем определять δ-функцию следующими соотношениями:

∞ , t = 0 ,
δ(t) = 
0, t ≠ 0 ,

 +∞
(2.4.7)
 δ(t)dt = .
∫
 −∞
Свойство чётности
Свойства δ-фукции
δ(−t) = δ(t) .
Связь с единичной функцией
Учитывая, что
+∞
0
∫
δ(t)dt =
−∞
∫ δ(t)dt = 2 ,
0
то
, t > 0 ,


δ
(
t
)d
t
=
 , t = 0,
∫
2
−∞
0, t < 0 ,
t
t
∫ δ(τ)dτ = (t) ,
−∞
d(t)
= δ(t) .
dt
40
Фильтрующее свойство
Учитывая, что
∞ , t = t0 ,
δ(t − t0 ) = 
0, t ≠ t0 ,
тогда при tн<t0<tв и существовании производной x(t)
tв
tв
t
/
в
∫ x(t)δ(t − t0 )dt = x(t)(t − t0 ) t − ∫ (t − t0 )x (t)dt =
н
tн
tн
t
= x(tв ) − x(t) tв = x(tв ) − x(tв ) + x(t0 ) = x(t0 ) .
(2.4.8)
0
Результат умножения произвольной функции x(t) на
δ(t−t ) явля0
ется дельта-функцией, площадь которой равна значению функции
x(t) в точке t0.
Спектр дельта-функции
Используя формально преобразование Фурье, можно получить
спектр дельта-функции
∞
S(ω) =
∫ δ(t) ⋅ e
− j ωt
dt = .
−∞
При этом амплитудный спектр равен единице, а фазовый равен
нулю на всех частотах (рис. 2.7).
S(ω)
1
ω
0
Рис. 2.7. Амплитудный спектр дельта-функции
Спектр δ(t–t0)
S(ω) = e − jωt0 .
Обратное преобразование Фурье определяется соотношением
∞
δ(t − t0 ) =
∞
jω(t −t )
S(ω)e jωt dω =
∫
∫ e 0 dω .
2π −∞
2π −∞
41
При t0 = 0
∞
δ(t) ==
− j ωt
∫ e dω .
2π −∞
(2.4.9)
аргументы t→ω, ω→t,
Учитывая чётность δ-функции и заменяя
формулу (2.4.9) можно переписать в следующем виде:
∞
δ(ω) ==
∞
− j ωt
e jωt dt =
∫
∫ e dt .
2π −∞
2π −∞
Энергия дельта-импульса
Используя равенство Парсеваля, можно отметить, что энергия
дельта-функции
Э = lim
τи → 0 τ 2
и
⋅ τи = ∞ .
Энергию δ-импульса можно также получить, используя понятие
дельта-образной δˆ (t) в виде прямоугольного импульса (рис. 2.8) длительностью τи с амплитудой 1/τи и предельный переход при τи→0. В
этом случае энергию можно выразить соотношением
Э = lim
τи →0 τ2
и
⋅ τи = ∞ .
δˆ (t)
1/τи
–τи/2
τи/2
t
Рис. 2.8. Дельта-образная функция
Использование производной δ-импульса
В практических приложениях удобно использовать производные
δ-функции. Пользуясь производными δ-функции, можно формально дифференцировать равенства (2.4.8), являющиеся тождествами
относительно t при изменении t на отрезке [tн, tв]. Предполагая, что
42
функция x(t) имеет непрерывные производные до n-го порядка, получаем
tв
tв
tн
tн
(r )
(r )
r (r )
∫ x(τ)δ (t − τ)dτ = ∫ x(τ)δ (τ − t)dt = (−) x (t) , r = ,n .
Используя в этом случае символическую запись скалярного произведения, рассматриваемое свойство можно представить в следующем виде:
(x, δ(r ) ) = (−)r ⋅ (x(r ) , δ) .
Эти равенства имеют место при любом значении t, заключенном
в интервале интегрирования tн ≤ t ≤ tв.
2.4.2. Прямоугольный симметричный импульс
с единичной высотой
Прямоугольный симметричный (рис. 2.9) импульс (стробирующий импульс) длительностью τи rect(t/τи) определяется следующим
образом:
τи

, t ≤ 2 ,
rect(t/τи ) = 
0, t > τи .

2
rect(t/τи )
1
–τи /2
τи /2
t
Рис. 2.9. Стробирующий импульс
Используя соотношение (2.4.4), стробирующий импульс можно
определить выражением
rect(t/τи ) = (t +
τи
τ
) − (t − и ) .
2
2
(2.4.10)
43
Спектр функции rect(t/τи) с учётом соотношения (2.4.10) и формулы Эйлера
jω и
A  − jω и
S(ω) = ∫ e − jωt dt = −  e 2 − e 2
jω 
−τи /2

τ
τи /2
τ
 ωτ
sin  и

 2
 = τи
ωτи


2


 = τ sinc  ωτи  ,
и
 2 


ωτи
) – функция отсчётов. Заметим, что значение спектра
2
при ω = 0 S(0) = τи, т. е. площади прямоугольного симметричного
импульса. Спектр функции rect(t/τи) показан на рис. 2.10, амплитудный и фазовый спектры – соответственно на рис. 2.11 и 2.12.
где sinc(
S( ω)
|S( ω) |
1
1
−2 π/ τи
2 π/τи
ω
ω
Рис. 2.11. Амплитудный спектр прямоугольного симметричного
импульса
Рис. 2.10. Спектр симметричного импульса
θ ( ω)
π
−π
ω
Рис. 2.12. Фазовый спектр прямоугольного симметричного импульса
При расширении импульса расстояние между нулями функции
S(ω) сокращается, что равносильно сужению спектра. Значение
S(0) = τи при этом возрастает. При сжатии импульса, наоборот, расстояние между нулями функции S(ω) увеличивается, т. е. происходит расширение спектра и значение S(0) уменьшается. При τи→0 точки ω = ±2π/τи, соответствующие двум первым нулям функции S(ω),
удаляются в бесконечность и спектральная плотность, бесконечно
малая по величине, становится равномерной в полосе частот от –∞
44
до ∞. При τи→∞ точки ω = ±2π/τи, соответствующие двум первым нулям функции S(ω), сближаются, значение S(0) = τи стремится к ∞,
а боковые лепестки спектральной плотности стремятся к нулю. Таким образом, при τи→∞ спектральная плотность стремится к δ(ω).
Рассмотрим функцию отсчётов как функцию времени
sinc(ωm t) =
sin(ωm t)
,
ωm t
(2.4.11)
где ω – известная величина.
m
Используя преобразование Фурье чётной функции, позволяющее переменные ω и t взаимно заменять и следующее свойство:
если четному сигналу x(t) соответствует спектр S(ω), то сигналу S(t)
соответствует спектр 2πx(ω), можно показать, что сигналу (2.4.11)
соответствует спектральная плотность в виде прямоугольного симметричного импульса
 π
при ω ≤ ωm ,

S (ω) =  ωm
0 при ω >ω .
m

2.4.3. Модулированные сигналы
В сигнале как носителе информации всегда имеются параметры,
изменение которых происходит в соответствии с передаваемым сообщением или с измеряемыми величинами какого-либо физического явления. Таким образом, любой сигнал является случайным
процессом, некоторые из параметров которого модулированы в соответствии с законами изменения соответствующей физической величины.
Различают следующие наиболее часто встречающиеся виды модуляции: амплитудная, фазовая, частотная, импульсная, кодовая и
смешанная. Рассмотрим некоторые из видов модуляций, используемые применительно к гармоническому сигналу
x(t) = A(t)cos[ω0t+ϕ(t)] ,
где A(t) – изменение амплитуды во времени; ω0 – основная круговая
частота; ϕ(t) – изменение фазы сигнала.
45
Амплитудная модуляция
В этом случае параметром, несущим информацию, является амплитуда, изменение которой происходит в соответствии с законом
A (t) = A0 + M A λ(t),
где λ(t) – изменение измеряемой физической величины или сообщения; MA – коэффициент глубины модуляции (A0>MA); A0 – среднее значение амплитуды сигнала (математическое ожидание λ(t)
M[λ(t)] = 0, т. е. A0 = M[A(t)]). Будем в дальнейшем предполагать, что
значения λ(t) нормированы так, что −1≤λ(t)≤1 .
В этом виде модуляции частота ω0 фиксирована, ϕ(t) – случайное
изменение фазы гармонического сигнала (мешающий параметр сигнала).
Выражения для сигнала можно записать в виде
 M

x(t) = A (t)cos (ω0 t + ϕ(t) ) = A0  + A λ(t)  ⋅ cos (ω0 t + ϕ(t) ) =
A0


  M
 j ω t +ϕ(t) ) 
= Re  A0  + A λ(t)  e ( 0
,
A0

 

где Re – вещественная часть комплексного сигнала.
Фазовая модуляция
При этом виде модуляции информация связана с изменением
фазы сигнала
{
}
j ω t +ϕ(t) )
x(t) = A0 cos[ω0 t + ν(t) + ϕ(t) ] = Re A0 e jν (t) e ( 0
,
ν(t) = Mф λ(t) ,
где Mф – индекс или глубина фазовой модуляции.
Амплитуда сигнала x(t) в этом случае A0(t) = A0 = const. Введем
обозначение ω0t+ν(t)+ϕ(t) = θ(t). Тогда текущая круговая частота
сигнала
ω(t) =
dθ
dλ(t) dϕ(t)
= ω0 + Mф
+
,
dt
dt
dt
dλ(t)
где ∆ω = Mф
– информационное изменение круговой частоты
dt
сигнала.
46
Часто ϕ(t) = const, тогда
ω(t) = ω0 + Mф
dλ(t)
.
dt
Если λ(t) = cos Ωt, то величина
max ∆ω(t) = Mф Ω
называется девиацией частоты при модуляции. Таким образом, ее
изменение приводит к прямо пропорциональному изменению действительной ширины спектра.
Частотная модуляция
При частотной модуляции гармонический сигнал можно представить следующим выражением:
{
}
j ω t +ϕ(t) )
x(t) = A0 cos[ω0 t + φ(t) + ϕ(t) ] = Re A0 e jφ(t) e ( 0
,
t
где φ(t) = Mч ∫ λ(τ)dτ ; Mч – наибольшее отклонение или девиация
0
частоты при модуляции; φ(t) – информационное изменение фазы
сигнала. При λ(t) = cos Ωt
φ(t) =
Mч
sin Ωt .
Ω
Mч
Величина
называется индексом частоты модуляции и имеет
Ω
смысл наибольшего отклонения фазы в процессе модуляции. При
частотной модуляции изменение частоты Ω при малом значении индекса частоты модуляции практически незначительно сказывается
на изменении спектра сигнала.
При использовании импульсной модуляции сигнал x(t) представляет собой последовательность импульсов, параметры которых (амплитуда, частота, длительность, временное положение) соответствует значениям измеряемой физической величины в дискретный
момент времени.
При кодовой модуляции дискретной по времени и квантованной
по уровню измеряемой физической величине ставится в соответствие кодовая комбинация, которой модулируется заранее известный сигнал. Кодовая модуляция применяется с целью обеспечения
повышения помехоустойчивости при передаче сигналов по каналам
информации. При этом часто применяют самокорректирующие
коды.
47
2.4.4. Квазидетерминированные сигналы
Часто сигнал или ошибку измерения информационно-измерительной системы можно описать математической моделью вида
X(t, U), представляющую собой детерминированную функцию
X(t, U) времени и векторной случайной величины U = (U1, U2, …,
Um), m≥1. Такие сигналы называются квазидетерминированными.
Примером квазидетерминированного процесса является гармонический сигнал
X(t, ω, ϕ, A) = A sin(ωt+ϕ)
со случайными амплитудой A, частотой ω и фазой ϕ. Квазидетерминированные модели соответствуют тому случаю, когда параметры
сигнала не меняются на интервале наблюдения. Другим примером
квазидетерминированной модели является полиномиальное представление
n
X(t) = ∑ ai ti ,
(2.4.12)
i =0
где a – случайные центрированные вещественные
величины с изi
вестными дисперсиями, попарно некоррелированные, т. е. M[ai] = 0,
M[aiaj] = 0, если i≠j и M ai2  = Dai .
Такая модель, в частности при i = 0, 1 используется для описания регулярных ошибок гироскопических измерителей. При i = 0
модель (2.4.12) характеризует систематические ошибки навигационных измерителей. Так как математическое ожидание процесса
X(t) M[X(t)] = 0, то дисперсия Dx(t) сигнала X(t) изменяется в соответствии со следующим соотношением:
n
Dx (t) = M  X 2 (t)  = ∑ Dai t2i .
i =0
Поэтому если полиномиальная модель описывает ошибки или помехи измерения, то очень важно вводить информационно-измерительные устройства, устраняющие, по крайней мере, нарастающие
во времени ошибки, т. е. обеспечивать астатизм системы соответ­
ствующего порядка.
2.4.5. Дискретизированные сигналы
В современных информационно-измерительных системах обработка сигналов происходит при использовании цифровых вычис48
лительных машин. В связи с этим измерительные сигналы предварительно преобразуются в кодовые комбинации. Одной из ступеней
такого преобразования является дискретизация, или квантование
по времени сигналов. В авиационных ИИС также широко используются дискретные датчики (типа радиолокационного дальномера)
и дискретные элементы. Поэтому дискретная реализация сигнала
(дискретный процесс) является одной из широко используемых моделей измерительных сигналов.
Дискретный процесс определяется только при дискретных значениях независимой переменной времени t. Подобный процесс представляет собой последовательность чисел X[k], k = 0, ±1, ±2. Обычно
числа расположены равномерно по времени t = kT и разделены интервалом T.
Квантование непрерывных реализаций сигналов по уровню
Суть квантования (дискретизации по уровню) состоит в замене
континуума значений, которые может принимать непрерывный
сигнал, дискретным множеством заранее установленных значений.
Обычно квантование осуществляется перед кодированием сигналов
в преобразователях «аналог–код» и с целью повышения помехозащищенности. Такое преобразование основывается на том, что передача информации по каналам связи всегда сопровождается действием помех и искажений. Это приводит к тому, что близкие друг к
другу «похожие» непрерывные сигналы трудно различать при приеме. Появляется как бы некоторая зона неразличимости (неопределенности), в пределах которой нельзя установить истинное значение сигнала. Если учесть заранее некоторые причины искажения,
то можно еще до передачи преобразовать сигналы так, чтобы нежелательные факторы уже никакого влияния на них не оказывали.
Характерной особенностью такого преобразования является
преднамеренное введение в сообщение некоторой заранее запланированной ошибки (ошибки квантования). При квантовании по
уровню непрерывная шкала мгновенных значений сигнала x(t) с
размером Ax разбивается на конечное число частей – квантов. Полученная при этом дискретная шкала называется шкалой уровней
квантования. Интервал между соседними уровнями квантования
называется шагом квантования Δx. Величина Δx определяется допустимой зоной неразличимости. Квантование может быть равномерным (при шаге постоянном по всей шкале) и неравномерным
(при изменении шага от уровня к уровню по некоторому правилу,
учитывающему статистику квантуемых сигналов). Равномерное
квантование применяется чаще, так как его проще реализовать.
49
x(t)
xкв(t)
∆xi xi+1
xi
xi–1
t
0
εкв(t)
t
0
Рис. 2.13. Квантование непрерывных сигналов
Принцип квантования непрерывного сообщения по уровню изображен на рис. 2.13. На нем показаны только три уровня квантования
и введены следующие обозначения: xi−1, xi, xi+1 – уровни квантования; ∆xi – шаг квантования, εкв(t) – текущая ошибка квантования.
Квантование осуществляется по правилу: мгновенные значения
сигнала, заключенные между соседними уровнями, всегда относят
к ближайшему из них. При таком правиле каждый уровень квантования должен находиться в середине зоны неразличимости, равной
шагу квантования. На рис. 2.13 для наглядности зона, соответствующая уровню xi, заштрихована, а стрелками условно показано, как
необходимо относить мгновенные значения сообщения x(t) к соотвествующим уровням. В результате квантования непрерывное сообщение заменяется дискретным сообщением xкв(t), которое имеет
ступенчатую форму и может принимать только конечное число различных мгновенных значений, равное числу уровней квантования
Nкв. Текущая ошибка квантования εкв(t) представляет собой разницу между x(t) и xкв(t)
εкв(t) = xкв(t)−x(t),
которую называют шумом квантования. В пределах i-го шага по
уровню мгновенное значение текущей ошибки ∆εi(t) лежит в интервале
−∆ xi /2 ≤ ∆εi (t) ≤ ∆ xi /2 .
Исследования показывают, что при равномерном квантовании
( ∆ xi = ∆ x = const ) дисперсия (средний квадрат) шума квантования
по всем уровням
ε2кв =
50
Nкв
Nкв
∑ ∆εi2 =
i =
∆2x
.
2
Эта величина определяет среднюю мощность шума квантования
Pкв. Так как ∆x = Ax/Nкв, то
ε2кв =
∆2x
Ax2
=
.
2
2 2Nкв
(2.4.13)
относительной ве Для оценки квантования удобно пользоваться
личиной
δ2кв =
ε2кв
=
Pкв
,
Px
(2.4.14)
X
2
где
сигнала x(t).
X – дисперсия (средняя мощность) квантуемого
На основании выражений (2.4.13) и (2.4.14) имеем
/2
A
δкв =
Ax2 X 2
=
⋅ x ,
(2.4.15)
2 3Nкв
2 3Nкв Xэф
2
)
(
где
Xэф – эффективное значение сигнала x(t).
Выражение (2.4.15) можно записать в виде
δкв = Kx
3Nкв ,
где Kx = Ax/2Xэф – пик-фактор, зависящий от статистики сигнала.
Практика показывает, что для различных классов непрерывных
сигналов Kx≈1,5…3,5 и, следовательно, δкв≈(1…2)/Nкв. В инженерных приложениях среднеквадратическое значение ошибки квантования обычно оценивают величиной
δкв =
,
Nкв
(2.4.16)
которая соответствует пик-фактору K = 3 (т. е. равновероятному
x
распределению мгновенных значений сигнала).
Представление реализациий сигналов в цифровой форме
В результате дискретизации по времени и квантованию по уровню непрерывное сообщение заменяется последовательностью отсчетов, которые могут принимать только конечное число значений,
равное числу уровней квантования Nкв. Каждое из этих значений
(число) можно выразить в одной из систем счисления и передать по
линии связи в виде кодовых комбинаций. Запись числа N в позиционной системе счисления имеет вид
N=
∑ γi Mi − = γm M m− + ⋅⋅⋅ + γM 0 ,
i =m
51
где M – основание системы счисления (M≥2); m – число разрядов;
γi – весовой коэффициент разряда, принимающий одно из целых
значений в интервале 0 ≤ γi ≤M−1.
Передача конкретного числа по линии связи сводится к передаче
его весовых коэффициентов γi. Наиболее просто эта операция реализуется для двоичной системы счисления, когда γi принимает только
два значения (0 и 1). В этом случае кодовые комбинации состоят из
двоичных элементов (например, импульсов и пауз).
Преобразование непрерывных сообщений в цифровую форму
связано с появлением ошибок за счет дискретизации по времени
и квантования по уровню, которые предполагаются некоррелированными. В соответствии со свойством аддитивности критерия для
некоррелированных ошибок средний квадрат ошибки цифрового
преобразования
δ2ц = δ2∆ + δ2кв ,
где значение δ∆ определяется ошибкой дискретизации сигнала x(t),
δкв определяется выражением (2.4.16).
При передаче непрерывных сообщений, преобразованных в цифровую форму, наличие помех в канале связи приводит к тому, что
некоторые элементы переданных кодовых комбинаций могут быть
искажены и приняты неверно. В результате кроме указанных выше
ошибок появляется дополнительная ошибка, средний квадрат которой
δ2п = kPoш ,
где Pош – вероятность ошибки при приеме отдельного элемента цифровой последовательности; k – коэффициент, величина которого зависит от характеристик сигналов и помех (k = 1…4), обычно принимают k = 4.
При точностях передачи, представляющих практический интерес, ошибку передачи можно считать некоррелированной с ошибками преобразования. В этом случае средний квадрат ошибки передачи
δ2общ = δ2ц + δ2п = δ2∆ + δ2кв + δ2п .
52
2.5. Пространство сигналов
2.5.1. Пространство детерминированных сигналов
Представление и преобразование сигналов, соотношения между
идеальными и реальными их значениями удобно интерпретировать
с геометрической точки зрения, изображая сигналы в виде векторов.
Представление сигналов в векторном пространстве позволяет
использовать геометрические понятия и хорошо разработанный математический аппарат векторного анализа для установления взаимосвязи различных моделей сигналов, упрощения математических
выкладок, уяснения физической сущности и единства процессов
формирования, передачи и обработки сигналов. На использовании
векторного представления сигналов базируются как методы рациональной аппроксимации, так и оптимальные методы синтеза самих
сигналов и их систем обработки.
Обычно сигналы ИИС ЛА, рассматриваемые в двумерном пространстве как совокупность пар значений {x(t), t}, взятых достаточно плотно, являются сложными функциями времени. С целью упрощения методов анализа, синтеза и автоматизации обработки сигналов желательно представить их в более сложных пространствах,
в которых каждый сигнал изображается простейшим элементом –
точкой. Для указанного перехода широко используются различные
разложения произвольных сигналов в непрерывную или дискретную последовательность более простых («элементарных») функций,
определяющих базис многомерного пространства. Коэффициенты
разложения чаще всего связаны линейной зависимостью с разлагаемым сигналом, что особенно удобно при исследовании методов
обработки в линейных системах, к которым применим принцип независимости действия оператора преобразования (суперпозиции).
Будем рассматривать пространство сигналов как гильбертово.
Гильбертово пространство – это функциональное, линейное, полное, бесконечномерное пространство со скалярным произведением.
Напомним, что метрические пространства, обладающие тем свойст­
вом, что в них все фундаментальные последовательности (Коши)
являются сходящимся, называются полными. Последовательность
xn, n = 1, 2, … называется последовательностью Коши, если для
любого ε > 0 существует положительное целое n0, такое, что при
m, n > n0, расстояние между элементами последовательности xm и
xn d(xm, xn)<ε. В гильбертовом пространстве каждой точке соответствует вполне определенный сигнал x(t), который можно рассматри53
вать также как вектор этого пространства. При этом бесконечный
базис этого пространства или множество линейно независимых
векторов может быть как счетным, так и несчетным. Важной геометрической характеристикой гильбертова пространства является
скалярное произведение.
Для любых функций x(t) и y(t), принадлежащих гильбертову
пространству H(T), скалярное произведение (x, y) выражается следующим образом:
(x, y) = ∫ x(t)y* (t)dt ,
(2.5.1)
T
где
T – интервал наблюдения функций x(t)
и y(t); * – обозначает
комплексно-сопряженную функцию или величину.
Скалярное произведение – это отображение упорядоченных пар
векторов x(t) и y(t) линейного пространства, в общем случае, в комплексную плоскость, удовлетворяющее следующим условиям:
(x, y) = (y, x)*,
(αx+βy, z) = α(x, z)+β(y, z) ,
(x, x)≥0 и (x, x) = 0 только, если x(t) = 0 . (2.5.2)
*
При этом (x, αy) = α (x, y), (x, x) – действительное число; α, β – в
общем случае комплексные числа.
Скалярное произведение называют иногда также внутренним
произведением. Из соотношения (2.5.1) следует определение нормы
в гильбертовом пространстве
x
= (x, x) 2
=
∫ x(t)
2
dt .
(2.5.3)
T
пространства
Норма выражает расстояние от начала координат
до элемента пространства x(t) или размер элемента x(t) в этом пространстве. Норма, определяемая действительным неотрицательным числом, удовлетворяет следующим требованиям:
x
2
≥ 0 и x = 0 только, если x(t) = 0 ;
x + y ≤ x + y – неравенство треугольника;
αx = α ⋅ x .
(2.5.4)
Если рассматриваются функции, удовлетворяющие условию
квадратичной интегрируемости
x
2
2
= ∫ x(t) dt < ∞ ,
(2.5.5)
T
54
то гильбертово пространство обозначается H2(T). Для реальных
сигналов, являющихся вещественными функциями времени, условие (2.5.5) можно записать в виде
x
2
= ∫ x2 (t)dt < ∞ ,
(2.5.6)
T
которое означает, что энергия реальных процессов
всегда конечна.
Метрика или расстояние между любыми функциями x(t) и y(t) в
гильбертовом пространстве определяется

2
d(x, y) = x − y =  ∫ (x(t) − y(t))(x(t) − y(t))* dt  .
T

(2.5.7)
Таким образом, норма и расстояние в гильбертовом пространстве порождаются скалярным произведением.
Метрика, определяемая неотрицательным вещественным числом, обладает следующими свойствами:
d(x, y)≥0 и d(x, y) = 0, если x(t) = y(t);
d(x, y) = d(y, x) – симметрия;
d(x, z)≤d(x, y)+d(y, z) – неравенство треугольника. (2.5.8)
Из понятий скалярного произведения следует также важное
соотношение, известное как неравенство Коши–Буняковского или
Шварца
2
(x, y) ≤ (x, x)(y, y) ,
т. е.
(2.5.9)
2
∫ x(t)y
T
*
(t)dt ≤ ∫ x(t)x* (t)dt ∫ y(t)y* (t)dt .
T
T
Равенство достигается, если x(t) = αy(t), где α – скалярная комплексная величина.
Для вещественных гильбертовых пространств скалярное произведение полезно трактовать как некую меру угла межу векторами,
определяемую соотношением
cos θ =
(x, y)
.
x ⋅ y
55
Если нормы x = y = , то cos θ = (x, y) = ∫ x(t)y(t)dt .
T
Будем считать сигналы x(t) и y(t) ортогональными, если их скалярное произведение равно нулю, т. е.
(x, y) = ∫ x(t)y* (t)dt = 0 .
T
В гильбертовом пространстве H2(T) при использовании ортогонального полного базиса Vi(t), i = , ∞ можно получить сколь угодно
близкую аппроксимацию для любого x∈H2(T), т. е. сколь угодно малое расстояние d(x, xˆ n ) , если выбрать n достаточно большим, а аппроксимирующую функцию xˆ n представить в виде ряда Фурье
n
xˆ n (t) = ∑ αi Vi (t) ,
(2.5.10)
i =
где коэффициенты ряда (2.5.10), называемые
коэффициентами Фурье
αi = (x, Vi ) Vi
2
.
(2.5.11)
Система векторов Vi, i = , ∞ называется ортогональной, если
скалярное произведение любых двух векторов удовлетворяет сле2
дующим условиям: (Vi, Vj) = 0 при i≠j и (Vi , Vj ) = Vi ≠ 0 при i = j.
Если используется система ортогональных векторов Ui, i = , ∞ , т. е.
таких векторов, которые взаимно ортогональны и норма их равна
единице Ui = Vi / Vi , (Ui, Uj) = δij = 1 при i = j, δij = 0 при i≠j, (δij – символ Кронеккера), то соотношение (2.5.11) будет равно αi = (x, Ui). В
пространстве H2(T) для любого вектора x∈H2(T) и любого целого положительного n справедливо неравенство Бесселя, которое в случае
использования ортогонального базиса Vi, i = , ∞ , можно представить следующим выражением:
n
∑ αi
2
i =
Vi
2
2
≤ x .
(2.5.12)
∞ , соотношение (2.5.12)
В случае ортонормального базиса Ui, i = ,
можно записать
n
56
∑ αi
i =
2
2
≤ x .
(2.5.13)
Соотношение (2.5.13) показывает, что сумма квадратов коэффициентов разложения (2.5.10) при использовании ортонормального
базиса ограничена для любого x∈H2(T).
Из неравенства (2.5.13) следует, что {xˆ n } в выражении (2.5.10)
есть последовательность Коши, так как для любого ε>0 при достаточно большом n0 имеем
xˆ n − xˆ m
2
=
n
∑
i =m +
αi
2
Vi
2
n
∑
=
i =m +
2
(x, Vi / Vi
2
≤ ε2 , n, m > n0 . (2.5.14)
Поскольку H2(T) – полное пространство, то последовательность
{xˆ n } сходится к некоторой точке в H2(T). Таким образом, последовательность {xˆ n } сходится к x, если Vi ,i = ,m или Ui ,i = ,m
есть полная (замкнутая) соответственно ортогональная или ортонормальная система. Ортогональная (ортонормальная) система называется полной, если не существует дополнительных, отличных
от нуля ортогональных (ортонормальных) векторов, которые можно
было бы прибавить к этой системе. При этом полные системы являются счетными. Для полной ортогональной системы неравенство
(2.5.12) переходит в равенство Парсеваля
{
∞
∑
i =
(x, Vi )
Vi
2
∞
= ∑ αi
i =
2
Vi
2
}
2
= x .
{
}
(2.5.15)
Для ортонормированного базиса равенство Парсеваля
определяется соотношением
∞
∑ αi
2
2
= x .
(2.5.16)
i =
Смысл выражения (2.5.16) в том, что для квадратично интегрируемых сигналов энергию сигнала (2.5.16) можно определить суммированием квадратов коэффициентов разложения x(t) в ряд Фурье по ортонормальным составляющим Ui. Разложение сигнала в
этом случае
∞
x(t) = ∑ αiUi .
(2.5.17)
i =
утверждать, что для люНа основании сказанного выше можно
2
бого ε>0 и любого x∈H (T) имеется такое n0, что при использовании
ортонормального базиса
57
n
d(x, xn ) = x − xn = x − ∑ (x,Ui )Ui < ε при n > n0
i =
.
Таким образом, если используется для предоставления произвольного сигнала подпространство Mn, натянутое на первых n элементах полной ортонормальной системы, то норма погрешности
может быть сделана сколь угодно малой путем выбора достаточно
большого n. Правда, n зависит от x, поэтому нельзя лимитировать
ошибку равномерно для всех x.
Если размерность функционального пространства со скалярным
произведением конечна и равна n, то в этом случае оно называется
евклидовым.
Любой сигнал x(t) в евклидовом n-мерном пространстве при использовании ортогонального базиса Vi(t), i = ,n может быть взаимно однозначно представлен в виде
n
x(t) = ∑ αi Vi (t) ,
i =
где αi – в общем случае комплексные коэффициенты Фурье разложения сигнала x(t) относительно ортогональной системы векторов
Vi(t), i = ,n , определяемые соотношением (2.5.11).
Упорядоченная последовательность из n скалярных комплексных чисел α = αi ,i = ,n определяет взаимно однозначно сигнал x(t) относительно базиса Vi(t), i = ,n . Таким образом, сигналу
x(t)∈Mn, где Mn – евклидово n-мерное пространство, натянутое на
базис Vi(t), i = ,n , взаимно однозначно соответствует вектор–строка αT = {α1, …, αn}. Множество таких последовательностей Cn, образующее линейное пространство, определяет множество различных
сигналов, принадлежащих также пространству Mn.
Скалярное произведение в пространстве Mn относительно базиса
Vi(t), i = ,n имеет вид
{
}
n
(x, y) = ∑ αiβi* Vi
2
,
(2.5.18)
i =
где β – комплексные коэффициенты Фурье разложения y(x) отноi
сительно ортогональной системы векторов Vi(t), i = ,n .
Если используется ортогональный базис Ui, i = ,n , то получим
равенство скалярных произведений в пространствах Mn и Cn
58
n
n
 n
 n n
(x, y) =  ∑ αiUi ∑ β jUj  = ∑∑ αi β*j (Ui ,Uj ) = ∑ αi βi* = (α,β) , (2.5.19)
 i =
 i = j =
j =
i =


где βT = {β1, …, βn}.
Использование полного ортогонального базиса в (2.5.19) для приближения функций x(t)∈H2(T), кроме обеспечения совпадения скалярных произведений в Mn и Cn, не требует повторения вычислений
заново для определения проекций x на Mn+1.
На практике используется большое количество полных ортогональных систем, к которым можно отнести комплексные гармонические функции, полиномы Лежандра, полиномы Чебышева, функции Лагерра, функции Лежандра, функции Чебышева, функции
Уолша и т.д.
2.5.2. Пространство случайных сигналов
Рассмотренные выше пространства сигналов и их свойства относились к реализации сигналов, т. е. детерминированным сигналам.
Пусть математическая модель рассматриваемого сигнала X(t)
описывается случайным (в общем случае комплексным) процессом,
определенным на интервале времени T и при каждом значении t являющимся случайной величиной с конечной дисперсией. Пусть также значение
∫ ∫ M  X(t)X
TT
*
(t′)  dt dt′ конечно, где M  X(t) X * (t′)  – ма-
тематическое ожидание произведения значений X(t) и сопряженного значения X*(t′) центрированного случайного процесса в моменты
времени t и t′. Представление случайного процесса X(t) в виде вектора в пространстве случайных сигналов может быть рассмотрено в
двух аспектах.
В первом варианте представления сигнала в виде вектора (в общем случае в бесконечномерном пространстве) случайный процесс
X(t) рассматривается как совокупность его случайных значений,
каждое из которых определяется для своего момента времени. Случайное значение X(t) при фиксированном t∈T определяет вектор в
пространстве сигналов относительно определенного базиса. При изменении параметра t просто отмечаются точки в этом пространстве.
В пространстве сигналов задается совместная плотность распределения случайных значений. Определяя скалярное произведение
(X, Y) сигнала X(t) на сигнал Y(t′) из рассматриваемого пространства сигналов формулой
59



( X, Y ) = M  X (t) Y * (t′)  = KXY (t, t′) =


=
∞ ∞ 
∫ ∫

X (t) Y * (t′)fXY (t, t′) dx dy ,
(2.5.20)
−∞ −∞


где X(t) = X(t) − M[X(t)], Y (t) = Y (t) − M[Y (t)] –
центрированные
значения случайных процессов X(t) и Y(t), KXY(t, t′); fXY(t, t′) – взаимная корреляционная функция и совместная плотность распределения случайных процессов X(t) и Y(t′) соответственно в моменты
времени t и t′, норму элемента X(t) можно определить следующей
формулой:
2  2
  
X =  M  X(t)   = [KX (t,t) ]2 = σ X (t) < ∞ ,
 
 
 

(2.5.21)
где
KX(t, t), и σX(t) – автокорреляционная функция и среднеквадра
тическое значение случайного процесса X(t) в момент времени t, т. е.
получаем гильбертово пространство H2.
Расстояние в этом пространстве сигналов определяется следующим соотношением:
2  2
  

d( X, Y ) =  M  X (t) − Y (t′)   =
 
 
 


= (KX (t, t′) − 2KXY (t, t′) + KY (t, t′) )2 .
(2.5.22)
X(t) обычно
В качестве базиса разложения случайных величин
используются случайные некоррелированные центрированные величины с конечными дисперсиями, а компонентами αi, i = , ∞ , вектора X(t) являются математические ожидания коэффициентов ряда
Фурье, построенного на основе указанного базиса.
Данная интерпретация случайного процесса X(t) как вектора
гильбертова пространства используется для определения характеристик и при исследовании свойств рассматриваемых сигналов.
Во втором варианте представления случайного процесса X(t), определённого на интервале времени T в виде вектора в пространстве
сигналов, случайный процесс X(t) рассматривается как ансамбль
детерминированных функций времени (реализаций) и с каждой ре60
ализацией сопоставляется одна из точек или вектор пространства
сигналов, в котором определена совместная плотность распределения случайных значений реализаций.
Определяя скалярное произведение (X, Y) сигнала X(t) на сигнал
Y(t′) из рассматриваемого пространства формулой
 



( X, Y ) = ∫ ∫ M  X(t) Y * (t′)  dt dt′ = ∫ ∫ KXY (t,t′)dt dt′ ,


TT
TT
и, следовательно, норму элемента X(t) формулой
(2.5.23)


2 
2


X =  ∫ ∫ M  X(t) X(t′)  dt dt′  =  ∫ ∫ KX (t,t′)dt dt′  < ∞ ,





TT 

TT

(2.5.24)
получаем гильбертово пространство L2(T, H2) над гильбертовым
пространством H2(T) случайных величин.
Расстояние между сигналами X(t) и Y(t′) в этом пространстве сигналов определяется следующим соотношением:
2

2
 

d( X, Y ) =  ∫ ∫ M  X(t) − Y (t′)  dtdt′  =
TT 








2
=  ∫ ∫ [KX (t,t′) − 2KXY (t,t′) + KY (t,t′) ]dtdt′  .


TT

(2.5.25)
Компонентами вектора X обычно являются случайные
коэффициенты разложения αi, i = , ∞ сигнала X(t) относительно заданного
ортогонального и часто функционально связанного с корреляционной функцией KX(t, t′) базиса (обобщенный ряд Фурье, каноническое разложение Котельникова, ряд Карунена–Лоэва). Данная
интерпретация случайного процесса X(t) как вектора гильбертова
пространства наиболее часто используется при аппроксимации и
формировании по известным элементарным случайным процессам
исследуемого сигнала X(t).
Неравенство Бесселя для скалярного случайного процесса X(t)
при использовании ортогонального или некоррелированного базиса
Vi, i = , ∞ , можно записать следующим образом:
61
n
∑ Μ  αi
i =
2
V
 i
2
2
≤ X ,
(2.5.26)
где V определяется соотношением (2.5.21) или
(2.5.24).
i
При использовании замкнутого (полного) ортогонального базиса
справедливо равенство Парсеваля
∞
∑ M  αi
i =
2
⋅ V
 i
2
2
= X .
(2.5.27)
Если используемый базис является ортонормальным,
то соотношение (2.5.27) можно записать в следующем виде:
∞
∑ M  αi
i =
2
2
= X .

2.6. Дискретные представления сигналов при помощи рядов
2.6.1. Конечномерные представления реализаций сигналов
Имеется ряд практических задач, требующих дискретного представления непрерывного случайного процесса, как модели сигнала
в виде рядов, где коэффициентами ряда являются случайные величины, а базисными функциями являются ортогональные на заданном промежутке времени детерминированные функции времени. К
этим задачам относятся:
– аппроксимация случайных непрерывных сигналов конечными рядами указанного вида с целью использования простых алгебраических линейных методов обработки сигналов вместо используемых интегральных или дифференциальных способов;
– аппроксимация или представление случайных непрерывных
сигналов конечными рядами с целью построения реализаций сигналов по известным их вероятностным характеристикам при математическом моделировании;
– представление случайных непрерывных сигналов в виде бесконечных рядов с целью получения функционалов отношения правдоподобия, необходимых для решения оптимальных задач классификации сигналов.
Так как случайный сигнал задается на множестве реализаций,
то представление сигнала в виде ряда связано с таковым представлением его реализаций как функций времени.
62
Итак, представление сигналов рядами состоит в том, что необходимо с произвольным сигналом ограниченной энергии, т. е. временной функцией X(t)∈H2(T), сопоставить сигнал, определенный в конечном n-мерном подпространстве H2(T). Задача сводится к нахождению подходящего отображения гильбертова пространства H2(T)
в пространство Cn, где Cn – пространство наборов n комплексных
чисел, т. е. координат векторного n-мерного евклидова пространства Mn, натянутого на базис ϕi (t),i = ,n , где ϕi(t) – в общем случае
независимые функции. Такое отображение должно быть в некотором смысле наилучшим, где n выбирается компромиссно с учетом
точности и экономичности представления. Рассмотрим методы дискретного представления сигналов в n-мерном пространстве.
1. Пусть сигнал x(t) принадлежит подпространству H2(T), которое натянуто на систему ϕi (t),i = ,n линейно независимых
произвольных функций из H2(T). В этом случае x(t) может быть
единственным образом представлен в виде линейной комбинации
ϕi (t),i = ,n
{
}
{
{
}
}
n
x(t) = ∑ αi ϕi (t) = α T ϕ(t) , x ∈ Mn , t ∈ T ,
(2.6.1)
i =
где αT = {α , α , …, α } – транспонированный набор n комплексных
1
2
n
чисел (вектор–строка) – образует представление x(t) в Cn, ϕT(t) = = {ϕ1(t), …, ϕn(t)}. Так как H2(T) – пространство со скалярным произведением, то, умножая скалярно левую и правую части соотношения (2.6.1) на ϕi (t),i = ,n , получим
{
}
Gα = f , (2.6.2)
где
(ϕ, ϕ )
(ϕ2 , ϕ )
......
(ϕn ,ϕ )
(ϕ, ϕ2 )
(ϕ2 , ϕ2 )
......
(ϕn , ϕ2 )
G=
, f=
.............. .............. ...... ..............
(ϕ, ϕn )
(ϕ2 , ϕn )
......
(ϕn , ϕn )
(x, ϕ )
(x, ϕ2 )
,
......
(x, ϕn )
откуда
{
}
α = G −1f .
Если ϕi (t),i = ,n – ортогональный базис, т. е. ϕi = Vi, где (Vi, Vj) =
=0 при i = j, то
63
V
G − =
0
2
0
0
V
V2
(x, V )
2
0
, G −f =
......... .......... .......
0
0
2
Vn
.........
.
.........
(x, Vn )
При
использовании
ортонормального


Vi

,i = ,n 
Ui =
V
i


n
x(t) = ∑ αiUi (t) ,
i =
α = f , αi = (x,Ui ) , i = ,n . 2
Vn
(2.6.3)
2
базиса
ϕi =Ui,
(2.6.4)
(2.6.5)
Часто возникает задача построения ортонормального бази-
{U ,i = ,n} из системы n линейно независимых векторов в
M {ϕ ,i = ,n}. Чаще всего используется способ ортогонализации
са
i
n
i
Грама–Шмидта, который получается путем нормализации векторов Vi, определяемых следующей схемой:


Vi = ϕi ,


......................................


n −
Vi 
Vn = ϕn − ∑ (ϕk ,Uk )Uk , Ui =
.
Vi 
k =
(2.6.6)
2. Пусть сигнал x(t) принадлежит гильбертову пространству
H2(T). Требуется его представить в конечном подпространстве Mn,
натянутом на произвольную систему ортогональных
функций, т. е.
базис Vi, i = ,n подпространства Mn, , определяется соотношениями
(2.6.3).
Поскольку число измерений H2(T) бесконечно, а Mn или Cn конечно, отображение должно быть типа «много в одно». Требуется разбить пространство H2(T) на множества эквивалентности, каждому
64
из которых взаимно однозначно соответствует некоторая точка в Mn.
При этом произвольному вектору x∈H2(T) ставится в соответствие
вектор xˆ n ∈ Mn , наиболее близкий к x в смысле расстояния d(x, xˆ n ) ,
используемого в пространствах H2(T) и Mn, где xˆ n – произвольный
вектор, принадлежащий Mn. Таким образом, каждый вектор из Mn
{
}
должен порождать множество эквивалентности Sxˆ n = x ∈ H 2 (T ) ,
x − xˆ n ≤ x − x n , для ∀ x n ∈ Mn . При этом все векторы из Sxˆ n имеют одно и то же представление в виде набора n чисел, совпадающее с
представлением вектора xˆ n . Решение поставленной задачи следует
из теоремы проецирования.
Теорема. Для любого вектора x∈H2(T) существует единственный
вектор xˆ n в Mn, задаваемый разложением
n
xˆ n = ∑ αi Vi ,
i =
где
αi =
(x, Vi )
Vi
2
=
∫ x(t)Vi
*
(t)dt
∫ Vi (t)Vi
(t)dt
T
*
,
(2.6.7)
T
такой, что разность (x − xˆ n ) – ортогональна ко всем векторам из Mn
и x − xˆ n < x − x , где x n – любой другой вектор в Mn, а Vi (t),i = ,n
ортогональный базис.
Доказательство. Из (2.6.7) и при выполнении (2.6.3) имеем
{
n
(x − xˆ n , Vj ) = (x, Vj ) − ∑
i =
(xi , Vi )
Vi
2
}
(Vi , Vj ) = (x, Vj ) − (x, Vj ) = 0 , j = ,n . (2.6.8)
Отсюда следует, что вектор x − xˆ n ортогонален ко всем векторам
в Mn. Покажем, что d(x, xˆ n ) = x − xˆ n – минимальное расстояние
(норма) из всех x − x n .
Рассмотрим квадрат расстояния между x∈H2(T) и произвольным
x ∈ Mn
x − x n = (x − xˆ n ) − (x n − xˆ n )
2
= (x − xˆ n , x − xˆ n ) −
−(x − xˆ n , x n − xˆ n ) − (x n − xˆ n , x − xˆ n ) + (x n − xˆ n , x n − xˆ n ).
65
Поскольку x n − xˆ n ∈ Mn , на основании (2.6.8) средние слагаемые
пропадают,
d(x, x n ) = x − x n
2
2
+ x n − xˆ n
2
.
= x − xˆ n
2
(2.6.9)
Ясно, что минимум d(x, xˆ n ) достигается при x n = xˆ n . Назовем xˆ n
ортогональной проекцией x на Mn, η = x − xˆ n – погрешность приближения x вектором xˆ n . Точность приближения численно характеризуется нормой η. Положив в (2.6.9) x n = 0 , получим
2
2
η = x − xˆ n
.
(2.6.10)
Таким образом, два вектора x∈H2(T), y∈H2(T) эквивалентны (x~y)
при проецировании на Mn, если их координаты в Mn:
(x, Vi ) = (y, Vi ) , i = ,n ,
или x~y, если z = (x−y)∈M, где M = {z,(z, x n ) = 0 для всех x n ∈ Mn } и
M – линейное подпространство H2(T). Любой вектор x∈H2(T) может
быть единственным образом представлен суммой вектора из Mn и
вектора из M, причем эти векторы ортогональны, т. е. для любого x
имеет место x = xˆ n + z ; xˆ n ∈ Mn , z ∈ M , (xˆ n , z) = 0 .
Естественно рассматривать H2(T) как прямую сумму подпространства Mn и M, т. е. H2(T) = Mn+M.
Таким образом, для наиболее точного представления x∈H2(T) в
пространстве Mn необходимо выбрать координаты αi спроецированного вектора xˆ n равными
αi =
(x, Vi )
Vi
2
.
(2.6.11)
{
}
При использовании ортогонального базиса
Ui ,i = ,n
αi = (x, Ui) . (2.6.12)
2.6.2. Представление случайных сигналов
при помощи обобщённых рядов Фурье
Представление случайных сигналов в виде рядов позволяет значительно упростить методы обработки сигналов, расширить класс
решаемых задач при использовании традиционных алгоритмов
фильтрации и классификации сигналов и разработать новые подходы к решению задач прогнозирования и интерполяции случайных
66
процессов. Использование моделей сигналов в виде рядов Фурье
позволяет заменить с заданной точностью на выбранном интервале
времени случайный непрерывный или дискретный процесс квазидетерминированным процессом. Использование рассматриваемых
моделей сигналов особенно эффективно в случае линейных преобразований гауссовских наблюдаемых сигналов датчиков, т. е. когда
выполняется принцип суперпозиции. Основное достоинство таких
моделей сигналов заключается в том, что случайный процесс, описывающий такие сигналы, представляют в виде суммы произведений случайных величин на детерминированные функции, т. е.
заменяют исходный случайный процесс совокупностью квазидетерминированных элементарных процессов, операции с которыми
значительно проще осуществлять, чем с исходным случайным процессом.
Пусть входной сигнал X(t) – произвольный центрированный
(математическое ожидание M[X(t)] = 0) случайный процесс, который определён на текущем либо локальном замкнутом интервале
[t−T, t], где T может принимать конечное или бесконечное значение.
Будем рассматривать сигналы с конечной энергией, которые удовлетворяют следующему требованию:
t
∫
2
x(τ) dσ(τ) < ∞ ,
(2.6.13)
t −T
где выражение (2.6.13) определяет интеграл
Лебега–Стилтьеса, который позволяет охватить более широкий класс, чем интеграл Римана, как непрерывных, так и дискретных случайных сигналов.
Если это условие выполняется, то будем обозначать рассматриваемый класс сигналов как x(t)∈ L2σ [t−T, t], где L2σ – гильбертово пространство. Аппроксимация сигнала на текущем интервале [t−T, t]
эквивалентна локальной аппроксимации сигнала X(t−λ) аргумента
λ из L2σ [0, T] на фиксированном интервале [0, T]. При этом выражение (2.6.13) можно представить в следующем виде:
T
∫ x(t − λ)
2
dσ(λ) < ∞ .
0
Будем предполагать, что весовая функция σ(λ) является неубывающей, отличной от константы функцией (если T = ∞, то
σ(∞) = lim σ(λ) конечен), т. е. при λ1 ≤ λ2 ≤ λ3
λ→∞
σ(λ ) ≤ σ(λ2 ) ≤ σ(λ3 ) .
67
Если функция σ(λ) абсолютно непрерывна, то для неё справедливо соотношение
dσ(λ) = ω(λ)dλ ,
ω(λ)≥0 .
В этом случае интеграл ( 2.6.13) является интегралом Лебега или
Римана.
Пусть ортонормальные, в общем случае, комплексные функции
ψk(λ), k = 0, 1, …, ∞, определяющие базис разложения сигнала X(t),
принадлежат также пространству L2σ [0, Т].
Условие ортонормальности функций ψk(λ) можно выразить через
скалярное произведение
T
(ψк , ψ l ) = ∫ ψ k (λ)ψ*l (λ)dσ(λ) = δkl ,
(2.6.14)
0
k = l, δkl = где δkl = 
– символ Кронекера; * – знак сопряжённой
k ≠ l, δkl = 0
функции y.
Если функция σ(λ) дифференцируема, то скалярное произведение определяется интегралом Римана
T
(ψк , ψ l ) = ∫ ψ k (λ)ψ*l (λ)ω(λ)dλ .
0
Если рассматривается дискретный случай, то
dσ(λ) = ω(λµ )δ(λµ − λ) .
(2.6.15)
Если дискретные значения распределены равномерно, то выражение (2.6.15) можно переписать в следующем виде:
dσ(λ) = ω(λ)δ(µ − λ)dλ , m = 0,,2,....
Для дискретного случая скалярное произведение определяется
выражением
(ψк , ψ l ) = ∑ ψк (µ)ψ∗l (µ)ω(µ) .
µ
Рассмотрим задачу наилучшей аппроксимации случайного процесса X(t) на интервале времени [0, T] конечномерным случайным
68
вектором. На основании теоремы ортогонального проецирования
эта задача в данном случае сводится к представлению случайного
процесса на замкнутом интервале [0, T] в виде частичной суммы
ряда следующего вида:
x N (t − λ) =
где
xk (t) =
(x, ψ k )
ψk
2
∫
N −
∑ xk (t)ψk (λ) , λ ∈ [0,T] ,
(2.6.16)
k =0
x(t − λ)ψ*k (λ)dσ(λ)
=T
∫ ψk (λ)ψk (λ)dσ(λ)
*
, k = 0, , ..., ∞ , (2.6.17)
T
N – спектральная размерность модели.
Учитывая (2.6.14 ) и ортонормальность базиса {ψk}, k = 0, 1, …, ∞,
2
квадрат нормы функции ψk(λ) ψ k = . Тогда выражение (2.6.17)
можно переписать в следующем виде:
xk (t) = ∫ x(t − λ)ψ*k (λ)dσ(λ) .
(2.6.18)
T
Соотношения (2.6.16) и (2.6.18) соответственно
определяют представления случайного сигнала X(t−λ) на замкнутом интервале [0, T]
в виде частичной суммы обобщённого ряда Фурье и обобщённый
спектр xk сигнала в базисе {ψk (λ)}, k = 0, 1, …, ∞.
Точность аппроксимации реализаций сигнала X(t) моделью,
определяемой частичной суммой и коэффициентами ряда Фурье,
можно оценить с помощью квадратичного функционала:
T
N −
0
k =0
IN (t) = ∫ x(t − λ) −
2
∑ xk (t)ψk (λ) dσ(λ) .
(2.6.19)
Квадратичный функционал IN(t) при определении xk формулой
(2.6.18 ) имеет минимальное значение по отношению к другим представлениям частичной суммой ряда сигнала X(t) относительно взятого базиса {ψk(λ)}.
Раскрывая подынтегральное выражение (2.6.19) и учитывая ортонормированность базиса, после взятия интегралов получим следующее соотношение:
T
N −
0
k =0
IN (t) = ∫ x(t − λ)x∗ (t − λ)dσ(λ) −
∑ xk (t)xk∗ (t) ≥ 0 .
69
N −
Отсюда следует, что ряд
∑ xk (t)xk∗ (t) при N→∞ сходится, причём
k =0
выполняется неравенство Бесселя
T
∞
0
k
∗
∫ x(t − λ)x (t − λ)dσ(λ) ≥ ∑ xk (t) .
2
(2.6.20)
Если для любой функции x(t) из L2 [0, Т] вместо знака неравенст­
σ
ва имеет место знак равенства, то справедлива формула Парсеваля
(N→∞):
T
∞
0
k
∗
∫ x(t − λ)x (t − λ)dσ(λ) =∑ xk (t) .
2
(2.6.21)
Если равенство Парсеваля выполняется, то говорят,
что базис
{yk(l)} полный (замкнутый). В этом случае
T
∫
0
x(t − λ) −
2
N −
∑ xk (t)ψk (λ) dσ(λ) → 0 при N → ∞ .
k =0
Для замкнутого ортонормированного базиса ошибка представления сигнала X(t) частичной суммой ряда Фурье определяется:
IN (t) =
∞
∞
k= N
k= N
∑ xk (t)xk∗ (t) = ∑
2
xk (t) ,
т. е. сумма не учтённых коэффициентов определяет ошибку IN(t).
Достаточным условием замкнутости ортогонального базиса является, например, следующее условие:
N −
lim
N →∞
∑ ψk (t)ψ∗k (τ) = δ(λ − τ) ,
(2.6.22)
k =0
где правая часть представляет собой дельту-функцию.
Подстановка (2.6.18) в (2.6.16) в случае N→∞ при выполнении условия (2.6.22), и учитывая фильтрующее свойство дельта-функции,
даёт тождество, что и доказывает достаточность выполнения этого
условия для замкнутости {ψk(λ)}.
Теперь рассмотрим X(t) как случайный процесс, а не как отдельную реализацию его. При использовании в качестве модели случайного процесса X(t) частичной суммы ряда Фурье мерой точности
этой модели является среднеквадратический функционал
70
IN (t) = Μ [IN (t) ] =
T
N −
0
k =0
= ∫ Μ x(t − λ)x∗ (t − λ)  dσ(λ) −
∑ Μ xk (t)xk∗ (t)  .
(2.6.23)
Неравенство Бесселя тогда определяется:
∞
T
k =0
0
∑ M xk (t)xk∗ (t)  ≤ ∫ M x(t − λ)x∗ (t − λ)  dσ(λ) .
Если выполняется равенство Парсеваля
∞
T
k =0
0
∑ M xk (t)xk∗ (t)  = ∫ M x(t − λ)x∗ (t − λ)  dσ(λ) ,
то ортогональная система {ψk (λ)} является замкнутой на интервале
[0, Т] относительно случайного процесса X(t−λ), т. е. на множестве
его реализаций {xj(t−λ)}. В этом случае справедливо следующее соотношение:
2
T

N −
lim ∫ M  x(t − λ) − ∑ xk (t)ψ k (λ)  dσ(λ) = 0 .
N →∞


k =0
0


Тогда, среднеквадратический функционал, характеризующий
точность приближения случайного процесса X(t−λ) при выбранном
N<∞ и при полном базисе{ψk (λ)}:
IN (t) =
∞
∑ M xk (t)xk∗ (t)  .
(2.6.24)
k= N
На основании (2.6.24) условие применимости
спектральной модели (2.6.16) и (2.6.18) к случайному процессу может быть сформулировано в виде требований, применимых к корреляционной функции случайного процесса
T
IN (t) = ∫ Kx (t − λ,t − λ)dσ(λ) −
0
N − T T
−∑
∗
∫ ∫ ψk (λ)Kx (t − λ,t − τ)ψk (τ)dσ(λ)dσ(τ) ,
k =0 0 0
(2.6.25)
71
где Kx(t−λ, t−λ) – корреляционная функция в общем случае нестационарного случайного процесса X(t−λ).
Предположим, что корреляционная функция
TT
Kx (t − λ,t − τ) ∈ L2σ [0,T ]⇒ ∫ ∫ Kx (t − λ,t − τ) dσ(λ)dσ(τ) < ∞ .
2
00
Пусть корреляционная функция Kx(t−λ, t−τ), как функция аргумента λ при любом τ∈[0, Т] и как функция аргумента τ при любом
λ∈[0, Т], принадлежит L2σ [0, T]×[0, T], т. е. интегрируема на произведении [0, T]×[0, T]. В этом случае будем говорить, что корреляционная функция локально интегрируема.
Локально интегрируемую корреляционную функцию можно
представить двойным рядом Фурье [5]
Kx (t − λ,t − τ) =
N −
∑ ψk (λ)xkl (t)ψl (τ) ,
(2.6.26)
k,l =0
где
TT
xkl (t) = ∫ ∫ ψ∗k (λ)Kx (t − λ,t − τ)ψ l (τ)dσ(λ)dσ(τ) ,
( 2.6.27)
00
x
kl – двойной обобщённый дискретный спектр корреляционной
функции, N – спектральная размерность модели корреляционной
функции, которая, в частности, может быть и бесконечной.
На основание (2.6.25) и (2.6.27) среднеквадратический функционал примет вид
T
N −
0
k =0
IN (t) = ∫ Kx (t − λ,t − λ)dσ(λ) −
∑ xkk (t) .
(2.6.28)
С учётом (2.6.26) и свойства ортонормальности среднеквадрати
ческий функционал можно определить
IN (t) =
∞
∑ xkk (t) .
(2.6.29)
k= N
теорему о применимосТаким образом, можно сформулировать
ти дискретной спектральной модели (2.6.16), (2.6.18) для скалярного случайного процесса: дискретная спектральная модель (2.6.16),
(2.6.18) применима для скалярных процессов с локально интегрируемыми корреляционными функциями.
72
Точность локальной аппроксимации (2.6.16) для реализации
случайного процесса характеризуется среднеквадратическим функционалом, который определяется выражениями (2.6.24), (2.6.28),
(2.6.29). (2.6.24) и (2.6.28) эквивалентны, так как математическое
ожидание M xk (t)xk∗ (t)  = xkk (t).
Достоинства рассмотренного метода представления случайного
процесса X(t) в виде случайного конечномерного вектора заключается в том, что:
1) ряд Фурье обеспечивает наилучшую точность аппроксимации
сигнала X(t) относительно выбранного базиса;
2) модель сигналов в виде частичной суммы ряда Фурье значительно проще, чем сам случайный процесс, так как случайный процесс в данном случае заменяется квазидетерминированным процессом, где свойство случайности отражается в коэффициентах ряда
как случайных величинах;
3) интервальная оценка, используемая в данной модели сигнала,
позволяет расширить класс задач, решаемых на основе точечных
методов.
К недостаткам этой модели сигналов можно отнести следующие:
1) ряд Фурье, используемый в рассматриваемой модели сигналов, при произвольном базисе плохо сходится;
2) коэффициенты ряда xk(t) в общем случае являются коррелированными величинами, что усложняет анализ и синтез ИИС:
 Dk (t) при k = l ,
M[xk (t)xl∗ (t)] = 
 Kkl (t) ≠ 0 при k ≠ l ;
3) затруднительна оценка показателя точности приближении
IN(t) сигнала X(t) рассматриваемой моделью даже в пределах корреляционной теории, что вызывает неопределённость при выборе
размерности спектра;
4) линейная форма рядов при нелинейных преобразованиях сигналов X(t) в ИИС мало пригодна.
2.6.3. Представление случайных сигналов
при помощи ряда Карунена–Лоэва
Так как ряд Фурье в общем случае не обладает достаточно хорошей сходимостью, то для её улучшения целесообразно находить
оптимальным образом не только коэффициенты разложения, но и
базисные функции.
73
Упростим постановку задачи, выбирая фиксированный интервал представления сигнала X(t) [0, T] и положив dσ(λ) = dλ, ω(λ) = 1,
т. е. будем полагать, что производная по времени от весовой функции равна единице. Пусть также M[X(t)] = 0, t∈[0, T]. Используя выражение (2.6.25), запишем выражение для среднеквадратического
функционала
T
N − T T
0
k =0 0 0
IN (t) = ∫ Kx (λ, λ)dλ −
∑ ∫ ∫ Kx (λ, τ)ψ∗k (λ)ψk (τ)dλdτ .
(2.6.30)
Выберем такие базисные функции, которые обеспечат минимизацию среднеквадратического функционала IN(t).
Первое слагаемое не зависит от базиса. Поэтому задача состоит
в том, чтобы найти N ортогональных функций, максимизирующих
величину
N TT
N
k =0 0 0
k =0
∑ ∫ ∫ Kx (λ, τ)ψ∗k (λ)ψk (τ)dλdτ = ∑ ( Ax ψk ,ψk ) ,
(2.6.31)
где
(Axψk, ψk) – скалярное произведение, Аx – линейный интегральный оператор.
Соотношение (2.6.31) определяет сумму квадратичных функционалов. Поскольку ядром оператора является автокорреляционная
функция с конечным средним квадратом, то базисные функции,
обеспечивыющие максимум (2.6.31), определяются из уравнения
T
Ax ϕk (λ) = ∫ Kx (λ, τ)ϕk (τ)dτ = αk ϕk (λ) , 0 ≤ λ ≤ T .
(2.6.32)
0
При этом оператор Ax обладает следующими свойствами:
1) это оператор Гильберта–Шмидта, т. е.
TT
∫ ∫ Kx (λ, τ)
2
dλdτ < ∞ ;
00
2) самосопряжённый оператор, т. е. (Axψ,ϕ) = (ψ,Axϕ), так как для
его ядра Ax(λ, τ) = Kx(λ, τ) справедливо
Kx (λ, τ) = Kx∗ (τ, λ);
3) неотрицательно-определённый
( Ax ψ, ψ) = M[(x, ψ)2 ] ≥ 0 .
74
Учитывая указанные свойства, можно сделать следующие выводы относительно уравнения (2.6.32):
1) существуют по крайне мере одна интегрируемая в квадрате
функция ϕ(t) и одно действительное число λ≠0, которые удовлетворяют (2.6.32), и все собственные числа симметричных ядер вещественны;
2) из (2.6.32) следует, что если ϕk(τ) является решением, то cϕk(τ)
есть так же решение, поэтому мы можем нормировать собственные
функции и при этом будет удовлетворяться следующее условие:
( Ax ϕk , ϕl ) = (αk ϕk , ϕl ) = αk δkl ;
3) собственные функции, соответствующие собственным значениям являются ортогональными;
4) существует не более как счётное бесконечное множество собственных значений ak и все они ограничены;
5) если корреляционная функция Kx(λ,τ) неотрицательно определена, т. е. для всех произвольных zi, zk
∑ Kx (λ, τ)zi zk ≥ 0 , то она
i,k
может быть разложена в следующий ряд (теорема Мерсера):
∞
Kx (λ, τ) = ∑ λk ϕk (λ)ϕ∗k (τ), 0 ≤ λ ≤ T , 0 ≤ τ ≤ T ,
k =0
где сходимость ряда является равномерной для всех 0 ≤ λ, τ ≤ T;
6) если Kx(λ,τ) положительно определена, то собственные функ­
ции образуют полный ортогональный (ортонормальный) ряд и в
этом случае детерминированную функцию с конечной энергией
можно разложить в ряд по собственным функциям;
7) если Kx(λ,τ) не является положительно определённой, то собст­
венные функции не могут образовывать полный ортонормальный
ряд;
8) cумма собственных значений есть ожидаемое значение энергии процесса на интервале [0, T], т. е. можно записать следующее
уравнение:
∞
T
 T
2
M  ∫ x(t) dt  = ∫ Kx (t,t)dt = ∑ αk ,
k =0
 0
 0
где αk = M xk xk∗  – дисперсия k-й спектральной компоненты;
9) при использовании полного базиса
75
2
T

N −
lim M  ∫ x(t) − ∑ xk ϕk (t) dt  = 0 ;
n→∞
0

k =0


10) собственные значения образуют счётную квадратично-сум∞
мируемую
∑ αk < ∞
последовательность, они вещественны и не-
k =0
отрицательны, т. е. ak ≥ 0, и мы можем их расположить в порядке
убывания a0 ≥a1 ≥ a2.
Выражение (2.6.28) перепишем в следующем виде:
T
N −
0
k =0
IN (t) = ∫ Kx (λ, λ)dλ −
∑ ( Ax ϕk ,ϕk ) .
(2.6.33)
Выражение (2.6.33) с учётом (2.6.32) перепишем
в следующем
виде:
∞
N −
∞
k =0
k =0
k= N
IN = ∑ αk (ϕk , ϕk ) −
∑ αk = ∑ αk .
Можно заключить, что N-мерное подпространство в L2σ [0, T], оптимальное для представления реализации случайного процесса x(t)
на интервале t∈[0, T], натянуто на N собственных функций уравнения
T
∫ Kx (λ, τ)ϕk (τ)dτ = αk ϕk (λ), 0 ≤ λ ≤ T .
(2.6.34)
0
Базисные функции и собственные числа определяются
из выражения (2.6.32). При этом выбирают N собственных функций ϕk(λ)
интегрального уравнения, соответствующих N первым наибольшим собственным числам.
Разложение случайного процесса, использующее оптимальный
базис ϕk(λ),
x(t) =
N −
∑ xk ϕk (t),
t ≤T,
k =0
где коэффициенты определяются из выражения
T
xk = (x, ϕk ) = ∫ x(t)ϕ∗k (t)dt ,
0
76
называется разложением Карунена–Лоэва [2]. Разложение Карунена–Лоэва есть частный случай разложения Фурье.
Коэффициенты этого разложения есть некоррелированные (ортогональные) случайные величины, поскольку с учётом теоремы
Мерсера
TT
M xk xl∗  = M (x, ϕk )(x, ϕ∗l )  = ∫ ∫ Kx (λ, τ)ϕ∗k (λ)ϕ∗l (τ)dλdτ = αk δkl ,
00
где δkl – символ Кронекера. Если математическое ожидание сигнала M[X(t)]≠0, то разложение Карунена-Лоэва можно представить в
следующем виде:
x(t) =
N −
∑ xk ϕk (t) + mk (t) .
(2.6.35)
k =0
Достоинства разложения Карунена–Лоэва:
1) учитывая, что разложение Карунена–Лоэва есть частный случай разложения Фурье, то все достоинства последнего относятся и
к рассматриваемому разложению;
2) разложение Карунена–Лоэва имеет наилучшую сходимость из
всех рядов Фурье;
3) коэффициенты разложения Карунена–Лоэва являются некоррелированными случайными величинами, а при нормальном законе распределения сигнала X(t) – независимыми, что значительно
упрощает анализ и синтез линейных ИИС;
Оценка точности аппроксимации сигнала X(t) частичной суммой
разложения Карунена–Лоэва проще, чем при использовании других рядов Фурье.
К недостаткам данной модели сигнала можно отнести:
1) сложность нахождения собственных функций и чисел из интегрального уравнения (2.6.32);
2) при изменении интервала разложения для одного и того же
сигнала собственные функции и числа также меняются;
3) линейная форма рядов при нелинейных преобразованиях сигналов X(t) в ИИС мало пригодна.
2.6.4. Представление случайных сигналов
при помощи канонических разложений Пугачёва
Учитывая, что нахождение базиса разложения Карунена–Лоэва
является сложной задачей, применение этого разложения на практики вызывает определённые затруднения. С другой стороны, важ77
ное свойство разложения Карунена–Лоэва, определяемое некоррелированностью коэффициентов разложения значительно упрощает
анализ и синтез ИИС. В связи с этим В. С. Пугачевым была разработана [9] теория построения моделей сигналов в виде канонических
рядов, где коэффициенты разложения являются некоррелированными случайными величинами, а базисные функции могут быть
определены значительно более простыми способами. При этом сходимость таких рядов хуже, чем у разложений Карунена–Лоэва.
Пусть имеется произвольный случайный процесс X(t), определённый на интервале времени t∈[0, T]. Представим этот процесс
на выбранном интервале в виде ряда
X(t) =
∞
∑ Vk ϕk (t) + mx (t) ,
(2.6.36)
k = −∞
где M[X(t)] = m (t) – математическое ожидание
X(t); V , k = 0, ±1,
x
k
±2, … – коэффициенты канонического разложения, являющиеся некоррелированными центрированными случайными, в общем случае, комплексными величинами, т. е. M[Vk Vl∗ ] = 0, если
k ≠ l и M[Vk Vl∗ ] = Dk , если k = l, k=0,±,±2,..., определяемые соотношением
T 
Vk = ∫ X(t)ψ∗k (t)dt ,
(2.6.37)
0

где
X(t) = X(t)−M[X(t)] – центрированное значение сигнала X(t);
ϕk(t) – координатные функции, которые определяются соотношением
T
ϕk (t) = ∫ Kx (t, τ)ψ k (τ)dτ ,
(2.6.38)
0
где
Kx(t, t) – автокорреляционная функция случайного процесса
X(t), функции yk(t), k = 0, ±1, ±2, … можно выбирать произвольно,
соблюдая условия биортогональности
TT
0 , если k ≠ l,
M[Vk Vl∗ ] = ∫ ∫ Kx (t,t2 ) ψ∗k (t ) ψ l (t2 )dtdt2 = 
 Dk , если k = l .
00
(2.6.39)
Систему функций yk(t), k = 0, ±1, ±2, …, удовлетворяющих
условию биортогональности, будем называть биортогональной относи78
тельно корреляционной функции Kx(t, t), или, иначе, порождающей.
Vkjk(t) называют элементарными случайными процессами.
Соотношения (2.6.36), (2.6.37) и (2.6.38) определяют каноническое разложение Пугачёва.
Если jk(t) = akyk(t), то разложение Пугачёва совпадает с разложением Карунена–Лоэва. Каноническое разложение Пугачёва содержит в общем случае бесконечное число случайных величин и ряд
сходится медленно, что затрудняет расчёты на ЦВМ.
Найдём корреляционную функцию комплексного случайного
процесса, представленного соотношением (2.6.36), учитывая некоррелированность коэффициентов Vk, Vn канонического разложения
при k≠n:


∞
∞
k =−∞
n =−∞
Kx (t,t2 ) = M[X(t ) ⋅ X * (t2 )] = M[
= M[
∞
∞
∑ Vk ⋅ϕk (t ) ∑ Vn∗ ⋅ϕ∗n (t )] =
∞
∞
∑ ∑ Vk Vl∗ϕk (t )ϕ∗n (t2 )] = ∑ ∑ ϕk (t )ϕ∗n (t2 )M[Vk Vn∗ ] =
k =−∞ n =−∞
k =−∞ n =−∞
=
∞
∑ Dk ϕk (t )ϕ∗k (t2 ) .
(2.6.40)
k =−∞
Соотношение (2.6.40) определяет каноническое
разложение корреляционной функции случайного процесса X(t). При t1 = t2 = t получаем из формулы (2.6.40) каноническое представление дисперсии
случайного процесса
Dx (t) = Kx (t,t) =
∞
∞
k =−∞
k =−∞
∑ Dk ϕk (t)ϕ∗k (t) = ∑ Dk ϕk (t)
2
.
(2.6.41)
Все коэффициенты Dk≥0, k = 0, ±1, ±2, … . В случае использования ортонормальных коэффициентов
Dx (t) =
∞
∑
k =−∞
2
ϕk (t) .
Таким образом, всякому каноническому разложению случайного процесса X(t) (2.6.36) соответствует каноническое разложение
корреляционной функции этого процесса (2.6.40). Справедливо и
обратное утверждение.
К основным достоинствам канонического разложения Пугачёва
можно отнести:
79
1) коэффициенты Vk, k = 0, ±1, ±2, … разложения являются некоррелированными случайными величинами и при нормальном законе распределения сигнала X(t) они также и независимы;
2) координатные функции проще найти, чем базисные функции
в разложении Карунена–Лоэва.
К недостаткам разложения Пугачёва относятся:
1) в общем случае плохая сходимость канонических рядов, что
требует большой вычислительной работы для определения порождающих и координатных функций при учёте значительного количества членов канонического ряда;
2) отсутствуют простые оценки погрешностей аппроксимации
случайного процесса X(t) конечной суммой разложения Пугачёва
даже в пределах корреляционной теории, что создаёт неопределённости при выборе числа членов ряда;
3) каноническая форма рядов в случае нелинейных преобразований сигнала X(t) мало пригодна.
2.6.5. Сравнительная характеристика
представлений случайных сигналов при помощи рядов
Все рассмотренные модели сигналов в виде рядов предназначены
в основном для анализа и синтеза линейных ИИС, т. е. когда применим принцип суперпозиции, и менее приспособлены при исследовании нелинейных систем.
Использование указанных моделей сигналов в задачах анализа
и синтеза ИИС значительно упрощает алгоритмы обработки информации и расширяет класс задач, решаемых традиционными
методами. Это обеспечивается за счёт того, что достаточно сложная
модель случайного процесса X(t) заменяется с требуемой точностью
и достоверностью обработки сигналов квазидетерминированной моделью сигнала в виде ряда.
Дискретные спектральные модели сигналов характеризуют
случайный процесс на интервале времени и поэтому могут быть
использованы как для точечных, так и для интервальных оценок
сигналов на выходе ИИС. В частности, они могут быть использованы для получения оценок точности, достоверности, надёжности,
помехозащищённости и других характеристик систем, а также при
исследовании таких задач, как фильтрация, классификация, прогнозирование и интерполяция сигналов.
Ряды В. А. Котельникова, Карунена–Лоэва являются рядами
Фурье и обладают всеми достоинствами этих рядов.
С точки зрения сходимости предпочтительнее ряды Карунена–
Лоэва и затем обобщённые ряды Фурье.
80
Коэффициенты рядов Карунена–Лоэва и Пугачёва – некоррелированные случайные величины, а при нормальном законе распределения сигнала X(t) являются независимыми случайными величинами.
Общим недостатком данных моделей сигналов является отсутствие простых оценок точности аппроксимации сигналов X(t) указанными моделями даже в пределах корреляционной теории, что
создаёт неопределённости при выборе размерности спектра модели
для обеспечения требуемой точности.
2.7. Спектральное представление случайных сигналов
2.7.1. Частотное разложение стационарного
случайного процесса на конечном интервале времени
Рассмотрим стационарный случайный процесс X(t) с конечной
энергией, который определён на интервале времени −T≤ t≤T. Известны математическое ожидание mx = M[X(t)] и корреляционная функция K(τ) процесса, где −2T≤τ≤2T, так как t = t2− t1, а аргументы t1 и
t2 изменяются в пределах −T≤ t1≤T; −T≤ t2≤T.
Представим корреляционную функцию Kx(τ) на интервале
[–2T, 2T] в виде ряда Фурье, в котором в качестве ортогонального
базиса используем
ψ k (t) = e jωkt , k = 0, ±, ±2,...,
Kx (τ) =
∞
∑ Dk e jω τ ,
(2.7.1)
k
k =−∞
где ω = 2π k = π k , k = 0, ±1, ±2, … .
k
4T
2T
Скалярное произведение рассматриваемых базисных функций
если k ≠ n ,
0,
(ψ k , ψ n ) = 
 ψ k = 4T, если k = n .
Коэффициенты ряда Фурье определяются следующим соотношением
Dk =
2T
ψk
2
∫
Kx (τ)e − jωk τ dτ .
(2.7.2)
−2T
81
Принимая во внимание, что сопряжённая базисная функция
ψ*k = e − jωkt , и учитывая, что τ = t2− t1, получим
Kx (τ) =
∞
∑ Dk e− jω t e jω t
k k 2
.
(2.7.3)
k =−∞
Сравнивая формулы (2.7.3) и (2.6.40), убеждаемся,
что соотношение (2.7.3) определяет каноническое разложение корреляционной
функции случайного процесса X(t).
Каноническому разложению корреляционной функции (2.7.3)
соответствует каноническое разложение случайного процесса
X(t) =
∞
∑ Vk e jω t + mx ,
k
(2.7.4)
где Vk, k = 0, ±1, ±2, … – некоррелированные случайные величины,
математические ожидания которых равны нулю M[Vk] = 0, а дисперсии Dk = M Vk Vk∗  равны коэффициентам Dk в соотношении (2.7.3).
Выражение (2.7.4) называется спектральным или частотным разложением стационарного случайного процесса X(t). Формула (2.7.4)
показывает, что частотное разложение стационарного случайного
процесса является частным случаем канонического разложения,
когда в качестве координатных функций используются гармоники
e jωkt . Характеристики стационарных случайных процессов Kx(τ),
Dk в данном случае есть функции целочисленных значений ωk.
k = −∞
2.7.2. Частотное представление стационарного случайного
процесса на бесконечном интервале времени.
Спектральная плотность стационарного
случайного процесса
Исследование стационарной ИИС в установившемся режиме при
подаче на её вход стационарного сигнала целесообразно, когда можно пренебречь временем переходного режима. В этом случае анализ
и синтез ИИС значительно упрощается.
Рассмотрим корреляционную функцию стационарного случайного процесса на бесконечном интервале времени путём предельного перехода при T→∞.
Перепишем выражение (2.7.1) в следующем виде:
Kx (τ) =
∞
Dk jωk τ
e ∆ω ,
k =−∞ ∆ω
∑
(2.7.5)
где ∆ω = ω − ω = π – расстояние между соседними
гармониками.
k +
k
2T
82
Обозначим
ST (ωk ) =
Dk 2T
=
Dk .
∆ω π
(2.7.6)
Будем называть ST(ω) средней плотностью дисперсии стационарного случайного процесса. Это есть дисперсия, приходящаяся на
единицу длины частотного интервала между соседними гармониками.
Тогда, вводя обозначение (2.7.6), формулу (2.7.5) перепишем в
следующем виде:
Kx (τ) =
∞
∑ ST (ωk )e jω τ ∆ω ,
k =−∞
и используя выражение (2.7.2), получим
Kx (τ) =
(2.7.7)
k
∞
∑ ST (ωk )e jω τ ∆ω ,
k
(2.7.8))
k =−∞
Пусть T→∞. Тогда ∆ω→dω, ωk→ω, и выражения
(2.7.7), (2.7.8)
можно представить в следующем виде:
∞
Kx (τ) =
∫ Sx (ω)e
jωτ
dω ,
(2.7.9)
−∞
Sx (ω) =
∞
Kx (τ)e − jωτ dτ ,
∫
2π −∞
(2.7.10)
D
где Sx (ω) = lim ST (ωk ) = lim k .
T →∞
∆ω→0 ∆ω
Формулы (2.7.9), (2.7.10) впервые математически строго разработаны А. Я. Хинчиным. Эти формулы являются обратным и прямым
преобразованиями Фурье.
Смысл (2.7.9) заключается в том, что корреляционная функция
вещественного аргумента представляет собой сумму гармонических
составляющих с амплитудой, зависящей от ω, при этом произведение Sx(ω)dω есть бесконечно малая амплитуда каждой гармоники.
Таким образом, корреляционная функция может быть представлена суммой бесконечно малых гармонических колебаний, бесконечно близких по частоте.
Функция Sx(ω) имеет смысл плотности распределения дисперсии
случайного процесса по частотам непрерывного спектра (дисперсия
амплитуд гармонических колебаний). Функция Sx(ω) называется
83
спектральной плотностью дисперсии стационарного случайного
процесса или просто спектральной плотностью стационарного случайного процесса.
Полагая в формуле (2.7.9) τ = 0, получим
∞
dDx
= Sx (ω) .
dω
∫ Sx (ω)dω,
Dx = Kx (0) =
−∞
Dx представляет собой сумму элементарных дисперсий S(ω)dω,
приходящихся на элементарный частотный интервал dω, прилегающий к частоте ω.
Иногда бывает удобно использовать тригонометрическую форму
записи формул для корреляционной функции и спектральной плотности действительного стационарного случайного процесса.
Используя формулы Эйлера и учитывая, что спектральная плотность S(ω) и корреляционная функция K(τ) стационарного случайного действительного процесса – чётные функции, соотношения
(2.7.8) и (2.7.9) можно представить в следующем виде:
∞
Kx (τ) =
∫
−∞
∞
Sx (ω)cos ωτ dω + j ∫ Sx (ω)sin ωτ dω =
−∞
∞
= 2 ∫ Sx (ω)cos ωτ dω ,
(2.7.11)
0
Sx (ω) =
∞
∞
K
(
τ
)cos
ωτ
d
τ
−
j
Kx (τ)sin ωτ dτ =
x
∫
∫
2π −∞
2π −∞
∞
=
Kx (τ)cos ωτ dτ.
π 0∫
(2.7.12)
Sx(ω) эргодического стационарного процесса называют
спектральной плотностью мощности процесса, а дисперсию эргодического центрированного случайного процесса X(t) можно найти следующим образом:
T
Dx =

2
 
x(t)  dt .
∫
2T −T 

Если x(t) есть реализация случайных флуктуаций напряжения
на концах проводника, то Dx – средняя мощность флуктуаций тока,
рассеиваемая на единичном сопротивлении этого проводника.
84
Формулы Хинчина для двух X(t) и Y(t) стационарных и стационарно связанных случайных процессов можно определить в следующем виде:
∞
Kxy (τ) =
∫ Sxy (ω)e
jωτ
dω ,
(2.7.13)
−∞
∞
− jωτ
Sxy (ω) =
∫ Kxy (τ)e dτ ,
2π −∞
(2.7.14)
где K (τ) – взаимная корреляционная функция;
S (ω) – взаимная
xy
xy
спектральная плотность стационарных и стационарно связанных
случайных процессов X(t) и Y(t).
2.7.3. Белый шум
При исследовании статистических свойств ИИС важное значение
имеет определённый тип стационарного случайного физически нереализуемого процесса, обладающего достаточно простыми свойствами, называемого белым шумом. Этот процесс при статистическом анализе и синтезе ИИС играет такую же роль, как дельта-функция при исследовании детерминированных характеристик ИИС.
Белым шумом называют стационарный случайный, чаще всего,
гауссовский процесс W(t), у которого спектральная плотность (рис.
2.14) Sw(ω) = c2 (рис. 2.14) постоянна при всех частотах.
S(ω)
c2
ω
0
Рис. 2.14. Спектральная плотность белого шума
Используя формулу (2.7.9) и учитывая, что спектральная плотность белого шума Sw(ω) = c2, получим выражение для корреляционной функции
∞
Kw (τ) =
∫
−∞
Sw (ω)e jωτ dω = 2πc2
∞
jωτ
∫ e dω =
2π −∞
= 2πc2 ⋅ δ(τ) = Nw δ(τ) ,
(2.7.15)
85
где δ(τ) – дельта-функция; Nw = 2πc2 – интенсивность белого шума.
Математическое ожидание белого шума обычно M[W(t)] = 0. Дисперсия белого шума
Dw = Kw (τ) τ=0 = 2πc2 δ(0) = ∞ .
(2.7.16)
Как видно из соотношения (2.7.16), белый шум обладает бесконечной дисперсией, т. е. этот процесс физически нереализуем. Наличие δ(τ) в выражении для корреляционной функции белого шума
обеспечивает важное свойство белого шума, заключающего в том,
что любые два ближайших значения белого шума некоррелированы, а учитывая нормальный закон распределения процесса, и независимы.
Белый шум является удобной математической абстракцией. При
условии, что эффективная полоса частот входного сигнала превосходит практический диапазон частот работы реальной системы,
можно считать с определённой точностью, что входной сигнал является белым шумом.
2.7.4. Понятие формирующего фильтра
Формирующим фильтром называют динамическую систему, которая при входном сигнале в виде белого шума W(t) имеет на выходе случайный процесс X(t) с заданными статистическими характеристиками (рис. 2.15). В качестве таких характеристик обычно
используются математическое ожидание mx(t) и корреляционная
функция Kx(t1, t2). Задача нахождения формирующего фильтра состоит в определении его оператора At{ } на основе заданных mx(t) и
Kx(t1,t2) выходного сигнала X(t) и статистических характеристик
входного белого шума W(t) – интенсивности белого шума Nw = 2πc2
(обычно значение спектральной плотности c2 полагают равным единице) и математического ожидания mx, если оно не равно нулю. Понятие формирующего фильтра оказывается удобным и полезным
при рассмотрении задач статистического анализа и синтеза ИИС,
так как упрощает методы их исследования. Это достигается присоединением к исследуемой системе формирующего фильтра. Полученная таким образом система называется эквивалентной системой. Построение формирующего фильтра необходимо также и при
моделировании случайных процессов. Учитывая аналитические
преимущества линейных систем, предпочтительнее использовать
линейные формирующие фильтры. Среди случайных процессов,
допускающих строгое решение проблемы формирующего фильтра,
находится класс стационарных случайных процессов с дробно86
­ ациональными спектральными плотностями. Для определения
р
линейного формирующего фильтра используется соотношение, устанавливающее связь между спектральными плотностями входного и выходного сигналов.
W(t)
Формирующий
фильтр
X(t)
Рис. 2.15. Схема получения сигнала с использованием формирующего фильтра
Пусть X(t) – случайный стационарный коррелированный процесс с известной спектральной плотностью Sx(ω). Известна также
спектральная плотность белого шума c2. Требуется найти частотную
F(jω) характеристику формирующего фильтра, преобразующего белый шум в выходной сигнал X(t). Известно (см. гл. 3), что
2
тогда
Sx (ω) = F ( jω) c2 ,
2
F ( jω) =
Sx (ω)
2
c
=
(2.7.17)
Φ( jω) Φ(− jω)
⋅
.
c
c
(2.7.18)
Следовательно, для нахождения частотной характеристики форS (ω)
мирующего фильтра необходимо выражение x 2 представить в
c
виде произведения двух комплексно-сопряжённых сомножителей
и взять в качестве искомого тот, который имеет нули и полюсы в
левой полуплоскости переменной jω, т. е. соответствует минимально-фазовой устойчивой системе. Для любой дробно-рациональной
чётной функции Sx(ω) эти операции могут быть осуществлены и
формирующий фильтр определён.
Процедура представления спектральной плотности Sx(ω) в виде
двух комплексно-сопряжённых функций называется факторизацией
2
Sx (ω) = Φ( jω) ⋅ Φ(− jω) = Φ( jω) .
Пример. Определить частотную характеристику формирующего фильтра для получения стационарного случайного процесса со
спектральной плотностью Sx (ω) =
σ2 α
π(ω2 + α2 )
(этой спектральной
87
плотности на основании формулы Хинчина соответствует корреляционная функция Kx(τ) = σ2e−α|τ|) из белого шума со спектральной
плотностью c2 = 1.
На основании (2.7.18) и учитывая, что ω2 = −(jω)2:
Sx (ω) = Φ( jω) ⋅ Φ(− jω) =
σ2 α σ2 α
⋅
,
π jω + α
π − jω + α
откуда в соответствии (2.7.18) получим
F ( jω) =
K
,
Tjω + σ2 α
, T =
. Таким образом, частотная характеристика
α
π
α
формирующего фильтра соответствует апериодическому звену.
где K =
2.8. Интегральные представления сигналов
2.8.1. Общие основы интегральных преобразований
Для точного представления сигналов x(t), определенных в интервале −∞< t<∞ и принадлежащих L2(−∞, ∞), широко используются
различные интегральные преобразования, формирующие соответствующие непрерывные интегральные представления. Интегральные представления сигналов обычно рассматриваются на основе
аналогии или обобщения дискретных представлений. Такие представления, как Фурье, Лапласа и Гильберта, широко используемые
в теории сигналов, можно легко интерпретировать с рассматриваемой точки зрения. Непрерывный аналог рассматриваемого в подразд. 2.6.1. конечномерного представления на основе ортонормального базиса получается, если заменить в (2.6.4) дискретный индекс
i (номер базисной функции) континуальной переменной s∈S, где S
обычно представляет собой некоторый интервал действительной
оси. Базис теперь выражается функцией U(t, s), зависящей от двух
переменных, и формула (2.6.4) принимает вид
x(t) = ∫ X(s)U(t, s)ds, t ∈ T ,
(2.8.1)
S
где X(s) есть непрерывное представление x(t) аналогичное
α в (2.6.4),
а t может быть любым в интервале (−∞, ∞), т. е. T = (−∞, ∞).
Функция X(s) – это функция «плотности», характеризующая
распределение x(t) относительно U(t, s) на различных участках
88
области S. Принимая обычную для интегральных уравнений терминологию, будем называть U(t, s) базисным ядром интегрального
преобразования, используемого для представления сигнала. Продолжая аналогию, X(s), аналогом которой в дискретном случае является выражение (2.6.5), можно представить для каждого значения s в виде скалярного произведения
X(s) = ∫ x(t)U* (s,t)dt ,
(2.8.2)
T
где
функция U*(s, t) является самосопряженным
базисным ядром,
т. е.
U(t, s) = U* (s,t) , (2.8.3)
где * – обозначает комплексно-сопряженную функцию.
Соотношения (2.8.1) и (2.8.2) рассматриваются совместно как
пара преобразований – обратное и прямое соответственно. Подставляя (2.8.2) в (2.8.1) и изменив порядок интегрирования, получим условие, которому должны удовлетворять сопряженные ядра:
x(t) = ∫ ∫ x(τ)U* (s, τ)U(t, s)dτds = ∫ I (t, τ)x(τ)dτ = fI (x) ,
ST
(2.8.4)
T
где
fI(x) – функционал выборки (интеграл Дюамеля),
I (t, τ) = ∫ U(t, s)U (s, τ)ds .
*
(2.8.5)
S
Выражение (2.8.5) – линейный функционал
от τ при фиксированном t, который не ограничен (или не непрерывен) и, следовательно, не принадлежит к гильбертову пространству H2(T); fI(X) можно
интерпретировать как линейный функционал, используя понятие
δ-функции Дирака δ(t−τ):
fI (x) = x(t) = ∫ δ(t − τ)x(τ)dτ, t ∈ T ,
T
где самосопряженное ядро
U*(s,
∫ U(t,s)U
*
τ) удовлетворяет условию
(s, τ)ds = δ(t − τ) .
(2.8.6)
S
Аналогичным образом, подстановка (2.8.1) в (2.8.2) приводит к
дополнительному условию
∫U
*
(s,t)U(t, σ)dt = δ(s − σ) ,
(2.8.7)
T
89
которому должны удовлетворять U(t, s) и U*(s, t), чтобы быть сопряженными базисными ядрами.
Соответствующие величины для дискретных и непрерывных
представлений сведены в табл. 1.
Таблица 1
Дискретное
Непрерывное
x(t) = ∑ αiUi (t), t ∈ T
x(t) = ∫ X (s)U(t, s)ds, t ∈ T
αi = (x,Ui ), i = , 2, ...
X (s) = ∫ x(t)U * (s, t)dt, s ∈ S
S
T
 U(t, s)U * (s, τ)ds = δ(t − τ)
 S∫
 *
 ∫ U (s, t)U(t, σ)dt = δ(s − σ)
T
(Ui ,Uj ) = δi j , i = , 2, ...
Из условия (2.8.6) и (2.8.7) следует, что одна из функций U или
U* (или обе) должны быть сингулярными, т. е. они могут содержать
δ-функции и их производные или быть неинтегрируемыми, как для
преобразования Фурье. Таким образом, пространства H2(T) и H2(S),
которым должны принадлежать функции U и U*, должны быть расширены. Самосопряженные базисные ядра обладают тем свойством,
что преобразование функций x(t), принадлежащих H2(T), всегда порождает функции от X(s), принадлежащие H2(S).
Пусть X(s)∈H2(S) и Y(s)∈H2(S) – преобразования x(t)∈H2(T) и
y(t)∈H2(T) соответственно. Тогда, используя (2.8.3) и (2.8.2), получим
( X, Y ) = ∫ X(s)Y * (s)ds = ∫ ∫ ∫ x(t)y* (t)U* (τ, s)U(s, τ)dτdtds .
S
STT
Учитывая, что U – самосопряженное ядро, на основании (2.8.3)
получим
( X, Y ) = ∫ ∫ x(t)y* (τ)δ(t − τ)dtdτ = ∫ x(t)y* (t)dt = (x, y) .
TT
(2.8.8)
T
Таким образом, величина скалярного произведения не изменяется при переходе из области t в область s. Этим свойством обладает
преобразование Фурье.
90
2.8.2. Преобразование Гильберта
При обработке информации часто пользуются понятиями низкочастотный и узкополосный сигналы. Будем называть сигнал
низкочастотным или узкополосным, если преобразования этих
сигналов соответственно концентрируются около частоты нулевой
и удалённой от начала координат. При этом часто возникает необходимость при моделировании узкополосную систему эквивалентно
смоделировать с помощью двух взаимно связанных низкочастотных систем. Исходным пунктом для построения необходимого нам
низкочастотного представления является понятие аналитического
сигнала, соответствующего вещественному узкополосному сигналу
x(t). Аналитический сигнал – это комплексный сигнал, который
образуется, если к вещественному сигналу x(t) добавить в качестве
мнимой части его преобразование Гильберта xˆ (t) :
z(t) = x(t) + jxˆ (t) .
Пара преобразований Гильберта определяется следующими соотношениями [2]:
∞
xˆ (s) =
x(t)
∫ s − t dt ,
π −∞
x(t) =
xˆ (s)
∫ s − t ds .
π −∞
∞
(2.8.9)
(2.8.10)
В обоих случаях интеграл понимается в смысле главного значения по Коши, т. е. в (2.8.10)
∞
∫
−∞
s −ε
⇒ lim(
ε→∞
∫
∞
+
−∞
∫
), ε > 0 .
s +ε
Базис Гильберта или ядро интегрального преобразования (2.8.9)
определяется соотношением
Ψ (t − s) =
а сопряжённый базис Гильберта
Ψ * (s − t) =
−
,
π(t − s)
(2.8.11)
.
π(s − t)
(2.8.12)
91
Сравнивая (2.8.11) и (2.8.12 ) с (2.8.3), мы видим, что базис самосопряжённый, так что
(xˆ , yˆ ) = (x, y) .
Интересное и полезное свойство преобразования Гильберта состоит в том, что преобразования Фурье от пары преобразований
Гильберта просто связаны друг с другом:
Sˆ (f ) = [− j sign f ]S(f ), S(f ) = [ j sign f ]Sˆ (f ) . ( 2.8.13)
Эта связь чаще всего используется для образования комплексного аналитического сигнала z(t) = x(t)+j xˆ (t), имеющего одностороннее преобразование Фурье.
В соответствии с (2.8.13)
Z(f) = 2S(f) при f >0,
Z(f) = 0 при f<0.
Учитывая, что для аналитического сигнала справедливо
xˆ = x и (x, xˆ ) = 0 ,
получим следующее полезное соотношение
z = 2 x .
Наиболее важным свойством аналитического сигнала является
то, что преобразование Фурье от него – «одностороннее», т. е. отлично от нуля только при положительных частотах. Согласно (2.8.13)
имеем
Z (f ) = 2S(f ) при f >0 ,
Z(f) = 0 при f<0 . (2.8.14)
Под огибающей ω(t) понимается модуль аналитического сигнала
ω(t) = z(t) = x2 (t) + xˆ 2 (t) .
(2.8.15).
При достаточной узкополосности сигнала эта величина близка
к напряжению на выходе детектора огибающей. Для полного описания сигнала кроме огибающей необходимо знать и фазу сигнала
z(t). Информация о фазе сигнала z(t) (z(t) = z(t) e jϕ(t) ) содержится в
92
мнимой части логарифма z(t). С точки зрения физической интерпретации часто более полезна производная фазы, чем она сама.
Определим мгновенную частоту fi(t) произвольного сигнала следующим образом:
 z(t) 
d
 fi (t) =
Im  ln z(t)  =
Im 
=
2π
 dt
 2π
 z(t) 
=
2πω2 (t)
[xˆ (t)x(t)− x (t)xˆ (t)] .
(2.8.16)
Эта функция приблизительно соответствует выходному сигналу
частотного дискриминатора.
Теперь, чтобы получить эквивалентное низкочастотное представление сигнала, необходимо сдвинуть преобразование Фурье z(t)
так, чтобы оно оказалось центрированным около нулевой частоты
и представляло собой низкочастотный сигнал. Полагаем по определению
так что
Γ(f ) = Z (f + f0 ) ,
(2.8.17)
γ(t) = z(t)e − j2πf0t ,
(2.8.18)
а исходный вещественный сигнал x(t) связан с комплексным сигналом γ(t) соотношением
x(t) = Re[γ(t)e j2πf0t ] . (2.8.19)
Сигнал γ(t) называется комплексной огибающей сигнала x(t). Согласно (2.8.19) узкополосный сигнал следующим образом выражается через вещественную и мнимую части γ(t):
x(t) = u(t)cos 2πf0t−v(t)sin 2πf0t ,
(2.8.20)
γ(t) = u(t)+jv(t) .
(2.8.21)
где
Вещественные низкочастотные сигналы u(t) и v(t) называются
соответственно синфазной и квадратурной компонентами узкополосного сигнала. Очевидно, огибающая есть просто γ(t) и не зависит
от выбора f0:
ω(t) = z(t) = γ(t) = u2 (t) + v2 (t) . (2.8.22)
93
Мгновенная частота выражается через комплексную огибающую следующим образом:
 γ (t) 
Im 
.
2π
 γ(t) 
fi (t) = f0 +
(2.8.23)
Во многих случаях частоту f0 выбрать нетрудно. Например, для
модулированного синусоидального сигнала естественно и удобно
взять f0 равной частоте немодулированного несущего колебания. В
других случаях f0 можно выбрать более или менее произвольно или
так, чтобы минимизировать ширину полосы Γ(f). Один из способов
такого рода состоит в выборе в качестве f0 «центра тяжести» вещественной положительной функции |Z(f)|2. Такое значение минимизирует величину
∞
∫ (f − f0 )
2
2
Z (f ) df .
0
Положив производную по f0 равной нулю, найдём
∞
f0 =
∫ f Z (f )
0
∞
∫ Z (f )
2
2
df
=
df
( j2πfZ, Z )
.
2πj ( Z, Z )
(2.8.24)
0
Применяя к (2.8.24) равенство Парсеваля (2.8.8), получим
f0 =
( Z , Z ) (x, xˆ )
=
.
2πj Z 2
2π x 2
(2.8.25)
Такое определение центральной частоты допускает также физическую интерпретацию: f0 есть взвешенное среднее по времени
мгновенной частоты. Действительно, из (2.8.16) и (2.8.25) с учётом
(2.8.15) находим
∞
∫
−∞
ω2 (t)fi (t)dt =
∞
∫ [xˆ (t)x(t) − x (t)xˆ (t)]dt =
2π −∞
2
= (x, xˆ ) = 2 x f0 .
π
Замечая, что согласно (2.8.15)
(2.8.26)
ω2 (t) = x2 (t) + xˆ 2 (t) ,
94
и, следовательно,
2
2
2
ω = x + xˆ
2
=2 x .
(2.8.27)
Объединяя (2.8.26) и (2.8.27), можно привести определение средней частоты f0 к интуитивно подходящей форме средневзвешенной
по огибающей
∞
f0 =
∫
−∞
ω2 (t)
ω
2
fi (t)dt .
2.8.3. Преобразование Фурье
Пусть базисные ядра (2.8.3) имеют вид
U(s,t) = e j2πst , U* (s,t) = e − j2πst , (2.8.28)
для T = (−∞, ∞) и S = (−∞, ∞). Тогда они будут порождать пару преобразований Фурье. Известно, что для обобщенной функции имеет
место следующее предельное соотношение:
W
∫
lim
W →∞
2 πW
e jωt dω =
W →∞ 2π ∫
−2 πW
e j2πst ds = lim
−W
sin2πWt
= δ(t) ,
W →∞
πt
= lim
(2.8.29)
где ω = 2πs.
Из выражения (2.8.29) ясно, что функции (2.8.28) удовлетворяют требованиям (2.8.6) и (2.8.7), предъявляемым к сопряженным
базисным ядрам. Параметр s характеризует частоту каждой базисной функции и обычно обозначается f. Используя это обозначение,
запишем пару преобразований Фурье (прямое и обратное соответ­
ственно)
∞
X( jω) =
∫
x(t) e − jωt dt =
−∞
∞
∫ x(t) e
− j 2 πft
dt = X(f ) ,
∞
∞
x(t) =
X( jω)e jωt dω = ∫ X(f )e j2πft df .
∫
2π −∞
−∞
(2.8.30)
−∞
(2.8.31)
95
Функция X(jω) называется спектральной плотностью или спектром сигнала x(t). X(jω) в общем случае является комплексной функ­
цией частоты ω.
Сопоставляя (2.8.28) с (2.8.3), видим, что базис самосопряженный и, следовательно, согласно (2.8.27)
( X, Y ) = (x, y) . (2.8.32)
Это соотношение известно как равенство Парсеваля при непрерывном представлении сигнала x(t), которое часто применяется для
установления частотно-временной двойственности, дуальности.
Предполагая, что условия Дирихле применительно к x(t) выполняются, достаточным условием применимости преобразования Фурье к реализации сигнала x(t) является ее абсолютная интегрируемость
∞
∫
x(t) dt < ∞ .
(2.8.33)
−∞
основанного на вве Однако использование δ-функции и способа,
дении «множителя сходимости», позволяет расширить класс функций, к которым применимы преобразования Фурье.
При использовании способа, основанного на введении «множителя сходимости», неинтегрируемые по модулю функции, такие как
единичный скачок, функция знака и т. д., заменяются экспоненциальными импульсами e−ct, c >0, для которых условие (2.8.33) выполняется и спектр легко определяется, а затем производится предельный переход при c → 0. Ядра интегральных преобразований ejωt
и e−jωt являются комплексно-сопряженными, т. е. базис представления является самосопряженными, и, следовательно, справедливо
равенство Парсеваля (2.8.32)
∞
∞
∞
2
2
*
∫ X( jω)X ( jω)dω = 2π ∫ X( jω) dω = ∫ x(t) dt = Э ,
2π −∞
−∞
−∞
(2.8.34)
где Э – энергия сигнала.
Таким образом, энергия сигнала может быть определена путем
интегрирования (суммирования) квадрата модуля сигнала во временной области или квадрата модуля спектра в частотной области.
Используя то, что e −jωt = cos ωt−jsin ωt, соотношение (2.8.30)
можно представить в виде
X( jω) = A (ω) − jB(ω) = X( jω) e jθ( ω) ,
96
(2.8.35)
∞
где A (ω) =
∫
∞
x(t)cos ωt dt, B(t) =
−∞
∫ x(t)sin ωt dt .
−∞
Модуль и аргумент спектра определяются выражениями
X( jω) = A (ω)2 + B(ω) , θ(ω) = − arctg [B(ω) A (ω) ]. (2.8.36)
Первое из этих выражений можно рассматривать как амплитудный, а второе – как фазовый сплошные спектры непериодического
сигнала x(t). Как и в случае ряда Фурье, |X(jω)| является четной, а
θ(ω) – нечетной функцией частоты ω. На основании формулы (2.8.35)
нетрудно привести интегральное преобразование (2.8.31) к тригонометрической форме. Имеем
2
∞
x(t) =
j ( ωt +θ( ω))
dω =
∫ X( jω) e
2π −∞
∞
=
∞
X( jω) cos(ωt + θ(ω))dω + j
∫
∫ X( jω) sin(ωt + θ(ω))dω . (2.8.37)
2π −∞
2π −∞
Из чётности модуля и нечётности фазы следует, что подынтег
ральная функция в первом интеграле является чётной, а во втором – нечётной относительно ω. Следовательно, второй интеграл
равен нулю и окончательно
∞
x(t) =
∫ X( jω) cos(ωt + θ(ω))dω =
2π −∞
∞
=
X( jω) cos(ωt + θ(ω))dω.
π 0∫
(2.8.38)
Основные соотношения между сигналами и их спектрами даны
в табл. 2.
Таблица 2
Соотношения для сигналов
Соотношения для спектров
x(t) = x(−t)
X ( jω) = X (ω) = X (−ω)
x(t) = ∑ λ k xk (t)
X ( jω) = ∑ λ k Xk ( jω)
x2 (t) = x (t − t0 )
X2 ( jω) = e − jωt0 X ( jω)
k
x2 (t) = x (mt)
k
X2 ( jω) =
 ω
X j
m  m 
97
Окончание табл. 2
Соотношения для сигналов
Соотношения для спектров
dx (t)
x2 (t) = dt
X2 ( jω) = jω X ( jω)
∞
t
x2 (t) =
∫ x (τ)dτ, ∫ x (τ)dτ = 0
−∞
−∞
X2 ( jω) =
X ( jω)
jω
∞
x(t) = y(t) z(t)
X ( jω) =
∫ Y ( jv) Z( j(ω − v))dv
2π −∞
∞
x(t) =
∫ y(τ) z(t − τ)dτ
X ( jω) = Y ( jω) Z ( jω)
−∞
x2 (t) = X (ω) ω=t = X (t), x2 (t) = x2 (−t)
X2 (ω) = 2π x (t) t =ω = 2π x (ω)
2.9. Представление сигналов в пространстве состояний
2.9.1. Построение модели сигнала в пространстве состояний
Эффективным при обработке информации на ЦВМ является способ представления сигналов в пространстве состояний [7]. Особенно
он эффективен при исследовании свойств линейных систем, так как
он не делает различия в описании одномерных и многомерных систем и позволяет более полно исследовать динамические особенности
систем. Согласно этому методу сигнал описывается системой дифференциальных и алгебраических уравнений, в правые части которых входят некоторые элементарные функции времени (входные
возмущения). В векторной форме эта система уравнений имеет вид
dx(t)
= f (x(t)) + h(w(t),t) ,
dt
(2.9.1)
y(t) = c(x(t),t) + d(w(t),t) , (2.9.2)
где y(t) – N-мерный векторный сигнал; x(t) – m-мерный вектор независимых вспомогательных переменных, называемых переменными состояния; w(t) – l-мерный вектор входных возмущений; f, h, c,
d – известные вектор-функции. В качестве wi(t), i = 1, …, l обычно
используют простейшие функции: при описании детерминированных сигналов – δ-функцию Дирака или единичную функцию 1(t),
при описании случайных сигналов – белый шум. При этом, чтобы
98
все переменные состояния xi, i = 1, …, m были непрерывными функциями времени, уравнения (2.9.1) и (2.9.2) должны быть составлены в такой форме, чтобы в них не входили призводные возмущений
wi(t), i = 1, …, l. Дифференциальное уравнение (2.9.1) называется
уравнением переменных состояния, а алгебраическое соотношение
(2.9.2) – выходным уравнением. Оно устанавливает связь между
вектором переменных состояния x(t) и y(t). Область определения
вектора x(t) носит название пространства состояний. С физической
точки зрения уравнения (2.9.1) и (2.9.2) представляют собой описание формирующего фильтра. На выходе формирующего фильтра
образуется искомый сигнал y(t) при подаче на его вход воздействия
w(t). В зависимости от типа сигнала w(t) уравнения формирующего
фильтра (2.9.1) и (2.9.2) могут принимать различный вид. В частности, линейный стационарный формирующий фильтр с постоянными
параметрами описывается уравнениями
dx(t)
= Fx(t) + Hw(t) ,
(2.9.3)
dt
y(t) = Cx(t) + Dw(t) , (2.9.4)
F, H, C, D – прямоугольные матрицы коэффициентов.
Заметим, что один тот же сигнал y(t) может быть получен на
выходе формирующих фильтров различной структуры и при различных видах воздействия w(t). Однако при выборе формирующего
фильтра (т. е. переменных состояния x(t) и типа входного воздействия w(t)) необходимо обеспечить управляемость и наблюдаемость
этого фильтра. Фильтр является управляемым, если можно найти
какое-либо воздействие w(t), которое за конечное время переведёт
его из одного заданного состояния в другое. Наблюдаемым называют такой фильтр, для которого значения переменных состояния
можно получить исследованием выходного сигнала y(t).
Рассмотрим переход к уравнениям в пространстве состояний для
одномерной системы, описываемой простейшим дифференциальным уравнением вида
n
d i y(t)
i =0
dti
∑ ai (t)
= x(t)
со
следующими начальными условиями:
d i y(t)
dti
(2.9.5)
= yi0 , i = 0,n − .
(2.9.6)
t =t0
99
Осуществим переход от уравнения (2.9.5) к системе n уравнений первого порядка. Введём n новых независимых переменных
zi, i = 1, …, n по следующим формулам:
z = y ,


dy(t)
z2 =
, 

dt
(2.9.7)



dn −y(t) 
zn =
. 
dtn −

Дифференцируя каждое из равенств (2.9.7) и последовательно
подставляя в каждое предыдущее соотношение последующее, получим
dz (t)

= z2 (t) , 
dt

dz2 (t)
= z3 (t) , 
(2.9.8)
dt




dzn − (t)

= zn . 
dt

Дифференцируя последнее из равенств (2.9.8) и подставляя в
dn y(t)
правую часть полученной формулы вместо
выражение из
dtn
уравнения
(2.9.5), получим следующее соотношение
n −
dzn (t)
d i y(t)
=
(x(t) − ∑ ai (t)
).
dt
an (t)
dti
i =0
Подставив
правой части последней формулы вмесd i y(t)
то производных
, i = 0,n − их обозначения, определяdti
емые формулами ( 2.9.7), получим уравнение
dzn (t)
a (t)
a (t)
a (t)
= − 0 z (t) − z2 (t) − ... − n − z (t) +
x(t) . (2.9.9)
dt
an (t)
an (t)
an (t)
an (t)
Уравнения (2.9.8) и (2.9.9) представляют собой систему дифференциальных уравнений первого порядка относительно неизвестных функций z1(t), z2(t), …, zn(t).
Используя векторно-матричную форму записи, перепишем систему (2.9.8) – (2.9.9) в следующей форме:
100
в
dz(t)
= F (t)z(t) + Γ(t)x(t) ,
dt
y(t) = Η(t)z(t) ,
где z(t) – n-мерный вектор вида
z(t) =
z (t)
z2 (t)

zn (t)
(2.9.10)
,
F(t), Γ(t), H(t) – матрицы вида
0
0
0
0
0

0




F (t) =
,
0
0

a (t)
a (t)
a (t)
− 0
−  − n −
an (t)
an (t)
an (t)
0
0
Γ(t) = 
,
an (t)
(2.9.11)
H(t) = H = 0  0 .
Заметим, что второе из равенств (2.9.10) определяет связь выхода
системы y(t) с вектором функций z(t). Начальные условия (2.9.6)
для
уравнения (2.9.5) согласно обозначениям (2.9.11) определяют начальные значения вектора z(t) в момент t = t0, т. е. полностью определяют
начальное условие z(t0) = z0 для векторного уравнения (2.9.10).
Уравнения системы вида (2.9.10) и называют уравнениями в пространстве состояний. Вектор z(t) называется вектором состояния. Размерность его совпадает с порядком дифференциального уравнения
системы. Компоненты этого вектора представляют собой совокупность
величин, полностью определяющих состояние системы как в данный
момент времени, так и во все последующие, поскольку играют роль начальных условий для всего будущего движения системы.
Итак, будем определять состояние системы вектором z(t) с компонентами z1(t), z2(t), …, zn(t). Множество этих векторов составляет пространство состояний, которое может рассматриваться как абстрактное линейное n-мерное евклидово пространство. Набор n линейнонезависимых векторов в этом пространстве образует базис системы
координат. Каждая координата вектора z(t) представляет собой проекцию вектора состояния на соответствующий вектор базиса.
Рассмотрим для более сложного дифференциального уравнения
динамической системы вида
101
n
d i y(t)
i =0
dti
∑ ai (t)
m
d i x(t)
i =0
dti
=∑ bi (t)
( 2.9.12)
иной
способ перехода к описанию в пространстве
состояний.
В частном случае уравнения второго порядка пространства состояния представляет собой фазовую плоскость, а параметры состояния – фазовые координаты (положение и скорость). Поэтому иногда и в n-мерном пространстве компоненты вектора состояния называют координатами. Заметим, что существует принципиальное
различие в содержании таких понятий, как вход и выход системы
и параметры состояния. Вход и выход системы являются конкретными физическими величинами, в то время как вектор состояния,
вообще говоря, представляет собой абстрактную характеристику
системы, т. е. физическая природа фазовых координат не существенна. Различный способ получения уравнения (2.9.10) по уравнению (2.9.12) даёт для одного и того же вектора состояния различные
системы уравнений для фазовых координат, что связано с выбором
того или иного базиса в пространстве состояний.
Введём новые переменные, опуская аргумент t у соответствующих функций zi, i = 1, …, n следующим образом:
zn = an y ,







dy
dn − m y
zm = am y + am+
+ ... + an n −m − bm x ,

dt
dt


dy
dn −m+y
dx
 (2.9.13)
zm− = am−y + am
+ ... + an n −m+ − bm x − bm
− bm−x ,

dt
dt
dt




n −2
m −2
m −3
dy
d y
d x
d x
z2 = a2 y + a3
+ ... + an n −2 − bm m−2 − bm− m−3 − ... − b2 x ,

dt
dt
dt
dt

n −
m −
dy
d y
d x
dx

z = ay + a2
+ ... + an n − − bm m− − ... − b2
− bx .

dt
dt
dt
dt

dy
zn − = an −y + an
,
dt

Дифференцируя обе части первого из уравнений (2.9.13) и подставляя во второе, получим
zn − = an −y + zn .
102
Проделаем аналогичную операцию с каждой последующей парой уравнений.
В результате система (2.9.13) приведётся к виду
zn = an y ,


dzn

zn − = an −y + an
,

dt




dzm +
zm = am y +
− bm x ,

dt

(2.9.14)

dz
zm − = am −y + an m − bm−x , 
dt




dz3

z2 = a2 y +
− b2 x ,

dt

dz2

z = ay +
− bx .

dt
Дифференцируя обе части последнего равенства в (2.9.14) и учтя
уравнение (2.9.12), получим
dz
= b0 x − a0 y .
dt
(2.9.15)
Выразив y через zn из первого уравнения в (2.9.14) и подставив
его во все последующие уравнения в (2.9.14) и (2.9.15), придём к сле
дующей системе уравнений первого порядка:

a
dz
= − 0 zn + b0 x ,

dt
an


dz2
a
= z − zn + bx ,

dt
an




dzm +
am

(2.9.16)
= zm −
zn + bm x , 
dt
an


dzm +2
a
= zm + − m + zn ,

dt
an




dzn
an −

= zn − −
zn .

dt
an

103
Система уравнений (2.9.16) может быть записана в векторно-матричной форме (2.9.10), где z(t) – n-мерный вектор состояния с компонентами z1, z2, …, zn, а матрицы F, Γ имеют вид
F=
0 0

−
a0
an
0

−
a
an
−
a2
an
0 0
Γ=
,
b0
b

bm .
(2.9.17)
0

0

   
a
0 0  − n −
an
В частном случае, когда уравнение (2.9.12) вырождается в уравнение (2.9.5), матрица из (2.9.17) принимает вид
Γ= 0  0
T
.
Сопоставляя в этом случае равенства (2.9.16) с равенствами
(2.9.8) (2.9.9), видим, что для одного и того же уравнения (2.9.5)
можно получить различные уравнения в пространстве состояний.
Это вызвано тем, что уравнения (2.9.16) и (2.9.8), (2.9.9) записаны
в разных базисах. Если фазовые координаты, определяемые соотношениями (2.9.8), имеют определённую физическую сущность
(это выходной сигнал и его производные), то фазовым координатам,
введённым формулами (2.9.16), трудно приписать какую-либо физическую природу. Если порядок m полинома в правой части уравнения (2.9.12) равен порядку n полинома левой части, то первое из
обозначений (2.9.13) запишется в виде
zn = any−bnx.
Ход дальнейших преобразований не изменится, только соотношение для выхода будет иметь вид
y=
b
zn + n x ,
an
an
следовательно, в общем случае при m = n второе из равенств (2.9.10)
следует записывать в форме
y = Hz+Cx,
104
H= 0  0
,
an
C=
bn
.
an
В дальнейшем будем предполагать, что рассматриваются уравнения, для которых m < n, что в стационарном случае соответствует динамическим звеньям, передаточные функции которых имеют
степень числителя меньше степени знаменателя.
2.9.2. Представление случайных процессов
в пространстве состояний
Случайные процессы, которые могут быть описаны в пространстве состояний, относятся к широкому классу марковских случайных процессов. Часто при исследовании информационно-измерительных систем модель сигнала x(t) бывает представлена в виде
случайного гауссовского процесса.
Рассмотрим скалярный сигнал x(t), представляющий собой стационарный гауссовский центрированный случайный процесс, спектральная плотность которого имеет вид дробно-рациональной функ­
ции
S(ω) =
ar ( jω)2r + ar − ( jω)2r −2 + ... + a0
bn ( jω)2n + bn − ( jω)2n −2 + ... + b0
.
(2.9.18)
В соответствии с методом пространства состояний
представим
процесс x(t) как результат прохождения белого шума w(t) c корреляционной функцией Kw (τ) = 2πc2 δ(τ) (c2 – спектральная плотность
белого шума) через линейный формирующий фильтр с частотной
характеристикой K(jω). Задача состоит в том, чтобы по заданному
спектру (2.9.18) найти частотную характеристику K(jω).
Из теории случайных процессов известно, что на выходе линейного фильтра спектральная плотность стационарного процесса
2
Sx (ω) = c2 K ( jω) .
( 2.9.19)
Определение K(jω) из уравнения (2.9.19) при спектре S(ω) называют задачей о факторизации спектра. Вычислив нули zi, i = 1, …, 2r
и полюсы pi, i = 1, …, 2n спектральной плотности (2.9.18), представим S(ω) в виде
Sx (ω) =
ar ( jω − z2r )( jω − z2r − )...( jω − z )
.
bn ( jω − p2n )( jω − p2n − )...( jω − p )
(2.9.20)
105
На основании того, что S(ω) является действительной, чётной и
неотрицательной функцией, все её нули и полюсы составляют комплексно-сопряжённые пары. Тогда спектральную плотность можно
представить в виде
2
Sx (ω) = Sx+ ( jω)Sx− ( jω) = Sx+ ( jω) ,
где Sx− ( jω) = Sx+ (− jω) . К функции Sx+ ( jω) отнесём нули и полюсы, лежащие в левой полуплоскости комплексной переменной jω и половину каждой пары чисто действительных нулей и полюсов. В таком
случае комплексная частотная характеристика формирующего
фильтра определяется выражением
K ( jω) =
Sx+ ( jω)
c2
.
(2.9.21)
Определим систему дифференциальных
уравнений, описывающую формирующий фильтр с дробно-рациональным коэффициентом передачи (2.9.21) вида
l ( jω)r + lr − ( jω)r − + ... + l0
L( jω)
K ( jω) =
= r
, n ≥ r . (2.9.22)
Q( jω) qn ( jω)n + qn − ( jω)n − + ... + q0
Без нарушения общности положим qn = 1. Из (2.9.22) следует, что
формирующий фильтр описывается дифференциальным уравнением n-порядка следующего вида:
x(n) (t) + qn −x(n −) (t) + ... + q0 x(t) =
= lr w(r ) (t) + lr −w(r −) (t) + ... + l0 w(t) ,
(2.9.23)
и дальнейшая задача заключается в представлении уравнения
(2.9.23) в форме (2.9.10).
Как было показано выше, наиболее просто этот переход осуществляется в случае, когда L(jω) является полиномом нулевой степени,
т. е. когда r = 0, L(jω) = l0. Положив x(t) = x1(t), из (2.9.23) получим
искомую систему дифференциальных уравнений относительно
компонент вектора X переменных состояния

x() = x2 (t) ,




()
xn − = xn (t) ,


n −
x() = − q x (t) + l w(t) ,
∑ i i +
0
 n
i =0

(2.9.24)
106
которая тождественна (2.9.10), если положить
0
0
F= 
0
−q0
0 
0
0

0
  
 ,
0 0 
−q −q2  −qn −
0
0
Γ=  .
0
l0
Вектор переменных состояния X размерности n×1 в данном случае образован фазовыми координатами процесса x(t), т. е. его производными от нулевого до (n−1)-го порядка. Чтобы обеспечить стационарность процесса x(t), начиная непосредственно с момента начала
наблюдения, необходимо систему (2.9.10) дополнить соответствующими случайными начальными условиями. В более общем случае
r ≥ 1 переход от (2.9.23) к (2.9.10) усложняется из-за наличия производных от белого шума в правой части уравнения.
2.10. Представление дискретных во времени сигналов
2.10.1. Представление сигнала
с ограниченной частотной полосой
в виде ряда В. А. Котельникова
В теории и технике сигналов широко используется теорема В. А. Котельникова (теорема отсчетов) [1]: если спектр функции x(t) ограничен некоторой частотой fm, то функция x(t) полностью определяется
последовательностью своих значений в моменты времени, отстоя
щие друг от друга не более чем на
секунд. Таким образом, мак2fm
симальный интервал дискретизации такой функции
π
π
(2.10.1)
∆T =
=
=
.
2fm 2πfm ωm
по сравнению с веСокращение интервалов между выборками
личиной
допустимо, но бесполезно. Увеличение же интерва2fm
лов сверх величины
недопустимо при точном представлении
2fm
сигнала. Сигнал x(t), ограниченный по спектру, можно представить
рядом Фурье следующего вида:
x(t) =
∞
∑ x(k∆T ) ⋅
k =−∞
sin ωm (t − k∆T )
,
ωm (t − k∆T )
(2.10.2)
107
где коэффициенты ряда Фурье αk = x(k∆T) определяются выборками
функции x(t) в моменты времени t = k∆T, а ортогональный базис


sin ωm (t − k∆T )
, − ∞ ≤ t ≤ ∞
ϕk (t) =
ω
(
t
−
k
∆
)
m
T


имеет
бесконечный интервал ортогональности и квадрат нормы,
равный
ϕk
2
∞
=
∫
ϕk2 (t) dt =
−∞
∫
sin 2 ωm (t − k∆T )
−∞
=
∞
ωm
∞
∫
−∞
sin 2 x
x2
ω2m (t − k∆T )
dt =
dx = ∆T .
(2.10.3)
Функция
sin ωm (t − k∆t )
ϕk (t) =
= sinc ωm (t − k∆T )
ωm (t − k∆T )
(2.10.4)
называется
функцией отсчетов (импульс вида sinc ω mt при k∆T = 0
представлен на рис. 2.16).
sinc(ωmt)
Φ0( ω)
1
−1/2fm
1/2fm
1/2fm
t
Рис. 2.16. Функция отсчётов
−2πfm
2πfm ω
Рис. 2.17. Спектр функции ϕ0(t)
Функция отсчетов обладает следующими свойствами:
– в точке t = k∆T, ϕk(k∆T) = 1, а в точках t = n∆T, где n – любое целое
положительное или отрицательное число, отличное от k, ϕk(n∆T) = 0;
– спектральная плотность функции ϕ0(t) равномерна в полосе
частот |ω| < ωm и равна
π
=
(рис. 2.17).
2fm ωm
Так как функция ϕk(t) отличается от ϕ0(t) только сдвигом на оси
времени на величину k∆T, то спектральная плотность функции ϕk(t)
 − jk∆T ω
e
= ∆T e − jk∆T ω при − ωm < ω < ω ,

Φ k (ω) =  2fm
0
при ω < −ωm и ω > ωm .

108
(2.10.5)
Так как спектр x(t) ограничен, то сигнал x(t) является непрерывным и определен в интервале −∞ < t < ∞. Поэтому ряд (2.10.2), как
ряд Фурье, точно определяет заданный сигнал x(t) не только в точках отсчета, но и в любой момент времени. При этом коэффициенты
Фурье в соответствии с (2.6.12), (2.10.1), (2.10.5)
αk =
∆T
ω
∞
∫
x(t)ϕk (t)dt =
−∞
2fm m
− jk∆T ω
X(ω)
e
dω = x(k∆T ) .
2π −ω∫
2fm
m
В этой формуле использовалась теорема Релея: для любых двух
функций f(t) и g(t) справедливо соотношение
∞
∫
∞
f (t) g (t)dt =
−∞
*
∫ G(ω)F (ω)dω ,
2π −∞
(2.10.6)
где FP*(ω) и G(ω) – соответственно сопряженный спектр
функции f(t)
и спектр функции g(t), и при этом учтено, что интеграл
ω
m
X(ω)e jk∆T ωdω = x(k∆T ) .
2π −ω∫
m
Если длительность сигнала Tc, как и полоса частот ωm, практически ограничены, то для полного задания сигнала необходимо число выборок
N=
Tcс
T
+ ≈
= 2fmTc .
∆T
∆T
(2.10.7)
При этом выражение (2.10.2) принимает следующий
вид:
xˆ (t) ≈
N
2
∑
k =−
N
2
x(k∆T )
sin ωm (t − k∆T )
.
ωm (t − k∆T )
Число N иногда называют числом степеней свободы или базой
сигнала.
Энергию Э и среднюю мощность x2 сигнала x(t) нетрудно выразить через заданную последовательность выборок:
Э=
fmTc
2
∑ [x(k∆T )]
k =− fmTc
ϕk = ∆T
fmTc
2
∑ [x(k∆T ] ,
k =− fmTc
109
x2 =
Э ∆T
=
Tc Tc
fmTc
fmTc
2
2
∑ [x(k∆T )] = 2f T ∑ [x(k∆T )] .
k =− fmTc
m c k =− fmTc
(2.10.8)
Из выражения (2.10.8) видно, что средняя за время T мощность
c
непрерывного сигнала равна среднему квадрату выборки. Усреднение ведется по всем интервалам, число которых равно 2fmTc.
Представление сигналов рядом В. А. Котельникова (временное
представление) явилось основой для развития геометрических методов исследования в пространстве сигналов. Временное представление сигнала позволило значительно упростить решение задач,
касающихся преобразования сигналов в линейных электрических
цепях, так как при этом основные аналитические операции сводятся к алгебраическим. Это же представление легло в основу теории
потенциальной помехоустойчивости сигналов. Важное значение
теоремы В. А. Котельникова в том, что она позволила заменить передачу непрерывных сигналов более простой задачей передачи дискретных сигналов.
Основные погрешности и недостатки представления рядом
В. А. Котельникова реальных сигналов связаны со следующими
причинами.
1. Реальные сигналы являются случайными функциями времени, спектр которых неограничен. Поэтому для них временное дискретное представление при использовании ряда В. А. Котельникова
является приближенным.
2. Реализации сигналов являются ограниченными по длительности. У таких сигналов спектр неограничен, т. е. условия ограниченности по частоте fm и длительности Tc несовместимы. Поэтому
определение конечного числа N (базы сигнала) является также приближенным. При этом точность воспроизведения x(t) по конечной
выборке размера N уменьшается от середины выборки к концам ее.
3. На практике представление непрерывной функции в виде дис
кретных отсчетов через интервал времени ∆T =
не позволяет
2fm
воспроизводить процесс, развивающийся во времени. Если вне интервала наблюдения T получен хотя бы один дополнительный отсчет, то при восстановлении изменяются все значения функции x(t)
на всем интервале T, за исключением отсчетных значений.
4. Для восстановления функции x(t) по отсчетам x(k∆T) необходимо формирование функции отсчётов sinc ωm(t−k∆T), которое сопряжено с использованием фильтров низкой частоты. Причем воспроизведение тем точнее, чем ближе фильтр к идеальному. Но это
110
физически трудно реализуемо и приводит к значительному запаздыванию при восстановлении сигнала.
5. Для реальных сигналов частота среза fm является трудно определяемым параметром. Один из возможных способов ее нахождения состоит в том, что задаются относительной ошибкой воспроизведения сигналов в виде
∞
ε2 (t) =
2
ε (t)
x2 (t)
∫
=
ωm
∞
2
S(ω) dω
∫ S(ω)
(2.10.9)
2
dω
0
отсюда находят граничную частоту ωm (круговая
и
частота среза).
В формуле (2.10.9) |S(ω)| – модуль спектральной плотности сигнала x(t), x2 (t) – средняя энергия сигнала x(t); ε2 (t) – средняя энергия
ошибки аппроксимации реального сигнала сигналом с конечным
спектром.
Относительную ошибку временной дискретизации сигнала x(t)
при конечном числе отсчётов можно определить в следующем виде:
2
δ2д =
ε2N (t)
x2 (t)
=
N /2


x
(
t
)
−

∑ x(k∆T )ϕk (t)  dt
∫
k =− N /2
T

2
∫ x (t)dt
,
(2.10.10)
T
где ε2N (t)
– средняя энергия ошибки воспроизведения сигнала x(t)
на
интервале T по N отсчётам.
2.10.2. Дискретное преобразование Фурье
Известно, что спектр периодического сигнала по тригонометрическому базису есть последовательность коэффициентов ряда Фурье, т. е. спектр является линейчатым. В то же время можно выделить всего один период из бесконечного по времени периодического
сигнала, считая, что за пределами периода сигнал равен нулю, и
найти преобразование Фурье (ПФ) этого сигнала конечной длительности, т. е. найти спектр непериодического сигнала. Соотношение
этих двух сигналов и их спектров таково, что коэффициенты Фурье
периодического сигнала равны с точностью до множителя 1/T отсчётам спектра соответствующего непериодического сигнала, берущимся на частотах, кратных основной частоте 1/T.
111
Теперь произвёдем дискретизацию сигналов по времени. Считаем, что дискретизация идеальная, т. е. получаются мгновенные отсчёты исходного сигнала s(kT), k = −∞,..., ∞ , T – шаг дискретизации.
Математически правильным описанием дискретизированного сигнала является модель на основе перемножения исходного сигнала с
периодической последовательностью δ‑функций:
sT (t) = s(t)
∞
∞
k =−∞
k =−∞
∑ δ(t − kT) = − ∑ s(kT) δ(t − kT) .
(2.10.11)
В результате дискретизации спектр исходного непрерывного
сигнала становится периодическим, в общем случае с наложением
«хвостов» исходного спектра, так как спектр сигнала конечной длительности всегда имеет бесконечную протяжённость:
ST (ω) =
∞
∑ S(ω − n ω ) .
(2.10.12)
n =−∞
При этом важно то, что спектр дискретизированного
сигнала является непрерывным, т. е. сплошным.
Итак, спектр дискретизированного сигнала можно получить
из спектра исходного непрерывного сигнала. Для теоретического
анализа такое получение спектра может быть оправданным, так
как спектр исходного непрерывного сигнала известен. Но спектры
используются не только для теоретического анализа, но и для непосредственной обработки реальных сигналов, которая предполагает определение спектра сигнала по его реализации. Если сигнал
дискретизирован, то это означит, что спектр надо определять по его
отсчётам, не имея спектра исходного непрерывного сигнала. Для
этого надо взять ПФ непосредственно от sT(t):
∞
∞
 ∞

ST (ω) = ∫ sT (t) e − jωt dt = ∫  ∑ s(kT ) δ(t − kT )  e − jωt dt =

−∞
−∞  k =−∞
=
∞
∑
k =−∞
∞
s(kT ) ∫ δ(t − kT ) e − jωt dt =
−∞
∞
∑ s(kT) e− jωkT .
(2.10.13)
k =−∞
Заметим, что если исходный непрерывный сигнал задан
на положительной временной полуоси, т. е. s(t) = 0, t < 0, то тогда будет
∞
∞
0
k =0
ST (ω) = ∫ sT (t) e − jωt dt = ∑ s(kT ) e − jωkT .
112
Если сигнал имеет конечную длительность, то, начиная с некоторого номера N, отсчёты будут нулевыми, и поэтому спектр сигнала, представленного N отсчётами, будет иметь вид
ST (ω) =
N −
∑ s(kT) e− jωkT .
(2.10.14)
k =0
Итак, спектр может быть вычислен по самим
отсчётам, и является непрерывной функцией, определенной на всей бесконечной оси
частот. В принципе, так как спектр периодический, то достаточно
знать его только на протяжении одного периода, например на интервале (−π/T, π/T) или (0, 2π/T), и даже можно сказать больше – достаточно знать его на вдвое меньшем интервале частот, например
(0, π/T), так как значения спектра на интервале (0, π/T) комплексно
сопряжены со значениями на интервале (π/T, 2π/T).
Необходимо отметить следующее обстоятельство. Для восстановления всего сигнала sT(t), т. е. на всей временной оси в виде
∞
∑ s(kT) δ(t − kT),
k =0
необходимо брать обратное ПФ от ST(ω) на всей
оси частот, т. е. от −∞ до ∞ по всем периодам спектра. Но если требуется восстановить только один отсчёт исходного непрерывного сигнала, т. е. получить s(kT), достаточно взять обратное ПФ только на
одном периоде ST(ω):
π /T
s(kT ) =
T
ST ( jω) e jωkT dω .
2π −π∫/T
(2.10.15)
При цифровой реализации обработки сигналов
на основе использования спектров необходимо сплошной спектр, пусть даже в ограниченном диапазоне частот, заменить на совокупность чисел, или
дискретизировать, т. е. получить отсчёты спектра ST(ω) на фиксированных частотах:
ST (n ∆ω) =
N −
∑ s(kT) e− j ∆ωnkT = S(n), n = 0, ± ,
± 2, ...,
(2.10.16)
k =0
где Δω – шаг дискретизации по частоте.
Выбирая Δω надо понимать, что должно быть обеспечено точное
восстановление дискретного сигнала sT(t) из дискретного спектра
S(n). Для такого восстановления можно использовать либо связь
спектров сигнала конечной длительности и периодического сигнала, полученного из первого путём периодического продолжения,
113
либо теорему Котельникова в частотной области по отношению к
спектру. В итоге восстановленный из дискретного спектра сигнал
sT (t) становится периодическим с периодом по времени Tc = 2π/Δω.
Таким образом, после восстановления сигнал является и периодическим, и дискретизированным. Очевидно, что максимально
допустимая величина Δω определяется необходимостью отсутствия
наложения отдельных периодов sT (t), т. е. Tc = 2π/∆ω ≥ τc = NT, где
tc – длительность исходного непрерывного сигнала; N – количество
отсчётов при дискретизации по времени; T – шаг дискретизации.
Поэтому обычно берут ∆ω = 2π/NT.
Так как S(n) – периодическая последовательность (поскольку
ST(ω) – периодическая), то достаточно иметь отсчёты S(n) только
на одном периоде, т. е. достаточно всего (2π/T)/(2π/NT) = N отсчётов
S(n) при n = 0, …, N−1 и Δω = 2π/NT. S(n) называется дискретным
преобразованием Фурье (ДПФ) [1] последовательности s(kT) из N
отсчётов. Преобразования s(kT) ⇔ S(n), k, n = 0, …, N−1 являются
взаимнооднозначными, при этом s(kT) получается из S(n) при помощи обратного ДПФ
2π
s(kT ) = s(k) =
j kn
N −
S(n) e N , k = 0,..., N − ,
∑
N n =0
где
(2.10.17)
S(n) =
N −
∑ s(kT) e
−j
2π
nk
N
, n = 0,..., N
− .
k =0
В показателе экспонент появился множитель 2/N из-за того, что
ΔωT = 2π/N. Заметим, что индекс n в ДПФ можно было бы задавать и
на другом диапазоне, например так: n = −N/2, …, 0, …, (N/2−1) – важно лишь, чтобы это был полный период, т. е. N отсчётов спектра, и
при этом восстановленный сигнал s(kT) не изменится (под знаком
суммы в (2.10.17) стоит периодическая функция S(n) e
j
2π
kn
N
,
j
которая
2π
kn
N
).
является периодической в силу периодичности S(n) и e
Заметим также, что задание S(n) на всём периоде является избыточным,
так как S(n) комплексно сопряжены с S(−n) и S(N/2+n) с S(N/2−n).
Поэтому достаточно иметь S(n) для n = 0, …, N/2−1. При этом информация не теряется, так как каждое значение S(n) комплексное и соответствует двум отсчётам сигнала s(kT).
При практическом использовании ДПФ естественно желание,
чтобы ДПФ по возможности точнее отражало непрерывное ПФ, т. е.
114
чтобы по S(n) можно было судить о спектре S(ω). Для этого необходимо знать свойства S(n) и S(ω) и их соответствие. Прежде всего, необходимо учитывать, что S(n) и S(ω) всегда будут различаться для
реальных сигналов в силу дискретизации s(t), т. е. в силу наложения спектров по теореме Котельникова. Поэтому S(n) = ST (n ∆ω) является выборкой спектра дискретизированного сигнала, а не спектра исходного сигнала, т. е. не S(n ∆ω). Для уменьшения указанного
различия двух спектров необходимо увеличивать частоту дискретизации, т. е. уменьшать T. Разрешение по частоте, т. е. шаг Δω определяется при выбранном T количеством отсчётов N (и сигнала, и
спектра). При этом разрешение по частоте в Гц, т. е. Δf равно 1/NT,
т. е. обратно общей длине выборки по времени. Отсюда следует важное заключение – длину выборки NT нельзя брать меньше чем 1/Δf.
Для ДПФ справедливы свойства, подобные свойствам непрерывного ПФ, но с определенными особенностями. Например, при сдвиге
непрерывного сигнала по времени на величину t0 непрерывное ПФ
принимает вид
S(ω) → S(ω) e − jωt0 ,
а для ДПФ
S(n) → S(n) e
−j
2π
k0n
N
,
где k0 – количество тактов сдвига. Однако различие в том, что сдвиг
для дискретизированного сигнала считается круговым, т. е. при
сдвиге, например, вправо по временной оси (задержка сигнала)
отсчёты, выходящие за правую границу интервала [0, N−1], должны быть переставлены влево по кругу в его начало в порядке следования, в результате чего выборка отсчётов примет вид {s(N−k0),
s(N−k0+1), …, s(N−1), s(0), …, s(N−1−k0)}. Широкому распространению ДПФ способствовала разработка алгоритма так называемого
«быстрого» преобразования Фурье (БПФ), применимого при чётном
N, в котором происходит сокращение в N2/N log2N раз количества
вычислительных операций (при N = 1024 примерно в 100 раз).
2.10.3. Дискретное преобразование Лапласа и z-преобразование
При описании дискретных процессов и исследовании дискретных и цифровых систем широко применяются дискретное преобразование Лапласа и z-преобразование [7].
Дискретный процесс применительно к ИИС образуется, как
правило, из непрерывного сигнала x(t) путём взятия отсчетов в моменты времени t = kT, k = …, −1, 0, 1, …, или в более общем случае
115
t = kT+εT, т. е. x(kT+εT) = x[k, ε], где ε – фиксированная величина
(0 ≤ ε ≤1), задающая смещение отсчёта по времени.
Одностороннее дискретное преобразование Лапласа представляют рядом
∞
X(s, ε) = ∑ e − skT x[k, ε] .
(2.10.18)
k =0
Заметим, что преобразование Фурье или спектр
смещённого дискретного процесса x[k, ε] имеет вид
X( jω, ε) =
∞
∑ e− jωkT x [k,ε],
(2.10.19)
k =−∞
а дискретное преобразование Фурье, определённое
при ε = 0, для
выборки объёмом N на основании п. 2.10.2
X(n) =
N −
∑ e−(2π / N )nk x [k,0],
n = 0, N − .
(2.10.20)
k =0
При аналитических расчетах предпочтительнее применение zпреобразования, образующегося из выражения (2.10.18) путем замены esT на z.
Таким образом, соотношение
∞
X [z, ε ] = ∑ z−k x [k, ε ]
(2.10.21)
k =0
определяет
z-преобразование дискретного процесса x[k, ε]. Пара
метр ε не влияет на свойства z-преобразования, поэтому рассмотрим
дискретную функцию x[k] = x[k, 0] и соответствующее ей z-преобразование
∞
X(z) = Z {x [k]}= ∑ z−k x [k].
(2.10.22)
k =0
Ряд
(2.10.22) во многих случаях удается просуммировать
и предста
вить z-преобразование в замкнутой форме.
Приведем наиболее важные свойства z-преобразования.
1. Теорема линейности.
Изображение линейной комбинации дискретных функций равно линейной комбинации их изображений
Z {ax[k] + a2 y[k] + a3 f [k] + ... }= a X (z) + a2 Y (z) + a3 F (z) + .... (2.10.23)
116
2. Теорема сдвига.
Если n – целое положительное число, то
n


Z {x [k − n]}= z−n  X(z) + ∑ zm x [−m] .
m =


(2.10.24)
значениях k,
Если функция x[k] равна нулю при отрицательных
то из выражения (2.10.24) получим
Z {x [k − n]}= z−n X(z) ,
(2.10.25)
т. е. сдвиг аргумента на −n соответствует умножению изображения
на z−n.
3. Теорема свертывания оригиналов.
 k

Z  ∑ x[m] y[k − m]  = X(z)Y (z) .
m =0

Ряд
k
k
m =0
m =0
(2.10.26)
∑ x[m]y[k − m] = ∑ y[m]x[k − m]
называют дискретной сверт-
кой.
4. Теорема о конечном значении.
lim x[k] = lim(z − ) X(z) .
k →∞
z→
(2.10.27)
5. Теорема обращения.
Оригинал x[k] = Z−1{X(z)} определяется выражением
x[k] =
X(z)zk −dz .

∫
2πj Γ
(2.10.28)
Контур
интегрирования Г должен охватывать все особые точки под­
ынтегрального выражения. При дробно-рациональных функциях
X(z) оригинал удобно находить по таблицам z-преобразования.
2.10.4. Особенности дискретизации случайных сигналов
Случайные сигналы отличаются тем, что их спектральная плотность S(ω), как правило, имеет бесконечную протяженность по частоте, асимптотически уменьшаясь до нуля при ω → 0. Следовательно, дискретизация с конечной частотой выборки приводит к неустранимой погрешности представления реализации сигнала.
117
Пусть погрешность восстановления (см. (2.10.10)) характеризуется средним по времени и реализациям квадратом отклонения восстановленного аналогового сигнала x (t) от исходного x(t):
2
 
σ2в = M  ∫ [x(t) − x (t) ] dt  .
 T T

(2.10.29)
Будем считать, что восстановление аналогового
сигнала происходит в соответствии с выражением
Nk
x (t) = ∑ x(tk ) Φ k (t) ,
(2.10.30)
k =0
где Φ (t) – базисные функции, удовлетворяющие
условию x (tk ) = x(tk )
k
совпадения восстановленного и исходного сигналов в моменты
времени tk взятия отсчётов. Подставляя выражение из (2.10.30) в
(2.10.29) и раскрывая математическое ожидание, получим
σ2в = −
+
2 Nk
∑ Rx (t − tk ) Φk (t)dt +
T k =0 T∫
Nk Nk
∑ ∑ Rx (t − tk ) Φi (t) Φk (t)dt ,
T i =0 k =0 T∫
(2.10.31)
где R (t) – корреляционная функция исходного случайного
сигнаx
ла. Очевидно, что при произвольных Rx(τ) и Φk(t) величина σ2в является конечной величиной. Минимум σ2в при заданной частоте
дискретизации могут обеспечить оптимальные Φk(t). Однако поиск
оптимальных Φk(t) при произвольной заданной корреляционной
функции Rx(τ) является затруднительным. Но в одном частном случае, когда спектральная плотность случайного сигнала равномерна
в ограниченной полосе частот
 , − ωc ≤ ω ≤ ωc ,

Sx (ω) =  2 ωc

0 , ω ≥ ωc ,

т. е. соответствует корреляционной функции
Rx (τ) =
118
sin ωc τ
,
ωc τ
(2.10.32)
при условии, что интервал времени бесконечный, т. е. T = ∞ и Nk = ∞,
а шаг дискретизации tk+1−tk = 1/2fc = π/ωc , оптимальные базисные
функции существуют
Φ k (t) =
sin ωc (t − tk )
,
ωc (t − tk )
(2.10.33)
т. е. Φ (t) = R (t−t ). При этом σ2 = 0 , и обеспечивается
точное восв
k
x
k
становление сигнала:
x (t) = x(t) =
∞
∑ x(tk ) Φk (t) .
k =−∞
Такой результат согласуется с положениями теоремы Котельникова, применяемой к детерминированным сигналам.
119
Глава 3. Статистический анализ и
оценка точности линейных систем
3.1. Постановка задачи
Точность измерительной системы является важнейшей характеристикой, определяющей её эффективность. Оценить точность системы – это значит найти характеристики её ошибки. Ошибкой системы Е(t) в момент времени t называют разность между значениями
действительного Z(t) и требуемого (заданного) Zт(t) выходных сигналов. Требуемый выходной сигнал есть результат заданного преобразования полезного входного сигнала X(t). Теоретическую систему,
осуществляющую идеально точно заданное преобразование полезного сигнала, называют иногда идеальной системой. Реальная система не может осуществить такое преобразование. Её входной сигнал Y(t) представляет собой сумму полезного сигнала X(t) и помехи
(погрешности измерения) ξ(t). Ошибка системы возникает в результате неточного преобразования полезного сигнала и прохождения
помехи на выход системы.
На рис. 3.1 схематически показано возникновение ошибки.
Ошибку Е(t) реальной системы можно рассматривать как выходной
сигнал некоторой системы, на вход которой поступают сигналы X(t)
и Y(t).
X(t)
Идеальная
система
Zт(t)
E(t)
ξ(t)
Y(t)
Реальная
система
Z(t)
Рис. 3.1. Структурная схема образования ошибки
Таким образом, задача изучения точности системы сводится к
изучению преобразования входных сигналов. Поскольку входные
сигналы в общем случае представляют собой случайные процессы,
то ошибка системы есть то же случайный процесс. Поэтому полной
характеристикой точности системы является закон распределения
ошибки. Для нахождения этого закона необходимо знать законы
распределения или моменты высших порядков входных случайных
сигналов. Определить закон распределения выходного сигнала системы трудно и к тому же оперировать им в качестве оценки точнос120
ти неудобно. Поэтому на практике пользуются более простыми и
удобными «числовыми» характеристиками точности.
Важной оценкой точности системы является вероятность того,
что ошибка в момент t не выйдет за пределы заданной области Ω.
Для получения такой оценки в общем случае тоже требуется знать
закон распределения или моменты высших порядков входных случайных сигналов, что не всегда известно.
Часто ограничиваются определением первых двух моментов случайной ошибки – математическим ожиданием и корреляционной
функцией или средним квадратом (начальным моментом второго
порядка). Определение этих характеристик существенно проще и
для этого необходимо знать менее полные статистические характеристики входных сигналов. Например, в случае линейной системы
достаточно знать их математические ожидания и корреляционные
функции.
Задача оценки точности системы заключается в том, чтобы по
известным статистическим характеристикам входных сигналов и
заданному преобразованию полезного сигнала найти для данной
системы статистические характеристики её ошибки.
Если известные статистические характеристики входных сигналов недостаточны для определения принятой оценки точности системы, то задачу оценки точности следует решать на основе принципа получения гарантированного результата при наихудших условиях. В этом случае задача заключается в том, чтобы найти оценку
ошибки данной системы при наиболее неблагоприятных значениях
входных сигналов, какие могут быть при известной информации о
них.
В этой главе будут рассмотрены в основном методы определения
первых двух моментов выходных сигналов для линейных стационарных и нестационарных систем.
3.2. Модели линейных систем
Последующее изложение относится к рассмотрению линейных
систем и основывается на материале разд. 1.2, в котором были даны
начальные сведения об операторах систем. Для линейных систем
выполняется принцип суперпозиции (1.2.2), из которого следует,
что Aτt {0}= 0 и Aτt {−z(τ)}= − Aτt {z(τ)} , следовательно, множество
линейно преобразованных функций есть линейное пространство с
тем же множеством скаляров, что и область определения данного
оператора. Принцип суперпозиции в интегральной форме можно
представить в следующем виде:
121
λ2
λ2
λ
λ
A t {∫ c(τ) ⋅ z(t, τ)dτ} = ∫ c(τ) ⋅ A t {z(t, τ)}dτ .
(3.2.1)
Если входные и выходные линейные пространства нормированы,
то они являются метрическими (в дальнейшем будем рассматривать
только метрические пространства), и в этом случае появляется возможность рассмотреть вопрос о непрерывности линейных преобразований. Заметим, что норма вектора в линейном пространстве
равна расстоянию точки от начала координат. Линейное преобразование обладает тем свойством, что непрерывность в одной точке
(скажем, при z(t) = 0) эквивалентна непрерывности во всех точках,
т. е. непрерывности преобразования. Другое важное свойство состоит в том, что непрерывность и ограниченность эквивалентны.
Преобразование Aτt { } называется ограниченным, если существует
действительная константа K, такая, что
Aτt {z(τ)} ≤ K ⋅ z(τ) для всех z ∈ Z ,
(3.2.2)
где z(τ) – норма функции z(τ) в линейном метрическом пространстве.
Для теории линейных преобразований важно, что множество
всех линейных преобразований некоторого линейного пространства само является линейным пространством, в котором определены
векторное сложение и умножение на скаляр:
Aτt { }= Aτ { }+ A2τ { }⇒ Aτt {z(τ)}= Aτ {z(τ)}+ A2τ {z(τ)},
t
t
t
t
(3.2.3)
Aτt { }= α ⋅ Aτ { }⇒ Aτt {z(τ)}= α ⋅ Aτ {z(τ)} для всех z ∈ Z . (3.2.4)
Эти операции имеют простые схемные аналоги: сложению соответствует параллельное соединение блоков, а умножению на скаляр – последовательное соединение блока и идеального усилителя с
коэффициентом усиления α. Усилитель может стоять как на входе,
так и на выходе блока.
Пространство линейных операторов можно нормировать
t
t
{
}
Аτt {} = sup Аτt {z(τ)} ; z ≤ или, что эквивалентно
{
}
Aτt {} = inf K; Aτt {z(τ)} ≤ K ⋅ z , z ∈ Z .
122
Если пространства входов и выходов идентичны, линейное преобразование называется линейным оператором. Таким образом,
линейный оператор – это линейное преобразование, отображающее
область своего определения в себя.
Для операторов естественно ввести ещё одну векторную операцию, называемую произведением. Произведение двух операторов
есть составное отображение вида
t
t
Aτt {} = Aτ {} ⋅ A2τ {} ⇒ Aτt {z(τ)} =
t
t
t
t
= Aτ {z(τ)} ⋅ A2τ {z(τ)} = Aτ { A2τ {z(τ)}} .
(3.2.5)
Физическим эквивалентом произведения является каскадное
соединение блоков, реализующих операторы–сомножители. Умножение дистрибутивно по отношению к сложению, так что
t
t
t
t
t
t
t
t
t
t
t
Aτ {}( A2τ {} + A3τ {}) = Aτ {} A2τ {} + Aτ {} A3τ {} ,
t
t
t
( Aτ {} + A2τ {}) A3τ {} = Aτ {} A3τ {} + A2τ {} A3τ {} .
(3.2.6.)
Следовательно, операторы не только образуют линейное пространство, но и формируют также алгебру. Алгебра операторов не
t
t
t
t
коммутативна (в общем случае Aτ {} A2τ {} ≠ A2τ {} Aτ {} ), но она содержит единичный элемент EτPt{}, определяемый условием EτtP {z(τ)} = z(t)
для всех z. Если оператор осуществляет взаимно однозначное отображение области определения на соответствующую область значений, то существует обратное отображение, и можно показать, что
оно линейно.
Такой оператор называется несингулярным, он имеет обратный
по умножению оператор ( Aτt {}) −, такой, что
Aτt {} ⋅ ( Aτt {}) − = ( Aτt {}) − ⋅ Aτt {} = Eτt {} . (3.2.7)
Стационарные или инвариантные во времени операторы удобно
описывать при помощи частотного представления весовой функции
∞ ∞
G (f , ν) =
∫ ∫ g (t − τ)e
− j 2 πft j 2 πντ
e
dt dτ =
−∞ −∞
∞
=
∫
−∞
g (σ)t− j2πf σ
∞
∫e
j 2 π( f −ν ) τ
dτ dσ = W (f ) ⋅ δ(f − ν) ,
(3.2.8)
−∞
123
где δ(f−ν) – дельта-функция; W(f) – частотная характеристика стационарной или инвариантной во времени системы. В частотном аспекте соотношение (1.2.4) имеет следующий вид:
Xˆ (f ) =
∞
∫ W (f )δ(f − ν)Y (ν)dν = W (f )Y (f ) .
(3.2.9)
−∞
Частотная характеристика определяет спектр линейного
стациj 2 πfi t
онарного оператора, так как функции yi (t) = e
, i = …−1, 0, 1, …
инвариантны относительно операции (1.2.4)
A t {yi (t)} =
∞
∫
g (t − τ)e j2πfi τ dτ =
−∞
∞
∫ g (σ)e
j 2 πfi ( t −τ)
dσ = W (fi )yi (t) .
(3.2.10)
−∞
Важное свойство инвариантных во времени операторов состоит
в том, что их произведение коммутативно, следовательно, порядок
включения блоков не имеет значения.
Среди линейных операторов можно выделить следующие часто
встречающиеся операторы.
1. Тождественный оператор.
Тождественный оператор Eτt{} описывается уравнением z(t) =
=Ett{z(τ)}. Это инвариантный во времени оператор и его импульсная
реакция g(t) = δ(t). Соответствующая частотная характеристика
W(f) = 1.
2. Оператор задержки.
Близким к тождественному и практически важным оператором
является оператор задержки, отображающий z(t) в z(t−t0). Соответ­
ствующая ему импульсная реакция есть g(t) = δ(t−t0), и частотная
характеристика имеет вид W (f ) = e − j2π t0f .
3. Оператор стробирования (умножитель).
Многие физические устройства (модуляторы, строб-каскады и
т.д.) осуществляют преобразования вида
xˆ (t) = ω(t) ⋅ y(t) . (3.2.11)
Этот оператор не инвариантен во времени (кроме тех случаев,
когда ω(t) – константа, т. е. производится просто умножение на число). Импульсную реакцию оператора стробирования можно записать в виде
или, эквивалентно
124
g(t, τ) = ω(t)δ(t−τ) (3.2.12)
g(t, τ) = ω(τ)δ(t−τ) .
В частотной форме можно записать
∞ ∞
W (f , ν) =
∫ ∫ ω(t)δ(t − τ)e
− j 2 πft + j 2 πντ
dt dτ =
−∞ −∞
∞
=
∫ ω(τ)e
− j 2 π( f −ν ) τ
dτ = W (f − ν) .
(3.2.12)
−∞
Следовательно, в частотном представлении рассматриваемая
операция характеризуется интегралом свертки
Xˆ (f ) =
∞
∫ W (f − ν)Y (ν)dν .
(3.2.13)
−∞
4. Оператор дифференцирования конечного порядка.
Дифференциальный оператор n-го порядка можно записать в
следующем виде:
n
d i xˆ (t)
i =0
dti
∑ ai (t)
n −
d i y(t)
i =0
dti
= ∑ bi (t)
(3.2.14)
,
где a (t) и b (t) – непрерывные функции. Соответствующая
импульi
i
сная реакция есть
 n
 ∑ ψ (t)θk (τ) при t ≥ τ ,
g(t,τ)= k= k

0 при
t< τ .

(3.2.15)
Если коэффициенты уравнения постоянны, то параметры системы не зависят от времени. Кроме тех частных случаев, когда полином
n
Q(s) = ∑ ai si
i =0
имеет кратные корни, импульсная реакция определяется выражением
n
s (t −τ)
при t ≥ τ ,
∑ α e k
g (t − τ) = k = k
 0 при
t < τ,

(3.2.16)
125
где sk – корни уравнения Q(s) = 0. Частотная характеристика для такого инвариантного во времени оператора есть рациональная функция частоты
n
αk
,
k = j2πf − sk
W (f ) = ∑
или, что эквивалентно,
W (f ) =
P( j2πf )
,
Q( j2πf )
где
полином в числителе имеет вид
(3.2.17)
n −
P(s) = ∑ bi si .
i =0
5. Вырожденный оператор.
Рассмотрим бесконечномерное функциональное пространство
L2(−∞, ∞), т. е. пространство, в котором энергия (квадрат нормы) сигналов или помех, определённых на бесконечном интервале времени
(−∞, ∞), ограничена
y
2
∞
=
2
∫
y(t) dt < ∞ .
−∞
Началом координат в пространстве L2(−∞, ∞) является функция,
равная нулю почти всюду на интервале (−∞, ∞). Операторы, действующие в пространстве L2(−∞, ∞), область значений которых конечномерна, т. е. имеющие конечный ранг, называются вырожденными.
Функциональное ядро вырожденного оператора обладает свойством
разделимости, что очень удобно для приближённого представления
и численного решения операторных уравнений. Импульсная реакция вырожденного оператора n-го порядка имеет вид
n
g (t, τ) = ∑ ψi (t)θi∗ (τ) ,
(3.2.18)
i =
где
{ψi(t); i = 1, 2, …, n} и {θi(t); i = 1, 2, …, n} есть линейно-независимые системы функций в L2(−∞, ∞). Отображение y(t) в xˆ (t), получаемое с помощью такого оператора, выражается через n линейных
функционалов
n
xˆ (t) = ∑ (y, θi )ψi (t) ,
(3.2.19)
i =
126
где скалярное произведение имеет следующий вид:
∞
(y, θi ) =
∗
∫ y(t)θi (t)dt ,
−∞
где θ*(t) – комплексно-сопряжённая функция. Напомним, что функциональное полное пространство со скалярным произведением
является метрическим пространством и называется гильбертовым
пространством.
6. Оператор системы в форме линейного интегрального уравнения.
Не все линейные динамические системы можно описать в форме
дифференциальных уравнений. Например, линейная система с чистым запаздыванием. Оператор таких систем может быть представлен в форме линейного интегрального уравнения
T
α ⋅ xˆ (t) − λ ∫ L(t, τ)xˆ (τ)dτ = y(t) ,
(3.2.20)
0
где
функция y(t) и ядро L(t, τ) являются заданными,
а xˆ (t) подле
жит определению. При фиксированном значении T уравнение образует класс фредгольмовских уравнений; при T = t это уравнение определяет класс вольтеровских уравнений. При α = 0, λ = −1 данное
уравнение является линейным интегральным уравнением первого
рода. Если y(t) = 0, α = 1 и λ неизвестно, то получаем однородное линейное интегральное уравнение второго рода. Наконец при α = 1 и
известном λ получаем неоднородное интегральное уравнение второго рода. Параметр λ есть собственное значение интегрального уравнения.
3.3. Общие правила преобразования случайных
сигналов линейными системами
Рассмотрим сначала преобразование случайного сигнала одномерной системой, т. е. системой с одним входом и одним выходом.
Пусть на вход одномерной системы поступает случайный сигнал
X(t) с математическим ожиданием mx(t) и корреляционной функцией Kx(t1, t2). Требуется найти математическое ожидание my(t) и
корреляционную функцию Ky(t1, t2) выходного сигнала Y(t).
Система измерения или измерения и управления преобразует
входной случайный сигнал X(t) в выходной случайный сигнал Y(t).
Это значит, что каждой данной реализации x(t) входного случайного сигнала X(t) соответствует определённая реализация y(t) выходного случайного сигнала Y(t).
127
Обозначение оператора системы At{} в этом и следующем пунктах
отличается от применявшегося ранее, а именно использован единст­
венный индекс t вверху, обозначающий и аргумент функции, по которому действует оператор, и аргумент функции – результата действия оператора.
Запись преобразования системой случайного входного сигнала
X(t) с помощью введенного обозначения оператора системы примет
вид
Y(t) = At{X(t)} .
(3.3.1)
Математическое ожидание выходного сигнала Y(t), учитывая
свойство переместительности операторов M и At определяется
my(t) = M[At{X(t)}] = At{mx(t)} .
(3.3.2)
Следовательно, математическое ожидание выходного сигнала
линейной системы получается как результат преобразования оператором системы математического ожидания входного сигнала.
Чтобы найти корреляционную функцию выходного сигнала,
предварительно запишем соотношения для центрированных случайных процессов, принимая во внимание (3.3.2) и линейность системы:


Y (t) = Y (t) − my (t) = A t {X(t)} .
(3.3.3)
По определению корреляционной функции, учитывая (3.3.3),
имеем




Ky (t,t2 ) = M[Y (t ) Y (t2 )] = M[ A t {X(t )} A t2 {X(t2 )}] . (3.3.4)
Используя свойство переместительности операторов М и At, запишем (3.3.4)


Ky (t,t2 ) = A t A t2 {M[X(t ) X(t2 )]} .
Вводя вместо математического ожидания обозначение корреляционной функции входного сигнала, окончательно получим
Ky (t,t2 ) = A t A t2 {Kx (t,t2 )} .
(3.3.5)
Таким образом, корреляционная функция выходного сигнала
линейной системы получается как результат двойного преобразо
128
вания оператором системы корреляционной функции входного сигнала: один раз по отношению к первому её аргументу, второй раз
по отношению ко второму аргументу. При этом порядок операций
безразличен.
Рассмотрим преобразования входных случайных сигналов многомерной системой, имеющей несколько входов и выходов. Пусть на
входы многомерной системы поступает n случайных сигналов, которые преобразуются в m выходных случайных сигналов (рис. 3.2).
X1
Y11
A11
Y1
B
X2
Y12
A12
B
Y2
B
………
Y1k
Xk
Yk
A1k
B
B
………
Xn
B
A1n
B
B
Y1n
Ym
Рис. 3.2. Структурная схема многомерной линейной системы
Обозначим Alk оператор, осуществляющий преобразование входного сигнала Xk в сигнал Ylk, на l-м выходе при условии, что остальные входные сигналы равны нулю:
Ylk = Alk{Xk}; k = 1, 2,..., n; l = 1, 2, ..., m.
Для линейной системы на основании принципа суперпозиции
суммарный выходной сигнал, получаемый в результате преобразования всех n входных сигналов, определяется формулой
n
Yl = ∑ Alk {Xk } , l = 1, 2, ..., m. (3.3.6)
k =
Всю совокупность операторов Alk многомерной системы можно
охарактеризовать матрицей операторов
A = Alk , k = , 2, . . ., n; l = , 2, . . ., m .
(m×n)
Если принять, что входные сигналы составляют случайный вектор входа X = ( X (t), X2 (t),..., Xn (t))T , а выходные – случайный
(n×)
129
вектор выхода Y = (Y (t)Y2 (t)....Ym (t))T , то связь между этими век(m×)
торами символически можно записать через матричный оператор
A в форме
(m×n)
Y(t) = At X(t), (3.3.7)
что соответствует системе скалярных соотношений
n
t
Yl (t) = ∑ Alk
Xk (t), l = , 2, ... , m ,
k =
совпадающей с (3.3.6), если считать, что Alk Xk=Alk{Xk}.
Сформулируем задачу статистического анализа многомерной
системы. Даны операторы системы Alk, k = 1, 2,..., n; l = 1, 2,..., m и
статистические характеристики входных сигналов:
математические ожидания mxk (t), k = , 2, . . ., n;
корреляционные функции Kxkxh (t, t2 ), k, h = , 2, . . ., n.
Требуется найти статистические характеристики выходных сигналов:
математические ожидания myl (t), l = , 2, . . ., m;
корреляционные функции Kyl y p (t, t2 ), l, p = , 2, . . ., m;
взаимные корреляционные функции Kyl xh (t,t2 ) , Kxh yl (t,t2 ) .
Математическое ожидание выходного сигнала получим, беря
математические ожидания от левой и правой частей (3.3.6) и затем
меняя местами операторы M и Alk:
n
n
k =
k =
t
t
myl = ∑ M[ Alk
{Xk (t)}] = ∑ Alk
{mxk (t)} , (3.3.8)
где l = 1, 2,..., m.
Итак, математическое ожидание рассматриваемого выходного
сигнала получается как сумма результатов преобразований математических ожиданий всех входных сигналов операторами системы,
соответствующими каждому входному сигналу и рассматриваемому выходному сигналу.
Выведем формулу для взаимной корреляционной функции
Kyl y p (t,t2 ) выходных сигналов с номерами l и p. Предварительно
запишем на основании формулы (3.3.6) для центрированных случайных процессов

n

t
Yl (t) = ∑ Alk
{Xk (t)} , k =
130
(3.3.9)
n


Yp (t) = ∑ A tph {Xh (t)} . (3.3.10)
h =
Тогда корреляционную функцию Kyl y p (t,t2 ) , с учётом выражений (3.3.9), (3.3.10) и свойства переместительности операторов M и
A, запишем в виде
n



 n t 

2
Kyl y p (t,t2 ) = M[Yl (t ) Yp (t2 )] = M  ∑ Alk
{Xk (t )} ∑ A tph
{Xh (t2 )}  =
h =
k =

n
n


t t2
= ∑ ∑ Alk
A ph {M[Xk (t ) Xh (t2 )]} ,
k = h =
где l, p = 1, 2,..., m. Вводя обозначение корреляционной функции
Kxkxh (t,t2 ) входных сигналов Xk и Xh , окончательно получим
n
n
t t2
Kyl y p (t,t2 ) = ∑ ∑ Alk
A ph {Kxk xh (t,t2 )} . (3.3.11)
k = h =
При l = p имеем формулу для корреляционной (автокорреляционной) функции отдельного выходного сигнала Yl (l = 1, 2,..., m).
Таким образом, взаимная корреляционная функция рассматриваемой пары выходных сигналов получается как сумма результатов
двойного преобразования всех возможных автокорреляционных и
взаимных корреляционных функций входных сигналов один раз
оператором системы, действующим по первому аргументу и первому индексу, другой раз оператором системы, действующим по второму аргументу и второму индексу. При этом порядок операций безразличен.
Полученные соотношения можно записать в векторно – матричной форме:
mY (t) = At mX (t) , (3.3.12)
KY (t,t2 ) = At KX (t,t2 )( At2 )T , (3.3.13)
KYX (t,t2 ) = At KX (t,t2 ) , (3.3.14)
(3.3.15)
KXY (t,t2 ) = KX (t,t2 )( At2 )T , где mX(t), mY(t) – векторы математических ожиданий входных и выходных сигналов; KX(t1,t2), KY(t1,t2) – матрицы, составленные из корреляционных функций входных и выходных сигналов; KXY(t1,t2),
KYX(t1,t2) – матрицы взаимных корреляционных функций входных
и выходных сигналов.
131
3.4. Статистические характеристики выходных
сигналов элементарных звеньев
Используя общие правила преобразования входных случайных
сигналов оператором линейной системы, запишем выражения для
математических ожиданий и корреляционных функций выходных
сигналов элементарных звеньев: суммирующего, дифференцирующего, интегрирующего и усилительного.
Математическое ожидание и корреляционная функция
выходного сигнала суммирующего звена
Пусть на вход суммирующего звена поступает n случайных сигналов Xk(t), k = 1, …, n, имеющих математические ожидания mxk (t)
и корреляционные функции Kxkxh (t,t2 ), k, h = 1, 2,..., n.
Суммирующее звено осуществляет операцию суммирования
входных сигналов Xk(t) и для него оператор Alk{} = 1·{}.
Применяя формулы (3.3.8) и (3.3.11), запишем соответственно
математическое ожидание и корреляционную функцию выходного
сигнала суммирующего звена:
n
n
k =
k =
my (t) = ∑ ⋅ {mxk (t)} = ∑ mxk (t) ,
n
n
n
n
Ky (t,t2 ) = ∑ ∑ ⋅ { ⋅ {Kxkxh (t ,t2 )}} = ∑ ∑ Kxkxh (t,t2 ) .
k = h =
(3.4.1)
k = h =
В частном случае, когда входные сигналы являются некоррелированными случайными процессами, формула (3.4.1) принимает
вид
n
Ky (t,t2 ) = ∑ Kxk (t,t2 ) .
k =
Итак, математическое ожидание выходного сигнала суммирующего звена равно сумме математических ожиданий входных сигналов, а корреляционная функция выходного сигнала равна сумме
всех автокорреляционных и взаимных корреляционных функций
входных сигналов.
Математическое ожидание и корреляционная функция
выходного сигнала дифференцирующего звена
Для дифференцирующего звена, осуществляющего операцию
дифференцирования входного сигнала X(t), оператор At{} = d{}/dt.
132
По формулам (3.3.2) и (3.3.5) находим соответственно математическое ожидание и корреляционную функцию выходного сигнала дифференцирующего звена:
my (t) = A t {mx (t)} =
dmx (t)
,
dt
Ky (t,t2 ) = A t A t2 {Kx (t,t2 )} =
d2 Kx (t,t2 )
.
dt dt2
(3.4.2)
(3.4.3)
Итак, математическое ожидание выходного сигнала дифференцирующего звена равно производной от математического ожидания
входного сигнала, а корреляционная функция выходного сигнала
равна второй смешанной производной от корреляционной функции
входного сигнала, взятой по первому и второму аргументам.
Полученный результат обобщается на случай n-кратного дифференцирования входного случайного сигнала.
Обратим внимание, что обычное понятие производной к случайной функции X(t) не применимо.
Производной случайной функции X(t) называют предел отношения приращения функции к приращению аргумента в среднем
квадратическом смысле
dX(t)
X(t + ∆t) − X(t)
= l.i.m.
.
∆t →0
dt
∆t
Предел в среднем квадратическом (сокращёно l.i.m.) означает,
что
 dX(t) X(t + ∆t) − X(t) 2 
lim M 
−
 = 0.
∆t →0
∆t
 dt

Здесь знак lim означает предел в обычном смысле математического анализа.
Необходимым и достаточным условием существования производной случайной функции X(t) является существование производной
её математического ожидания и второй смешанной производной её
корреляционной функции.
Рассмотрим случай, когда на вход дифференцирующего звена
поступает случайный сигнал X(t), статистические характеристики
2 2
которого mx(t) = acosωt и Kx (τ) = Dx e −α τ . Требуется найти математическое ожидание my(t) и дисперсию Dy(t) выходного сигнала.
133
По формуле (3.4.2) находим математическое ожидание
my (t) =
dmx (t)
= −a ω sin ωt .
dt
Корреляционную функцию определяем по формуле (3.4.3)
Ky (t,t2 ) =
d2 Kx (τ)
d2 Kx (τ)
=−
,
dt dt2
dτ2
где τ = t2−t1.
Выполняя дифференцирование, имеем
Ky (τ) = −
2 2
2 2
d 
Dx e −α τ (−α2 2τ)  = 2Dx α2 e −α τ ( − 2α2 τ2 ) .



dτ
При τ = 0 получаем дисперсию выходного сигнала данного дифференцирующего звена
Dy = 2Dxα2 .
Следовательно, дисперсия выходного сигнала дифференцирующего звена зависит не только от дисперсии входного сигнала, но
и от статистической связи между сечениями случайного входного
процесса.
Математическое ожидание и корреляционная функция
выходного сигнала интегрирующего звена
Интегрирующее звено осуществляет операцию интегрирования
входного случайного сигнала X(t) и для него оператор
t
A t {} = ∫ {} dt .
t0
Математическое ожидание и корреляционную функцию выходного сигнала записываем соответственно по формулам (3.3.2) и
(3.3.5):
t
my (τ) = ∫ mx (τ)dτ ,
t0
Ky (t,t2 ) =
t t2
∫ ∫ Kx (τ, τ2 )dτdτ2 . t0 t0
134
(3.4.4)
Итак, математическое ожидание выходного сигнала интегрирующего звена равно интегралу от математического ожидания входного сигнала, а корреляционная функция выходного сигнала равна
двойному интегралу от корреляционной функции входного сигнала, взятого по первому и второму аргументам. Порядок операций
безразличен.
Этот результат обобщается на случай прохождения входного
случайного сигнала через последовательную цепь из интегрирующих звеньев.
Найдём корреляционную функцию выходного сигнала интегрирующего звена, когда на его вход поступает случайный сигнал в
виде белого шума.
По формуле (3.4.4), принимая во внимание корреляционную
функцию белого шума (2.7.15), получим
Ky (t,t2 ) =
t t2
t
t2
t0 t0
t0
t0
2
2
∫ ∫ 2πc δ(τ − τ2 )dτdτ2 = 2πc ∫ dτ ∫ δ(τ − τ2 )dτ2 .
Учитывая свойство δ-функции, после интегрирования получаем
2πc2 (t − t0 ) при t2 ≥ t ,
Ky (t,t2 ) = 
2
2πc (t2 − t0 ) при t2 ≤ t .
Это выражение показывает, что Ky(t1, t2) не является δ-функцией и, следовательно, при прохождении белого шума через интегрирующее звено на выходе получается другой случайный процесс, отличающийся от белого шума.
Математическое ожидание и корреляционная функция
выходного сигнала усилительного звена
Усилительное звено осуществляет над входным сигналом операцию Y(t) = k(t)X(t). Положим, что коэффициент усиления k(t) – неслучайная функция. Следовательно, оператор усилительного звена
At{} = k(t){}. Используя формулы (3.3.2) и (3.3.5), найдём соответственно математическое ожидание и корреляционную функцию выходного сигнала усилительного звена
my(t) = k(t)mx(t) ,
Ky(t1, t2) = k(t1)k(t2)Kx(t1, t2) .
Итак, математическое ожидание выходного сигнала усилительного звена равно произведению коэффициента усиления звена на
математическое ожидание входного сигнала, а корреляционная
135
функция выходного сигнала равна произведению двух коэффициентов усиления звена, взятых для первого и второго аргументов на
корреляционную функцию входного сигнала.
3.5. Статистические характеристики выходного сигнала
системы во временном представлении
Определим оператор системы с помощью весовой функции, и на
основании общих правил преобразования случайного входного сигнала линейной системой получим соответствующие формулы для
математического ожидания и корреляционной функции её выходного сигнала.
Определение весовой функции было дано в разд. 1.2. Графически
весовая функция g(t, τ) изображается поверхностью (рис. 3.3).
g(t,t)
0
t=tk
t=tk
t
t
t=t
Рис. 3.3. Вид весовой функции нестационарной системы
Сечение поверхности вертикальной плоскостью, параллельной
оси 0t и проходящей через τk, даёт кривую, изображающую реакцию g(t, τk) системы на импульс, приложенный в момент времени
τk.
Сечение поверхности вертикальной плоскостью, параллельной
оси 0τ и проходящей через tk, даёт кривую, изображающую функцию g(tk, τ) как функцию второго аргумента τ.
Следует заметить, что функция g(tk, τ) не представляет собой реакцию данной системы на импульс. График функции g(tk, τ) образуется как множество ординат весовых функций, построенных для
фиксированного момента времени t = tk.
На основании формулы (1.2.6) запишем выражения оператора
нестационарной линейной системы через весовую функцию
t
A t {} = ∫ g (t, τ){}dτ .
(3.5.1)
t0
136
Используя формулы (3.3.2) и (3.3.5) с учётом выражения (3.5.1),
получим соответственно математическое ожидание и корреляционную функцию выходного сигнала нестационарной линейной системы:
t
my (t) = ∫ g (t, τ)mx (τ)dτ ,
(3.5.2)
g
(
t
,
τ
)
g
(
t
,
τ
)
K
(
τ
,
τ2 )dτdτ2 . 2
2
x
∫∫
(3.5.3)
t0
Ky (t,t2 ) =
t t2
t0 t0
Таким образом, зная весовую функцию линейной нестационарной системы, математическое ожидание выходного сигнала определяют как результат простого интегрального преобразования вида
(3.5.2) математического ожидания входного сигнала, а корреляционную функцию выходного сигнала определяют как результат
двойного интегрального преобразования вида (3.5.3) корреляционной функции входного сигнала.
Учитывая, что Dy(t) = Ky(t, t), формулу для дисперсии выходного
сигнала получим непосредственно из соотношения (3.5.3), приравнивая t1 = t2 = t:
t t
Dy (t) =
∫ ∫ g (t, τ )g (t, τ2 )Kx (τ, τ2 )dτdτ2 . (3.5.4)
t0 t0
Следовательно, зная весовую функцию линейной нестационарной системы, дисперсию выходного сигнала определяют как результат интегрального преобразования вида (3.5.4) корреляционной
функции входного сигнала.
Из (3.5.4) следует, что для определения дисперсии выходного сигнала требуется задать корреляционную функцию входного сигнала. Задание дисперсии входного сигнала является недостаточным
для определения дисперсии выходного сигнала.
Формулы (3.5.2)–(3.5.4) показывают, что математическое ожидание и дисперсия выходного сигнала являются функциями времени
t, а корреляционная функция является функцией двух аргументов
t1 и t2. Таким образом, выходной сигнал нестационарной системы
представляет собой нестационарный случайный процесс Y(t).
Если в формулах (3.5.2)–(3.5.4) принять t0 = −∞, то получим соответствующие соотношения для установившегося режима, если он
существует.
137
Для линейной стационарной системы (линейной системы с постоянными параметрами) весовая функция является функцией
только одного аргумента – разности между моментом наблюдения
реакции системы и моментом приложения единичного импульса,
т. е. g(t, τ) = g(t−τ). В этом случае формулы (3.5.2) – (3.5.4) соответственно запишутся:
t
t −t0
t0
0
my (t) = ∫ g (t − τ)mx (τ)dτ =
Ky (t,t2 ) =
t −t0 t2 −t0
∫ ∫
0
Dy (t) =
g (u)mx (t − u)du , ∫ ∫
(3.5.5)
g (u ) g (u2 ) Kx (t − u,t2 − u2 )dudu2 ,
0
t −t0 t −t0
0
∫
(3.5.6)
g (u ) g (u2 ) Kx (t − u,t − u2 )dudu2 . (3.5.7)
0
При этом учтено условие физической возможности системы
g(u) = 0 при u < 0 .
Если на вход стационарной системы поступает стационарный
случайный сигнал и система рассматривается в установившемся
режиме (t0 = −∞), формулы (3.5.5) – (3.5.7) принимают вид
∞
my = mx ∫ g (u)du , (3.5.8)
Ky (τ) = ∫ ∫ g (u )g (u2 ) Kx (τ + u − u2 )dudu2 , (3.5.9)
0
∞∞
00
∞∞
Dy = ∫ ∫ g (u )g (u2 ) Kx (u − u2 )dudu2 . (3.5.10)
00
где τ = t2−t1.
Формулы (3.5.8)–(3.5.10) показывают, что математическое ожидание и дисперсия выходного сигнала являются постоянными величинами, а корреляционная функция выходного сигнала зависит
только от разности аргументов τ = t1−t2. Таким образом, выходной
сигнал в этом случае представляет собой стационарный случайный
процесс.
138
На основании анализа полученных формул можно сделать общий вывод: выходной сигнал линейной системы представляет собой стационарный случайный процесс тогда и только тогда, когда
рассматривается устойчивая стационарная линейная система в стационарном режиме при стационарном случайном входном сигнале.
Следовательно, нестационарность выходного сигнала системы
обусловливается хотя бы одной из трёх причин: нестационарностью
входного сигнала, нестационарностью данной системы, нестационарностью режима работы системы.
Результаты, полученные в начале параграфа для одномерной
системы, можно обобщить на случай многомерной системы (см. рис.
3.2.), если динамические свойства её заданы совокупностью операторов Alk, выраженных через весовые функции.
Запишем на основании выражения (3.5.1) оператор системы с помощью весовой функции
t
t
Alk
{} = ∫ glk (t, τ){}dτ ,
(3.5.11)
t0
glk(t, τ) – весовая функция системы, соответствующая
где
k-му входу и l-му выходу.
Математические ожидания выходных сигналов многомерной
системы на основании общего правила (3.3.8) с учётом выражения
(3.5.11) определяются формулой
n t
myl (t) = ∑ ∫ glk (t, τ)mxk (τ)dτ, l = , 2, ..., m . (3.5.12)
k = t0
Зная совокупность весовых функций линейной многомерной
системы, математическое ожидание рассматриваемого выходного
сигнала определяют как сумму результатов простого интегрального преобразования вида (3.5.12) математических ожиданий входных сигналов.
Корреляционные функции выходных сигналов многомерной
системы на основании общего правила (3.3.11) и с учётом выражения (3.5.11) определяются формулой
n
n t t2
Kyl y p (t,t2 ) = ∑ ∑ ∫ ∫ glk (t, τ ) g ph (t2 , τ2 ) Kxkxh (τ, τ2 )dτdτ2 , (3.5.13)
k = h = t0 t0
где l, p = 1, 2,..., m.
139
Зная совокупность весовых функций линейной многомерной
системы, корреляционную функцию рассматриваемой пары выходных сигналов определяют как сумму результатов двойного интегрального преобразования вида (3.5.13) всех автокорреляционных и
попарно взаимных корреляционных функций входных сигналов.
Выражение дисперсий выходных сигналов получим из формулы
(3.5.13), если принять t1 = t2 = t и l = p,:
n
n t t
Dyl (t) = ∑ ∑ ∫ ∫ glk (t, τ ) glh (t, τ2 ) Kxkxh (τ, τ2 )dτdτ2 ,
(3.5.14)
k = h = t0 t0
где l = 1, 2,..., m.
Зная совокупность весовых функций линейной многомерной системы, дисперсию рассматриваемого выходного сигнала определяют
как сумму результатов двойного интегрального преобразования
вида (3.5.14) всех автокорреляционных и попарно взаимных корреляционных функций входных сигналов.
Для случая, когда входные сигналы являются некоррелированными случайными процессами, т. е. Kxkxh (t,t2 ) = 0 при k≠h, в формулах (3.5.13) и (3.5.14) двойное суммирование заменяют простым
суммированием.
Так, для дисперсии формула (3.5.14) принимает вид
n t t
Dyl (t) = ∑ ∫ ∫ glk (t, τ ) glk (t, τ2 ) Kxk (τ, τ2 )dτdτ2 , k = t0 t0
(3.5.15)
где l = 1, 2,..., m.
Формула (3.5.15) показывает, что при некоррелированных входных сигналах дисперсия рассматриваемого выходного сигнала
представляет собой сумму отдельных дисперсий.
Формулы (3.5.12) – (3.5.15) позволяют находить соответствующие характеристики ошибки линейной системы, т. е. оценивать
точность системы. С этой целью схему, показанную на рис. 3.1, необходимо сопоставить с системой, представленной на рис. 3.2, при
условии наличия у неё двух входов и одного выхода. Тогда на основании формул (3.5.12) и (3.5.13) при n = 2, m = 1 получим:
математическое ожидание ошибки
2 t
me (t) = ∑ ∫ gek (t, τ)mxk (τ)dτ
k = t0
и корреляционная функция ошибки
140
2
2 t t2
Ke (t,t2 ) = ∑ ∑ ∫ ∫ gek (t, τ ) geh (t2 , τ2 ) Kxkxh (τ, τ2 )dτdτ2 .
k = h = t0 t0
В этих формулах:
ge (t, τ) – весовая функция идеальной системы, взятая с противоположным знаком;
ge2 (t, τ) – весовая функция реальной системы;
mx (t) и mx2 (t) – математические ожидания соответственно полезного сигнала X(t) и входного сигнала реальной системы Y(t);
Kxx (t,t2 ) , Kx2x2 (t,t2 ) , Kxx2 (t,t2 ) , Kx2x (t,t2 ) – автокорреляционные и взаимные корреляционные функции входных сигналов
X(t) и Y(t).
Если ввести в рассмотрение матрицу весовых функций G = (m×n)
= glk (t, τ) и учесть выражение для матричного оператора
t
A t {} = ∫ G (t, τ){}dτ ,
t0
то соотношения (3.3.12)–(3.3.15) примут вид
t
mY (t) = ∫ G (t, τ)mX (τ)dτ ,
t0
KY (t,t2 ) =
t t2
∫ ∫ G(t, τ )KX (τ, τ2 )G
T
(t2 , τ2 )dτdτ2 ,
t0 t0
t
KYX (t,t2 ) = ∫ G (t, τ ) KX (τ,t2 )dτ ,
t0
t2
KXY (t,t2 ) = ∫ KX (t, τ2 )G T (t2 , τ2 )dτ2 .
t0
Для установившегося режима стационарной линейной многомерной системы, возбуждённой стационарными сигналами, имеем
∞
mY (t) = ∫ G (u) mX du = mY = const , (3.5.16)
0
∞∞
KY (t,t2 ) = ∫ ∫ G (u )KX (t2 − t + u − u2 )G T (u2 )dudu2 = KY (τ) ,
(3.5.17)
00
141
∞
KYX (t,t2 ) = ∫ G (u ) KX (t2 − t + u )du = KYX (τ) , (3.5.18)
0
∞
KXY (t,t2 ) = ∫ KX (t2 − t − u2 )G T (u2 )du2 = KXY (τ) . (3.5.19)
0
3.6. Статистические характеристики стационарных выходных
случайных сигналов в частотном представлении
В разд. 3.5 были рассмотрены статистические характеристики
выходного случайного сигнала линейной системы во временном
представлении. Рассмотрим эти характеристики для стационарной
системы в частотном представлении. При этом ограничимся изучением установившегося режима работы устойчивой стационарной
системы, т. е. будем рассматривать установившиеся выходные сигналы при t0 = −∞. Именно для этого случая частотное представление
имеет наибольший практический интерес.
Найдём статистические характеристики (математическое ожидание, спектральную плотность, корреляционную функцию и дисперсию) выходного сигнала одномерной системы.
Математическое ожидание
Пусть на вход системы поступает случайный сигнал X(t) с математическим ожиданием mx(t). Система имеет передаточную функ­
цию Φ(s). Требуется найти математическое ожидание выходного
сигнала Y(t) системы в установившемся режиме.
Математическое ожидание выходного сигнала стационарной
системы в установившемся режиме определяется через весовую
функцию на основании формулы (3.5.5):
∞
my (t) = ∫ g (u) mx (t − u)du . (3.6.1)
0
Разложим функцию mx(t−u) в ряд Тейлора [3] относительно u:
∞
mx (t − u) = ∑ (−)r
r =0
mx(r ) (t) r
u .
r!
(3.6.2)
Тогда, принимая во внимание соотношение (3.6.2), формула
(3.6.1) примет вид
∞
∞
0
r =0
my (t) = ∫ g (u) ∑ (−)r
142
∞
∞
mx(r ) (t) r
m(r ) (t)
u du = ∑ x
(−)r ∫ g (u)ur du . (3.6.3)
r!
r!
r =0
0
Для того чтобы выразить my(t) через передаточную функцию системы, воспользуемся соотношением
∞
Φ(s) = ∫ g (u)e − su du, (3.6.4)
0
где Φ(s) – передаточная функция системы.
Дифференцируя соотношение (3.6.4) по s, получим
∞
dΦ(s)
= (−) ∫ g (u)ue − su du .
ds
0
Для производной порядка r
∞
Φ (r ) (s) = (−)r ∫ g (u)ur e − su du . (3.6.5)
0
Полагая в формуле (3.6.5) s = 0,
∞
Φ (r ) (0) = (−)r ∫ g (u)ur du . (3.6.6)
0
Тогда формулу (3.6.3) для математического ожидания, учитывая
равенство (3.6.6), запишем
∞
где
mx(r ) (t) (r )
Φ (0) , r!
r =0
my (t) = ∑
Φ (r ) (0) =
d r Φ(s)
dsr
(3.6.7)
.
s =0
Итак, зная передаточную функцию линейной стационарной системы, математическое ожидание выходного сигнала в установившемся режиме определяют простым суммированием произведений
соответствующих производных математического ожидания входного сигнала и передаточной функции системы при нулевом значении
аргумента s.
Заметим, что формулой (3.6.7) для определения математического
ожидания выходного сигнала стационарной системы в установившемся режиме можно пользоваться как для стационарного, так и
для нестационарного входного случайного сигнала X(t), если только
функция mx(t−u) разлагается в ряд Тейлора, сходящийся при всех
143
значениях u, а передаточная функция Φ(s) является дифференцируемой функцией соответствующего порядка.
В частном случае, когда mx = const, формула (3.6.7) принимает
вид
my = mxΦ(0) . (3.6.8)
На основании формул (3.3.2) и (3.6.7) выражение оператора через передаточную функцию для стационарной системы в установившемся режиме имеет вид
∞
Φ r (0) d r {}
⋅ r .
dt
r =0 r !
A t {} = ∑
Спектральная плотность
Во временном представлении случайного процесса в качестве его
характеристики рассматривалась корреляционная функция. В частотном представлении аналогичной характеристикой стационарного случайного процесса является спектральная плотность.
Пусть на вход стационарной линейной системы поступает стационарный случайный процесс X(t) со спектральной плотностью
Sx(ω). Требуется найти спектральную плотность выходного сигнала
системы в установившемся режиме.
Известно, что выходной сигнал в этом случае представляется стационарным случайным процессом Y(t). Поэтому для выходного стационарного случайного сигнала на основании соотношения (2.7.9)
спектральной теории стационарных случайных процессов запишем
следующее выражение для спектральной плотности сигнала:
∞
Sy (ω) =
− jωτ
∫ Ky (τ)e dτ . 2π −∞
(3.6.9)
Корреляционная функция выходного стационарного случайного
сигнала определяется формулой (3.5.9)
∞∞
Ky (τ) = ∫ ∫ g (u ) g (u2 ) Kx (τ + u − u2 )dudu2 . (3.6.10)
00
Тогда, учитывая формулу (3.6.10), выражение (3.6.9) для спектральной плотности выходного сигнала примет вид
∞ ∞∞
Sy (ω) =
144
− jωτ
∫ ∫ ∫ g (u )g (u2 )Kx (τ + u − u2 )e dτdudu2 . (3.6.11)
2π −∞
00
Несколько изменяя запись подынтегральной функции, тройной
интеграл в выражении (3.6.11) можно представить в форме
∞
∞
0
0
Sy (ω) = ∫ g (u )e − jωu ∫ g (u2 )e jωu2 ×
∞
×
Kx (τ + u − u2 )e − jω( τ+ u −u2 ) dτdudu2 . ∫
2π −∞
(3.6.12)
Принимая во внимание, что
∞
− jω( τ+ u −u2 )
dτ = Sx (ω)
∫ Kx (τ + u − u2 )e
2π −∞
и частотная характеристика системы представляет собой преобразование Фурье весовой функции, выражение (3.6.12) запишем
где
Sy (ω) = Φ( jω)Φ(− jω)Sx (ω) =| Φ( jω) |2 Sx (ω) ,
(3.6.13)
∞
Φ(− jω) = ∫ g (u)e jωu du .
0
Спектральная плотность выходного сигнала стационарной линейной системы в установившемся режиме при стационарном случайном входном сигнале равна произведению квадрата модуля частотной характеристики данной системы на спектральную плотность
входного сигнала.
Перейдём к определению корреляционной функции и дисперсии
выходного сигнала для этого случая.
Корреляционная функция и дисперсия
Корреляционную функцию выходного сигнала рассматриваемой
системы на основании формулы (2.7.9) с учётом выражения (3.6.13)
запишем так:
∞
Ky (τ) =
∫ | Φ( jω) |
Sx (ω)e jωτ dω . (3.6.14)
−∞
При τ = 0 получаем формулу дисперсии
∞
Dy =
2
∫ | Φ( jω) |
2
Sx (ω)dω . (3.6.15)
−∞
145
Итак, зная частотную характеристику системы, корреляционную функцию и дисперсию выходного сигнала устойчивой линейной стационарной системы в установившемся режиме при стационарном случайном входном сигнале определяют как результат
простого интегрального преобразования спектральной плотности
входного сигнала.
Результаты, полученные для одномерной системы, легко обобщаются на многомерную устойчивую стационарную систему. Пусть
на вход многомерной системы поступает n сигналов. Система имеет m выходов (см. рис. 3.2). Каждый из n входных сигналов может
быть преобразован в соответствующий выходной сигнал с номером
выхода l (l = 1, 2,..., m).
Статистические характеристики входных сигналов – математические ожидания mxk (t) (k = 1, 2,..., n) и спектральные плотности
Sxkxh (ω) (k, h = 1, 2,..., n) – известны. Динамические свойства систеt
мы заданы совокупностью операторов Alk
через передаточные функции:
Φ (lkr ) (0) d r {}
⋅ r ,
r!
dt
r =0
∞
t
Alk
{} = ∑
(3.6.16)
где Φlk(s) – передаточная функция системы по отношению к k-му
входу и l-му выходу.
Последовательно найдём математические ожидания, спектральные плотности, корреляционные функции и дисперсии выходных
сигналов системы.
Математическое ожидание
На основании общего правила преобразования (3.3.8) математическое ожидание выходного сигнала Yl, определяется формулой
n
t
myl = ∑ Alk
{mxk (t)} . (3.6.17)
k =
t
Принимая во внимание выражение для оператора Alk
, формулу
для математического ожидания выходного сигнала запишем
Φ (lkr ) (0) (r )
mx (t), l = , 2,..., m . k
r!
k = r =0
n
∞
myl (t) = ∑ ∑
(3.6.18)
Итак, зная передаточные функции системы по отношению к каждому входу и рассматриваемому выходу, математическое ожидание
рассматриваемого выходного сигнала линейной стационарной системы в установившемся режиме определяют суммой вида (3.6.18).
146
Спектральная плотность
Найдём взаимную спектральную плотность для произвольно
взятой пары выходных сигналов Yl и Yp.
Обозначим взаимную спектральную плотность для этих сигналов через Syl y p (ω), l, p = 1, 2,..., m. Воспользуемся соотношением
(2.7.14) между взаимной спектральной плотностью и взаимной корреляционной функцией двух случайных процессов
∞
Syl y p (ω) =
− jωτ
∫ Kylyp (τ)e dτ , 2π −∞
(3.6.19)
где l, p = 1, 2,..., m.
Формула (3.6.19) справедлива только для стационарных и стационарно связанных случайных процессов. Поэтому этой формулой
можно пользоваться тогда и только тогда, когда рассматривается устойчивая стационарная линейная система в установившемся
режиме при стационарных и стационарно связанных случайных
входных сигналах.
В этом случае корреляционные функции выходных сигналов определяются на основании формулы (3.5.13):
n ∞∞
n
Kyl y p (τ) = ∑ ∑ ∫ ∫ glk (u ) g ph (u2 ) Kxkxh (τ + u − u2 )dudu2 .
k = h = 0 0
(3.6.20)
Используя выражение (3.6.20) и изменяя подынтегральную функ­
цию так, как это сделано в интеграле (3.6.12), формулу (3.6.19) для
спектральной плотности выходных сигналов запишем в виде
n ∞
∞
k = h = 0
0
n
Syl y p (ω) = ∑ ∑ ∫ glk (u )e − jωu ∫ g ph (u2 ) ×
×e jωu2
∞
− jω( τ+ u −u2 )
dτdudu2 .
∫ Kxkxh (τ + u − u2 )e
2π −∞
С учётом того, что каждый из интегралов в данной формуле
представляет собой преобразование Фурье соответственно функций
glk(u1), gph(u2) и Kxkxh (τ), формула для спектральных плотностей выходных сигналов в частотном представлении примет вид
n
n
Syl y p (ω) = ∑ ∑ Φ lk ( jω)Φ ph (− jω)Sxkxh (ω) , (3.6.21)
k = h =
147
∞
где l = 1, 2,..., m; Φ lk ( jω) = ∫ glk (u )e − jωu du – частотная харак0
теристика системы по отношению к k-му входу и l-му выходу;
∞
Φ ph (− jω) = ∫ g ph (u2 ) jωu2 du2 – комплексно-сопряженная частотная
0
характеристика системы по отношению к h-му входу и p-му выходу.
Итак, зная совокупность частотных характеристик устойчивой
линейной стационарной многомерной системы, взаимную спектральную плотность рассматриваемой пары выходных сигналов этой
системы в установившемся режиме определяют суммированием
вида (3.6.21).
Перейдём к определению дисперсий выходных сигналов многомерной системы.
Корреляционная функция и дисперсия
Взаимную корреляционную функцию произвольной пары выходных сигналов Yl(t) и Yp(t) рассматриваемой системы на основании формулы (2.7.13) с учётом выражения (3.6.21) запишем
n
n ∞
Kyl y p (τ) = ∑ ∑
∫ Φlk ( jω)Φ ph (− jω)Sx x
k = h =
(ω)e jωτ dω , (3.6.22)
−∞
где l, p = 1, 2,..., m.
При τ = 0 и l = p получаем формулу для дисперсии выходного сигнала Yl(t):
n
k h
n ∞
Dyl = ∑ ∑
∫ Φlk ( jω)Φlh (− jω)Sx x
k = h = −∞
k h
(ω)dω , (3.6.23)
где l = 1, 2,..., m.
Итак, зная совокупность частотных характеристик устойчивой
линейной стационарной многомерной системы, корреляционные
функции и дисперсии рассматриваемых выходных сигналов в установившемся режиме определяют суммированием простых интегральных преобразований (3.6.22) и (3.6.23) всевозможных попарно
взаимных спектральных плотностей входных сигналов.
Соотношениям (3.3.12)–(3.3.15) для многомерной системы в частотной области соответствует:
mY = Φ(0)mX ,


T
SY (ω) = Φ( jω)SX (ω)Φ (− jω) ,
(3.6.24)

SYX (ω) = Φ( jω)SX (ω) ,


SXY (ω) = SX (ω)Φ T (− jω) ,

148
где SX(ω), SY(ω) – матрицы спектральных плотностей, а SXY(ω) и
SYX(ω) – матрицы взаимных спектральных плотностей векторов
∞
X(t) и Y(t); Φ ( jω) = ∫ G (u)e − jωu du – матрица частотных характерис(m×n)
0
тик многомерной линейной системы.
Полученные формулы для статистических характеристик выходных сигналов в частотном представлении используем для определения статистических характеристик установившейся ошибки
линейной стационарной системы.
Рассмотрим статистические характеристики установившейся
ошибки стационарной линейной системы в частном представлении.
Пусть на вход реальной системы поступает (см. рис. 3.1) суммарный сигнал Y(t) = X(t)+ξ(t) . Полезный сигнал X(t) и помеха ξ(t) представляют собой стационарные и стационарно связанные случайные
процессы с известными математическими ожиданиями и спектральными плотностями. Требуется найти статистические характеристики ошибки системы в стационарном режиме: математическое
ожидание, спектральную плотность и дисперсию.
Эта задача представляет собой частный случай задачи определения статистических характеристик выходных сигналов многомерной системы, когда число входов n = 2, а число выходов m = 1.
Используя общие формулы (3.6.18), (3.6.21) и (3.6.23), последовательно запишем выражения для математического ожидания, спектральной плотности и дисперсии ошибки системы.
Математическое ожидание
Формула (3.6.18) при n = 2, m = 1 с учётом того, что математические ожидания входных сигналов имеют постоянные значения,
определяет математическое ожидание ошибки системы
2
me = ∑ Φ ek (0)mxk .
(3.6.25)
k =
В формуле (3.6.25) передаточные функции
Φ e (s) = Φ(s) − Φ 0 (s), Φ e2 (s) = Φ(s),
где Φ0(s) – передаточная функция идеальной системы; Φ(s) – передаточная функция реальной системы; mx , mx2 – математические
ожидания полезного сигнала X(t) и суммарного входного сигнала
Y(t).
149
Спектральная плотность
Формула (3.6.21) при n = 2, m = 1 определяет спектральную плотность ошибки системы
2
2
Se (ω) = ∑ ∑ Φ ek ( jω)Φ eh (− jω)Sxkxh (ω) . (3.6.26)
k = h =
Для случая взаимно некоррелированных входных процессов X(t)
и ξ(t) формула (3.6.26) примет вид
Se (ω) =| Φ( jω) − Φ 0 ( jω) |2 Sx (ω)+ | Φ( jω) |2 Sξ (ω) ,
где Sx(ω) – спектральная плотность полезного сигнала; Sξ(ω) – спект­
ральная плотность помехи.
Дисперсия
Формула (3.6.23) при n = 2, m = 1 определяет дисперсию ошибки
системы
2
2 ∞
De = ∑ ∑
∫ Φe ( jω)Φe
k = h = −∞
k
h
(− jω)Sxkxh (ω)dω . (3.6.27)
Для случая взаимно некоррелированных X(t) и ξ(t) формула
(3.6.27) имеет вид
∞
De =
∫
| Φ( jω) − Φ 0 ( jω) |2 Sx (ω)dω +
−∞
∞
∫ | Φ( jω) | Sξ (ω)dω . (3.6.28)
2
−∞
Первый интеграл в формуле (3.6.28) представляет собой составляющую дисперсии ошибки, обусловленную неточным преобразованием (искажением) полезного сигнала; второй интеграл – составляющую дисперсию ошибки, обусловленную прохождением
помехи. Отметим, что полученные формулы (3.6.25)–(3.6.28) для
статистических характеристик ошибки системы справедливы тогда и только тогда, когда рассматривается устойчивая стационарная
линейная система в установившемся режиме при стационарных и
стационарно связанных входных случайных сигналах.
Аналитический метод определения дисперсии выходного
сигнала стационарной системы в установившемся режиме
Преобразуем формулу (3.6.23), по которой вычисляется дисперсия выходного сигнала системы, к виду
150
Dyl =
∞ n
n
∫ k∑= h∑= Φlk ( jω)Φlh (− jω)Sx x
−∞
k h
(ω)dω . (3.6.29)
Если спектральные плотности входных сигналов Sxkxh (ω) представляют собой дробно-рациональные функции от jω, вычисление
интегралов (3.6.29) можно свести к вычислению интегралов стандартного вида [3, 6]
∞
In =
Bn ( jω)
∫ An ( jω) An (− jω) dω ,
2π −∞
(3.6.30)
где
An ( jω) = a0 ( jω)n + a ( jω)n − + ... + an ,
Bn ( jω) = b0 ( jω)2n −2 + b ( jω)2n −4 + ... + bn − .
Значения этих интегралов получаются непосредственно через
параметры спектральных плотностей входных сигналов и частот­
ных характеристик системы.
Заметим, что в случае взаимной некоррелированности сигналов
xk(t) и xh(t) Sxkxh (ω) = 0 и в (3.6.29) останутся только Sxkxk (ω) , являющиеся чётными вещественными функциями ω, которые, однако,
всегда можно при помощи операции факторизации представить в
виде произведения двух комплексно-сопряжённых функций от jω.
Значение интеграла определяется по формуле
In =
(−)n + Cn
2 a0 Dn
,
(3.6.31)
где матрица Dn =|| dmr || ; dmr = a2m −r ; m, r = 1, 2,..., n, а матрица Cn
равна матрице Dn, в которой первый столбец заменен на (b0, b1,...,
bn−1)T.
Определитель |Dn| является определителем Гурвица для полинома An(ω).
Для применимости метода достаточно, чтобы полином An(ω) обеспечивал невырожденность матрицы Dn.
Рассмотрим пример определения дисперсии ошибки системы. На
вход линейной стационарной следящей системы (рис. 3.4), используемой для получения оценки Xˆ (t) полезного сигнала X(t), поступает суммарный сигнал Y(t) = X(t) + ξ(t). Полезный сигнал X(t) представляет собой стационарный случайный процесс со спектральной
Dx α
плотностью Sx (ω) =
. Помеха ξ(t) – белый шум со спектπ(α2 + ω2 )
ральной плотностью s0. Требуется найти дисперсию ошибки оценки
в установившемся режиме.
151
Y(t)=X(t)+ξ(t)
Z (t) = Xˆ (t)
k
s(1+Ts)
Рис. 3.4. Структурная схема следящей системы
Предварительно найдём передаточную функцию замкнутой системы по отношению к входному сигналу Y(t)
W (s)
k
=
.
+ W (s) k + s( + Ts)
Φ(s) =
Дисперсию ошибки системы для данного примера определим по
формуле (3.6.28), принимая во внимание частотную характеристику идеальной системы Φ0(jω) = 1 (так как Zт(t) = X(t)) и конкретные
выражения спектральных плотностей Sx(ω) и Sξ(ω) = s0:
2
∞
De =
∫
−∞
2
∞
Dx
k
α
k
−
dω + ∫
s0 dω .
2
2
k + jω( + Tjω)
π α +ω
k + jω( + T (ω))
−∞
Перепишем выражение De в виде, удобном для представления через стандартные интегралы:
∞
De =
Dx α
T 2 ( jω)4 − ( jω)2
∫ (T( jω)2 + jω + k)(T(− jω)2 − jω + k)(α + jω)(α − jω) dω +
π −∞
+k2 s0
∞
dω
∫ (T( jω)2 + jω + k)(T(− jω)2 − jω + k) = 2 Dx α I3 + 2π k s0 I2 ,
2
−∞
где I3, I2– стандартные интегралы вида (3.6.30). Найдём I3.
I3 =
∞
B3 ( jω)
dω ,
∫
2π −∞ A3 ( jω) A3 (− jω)
B3 ( jω) = T 2 ( jω)4 − ( jω)2 = b0 ( jω)4 + b ( jω)2 + b2 , b0 = T 2 , b = −, b2 = 0;
A3 (ω) = (T ( jω)2 + jω + k)(α + jω) = T ( jω)3 + (Tα + )( jω)2 + (α + k) jω + kα =
= a0 ( jω)3 + a ( jω)2 + a2 jω + a3 , a0 = T, a = Tα + , a2 = α + k, a3 = kα .
152
Согласно (3.6.31)
b0 a0
b a2
3+ b
0
(−)
2
I3 =
2a0 a a0
a3 a2
0 0
0
a
a3
=
0
a
a3
Теперь найдём I2.
−a2b0 + a0 b − a0 ab2 / a3 + T (α + k)
= ⋅ 2
,
2a0 (a0 a3 − aa2 )
2 α T +α+k
∞
I2 =
B2 ( jω)
dω ,
∫
2π −∞ A2 ( jω) A2 (− jω)
B2 ( jω) = = b0 ( jω)2 + b , b0 = 0, b = ;
A2 ( jω) = T ( jω)2 + jω + k = a0 ( jω)2 + a jω + a2 , a0 = T, a = , a2 = k;
I2 =
2+
(−)
2a0
⋅
b0
b
a0
a2
a
a3
a0
a2
=
−b0 + a0 b / a2 =
.
2a0 a
2k
Подставляя найденные значения I2 и I3 в выражение для дисперсии, получим
+ T (α + k)
De = Dx α 2
+ kπs0 .
α T +α+k
3.7. Преобразование случайных сигналов системами
в пространстве состояний
Пусть исходная система описывается моделью в пространстве состояний:
x 0 (t) = Fx (t) x0 (t) + Gx (t)[w(t) + u(t)] , (3.7.1)
y(t) = Hx (t) x0 (t) , (3.7.2)
где x0 – вектор состояния размерности n; Fx, Gx, Hx – матрицы с размерностями соответственно n×n, n×p, m×n; w – случайная составляющая вектора входных воздействий размерности p; u – детерминированная составляющая вектора входных воздействий размерности
p; y – наблюдаемый вектор размерности m.
В большинстве случаев, встречающихся в практике использования ИИС, входные возмущения удовлетворительно описываются
153
случайными процессами с дробно-рациональными спектральными
плотностями. Поэтому входные возмущения можно смоделировать
при помощи формирующего фильтра (см. п. 2.9.2.) в пространстве
состояний:
z(t) = Fz (t) z(t) + Gz (t) n(t) , 
(3.7.3)

w(t) = Hz (t) z(t) ,

где
Fz, Gz, Hz – матрицы с размерностями соответственно l×l, l×s, p×l;
n(t) – вектор взаимно некоррелированных белых шумов с единичными интенсивностями и нулевыми математическими ожиданиями размерности l. Зависимость параметров модели (3.7.3) от времени позволяет сформировать нестационарные входные воздействия.
Дополняя систему (3.7.1) системой (3.7.3) формирования воздейст­
вия w(t), получим расширенную систему
x 0 (t) = Fx (t) x0 (t) + Gx (t) Hz (t) z(t) + Gx (t) u(t) , 

z(t) = Fz (t) z(t) + Gz (t) n(t) ,

(3.7.4)
которую с добавлением (3.7.2) можно переписать в стандартном
виде
x (t) = F (t) x(t) + G (t) n(t) + C(t) u(t) , (3.7.5)
y(t) = H(t) x(t) , (3.7.6)
где x = [x0, z]T – расширенный вектор состояния; F, G, C, H – составные матрицы:
 F (t) Gx (t) Hz (t) 
 0 
F (t) =  x
, G (t) = 

,
Fz (t) 
 0
Gz (t) 
G (t) 
C(t) =  x  , H(t) = [Hx (t) 0].
 0 
При анализе линейных систем в пространстве состояний обычно
на практике бывает достаточно определить математическое ожидание и ковариационную матрицу вектора состояния и наблюдаемого
вектора.
Для получения необходимых зависимостей потребуется связь
вектора состояния с входными воздействиями [7]
t
x(t) = Φ(t,t0 ) x(t0 ) + ∫ Φ(t, τ)[G (τ) n(t) + C(τ) u(τ)]dτ , t0
(3.7.7)
где x(t0) – значение вектора x в начальный момент времени t0 ; Φ(t, τ) –
 (t,t0 ) = F (t) Φ(t,t0 )
матрица перехода, определяемая из уравнения Φ
с начальным условием Φ(t, t0) = I (I – единичная матрица).
154
Выполнив операцию математического ожидания над (3.7.7), получим выражение для математического ожидания вектора состояния
mx (t) = M[x(t)] = M[Φ(t,t0 ) x(t0 )] +
 t

 t

+M[Φ(t,t0 ) x(t0 )] + M  ∫ Φ(t, τ) G (τ) n(τ)dτ  + M  ∫ Φ(t, τ) C(τ) u(τ)dτ  .
t0

t0

Тогда, учитывая, что M[n(t)] = 0, окончательно будем иметь
t
mx (t) = Φ(t,t0 )M[x(t0 )] + ∫ Φ(t, τ) C(τ) u(τ)dτ , (3.7.8)
t0
где
значения векто M[x(t0)] – математическое ожидание начального
ра x, которое можно принять равным (M[x0(t0)], 0)T.
Можно также получить дифференциальное уравнение для математического ожидания вектора состояния, применив операцию математического ожидания к обеим частям (3.7.5)
 x (t) = F (t) mx (t) + C(t) u(t)
m
(3.7.9)
с начальным условием mx (t) t =t = M[x(t0 )] .
0
Математическое ожидание наблюдаемого вектора с учётом
(3.7.6)
my (t) = M [H(t) x(t)] = H(t) mx (t) .
Теперь найдём ковариационную матрицу вектора состояния, которая по определению имеет вид
{
}
Kx (t) = M [x(t) − mx (t)][x(t) − mx (t)]T .
(3.7.10)
Подставляя в эту формулу вместо x(t) и mx(t) их выражения из
(3.7.7), (3.7.8) и выполняя необходимые преобразования, получим
Kx (t) = M Φ(t,t0 ) x(t0 )[Φ(t,t0 ) x(t0 )]T +
{
}
 t t

+M  ∫ ∫ Φ(t, τ ) G (τ ) n(τ )[Φ(t, τ2 ) G (τ2 ) n(τ2 )]T dτ dτ2  =
t0 t0

= Φ(t,t0 )M[x(t0 ) x T (t0 )] Φ T (t,t0 ) +
t t
+ ∫ ∫ Φ(t, τ ) G (τ )M[n(τ ) nT (τ2 )] G T (τ2 )Φ T (t, τ2 )dτ dτ2 .
t0 t0
155
Учитывая, что M[n(τ1)nT(τ2)] = I⋅δ(τ2−τ1) (так как n(t) – вектор белых шумов единичной интенсивности), и выполняя интегрирование с δ‑функцией, окончательно получим
t
Kx (t) = Φ(t,t0 ) Kx (t0 ) Φ T (t,t0 ) + ∫ Φ(t, τ) G (τ) G T (τ)Φ T (t, τ)dτ . (3.7.11)
t0
Можно также вывести и дифференциальное уравнение для Kx(t).
Для этого надо продифференцировать (3.7.10) по времени и заме x (t) согласно
нить в полученном выражении производные x (t) и m
(3.7.5) и (3.7.9). В результате получим следующее дифференциальное уравнение:
K x (t) = F (t) Kx (t) + Kx (t) F T (t) + G(t) G T (t)
с начальным условием Kx (t) t =t = Kx (t0 ) .
0
Ковариационная матрица вектора наблюдаемых сигналов системы на основании (3.7.10) и (3.7.6)
Ky (t) = H(t) Kx (t) H T (t) .
В отдельных случаях возникает необходимость найти матрицу
корреляционных функций вектора состояния
{
}
Kx (t,t2 ) = M [x(t ) − mx (t )][x(t2 ) − mx (t2 )]T .
Повторяя действия, подобные выполненным при выводе (3.7.11),
получим
Kx (t,t2 ) = Φ(t,t0 ) Kx (t0 ) Φ T (t2 ,t0 ) +
min(t ,t2 )
∫
Φ(t, τ) G (τ) G T (τ)Φ T (t2 , τ)dτ .
t0
Если при выводе (3.7.11) в качестве начального момента взять не
t0, а более ранний из двух моментов t1, t2, то можно прийти к другому выражению
 Φ(t,t2 ) Kx (t2 ), t ≥ t2 ,
Kx (t,t2 ) = 
T
 Kx (t ) Φ (t2 ,t ), t ≤ t2 .
156
Матрица корреляционных функций вектора наблюдаемых сигналов с учётом (3.7.6)
Ky (t,t2 ) = H(t ) Kx (t,t2 ) H T (t2 ) .
Следует отметить, что метод пространства состояний хорошо согласуется с теорией марковских процессов [4], и, следовательно, может применяться при нелинейных преобразованиях сигналов [8].
157
Заключение
Подводя итоги изучения изложенного в учебном пособии материала, перечислим и дадим краткую характеристику рассмотренных вопросов, предварительно распределив их по следующим трём
группам.
1. Классические способы и методы описания сигналов и систем,
в основе которых лежат такие понятия, как гармонический анализ реализаций сигналов, описание систем на основе аппарата импульсных весовых функций и частотных характеристик, корреляционно-спектральное описание сигналов и систем при случайных
воздействиях. Вопросы этой группы продолжают оставаться фундаментом, на котором строится информационно-статистическая теория измерений.
2. Описание сигналов и систем на основе метода пространства состояний; вопросы, связанные с дискретизацией сигналов по времени, в том числе дискретные преобразования Фурье, Лапласа, z-преобразование. Эти вопросы стали актуальными в связи с широким
распространением цифровой обработки сигналов.
3. Специальные вопросы такие, как конечномерная аппроксимация сигналов и оператора систем в гильбертовом пространстве;
представление случайных сигналов при помощи обобщённых рядов
Фурье, рядов Пугачёва и Карунена–Лоэва; интегральное преобразование Гильберта. Вопросы данной группы могут представлять
самостоятельный интерес, а также быть полезными в задачах анализа ИИС, но главным образом они применяются в приближенных
методах синтеза ИИС.
Приведённое деление на группы является условным, но может
быть отражением уровня формируемых знаний: материал первой
группы соответствует начальному уровню, содержание второй группы дополняет его до базового уровня, а сведения из третьей группы
необходимы для более глубокого владения предметом.
158
Библиографический список
1. Гоноровский И. С. Радиотехнические цепи и сигналы: учебник
для вузов. М.: Радио и связь, 1986. 512 с.
2. Френкс Л. Теория сигналов. М.: Советское радио, 1974. 344 с.
3. Росин М. Ф., Булыгин В. С. Статистическая динамика и теория
эффективности систем управления: учебник для вузов. М.: Машиностроение, 1981. 312 с.
4. Тихонов В. И., Харисов В. Н. Статистический анализ и синтез радиотехнических устройств и систем: учебное пособие для
вузов. М.: Радио и связь, 1991. 608 с.
5. Перов В. П. Прикладная спектральная теория оценивания. М.:
Наука, 1982. 432 с.
6. Иванов Ю. П., Синяков А. Н., Филатов И. В. Комплексирование информационно-измерительных устройств летательных аппаратов: учебное пособие для вузов. Л.: Машиностроение, 1984. 207 с.
7. Виноградов А. В., Иванов Ю. П. Методы обработки сигналов:
учебное пособие/ ЛИАП. Л., 1986. 76 с.
8. Тихонов В. И., Шахтарин Б. И., Сизых В. В. Случайные процессы. Примеры и задачи: учебное пособие для вузов: В 4 т. Т. 2.
Линейные и нелинейные преобразования. М.: Радио и связь, 2004.
400 с.
9. Чернецкий В. И. Анализ точности нелинейных систем управ­
ления. М.: Машиностроение, 1968. 246 с.
10. Михалёв В. И., Окоёмов Б. Н., Чикулаев М. С. Системы автоматического управления самолётом. М.: Машиностроение, 1987.
240 с.
159
Учебное издание
Иванов Юрий Павлович
Бирюков Борис Леонтьевич
ИНФОРМАЦИОННО-СТАТИСТИЧЕСКАЯ
ТЕОРИЯ ИЗМЕРЕНИЙ
Модели сигналов и
анализ точности систем
Учебное пособие
Редактор А. В. Подчепаева
Верстальщик А. Н. Колешко
Сдано в набор 12.11.07. Подписано к печати 25.01.08.
Формат 60х84 1/16. Бумага офсетная. Печать офсетная. Усл.-печ. л. 9,3.
Уч.-изд. л. 10,0. Тираж 150 экз. Заказ №
Редакционно-издательский центр ГУАП
190000, Санкт-Петербург, Б. Морская ул., 67
160
Документ
Категория
Без категории
Просмотров
6
Размер файла
1 378 Кб
Теги
ivanovbiryukov2
1/--страниц
Пожаловаться на содержимое документа