close

Вход

Забыли?

вход по аккаунту

?

2395.«Основы теории управления и идентификации в технических системах» Книга 1

код для вставкиСкачать
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РФ
Федеральное государственное бюджетное
образовательное учреждение
высшего профессионального образования
«Пензенский государственный университет» (ПГУ)
А. Д. Семенов, М. А. Щербаков
ОСНОВЫ ТЕОРИИ УПРАВЛЕНИЯ
И ИДЕНТИФИКАЦИИ
В ТЕХНИЧЕСКИХ СИСТЕМАХ
«Допущено Учебно-методическим объединением вузов
по образованию в области автоматизированного машиностроения
(УМО АМ) в качестве учебного пособия для студентов высших
учебных заведений, обучающихся по направлениям подготовки
"Конструкторско-технологическое обеспечение машиностроительных
производств"; "Автоматизированные технологии и производства"»
В двух книгах
Книга 1
Пенза
Издательство ПГУ
2012
1
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
УДК 621.391:519.21
С30
Р е ц е н з е н т ы:
доктор технических наук, профессор,
заведующий кафедрой управления и информатики в технических системах
Московского государственного института электроники и математики
(технического университета)
А. Ф. Каперко;
доктор технических наук, профессор,
заведующий кафедрой информационных систем и технологий
Самарского государственного аэрокосмического университета
С. А. Прохоров
Семенов, А. Д.
Основы теории управления и идентификации в техниС30 ческих системах : учеб. пособие : в 2 кн. / А. Д. Семенов,
М. А. Щербаков. – Пенза : Изд-во ПГУ, 2012. – Кн. 1.  314 с.
ISBN 978-5-94170-425-5 (кн. 1)
ISBN 978-5-94170-424-8
Рассматриваются основные методы автоматического управления
с использованием математического описания этих систем в пространстве состояний, моделей на базе матричных операторов и рядов Вольтерра и нейронных сетей, методы анализа и синтеза линейных систем,
а также структурированные модели систем управления, передаточные
функции, структурные схемы, временные и частотные характеристики. Изложены вопросы наблюдаемости, управляемости и устойчивости одномерных и многомерных систем управления, удовлетворяющих различным критериям качества. Приводятся основные методы
улучшения качества процессов управления и синтеза автоматических
регуляторов. Проанализированы основные методы их идентификации,
показаны особенности применения временных, частотных, спектральных, стохастических непараметрических и параметрических методов
идентификации. Изложение сопровождается многочисленными примерами, поясняющими технологию использования MATLAB для решения задач управления и идентификации.
Учебное пособие подготовлено на кафедре «Автоматика и телемеханика» и предназначено для студентов, обучающихся по направлениям подготовки «Конструкторско-технологическое обеспечение машиностроительных производств», «Автоматизированные технологии
и производства», «Автоматизация и управление».
УДК 621.391:519.21
ISBN 978-5-94170-425-5 (кн. 1)
ISBN 978-5-94170-424-8
© Пензенский государственный
университет, 2012
2
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Предисловие
Управление обеспечивает целенаправленное приспособление
системы к внешним воздействиям. Независимо от физического
характера системы, процессы управления, протекающие в ней,
подчиняются некоторым общим закономерностям и характеризуются сходными явлениями. Эти закономерности и явления изучает
кибернетика – наука об управлении динамическими системами.
Кибернетика состоит из двух греческих слов: «кибер» – над;
«натиус» – моряк. Буквально «кибернатиус» – старший над моряками.
Впервые слово «кибернетика» было употреблено русским
ученым А. А. Богдановым, который рассматривал эту науку применительно к управлению человеческим обществом.
В 1948 г. Н. Винер в своей книге «Кибернетика, или управление и связь в животном и машине» придал этому термину современное понятие.
Кибернетику определяют также как науку о способах восприятия, передачи, хранения, переработки и использования информации.
Современная кибернетика состоит из ряда разделов, представляющих собой самостоятельные научные направления. Теоретическое ядро кибернетики составляют теория информации, теория алгоритмов, теория автоматов, исследование операций, теория
автоматического управления, теория распознавания образов.
Управлением техническими системами занимается техническая кибернетика, которая включает в себя теорию автоматического управления, теорию оптимальных систем, адаптивных и обучающих систем, теорию надежности. Главная задача технической
кибернетики – синтез технических систем управления, обеспечивающих достижение требуемых показателей качества, характеризующих их функционирование. Основной математический аппарат технической кибернетики: теория дифференциальных уравнений, функциональный анализ, вариационное исчисление, матема3
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
тическое программирование, математическая логика, теория графов, теория вероятностей.
Управление как совокупность целенаправленных действий
предполагает наличие некоторого алгоритма, по которому эти
действия происходят. В свою очередь для разработки алгоритма
необходимо иметь некоторое представление об управляемом объекте. Невозможно управлять автомобилем, не имея представления
об его устройстве, назначении органов управления и правилах
движения. Общее представление об управляемом объекте задается
с помощью модели объекта. Модель (от лат. modulus – мера, образец, норма) – физическая система, устройство, схема, установка,
система машин или математическое описание компонентов и
функций, отображающих существенные свойства какого-либо
объекта, процесса или явления.
Теория управления в первую очередь имеет дело не с реальными объектами, а с их математическими моделями. В практике
создания систем управления очень часто имеют место случаи, когда необходимо спроектировать систему управления для объекта,
который еще не существует. В первую очередь это относится к
системам управления новыми технологическими процессами. Так
создавались системы управления космическими аппаратами,
ядерными реакторами, биотехнологическими установками и т.п.
Построение математической модели достаточно сложного
объекта представляет собой довольно трудоемкий процесс, предполагающий структурную и параметрическую идентификацию
объекта. Идентификация (отождествление) в технике связана с
процессом построения модели исследуемого объекта. В данном
учебном пособии под идентификацией понимается процесс построения математической модели технического устройства (объекта) по его измеряемым входным и выходным сигналам. При
этом под объектом можно понимать любые материальные (физические процессы, технические объекты) и нематериальные (знаковые) элементы и системы.
Таким образом, задачи управления и идентификации тесно
связаны между собой. Для разработки высокоэффективного алгоритма управления необходимо иметь довольно точную модель
объекта, которая может быть получена в результате идентификации. В свою очередь проведение идентификации какого-либо объекта ставит целью получение его математической модели, которая
4
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
в дальнейшем будет использована для решения задач контроля и
управления этим объектом.
В настоящее время в технической литературе приводится
значительное количество методов управления и идентификации
динамических объектов. В учебном пособии основное внимание
уделяется методам анализа и синтеза линейных систем, методам
автоматического управления с использованием математического
описания этих систем в пространстве состояний, методам параметрической идентификации, начиная от простейших методов,
основанных на использовании временных и частотных характеристик объекта и заканчивая современными методами с использованием матричных операторов и нейронных сетей. Изложение сопровождается многочисленными примерами, поясняющими технологию решения задач управления и идентификации с использованием системы инженерных и научных расчетов MATLAB.
5
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Часть I
УПРАВЛЕНИЕ ТЕХНИЧЕСКИМИ
СИСТЕМАМИ
Введение
Управление – это совокупность действий, осуществляемых
на основе определения информации и направляемых на поддержание или улучшение функционирования объекта в соответствии
с имеющейся программой (алгоритмом) или целью управления.
Автоматическое управление – это управление, осуществляемое без участия человека.
В соответствии с введенным определением управление можно рассматривать как целенаправленный процесс, протекающий в
пространстве и времени и развивающийся в некоторой организованной материальной среде.
Для реализации процесса управления необходимо физическое устройство (объект управления), состояние которого можно
изменять путем приложения внешних воздействий и контролировать изменение состояния с помощью информационных устройств
(датчиков). Также необходимо иметь цель управления, сформулированную на основе определенных понятий о природе управляемых процессов, протекающих в объекте управления (ОУ) и отношений между внешними воздействиями и параметрами этих процессов.
Управляемые процессы, протекающие в ОУ, могут иметь
различную физическую природу (механические, электрические,
химические, биологические, экономические и т.п.). В зависимости
от физической природы управляемых процессов различными будут и цели управления. Например, для механических процессов
целью управления может быть получение высокого быстродействия, для электрических – управление с минимальными затратами
энергии, для химических – получение максимального количества
продукта с единицы объема, для экономических – получение максимальной прибыли.
6
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Для поддержания нормального протекания управляемых
процессов при одновременном достижении цели управления к
объекту управления подключается устройство управления (УУ).
Основное назначение УУ – выработка управляющих воздействий
на ОУ в соответствии с целью управления и его текущим состоянием, определяемым с помощью информационных устройств
(датчиков).
Совокупность устройств управления и объекта, обеспечивающих автоматическое управление, называется системой автоматического управления.
Таким образом, управление обеспечивает целенаправленное
приспособление системы управления к внешним воздействиям.
Независимо от физического характера системы процессы управления, протекающие в ней, подчиняются некоторым общим закономерностям и характеризуются сходными явлениями.
Структура системы управления показана на рис. 1.
f
x
ОУ
y
u
УУ
Рис. 1. Структура системы управления
На рисунке приняты следующие обозначения: u – независимые переменные (управляющие координаты или величины), вырабатываемые устройством управления (УУ); x – зависимые переменные (обобщенные или фазовые координаты), которые однозначно характеризуют состояние управляемого процесса в любой
момент времени; y – вторичные, измеряемые переменные (управляемые координаты), которые в процессе управления измеряются
и используются для оценки качества функционирования системы
управления; f – внешние неконтролируемые переменные (возмущающие воздействия), отклоняющие y от заданных значений.
7
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
В структурной схеме реализуется фундаментальный принцип управления – принцип обратной связи, когда информация с
выхода объекта после соответствующей обработки в устройстве
управления поступает на его вход. Причем управляющие воздействия, подаваемые на вход объекта, вычисляются таким образом,
чтобы обеспечить достижения заданной цели управления и скомпенсировать неблагоприятные изменения управляемых координат y
при неконтролируемом действии внешних возмущений f.
Функциональная зависимость, устанавливающая взаимосвязь между регулируемыми и регулирующими координатами
объекта, называется законом управления. Закон управления может
быть записан в виде
u = F(x).
(1)
Используемые в настоящее время в качестве УУ микропроцессоры и микроЭВМ позволяют легко реализовать самые разнообразные виды законов управления как функции u = F(x), добиваясь желаемого характера управляемых процессов, протекающих в
ОУ, не внося в него каких-либо конструктивных или технологических изменений.
Выбор конкретного закона управления будет определяться
свойствами и характеристиками ОУ, целью управления и ограничениями, накладываемыми на координаты объекта.
Экспериментально определяемые характеристики ОУ и теоретические исследования особенностей управляемых процессов,
протекающих в нем, позволяют создавать математические модели
объектов управления в виде системы дифференциальных уравнений с обычными и частными производными от его обобщенных
(фазовых) координат.
D ( x, u, f , a, l , t )   (l , t ),
(2)
где D – символ дифференцирования функции Ф по пространственной координате l и времени t; a – параметры модели.
Как правило, цель управления задается в виде целевой функции I (X ,U ) от управляемых и обобщенных координат объекта:
I  I(x, u ) .
(3)
Ограничения на координаты объекта задаются в виде неравенств
x  xm ;
y  ym ;
8
u  um .
(4)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Если в процессе управления для целевой функции I(x, u)
обеспечивается экстремум, то управление в этом случае называют
оптимальным, а систему управления – оптимальной. В том случае
если I(x, u) зависит от времени или остается постоянной, не достигая экстремума, то управление называют программным или стабилизирующим.
Если в качестве целевой функции используют управляемые
координаты y, т.е. I  I ( y ) , то имеет место автоматическое регулирование, а не управление. Автоматическое регулирование является частным случаем автоматического управления.
В зависимости от конкретного вида выражений (1)–(3) можно выделить следующие основные классы систем автоматического
управления.
Наиболее важным классификационным признаком систем
управления является математическое описание их поведения, задаваемое с помощью выражения (2). По этому признаку все системы делятся на следующие:
– системы с распределенными координатами. Описываются
дифференциальными уравнениями в частных производных, размерность вектора фазовых координат x бесконечна;
– системы с сосредоточенными параметрами. Описываются
обыкновенными дифференциальными уравнениями, размерность
вектора фазовых координат x конечна. Если y – вектор, то имеем
многомерную систему, если y – скаляр, то – одномерную;
– нелинейные системы. Описываются нелинейными дифференциальными уравнениями (обыкновенными и в частных производных);
– линейные системы. Описываются линейными дифференциальными уравнениями (обыкновенными и в частных производных);
– непрерывные системы. Описываются дифференциальными
уравнениями, решения которых являются непрерывными функциями времени;
– дискретные системы (импульсные и цифровые). Описываются разностными уравнениями, решением которых являются
дискретные функции времени.
Вторым по важности признаком классификации является
принцип управления. По этому признаку различают:
9
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
– системы с обратной связью, или системы, реализующие
принцип управления по отклонению. В таких системах регулирующая величина u является некоторой функцией от ошибки системы, определяемой как отклонение вектора регулируемых координат y от заданного значения q;
– системы с компенсацией возмущений, или системы, реализующие принцип управления по возмущению. В таких системах
регулирующая величина u является функцией от каких-либо компонент вектора возмущающих воздействий f, причем вид функциональной зависимости u  F (f ) определяется из условия частичной или полной компенсации действующих возмущений f на
регулируемую величину y;
– комбинированные системы управления, в которых одновременно реализуются принципы управления по отклонению и
возмущению.
Третьим классификационным признаком является вид закона
управления (1). По этому признаку различают:
– системы с линейными законами управления (регулирования), когда управляющее воздействие u является линейной комбинацией от регулируемых величин y, а также их производных и
интегралов;
– системы с нелинейными законами управления;
– системы экстремального и оптимального управления, обеспечивающие экстремум (максимум или минимум) целевой функции (3);
– системы адаптивного управления, изменяющие параметры
закона управления (самонастраивающиеся системы) или сам закон
(самоорганизующиеся системы) в зависимости от изменения параметров объекта управления.
Четвертым классификационным признаком является характер цели управления (3), в соответствии с которым все системы
делятся на следующие:
– системы стабилизации, у которых целевая функция постоянна:
I(y, u)  const ;
– системы программного управления, у которых целевая
функция зависит от времени:
I (y , u )  f (t )  const;
10
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
– системы оптимального управления, у которых целевая
функция в процессе управления достигает экстремума:
I(y, u)  min(max) .
Основными задачами теории автоматического управления
являются задачи анализа и синтеза систем управления.
В задаче синтеза требуется найти закон управления, удовлетворяющий условиям (1), при заданных характеристиках и параметрах ОУ.
В задаче анализа необходимо по заданным закону управления и параметрам ОУ проверить выполнение условия (1).
Решение этих задач в рамках современной теории автоматического управления включает в себя следующее:
– получение математических моделей объекта управления в
пространстве состояний или в виде моделей «вход-выход»;
– оценивание и идентификацию параметров математических
моделей;
– оценку наблюдаемости, управляемости, идентифицируемости и адаптируемости объекта управления;
– применение методов оптимального и адаптивного управления для нахождения закона управления;
– проверку устойчивости системы автоматического управления;
– определение качества процессов управления в соответствии с выбранной целевой функцией.
11
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
1. Математические модели
технических систем
1.1. Обобщенные аналитические модели
объектов управления
Математическая модель – это математическое описание координат, параметров и функций, отображающих существенные
свойства объекта, процесса или явления. Математическая модель
объекта управления является основой для анализа и синтеза систем управления. В теории управления исследуются и рассматриваются не реальные системы, а их математические модели, поэтому результаты проводимых исследований и расчетов лишь приблизительно отражают свойства реальных систем. Чем точнее математическая модель отражает свойства реальной системы, тем
точнее результаты проводимых расчетов.
Для получения математической модели системы управления
необходимо дополнить уравнения объекта уравнениями исполнительных устройств, устройств измерения и управления.
Очевидно, что без нарушения общности рассуждений исполнительные устройства и устройства измерения можно отнести к
объекту управления, расширив размерность его вектора обобщенных координат. Такой объект, включающий в себя исполнительные и измерительные устройства, будем называть обобщенным
объектом.
В наиболее общем случае управляемый процесс, протекающий в ОУ, может быть описан дифференциальными уравнениями
в частных производных:
L (l , t )  f (l , t ), (l  L, t  0),
(1.1)
при начальных условиях
 j (l ,0)  (l ) , ( j  1, 2, ..., n, l  L),
(1.2)
и краевых условиях
Bi  (l , t )  bi (l , t ) , (i  1, 2, ..., m, l  L, t  0) ,
(1.3)
где l – пространственная координата; m – число управляющих величин; n – число управляемых величин.
12
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Ограничимся рассмотрением случая, когда L является волновым оператором или оператором переноса, что соответствует
исследованию динамических процессов распространения возмущений и свободных движений. Кроме этого, выбор такого оператора позволяет рассматривать достаточно широкий класс физических процессов теплопроводности, диффузии, переноса, газо-,
гидродинамики, колебаний и сводится к решению смешанных
задач математической физики для уравнений гиперболического
и параболического типа вида [5]
n
2 x
x
  bi (l )
 c (l ) x  u (l , t ) .
 aij (l )
li  l j i 1
 li
i , j 1
n
(1.4)
Рассмотрим основные физические процессы, сводящиеся к
уравнению (1.4).
1. Уравнение колебаний. Многие задачи механики (колебания струн, стержней, мембран, трехмерных объектов) и электротехники (электромагнитные колебания) описываются уравнением
колебаний:

2 x
t 2
 div[ p grad (x)]  qx  u (l , t ) .
(1.5)
Неизвестная функция x(l , t ) (координата процесса) зависит
от n (n = 1, 1, 3) пространственных координат l1 , l2 , l3 и времени t,
коэффициенты , p, q определяются свойствами среды, где происходит колебательный процесс, свободный член u (l , t ) выражает
интенсивность внешнего возмущения. В уравнении (1.5) в соответствии с определением операторов div и grad
  x
p
.


l
l
i 1 i 
i 
n
div[ p grad (x)]  
(1.6)
Для однозначного описания процесса колебаний необходимо
дополнительно задать величину x(l ,0) в начальный момент времени (начальные условия) и режим поведения x(l0 , t ) на границе
среды, где развивается физический процесс (граничные условия).
В задачах механики это x(l , t )  отклонения точки материального
тела с координатами l1 , l2 , l3 от положения равновесия, в задачах
13
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
электродинамики x(l , t )  это напряженность электрического или
магнитного поля в точке пространства с координатами l1 , l2 , l3 .
2. Уравнение диффузии. Процессы распространения тепла
или диффузии частиц в среде описываются следующим уравнением диффузии:

x
 div[p grad(x)]  qx  u (l , t ) .
t
(1.7)
Неизвестная функция x(l , t ) в этом случае является температурой или концентрацией вещества. u (l , t ) – интенсивность источников тепла или вещества.
Как и в случае уравнения колебаний, для полного описания
процесса необходимо задать начальное распределение x(l ,0) (начальные условия) и режимы на границе среды x(l0 , t ) (граничные
условия).
3. Уравнения газо-, гидродинамики:

 div(V )  f (l , t );
t
V
1
 [V ,grad(V )]  grad( p)  u (l , t ),
t

(1.8)
здесь V (l , t ) – вектор скорости движения жидкости или газа; (l , t ) –
плотность; p(l , t ) – давление; f (l , t ) – интенсивность источников;
u (l , t ) – интенсивность массовых сил.
Первое (уравнение неразрывности) и второе (уравнение Эйлера) уравнения дополняются уравнением состояния, учитывающим
связь между давлением и плотностью.
Отметим, что для объектов с распределенными координатами, описываемыми уравнениями в частных производных, координаты физического управляемого процесса x(l , t ) и внешние воздействия U (l , t ) непрерывно изменяются во времени и пространстве. На практике контроль координат управляемого процесса и
внесение управляющих воздействий осуществляются в отдельных
точках пространства. В связи с этим в задачах автоматического
управления для математического описания ОУ переходят к уравнениям в обыкновенных производных.
14
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Формально такой переход можно осуществить заменой частных производных на обыкновенные в уравнениях (1.5), (1.7),
(1.8) и введением некоторой интегральной характеристики
F ( x)  div[ p grad( x)] , учитывающей интегральные свойства и параметры среды.
Принимая во внимание конечную скорость распространения
возмущений в пространственной среде, где протекает управляемый процесс, а также то обстоятельство, что точка приложения
управляющего воздействия и точка контроля координат процесса
находятся в разных областях пространства, изменение x(l1 , t ) под
действием U (l2 , t ) будет происходить не мгновенно, а с некоторым запаздыванием. Время этого запаздывания  можно вычислить как отношение расстояния между точками приложения
управляющего воздействия и контроля к скорости распространения возмущений v :
l1  l2
.
(1.9)
v
Тогда уравнения (1.5), (1.7), (1.8) могут быть преобразованы
к следующему виду:

1) уравнения колебаний:

d 2x
2
 qx  F ( x)  u (t  ) ;
dt
1) уравнения теплопроводности и диффузии:
dx
 qx  F ( x)  u (t  ) ;
dt
3) уравнения газо-, гидродинамики:

d
 F1 (,V )  f (t  );
dt
(1.10)
(1.11)
(1.12)
dV
 F2 (V )  F3 ()  u (t  ).
dt
Эти уравнения являются нелинейными неоднородными уравнениями в обычных производных.
Непосредственное исследование поведения объекта управления или физической системы по уравнениям (1.10)–(1.12) представляет собой сложную вычислительную задачу, сводящуюся к
15
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
решению системы нелинейных дифференциальных уравнений.
В том случае если и коэффициенты этих уравнений являются
функциями времени, то решение таких нелинейных и нестационарных уравнений еще больше усложняется и сводится уже к решению системы нестационарных нелинейных дифференциальных
уравнений.
При решении практических задач управления поиск управляющих воздействий чаще всего осуществляется с использованием линейных стационарных моделей объекта управления. Переход
от нелинейных и нестационарных моделей к более простым линейным и стационарным моделям возможен в случае выполнения
принципа эквивалентности, условий теоремы разделения и концепции нейтральности [33]. Выполнение этих условий предполагает, что координаты процесса, протекающего в объекте управления, изменяются незначительно в окрестностях точки установившегося движения, а скорость их изменения во времени значительно выше, чем скорость изменения коэффициентов этого процесса.
Стремление линеаризовать нелинейные системы и обеспечить
постоянство их коэффициентов вызвано особыми свойствами линейных стационарных систем, позволяющими в значительной степени облегчить их анализ. К таким свойствам относятся свойство
суперпозиции и свойство однородности на изменение масштаба
входной переменной, задаваемые уравнениями (1.10)–(1.12).
Задача управления линейными стационарными системами
может быть сильно упрощена, поскольку позволяет разделить процессы идентификации и выработки управляющих воздействий [27].
Процесс идентификации при таком подходе осуществляется в два
этапа. На первом этапе, вне контура управления, решаются задачи
оценки структуры и параметров модели объекта, степени стационарности и возможности представления конкретного объекта
стационарной моделью, степени нелинейности и возможности
использования линейной модели, выбора информативных выходных переменных управлений, проверки адекватности модели.
На втором этапе, в контуре управления, выполняется текущая оперативная идентификация. Здесь решается задача определения параметров модели на основе данных измерений и применения рекуррентных алгоритмов обработки информации с последующей передачей уточненных значений в управляющее устройство для корректировки закона управления на следующем шаге.
16
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
1.2. Линеаризация нелинейных моделей
объектов управления
Следует иметь в виду, что, говоря о линеаризации нелинейных моделей объектов, фактически осуществляют линеаризацию
нелинейных дифференциальных или алгебраических уравнений,
которыми описывается объект.
Поскольку подавляющее большинство объектов управления
является нелинейными системами, то одна из задач теории линейных систем – это задача линеаризации исходных нелинейных
уравнений объекта управления и определения границ применения
методов исследования линейных систем.
Стремление линеаризовать нелинейные системы, как уже отмечалось, вызвано особыми свойствами линейных систем, позволяющими в значительной степени облегчить их анализ [13, 29].
К таким свойствам относятся:
– свойство суперпозиции.
Если y  f  x  есть линейная функция, то для любых x1 , x2
f ( x1  x2 )  f  x1   f  x2  .
(1.13)
Сумма аргументов линейной функции равна сумме функций
от этих аргументов;
– свойство однородности на изменение масштаба входной
переменной.
Если y  f  x  – линейная зависимость, то
f (ax)  af ( x)
(1.14)
для любых действительных а.
Постоянный множитель при аргументе можно выносить из
под знака функции, или это свойство можно сформулировать так:
во сколько раз изменяется масштаб переменной, во столько раз
изменяется и масштаб функции.
Поведение физической конечномерной системы можно исследовать с помощью системы нелинейных дифференциальных
уравнений в форме Коши, которая в матричной форме запишется
таким образом:
dх
 F  х(t ), u(t ), f (t )  ,
(1.15)
dt
17
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
где
x   x1 , x2 , ..., xn  – вектор переменных системы;
T
u   u1 , u2 , ..., um  – вектор управляющих воздействий;
T
f   f1 , f 2 , ..., f k  – вектор возмущений.
T
Уравнение (1.15) в обобщенном виде описывает динамические свойства объекта управления, задаваемые уравнениями
(1.10)–(1.11), когда обобщенные координаты x и возмущения u
являются векторами и зависят от времени.
Непосредственное исследование поведения объекта управления или физической системы по уравнению (1.15) представляет
собой сложную вычислительную задачу, сводящуюся к решению
системы нелинейных дифференциальных уравнений.
Если рассматривать установившиеся состояния, при которых
обобщенные координаты не зависят от времени, а возмущения отсутствуют, то система (1.15) преобразуется к виду
F (x, u)  0 ,
(1.16)
где F  (1 , 2 , ..., n )  0.
Такая система является системой алгебраических уравнений
и характеризует особенности работы объекта в статике. Функциональные зависимости между x и u для их установившихся значений называются статической характеристикой объекта.
Нетрудно убедиться, что система алгебраических уравнений (1.16) является частным случаем системы дифференциальных
уравнений (1.15) при условии, что все производные по времени
равны нулю.
Для упрощения решения уравнения (1.15) ищут его приближенное решение в предположении, что F (x, u) есть линейная функция по x. Следовательно, точность приближенного решения уравнения (1.15) будет определяться погрешностями линеаризации (1.16).
Из курса математики известно, что линеаризация нелинейности вида F (x, u) или x  f  u  осуществляется в окрестностях какой-либо точки x0 , u 0 , удовлетворяющей уравнению (1.16).
Обычно в качестве такой точки выбирается точка статической характеристики объекта, соответствующая номинальным
значениям x0 , u 0 .
18
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Для заданных u 0 путем решения системы нелинейных алгебраических уравнений (1.16) находят x0 . Затем в окрестностях
этой точки осуществляют линеаризацию нелинейной зависимости
F (x, u)  0 методом малых отклонений либо методом линеаризации в среднем (метод секущих).
Метод малых отклонений основан на разложении функции
F (x, u)  0 в ряд Тейлора в окрестностях точки с координатами
x0 , u 0 с последующим отбрасыванием членов разложения выше
второго порядка. Этот метод поэтому еще называется методом касательных.
Линеаризованное уравнение (1.16) запишется в виде
Jz  0 ,
 1
 z
 1
 2

где J   z1
 ...

 n
 z
 1
1
z2
2
z2
...
n
z2
(1.17)
1 
zm  n 

2 
...
zm  n 
– функциональная матрица

...
... 

n 
...
zm  n  x  z
0
...
функции F (z )  0 в точке с координатами x0 , u 0 ; z  (x, u) – расширенный вектор малых приращений входных u = u  u 0 и выходных x  x  x0 переменных.
Наиболее просто функциональная матрица вычисляется, если исходную неявную функцию можно записать в явном виде:
х = f(u).
d x d x

Подставляя (1.17) в (1.15) и учитывая, что
, полуdt
dt
чим диагональную каноническую форму линеаризованной системы дифференциальных уравнений:
d x
 Jz  Ax  Bu ,
(1.18)
dt
где A и В – квадратная и прямоугольная матрицы, определяемые
из функциональной матрицы J  ( A, B) .
19
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Область применения такого метода линеаризации ограничена малыми отклонениями переменных x и u от установившихся
значений и условиями существования якобиана функции F (x, u ) ,
для чего необходимо условие дифференцируемости этой функции.
В том случае если последнее условие не выполняется,
т.е. функция F (x, u ) имеет точки разрыва второго рода, используют метод линеаризации в среднем, или метод секущих.
Сущность этого метода заключается в аппроксимации нелинейной функции линейной зависимостью в заданном диапазоне
изменения обобщенных координат x. В качестве метода аппроксимации обычно используют метод наименьших квадратов. Линеаризованная система имеет вид (1.18), однако вычисление коэффициентов матриц А и В осуществляется по методу наименьших квадратов.
В соответствии с этим методом вводят расширенный вектор
переменных xu  (x, u) и расширенную матрицу S линейной аппроксимирующей системы Sxu  0 . В соответствии с методом
наименьших квадратов вводят вспомогательную функцию Ф, определяемую как квадрат разности заданной нелинейной функции
F (x, u)  0 и линейной зависимости Sxu  0 на заданной области
аппроксимации [u1 u2]:
Ф k,b 
u2
2
T
  F  x, u   S   x, u   F  x, u   S   x, u   du . (1.19)
u1
Функция зависит только от неизвестных коэффициентов
матрицы S.
Минимизируя Ф по неизвестным коэффициентам, можно
найти их конкретные значения из следующей системы линейных
алгебраических уравнений:

 0.
(1.20)
S
Пример 1.1. Линеаризуем участок параболы x  u 2 на интервале u от 0 до 1.
Вычислим функцию Ф (1.19):
1
2
k
    u 2  ku  b  du  b 2  kb 
2
2
1
1
 b k  .
3 3
2
5
0
20
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Найдем частные производные и приравняем их к нулю:

2
1
 b  k   0;
k
3
2

2
 2b  k   0,
b
3
1
1
откуда получим b   ; k  1 . Следовательно, x1  u  .
6
6
Если провести линеаризацию уравнения параболы методом
малых отклонений, путем разложения уравнения параболы в ряд
Тейлора в окрестностях точки с координатами [ u0 , f (u0 ) ], то
можно записать
f (u ) 
n

i 0
f i (u0 )
(u  u0 )i  Rn (u ) .
i!
Ограничиваясь линейными членами ряда и задавая координаты точки разложения [0,5; 0,15], получим
1
f (u )  f (0,5)  (u  0,5)  u  ,
4
1
1
откуда b   ; k  1. Следовательно, x 2  u  .
4
4
На рис. 1.1 показаны результаты линеаризации.
Рис. 1.1. Линеаризация параболы
21
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Линеаризованные уравнения (1.10)(1.12) примут вид

d 2x
dt
2
 ax  bu (t  ).
(1.21)
Если учитывать потери энергии в среде, где происходит физический процесс, в уравнение (1.20) добавляется дополнительный
член, учитывающий эти потери:

d 2x
dt 2

dx
 ax  bu (t  ).
dt
(1.22)
Линеаризованное уравнение (1.21) запишется так:
dx
 ax  bu (t  ).
(1.23)
dt
Если среда, где происходит процесс, практически несжимаема, то уравнение (1.22) преобразуется к виду

dx
 bu (t  ).
(1.24)
dt
Линеаризованная система уравнений (1.10) будет выглядеть так:

d
 a11  a12V  b1 f (t  );
dt
dV
 a21  a22V  b2u (t  ),
dt
или в векторной форме:
dx
 Ax  Bu ,
dt
(1.25)
где x  ( V )T  вектор переменных процесса; u  ( f u )T  вектор
a 
a
внешних воздействий; A   11 12   матрица коэффициентов
 a12 a12 
переменных процесса; B  (b1 b2 )T  матрица коэффициентов внешних воздействий.
Уравнения (1.21)–(1.25) являются типовыми математическими моделями процессов, происходящих в объектах управления,
или просто математическими моделями объектов управления. Типовые математические модели учитывают довольно широкий
класс процессов, происходящих в объектах управления.
22
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Модели (1.21), (1.22) учитывают колебательный характер
процессов, модель (1.23) – апериодический характер процессов.
Объекты, описываемые такими моделями, называются объектами
с самовыравниванием. Модель (1.24), в отличие от (1.22) и (1.23),
соответствует неустойчивому объекту или объекту без самовыравнивания. Модель (1.25) является обобщенной моделью, или
моделью многомерного объекта в пространстве состояний.
23
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
2. Линейные системы управления
2.1. Представление систем управления
в пространстве состояний
Математическая модель (образ) представляет собой абстрактное отражение реального объекта (оригинала, прообраза).
В зависимости от типа объекта и целей, ради которых строится и
используется модель, формальное описание может быть различным. Для моделирования объектов могут быть использованы
структурные схемы, операторные уравнения, алгебраические уравнения, дифференциальные, интегральные и интегродифференциальные уравнения, Марковские цепи, передаточные функции, частотные характеристики, весовые функции, графы и т.д. Все эти
методы функционально связывают входные и выходные сигналы
объекта. По количеству входов и выходов объекты и соответствующие им модели разделяют на одномерные и многомерные.
Одномерными называют объекты, имеющие один вход и один выход, многомерными – объекты, имеющие несколько входов и выходов, причем число входов не обязательно равно числу выходов.
Блок-схемы одномерного и многомерного объектов изображены
на рис. 2.1,а,б.
f
x
Одномерный
объект
f1 f2 ….… fk
y
u1
u2
Многомерный
объект
um
а)
x1
x2
xn
б)
Рис. 2.1. Структурные схемы одномерного и многомерного объектов
Наиболее полно объект описывается в терминах пространства состояний. Под состоянием объекта понимается совокупность
24
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
величин xi, полностью определяющих его положение в данный
момент времени [51].
Наиболее употребительной моделью динамических объектов
являются дифференциальные уравнения. Будем рассматривать
только объекты с сосредоточенными параметрами, которые описываются обыкновенными дифференциальными уравнениями. Порядок системы дифференциальных уравнений, описывающей модель объекта, непосредственно не определяется количеством входов и выходов, а зависит от операторов, преобразующих входные
сигналы в выходные.
Для динамических систем, в которых физические процессы
протекают непрерывно во времени, скорости изменения переменной состояния объекта можно также задать вектором
T
dx 
dx  dx1 dx2
,
, ..., n  ,

dt  dt dt
dt 
(2.1)
dxi
, i  1,n , – скорости изменения компонент многомерной
dt
переменной состояния.
В свою очередь эти скорости определяются текущими значениями переменной состояния x , управлениями u и возмущениями f, действующими на объект:
где
dxi
 gi  x, u, f , t  , xi  t0   xi 0 , i  1, n ,
(2.2)
dt
где g = (g1, ..., gn)T – вектор-функция; x10, x20, ..., xn0 – начальные
условия.
Если g( ) – нелинейная функция, то решение уравнения (2.2)
усложняется, так как сводится к интегрированию системы нелинейных ДУ. Так как методы интегрирования систем ДУ хорошо
разработаны только для линейных систем, то перед работой с ними необходимо линеаризовать g( ) в окрестности рабочей точки,
которой соответствует установившийся режим работы объекта.
Для линеаризованной функции g( ) ДУ вида (2.2) с учетом
воздействия среды можно представить в векторной форме:
dx  t 
 A t  x t   B t  u t   E t  f t  ,
dt
25
(2.3)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
где A(t), B(t), E(t) – матрицы преобразования, элементы которых в
общем случае являются функциями времени.
Элементы xi в уравнении (2.3) называются переменными состояния объекта или фазовыми координатами. Переменные состояния x (фазовые координаты) образуют вектор состояния, переменные управления u и возмущения f образуют векторы управления и возмущения. Множество этих векторов составляет пространство состояний (фазовое пространство) X, пространство
управлений U и возмущений F.
Во многих физических объектах регулируются, измеряются и передаются по информационным каналам не значения вектора состояния x , а другие значения – функции составляющих
вектора фазовых координат, называемые управляемыми или выходными величинами. Обозначим измеряемые величины через
y1(t), y2(t), ..., ys(t), причем обычно s  n. Тогда уравнение измерения, связывающее регулируемые, регулирующие и фазовые координаты объекта, примет вид
y (t )    x(t ), u(t ).
(2.4)
Для линейного объекта это соотношение линейное:
y (t )  C(t )x(t )  D(t )u(t ) .
(2.5)
Матрица С(t) называется матрицей измерения, матрица D(t) –
форсирующей матрицей. Ненулевая матрица D(t) свидетельствует
о наличии в структуре объекта форсирующих звеньев. При измерениях, описываемых выражениями (2.4) и (2.5), вектором выходных сигналов (или просто вектором выхода) является вектор y (t ) .
Отметим, что между векторами входа, выхода и состояния существует принципиальное различие. Если все составляющие вектора
входа и вектора выхода являются вполне конкретными физическими величинами, то элементами вектора состояния могут быть
некоторые абстрактные переменные, физическая природа которых
не всегда определена.
Векторно-матричная запись модели линейного динамического объекта с учетом уравнения измерения (2.5) принимает вид
dx
 A n,n  t  x(t )  B n,m  t  u(t )  En, k f (t );
dt
y (t )  C s ,n (t )x(t )  Ds ,m (t )u(t ).
26
(2.6)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Индексы матриц показывают их размерность. Если матрицы
A(t), B(t), C(t), D(t) и E(t) не зависят от времени, то объект называется объектом с постоянными коэффициентами, или стационарным объектом. В противном случае объект будет нестационарным.
При наличии погрешностей при измерении выходные (регулируемые) сигналы задаются линеаризованным матричным уравнением:
y (t )  C(t )x(t )  ν (t ) ,
(2.7)
где y (t ) – вектор регулируемых (измеряемых) величин; C(t) – матрица связи вектора измерений с вектором состояний; v(t) – вектор
ошибок измерений (помехи).
Структура линейной непрерывной системы, реализующая
уравнения (2.6) и (2.7), приведена на рис. 2.2.
f(t)
u(t)
E(t)
B(t)
v(t)
+
dx
dt
  dt
C(t)
+
y(t)
+
+
D(t)
x(t)
A(t)
Рис. 2.2. Структура линейной непрерывной системы
Данная структура соответствует математической модели
объекта, построенной в пространстве состояний его входных u(t),
выходных y(t) и внутренних, или фазовых, координат x(t).
Пример 2.1. Рассмотрим математическую модель двигателя
постоянного тока с независимым возбуждением от постоянных
магнитов.
Система уравнений электрической и механической частей
двигателя для рассматриваемого случая будет выглядеть следующим образом:
27
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
L
dI
 RI  ce   U ;
dt
d
 Md  Mc;
J
dt
M d  cm I .
(2.8)
Первое уравнение отражает взаимосвязь между переменными в цепи якоря, второе – условия механического равновесия.
В качестве обобщенных координат выберем ток якоря I и частоту
вращения якоря . Управлением являются напряжение на якоре U,
возмущением – момент сопротивления нагрузки Mc. Параметрами
модели являются активное сопротивление и индуктивность цепи и
якоря, обозначенные соответственно R и L, а также приведенный
момент инерции J и конструктивные постоянные се и с. В системе
СИ се = с.
Разрешая исходную систему относительно первых производных, получим уравнения двигателя в пространстве состояний:
c
dI
R
1
  I  t  U;
dt
L
L
L
d  cm
1

I  Mc.
dt
J
J
(2.9)
В матричном виде уравнения (2.9) примут следующий вид (2.6):
dx
 Ax  Bu  Gf ;
(2.10)
dt
y  Cx  Du,
где x   I   вектор обобщенных координат; u  U – вектор
управлений (в рассматриваемом случае он является скаляром);
f  M c – вектор (скаляр) возмущений. Матрицы модели
T
 R
 L
A
 cm

 J

ce 
 0 
1
L
; B   L ; C   1 .
 
 
0 
0
 J

Если в качестве регулируемой величины выбрать частоту
вращения, то уравнение измерения запишется в виде
y  ,
28
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
а матрицы C и D примут вид
C   0 1 ; D  0 .
Сформируем модель двигателя в MATLAB. Для этого вначале
зададим конкретные значения параметров двигателя (U = 110 В;
R = 0,2 Ом; L = 0,006 Гн; J = 0,1 кг/м2; ce = cm = 1,2 В/С) и найдем
значения коэффициентов матриц объекта из (2.10). Программа,
формирующая модели двигателя, приведена ниже, а результаты
расчета показаны на рис. 2.3.
Программа расчета
u=110; % Напряжение якоря
J=.1; % Момент инерции
c=1.2; % Конструктивный коэффициент
R=.2; L=.006; % Активное сопротивление и индуктивность якоря
A=[-R/L -c/L;c/J 0];
B=[1/L;0];
C=[0 1];
D=0;
sd=ss(A,B,C,D) % Задание модели объекта в пространстве состояний
wd=tf(sd) % Задание передаточной функции двигателя
step(wd),grid % Построение переходной характеристики
Результаты расчета
a=
x1
x2
x1
22.222
12
x1
x2
u1
166.67
0
x2
216.67
0
b=
c=
y1
x1
0
x2
1
d=
y1
u1
0
29
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Continuous-time model.
Transfer function:
2167
-------------------s^2 + 22.22 s + 2817
Рис. 2.3. Переходная характеристика двигателя постоянного тока
2.2. Линейные преобразования
в пространстве состояний
Пусть в векторном пространстве (пространстве состояний) R
задан базис, определенный на координатах пространства состояний x1, x2, …, xk. Из линейной алгебры [6, 15, 31] известно, что
этот базис может быть получен из другого базиса с помощью линейного преобразования
30
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
k
xi   tij y j , i  1, 2, ..., k ,
j 1
или в матричной форме
x  Ty ,
 t11 t12
t
t
где T   21 22
 ... ...

 tk 1 t2 k
(2.11)
... t1k 
... t2 k 
.
... ... 

... tkk 
Можно, наоборот, выразить вектор у через вектор х:
y  T1x.
(2.12)
Уравнения (2.11) и (2.12) являются уравнениями замены базиса в пространстве состояний R и, по сути, представляют уравнения перехода от одной системы координат к другой. Очевидно,
что можно выбрать бесконечно большое число базисов или систем
координат в пространстве состояний. При переходе к новому базису необходимо и достаточно, чтобы матрица перехода Т была
невырожденной, что выполняется, если определитель этой матрицы не равен нулю T  0 . Следовательно, между множеством координатных преобразований и множеством матриц Т существует
взаимно однозначное соответствие при фиксированных базисах,
соответствующих этим преобразованиям.
Используя линейные преобразования (2.11), можно отображать в пространство состояний системы и другие ее пространства
(пространства управлений, возмущений и регулируемых координат), что и задается уравнениями связи (2.7).
При решении таких уравнений требуется вычисление свободных и вынужденных движений системы, что в конечном итоге
приводит к необходимости решения системы однородных алгебраических уравнений вида
a11 x1  a12 x2  ...  a1n xn  x1;

a21 x1  a22 x2  ...  a2 n xn  x2 ;

..............................................
an1 x1  an 2 x2  ...  ann xn  xn ,
31
(2.13)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
или в векторной форме
Ax  x.
(2.14)
Такая система уравнений получается при подстановке в
дифференциальные уравнения системы (2.6) какого-нибудь их частного решения. К такой системе сводится вычисление установившихся режимов работы системы (2.6). По сути, уравнения (2.13)
отображают базис x1, x2, …, xk сам в себя и поэтому характеризуют
свойства такого отображения, или свойства матрицы А, соответствующей этому отображению.
В линейной алгебре эта задача известна как задача вычисления собственных значений и собственных векторов матрицы, задающей линейное преобразование. Значения параметра  , для которого существуют нетривиальные решения (2.13), называются собственными значениями матрицы А. Соответствующие им векторные
решения (2.14) называют собственными векторами матрицы А.
Столбец, составленный из элементов собственного вектора
для конкретного значения i , называют модальным столбцом.
Перенеся правую часть уравнения (2.14) влево, получим
( A  I ) x  0 ,
(2.15)
где I – единичная матрица.
Это уравнение обладает нетривиальным решением только
тогда, когда его определитель равен нулю:
a11  
a12
a21
a22  
A  I 
...
...
an1
an 2
...
a1n
...
a2 n
 0.
...
...
... ann  
(2.16)
Разложение этого определителя дает характеристическое
уравнение системы или матрицы:
( ) n  bn 1 () n 1  ...  b1 ()  b0  0 ,
(2.17)
из которого могут быть найдены все значения  . Если теперь подставить найденные значения i в уравнение (2.15) и решить его,
то вычисленные значения составляющих вектора х для каждого
значения i будут собственными векторами матрицы А.
32
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Собственные векторы матрицы, имеющей действительные и
различные собственные значения, обладают следующими важными свойствами:
1. Собственные векторы такой матрицы попарно ортогональны.
2. Собственные векторы матрицы n-го порядка порождают
n-мерное векторное пространство.
3. Собственные векторы матрицы n-го порядка образуют ортогональный базис n-мерного векторного пространства.
Знание собственных значений и векторов матрицы системы
позволяет осуществлять линейные преобразования (2.6) в пространстве состояний, придавая различный вид этой матрице. В задачах управления наиболее часто используются следующие канонические виды матрицы А [32]:
1. Диагональная каноническая форма:
 1 0
0 
2
Aд  
 .. ..

0 0
.. 0 
.. 0 
,
.. .. 

..  n 
(2.18)
где i – собственные различные значения матрицы А.
Диагональной канонической форме соответствует структурная схема, представленная на рис. 2.4.
U(t)
b1
b2
1
p
x1
bn1
1
p
1
x2
1
p
2
c1
bn
xn1
xn

 n1
c2
1
p
cn1
cn
y(t)
Рис. 2.4. Структурная схема диагональной канонической формы
33
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
2. Каноническая форма управляемости:
 0
 0
Aу  
 ..

 d0
1
0
..
 d1
..
0 
..
0 
,
..
.. 

..  d n 1 
(2.19)
где di – коэффициенты характеристического уравнения матрицы (2.17).
Структура схемы канонической формы управляемости показана на рис. 2.5.
Y(t)
+
dn1
dn
U(t)

xn
1
p
+
d2
xn1
1
p
+
d1
x2
1
p
cn1
cn
+
x1
1
p
c2
+
c1
+
Рис. 2.5. Структурная схема канонической формы управляемости
3. Каноническая форма наблюдаемости:
0
1
Aн  
 ..

0
0
0
..
...
.. b0 
.. b1 
.
..
.. 

1 bn 1 
(2.20)
Этой канонической форме соответствует структура рис. 2.6.
U(t)
b1
b2
+
1
p
a1
x1
bn1
+
1
p
x2
bn
+
1
p
a2
an1
xn1 +
1
p
xn
y(t)
an
Рис. 2.6. Структурная схема канонической формы наблюдаемости
34
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Наибольший интерес представляет получение диагональной
канонической формы, так как все остальные формы легко получаются из нее путем линейных преобразований. Для диагонализации матрицы А используется следующее выражение:
 1 0
0 
2
Aд  
 .. ..

0 0
.. 0 
.. 0 
 T1AT,
.. .. 

..  n 
(2.21)
где 1 ,  2 , ...,  n  собственные значения матрицы А, а ее нормированные собственные векторы являются столбцами матрицы Т.
Условием нормирования является равенство единице модуля собственных векторов.
Собственные векторы и собственные значения матрицы А
однозначно определяют динамические свойства системы, задаваемые уравнением (2.10).
Пример 2.2. Рассмотрим приведение многомерного объекта,
задаваемого уравнениями
dx1
 a11 x1  a12 x2  b11u1 ,
dt
dx2
 a21 x1  a22 x2  b22u2 ,
dt
y  c1 x1  c2 x2
(2.22)
к канонической диагональной форме.
Матрицы объекта равны
3 
 0,5
1 0
A
;
B


 0 2  ; C  3 2 .


 0, 25 2,5 
Вычислим собственные значения матрицы А из условия (2.16):
0,5  
3
 0.
0, 25 2,5  
(2.23)
Раскрывая полученный определитель, получим характеристическое уравнение объекта:
 2  3  2  0 .
35
(2.24)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Корни этого уравнения или собственные значения матрицы А равны
1  1;  2  2.
Найдем собственные векторы матрицы, подставляя в (2.23)
вычисленные собственные значения. Для первого собственного
значения имеем
(0,5  1 )t11  3t21  0,
0, 25t11  (2,5  1 )t21  0.
(2.25)
При 1  1 получаем следующую систему уравнений для
вычисления первого собственного вектора:
0,5t11  3t21  0,
0, 25t11  1,5t21  0,
откуда t11  6t21.
Конкретные значения первого собственного вектора определяются условием нормировки:
2
2
t11
 t21
 1.
(2.26)
Подставляя сюда решение уравнений t11  6t21 , получим
t11 
6
1
; t21  
.
37
37
Аналогично найдем и второй собственный вектор:
t12  
2
1
; t21 
.
5
5
Зная собственные векторы, можно записать выражение для
матрицы Т, задающей переход в новую систему координат:


T



6
37
1
37
36

2 
5 
.
1 

5 
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Найдем обратную матрицу T 1 :
 37

1  4
T 
 5

 4
37 

2 
.

3 5

2 
Нетрудно убедиться, что
1 0
T  T1  I  
.
0 1
Новый вектор координат q задается линейным преобразованием:
x  Tq.
(2.27)
Подставляя его в уравнения объекта (2.22), получим
T
dq
 ATq  Bu.
dt
(2.28)
Умножая обе части уравнения на T 1 , слева будем иметь
I
dq
 T1ATq  T1Bu.
dt
(2.29)
Матрица A д  T1AT, в соответствии с (2.21), будет иметь
диагональный вид, где в главной диагонали стоят ее собственные
значения. Действительно,
 37

4
Aд  

5

 4

37 

3  
2   0,5



3 5   0, 25 2,5   




2 
6
37
1
37

2 
5   1 0 

.
1   0 2 

5 
Вычислим новую матрицу управления B д  T1B :
 37

4
Bд  
 5

 4
 37
37 
 1 0 
2 
4



3 5  0 2 
5


 4
2 
37

37 


3 5

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
и матрицу измерения:


Сд   3 2   



6
37
1
37

2 
5   16

1   37

5 

4 
.
5
Тогда в новых координатах q1, q2 уравнения объекта примут вид
dq1
 1q1  bд11u1  bд12u2 ;
dt
dq2
  2 q2  bд 21u1  bд 22u2 ;
dt
y  cd 1q1  cd 2 q2 .
(2.30)
Проведем аналогичные расчеты в системе MATLAB, используя сначала операторы матричных преобразований, а затем – оператор canon, который осуществляет линейные преобразования моделей систем, заданных в пространстве состояний и поддерживает
две канонические формы: модальную (диагональную) и присоединенную (форму наблюдаемости).
Программа расчета
A=[-.5 2;-.25 -2.5]
B=[1 0;0 2]
C=[2 2]
D=[0 0]
[T Ad]=eig(A) % Вычисление собственных векторов и собственных
значений матрицы А
To=inv(T) % Вычисление обратной матрицы Т
I=T*To % Умножение матрицы Т на Т–1
Ad=To*A*T % Вычисление коэффициентов канонической
диагональной модели
Bd=To*B
Cd=C*T
sys=ss(A,B,C,D) % Модель исходной системы в пространстве
состояний
38
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
sd=ss(Ad,Bd,Cd,D) % Модель приведенной системы в пространстве состояний
[sysd,Td]=canon(sys,'modal') % Получение канонической диагональной
(модальной) формы
[sysn,Tn]=canon(sys,'companion') % Получение канонической формы
наблюдаемости
Результаты расчетов с использованием матричных
преобразований
T=
0.9864
0.1644
Ad =
1 0
0 2
To =
1.5207
0.5590
I=
1.0000
0.0000
Ad =
1.0000
0.0000
Bd =
1.5207
0.5590
Cd =
2.6204
0.8944
0.4472
2.0414
2.2541
0.0000
1.0000
0
2.0000
6.0828
6.7082
1.7889
Результаты расчетов в пространстве состояний
Исходная модель
a=
x1
x2
x1
0.5
0.25
x2
2
2.5
39
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
b=
x1
x2
u1
1
0
u2
0
2
y1
x1
2
x2
2
y1
u1
0
u2
0
c=
d=
Модель, преобразованная к диагональной форме:
a=
x1
x2
x1
1
0
x2
0
2
b=
x1
x2
u1
1.5207
0.55902
u2
6.0828
6.7082
y1
x1
2.6204
x2
1.7889
y1
u1
0
c=
d=
u2
0
Матрица перехода в новую систему координат:
Td =
1.5207
2.0414
0.5590
2.2541
Модель, преобразованная к форме наблюдаемости:
a=
x1
x2
x1
0
1
x2
2
2
x1
x2
u1
1
0
u2
4
8
b=
40
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
c=
y1
x1
2
x2
2
y1
u1
0
u2
0
d=
Матрица перехода в новую систему координат:
Tn =
1
0
2
4
2.3. Структурированные модели
на основе передаточных функций
Реальные объекты управления представляют собой совокупность отдельных элементов и блоков, соединенных между собой
посредством связей. Поэтому в практике гораздо удобнее бывает
представлять математическую модель всей системы как совокупность относительно простых математических моделей отдельных
элементов и блоков объекта, т.е. структурированную модель. Такая
форма математического описания, в отличие от (2.6), отражает не
только физические, но и технические принципы построения системы управления и позволяет исследовать процессы, происходящие не
только в системе в целом, но и в отдельных ее элементах.
Структурированные модели, учитывающие техническую организацию систем управления, создаются на основе следующих
допущений [6]:
1. Все элементы системы являются простейшими звеньями,
т.е. имеют один вход и один выход. Если звено характеризуется
несколькими обобщенными координатами, то в качестве выходной величины выбирается та координата, которая является выходной или регулируемой величиной звена.
2. Все звенья, из которых состоит система, являются детектирующими. В детектирующем звене выходная величина зависит
только от входной. Если выходная величина звена оказывает
влияние на входную, то звено называется недетектирующим.
Допущения о том, что в состав системы управления должны
входить только детектирующие звенья, не сужает область приме41
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
нения структурированных моделей, так как недетектирующее звено может рассматриваться как совокупность детектирующих
звеньев, охватываемых обратной связью.
Таким образом, структурированная модель системы управления разбивается на ряд взаимосвязанных математических моделей отдельных звеньев. Тогда, последовательно исключая из рассмотрения все внутренние переменные, являющиеся входными
или выходными сигналами внутренних звеньев, можно найти
дифференциальное уравнение, описывающее взаимосвязь входной
и выходной величин системы в виде
a0
d nY
dt n
 a1
d n 1 Y
dt n 1
d mU
 b0
   an 1
dt m
 b1
d m 1U
dt m 1
dY
 an Y 
dt
   bmU ,
(2.31)
где a0 , a 1 ,  , an ; b0 , b1 ,  , bn  постоянные коэффициенты; n  порядок системы.
Для реальных физически реализуемых систем управления
m < n.
Подвергая (2.31) преобразованию Лапласа при нулевых начальных условиях, получим алгебраическое уравнение, связывающее изображения по Лапласу от входной X(p) и выходной Y(p)
величин объекта:
a p  a p   a  Y  p 
 b p  b p
  b   X  p,
0
n
0
1
m
n 1
1
n
m 1
m
(2.32)
где p – оператор Лапласа.
Последнее уравнение можно представить в виде
m
m 1
   bm
Y  p  b0 p  p1 P
.

X ( p)
a0 p n  a1 p n 1    an
(2.33)
Это отношение называется передаточной функцией объекта
и обозначается символом W(p).
Передаточной функцией системы называется отношение выходной величины к входной, преобразованных по Лапласу при
нулевых начальных условиях и возмущениях.
42
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Зная передаточную функцию системы или звена, можно легко получить дифференциальное уравнение в форме (2.31), справедливо также и обратное утверждение.
Введение векторных переменных при рассмотрении многомерных объектов позволяет для линейных систем использовать
привычный аппарат передаточных функций и структурных схем,
однако понятие передаточной функции значительно расширяется [9].
Пусть имеется многомерный объект управления со структурной схемой рис. 2.1,б. По аналогии с одномерными системами (2.32) можно записать
Q( p )y ( p)  R ( p)u( p)  S( p )f ( p ) ,
(2.34)
где Q(p) – квадратная матрица операторных коэффициентов размером n  n :
 q11 ( p ), q12 ( p ), ..., q1n ( p) 
 q ( p ), q ( p), ..., q ( p ) 
22
2n
,
Q( p )   21


............................


 qn1 ( p ), qn 2 ( p ), ..., qnn ( p ) 
R(p) – прямоугольная матрица операторных коэффициентов размером n  k :
 r11 ( p), r12 ( p ), ..., r1k ( p) 
 r ( p ), r ( p ), ..., r ( p) 
22
2k
,
R ( p )   21
 ............................ 


r
p
r
p
r
p
(
),
(
),
...,
(
)
n2
nk
 n1

S(p) – прямоугольная матрица операторных коэффициентов размером n  l :
 s11 ( p ), s12 ( p ), ..., s1l ( p) 
 s ( p ), s ( p ), ..., s ( p) 
22
2l
.
S( p)   21
 ............................ 


(
),
(
),
...,
(
)
s
p
s
p
s
p
n2
nl
 n1

Для получения системы дифференциальных уравнений необходимо перемножить прямоугольную или квадратную матрицы
на матрицы-столбцы соответствующих переменных объекта.
43
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Взаимосвязь уравнений состояния (2.6) с уравнениями системы в виде (2.34) определяется из следующих соотношений. Из
второго уравнения (2.6) выразим переменную x(t ) через y (t ) :
x(t )  C1y (t )  C1Du(t )
(2.35)
и подставим это выражение в первое уравнение (2.6):
dy
du
 C1D
 AC1y (t )  AC1Du(t )  Bu(t )  Ef (t ) . (2.36)
dt
dt
Преобразовывая по Лапласу (2.36) и группируя подобные
члены, получим выражение, аналогичное (2.34):
C1
(Ip  A )y ( p )   D  Ip  A   CB  u( p )  CEf ( p ) ,
(2.37)
где I  единичная матрица.
Отсюда можно найти взаимосвязь параметров структурированной модели и модели в пространстве состояний:
S( p )  Ip  A , R ( p )  D  Ip  A   CB , Q( p )  CE .
(2.38)
По аналогии с одномерными системами, используя основные
правила теории матриц, можно ввести понятие матрицы передаточной функции.
Если умножить (2.34) на обратную матрицу Q 1 ( p ) , то получим
y ( p)  Q 1 ( p)R ( p)μ( p)  Q 1 ( p)S( p )f ( p ).
(2.39)
Отсюда можно получить выражение для матриц передаточных функций системы по управлению:
Wu ( p )  Q 1 ( p )R ( p )
(2.40)
W f ( p )  Q 1 ( p)S( p).
(2.41)
и возмущению:
Как для одномерных, так и для многомерных систем одной и
той же матрице передаточной функции может соответствовать несколько вариантов структурных схем и уравнений состояния. То
есть по уравнениям состояния матрица передаточной функции
может быть получена однозначно, обратное утверждение будет
неверным. Это связано с тем, что при получении выражения передаточной функции исключаются из рассмотрения все внутренние
44
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
переменные структурированной модели, которые нельзя уже восстановить по выражению передаточной функции.
Пример 2.3. Пусть имеется передаточная функция звена, записанная в виде
W  p 
b0 p  b1
.
p 2  a1 p  a2
(2.42)
Запишем ее через отрицательные степени оператора р:
b0 p 1  b1 p 2
y( p)
W  p 
.

u ( p ) 1  a1 p 1  a2 p 2
(2.43)
Введем вспомогательную переменную Е(р), равную
E  p 
u ( p)
1  a1 p
1
 a2 p
2
,
(2.44)
или
E ( p)  u ( p)  a1 p 1E ( p)  a2 p 2 E ( p) ,
(2.45)
откуда нетрудно составить и структурную схему (рис. 2.7).
a1
u
x1
E


b0
1
p
x2
y
+
1
p
b1
a2
Рис. 2.7. Первый вариант структурной схемы объекта второго порядка
Дифференциальные уравнения для переменных состояния
могут быть легко найдены из рассмотрения структурной схемы
системы
45
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
dx1
 u  a1 x1  a2 x2 ;
dt
dx2
 x1;
dt
y  b0 x1  b1 x2 .
(2.46)
Разложим (2.42) на простейшие дроби, предполагая, что характеристическое уравнение звена имеет действительные корни p1
и p2. Согласно теореме Виетта ( p1  p2 )  a1 , p1 p2  a2 . Тогда
выражение передаточной функции примет следующий вид:
y ( p)
A
B
,


u ( p ) p  p1 p  p2
где A 
(2.47)
b0 p1  b1
b p b
, B 0 2 1.
p1  p2
p1  p2
Структурная схема следует из выражения передаточной
функции непосредственно (рис. 2.8).
p1
u
y
x1
+
A
1
p
_
x2
+
1
p
B
p2
Рис. 2.8. Второй вариант структурной схемы объекта второго порядка
46
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Система дифференциальных уравнений теперь выглядит следующим образом:
dx1
 u  p1 x1;
dt
dx2
(2.48)
 u  p2 x2 ;
dt
y  Ax1  Bx2 .
Если теперь записать (2.42) в виде произведения дробей, то
получим следующее выражение:
b0 p  b1
y ( p)
.

(2.49)
u ( p ) ( p  p1 )( p  p2 )
Введем переменные состояния
x1 
тогда y ( p)  (b0 p  b1 ) x1 .
x2
,
p  p1
x2 
u
,
p  p2
Отсюда можно получить структурную схему (рис. 2.9) и
уравнения в переменных состояния:
dx1
 p1 x1  x2 ;
dt
dx2
(2.50)
 u  p2 x2 ;
dt
y  (b0 p1  b1 ) x1  b0 x2 .
b0
u
x2
+
1
p
+
x1
1
p
+
p2
y
b1
p1
Рис. 2.9. Третий вариант структурной схемы объекта второго порядка
47
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Сравнивая уравнения состояния (2.46), (2.48) и (2.50) и
структурные схемы рис. (2.72.9), можно сделать вывод о том, что
одной передаточной функции (2.42) могут соответствовать различные структуры и уравнения состояния. Такое многообразие
структурных схем обусловлено выбором различных систем отсчета (базисов) для переменных состояния. Выбирая переменные состояния в различных координатных системах (базисах), можно
получать и различные структурные схемы.
Программа, реализующая данный пример в MATLAB при b0 = 1;
b1 = 2; a1 = 10; a2 = 16, может быть записана следующим образом.
Программа расчета
a1=10;a2=16;b0=1;b1=3;
nun=[b0 b1];
den=[1 a1 a2];
wm=tf(nun,den); % Задние передаточной функции
p=pole(wm); % Вычисление полюсов передаточной функции
A1=[–a1 –a2;1 0];
B1=[1;0];
C1=[b0 b1];
D=0;
s1=ss(A1,B1,C1,D) % Задание 1 варианта модели
[s1can,T1]=canon(s1,'modal') % Приведение модели к каноническому
диагональному виду
A2=[-p(1) 0;0 p(2)];
B2=[1;1];
C2=[(b0*p(1)+b1)/(p(1)-p(2)) -(b0*p(2)+b1)/(p(1)-p(2))];
D=0;
s2=ss(A2,B2,C2,D) % Задание 2 варианта модели
[s2can,T2]=canon(s2,'modal') % Приведение модели к каноническому
диагональному виду
A2=[p(1) 1;0 p(2)];
B2=[0;1];
C2=[b0*p(1)+b1 b0];
D=0;
s2=ss(A2,B2,C2,D) % Задание 3 варианта модели
48
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
[s2can,T3]=canon(s2,'modal') % Приведение модели к каноническому
диагональному виду
% Ниже приведены только рассчитанные матрицы перехода Т1, Т2 и Т2
из канонической диагональной формы в форму соответствующей
модели
T1 =
-1.4907 -2.9814
-0.7454 -5.9628
T2 =
1.0000
0
0
0.5000
T3 =
8.0000 -1.3333
0
2.4037
 8 0 
Нетрудно убедиться, что Ti A i Ti1  Ad  
 при лю0
2



бом i = 1, 2, 3.
2.4. Динамические звенья
и структурные схемы систем управления.
Правила преобразования структурных схем
Описание систем автоматического управления с помощью математических моделей, построенных на основе дифференциальных
уравнений и передаточных функций, отличается малой наглядностью. Кроме этого, возникают значительные, а иногда и непреодолимые трудности при получении дифференциальных уравнений системы. Учитывая то обстоятельство, что любая самая сложная система
управления состоит из ограниченного набора элементов, соединенных определенным образом между собой, математическую модель
всей системы целесообразно представлять в виде совокупности относительно простых моделей входящих в нее элементов. Такие элементы системы автоматического управления называются динамическими
звеньями. Под динамическим звеном понимают устройство любого
49
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
физического типа и конструктивного оформления, описываемое
дифференциальным уравнением не выше второго порядка.
Для определения минимального набора динамических звеньев, из которого создают любые системы управления, можно воспользоваться разложением передаточной функции системы, являющейся правильной дробно-рациональной функцией оператора р
на простые дроби или сомножители.
Из курса алгебры известно [15], что любую правильную
дробно-рациональную функцию можно представить в виде суммы
или произведения простых дробей вида
m
n k
W  p   
i 1 j 1
Aij
 p  pi 
j
, W  P 

b0  p  p j
j 1
n
  p  pi 

,
(2.51)
i 1
где pi – корни уравнения, получаемого путем приравнивания нулю знаменателя передаточной функции (нули передаточной функции); p j – корни уравнения, получаемого путем приравнивания к
нулю числителя передаточной функции (полюса передаточной
функции); n, m – порядок многочлена знаменателя и числителя
передаточной функции; k – кратность нулей передаточной функции; Aij – постоянные коэффициенты.
Предположим, что все нули и полюса передаточной функции лежат в левой полуплоскости, включая и мнимую ось,
т.е. действительные нули и полюса отрицательны, а комплексносопряженные нули и полюса имеют отрицательную вещественную часть. В этом случае динамические звенья системы будут
минимально-фазовыми, и их минимальный набор будет включать
в себя:
1) безынерционное звено с передаточной функцией и дифференциальным уравнением:
W  p   k ; y  kx;
(2.52)
2) интегрирующие звенья с передаточной функцией и дифференциальным уравнением:
50
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
W  p 
1
dy
; T
 x;
dt
Tp
(2.53)
3) дифференцирующие звенья с передаточной функцией и
дифференциальным уравнением:
W  p   kp; y  k
dx
;
dt
(2.54)
4) апериодические звенья первого порядка:
W  p 
k
dy
 y  kx;
; T
Tp  1
dt
(2.55)
5) колебательные звенья:
W  p 
k
T 2 p 2  2 Tp  1
; T
2
d2y
dt 2
 2 T
dy
 y  kx.
dt
(2.56)
Нетрудно убедиться, что путем простейших алгебраических
операций умножения и сложения можно получать любые выражения передаточных функций.
Если некоторые нули и полюса передаточной функции системы располагаются в правой полуплоскости, это свидетельствует
о наличии в составе системы не минимально-фазовых звеньев. Таким звеном является звено чистого запаздывания с передаточной
функцией и уравнением, связывающим выходную координату с
входной:
W ( p)  e
 p
; y (t )  x(t  ).
(2.57)
Разложение передаточной функции системы на простейшие
дроби дает возможность предположить, что любую систему автоматического регулирования можно рассматривать как комбинацию минимального набора динамических звеньев, определенным
образом соединенных между собой.
Изображение системы управления в виде совокупности динамических звеньев с указанием связей между ними носит название структурной схемы.
51
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Основными элементами структурных схем являются:
– детектирующее звено;
– линия связи;
– узел (разветвление);
– сумматор.
Любая структурная схема может быть изображена с помощью трех типов соединения звеньев: последовательного; параллельного; соединения с обратной связью.
Рассмотрим структурные схемы таких соединений и найдем
соотношения между передаточной функцией полученной системы
и передаточными функциями отдельных звеньев, из которых эта
система состоит. Принимаем, что все звенья являются детектирующими.
Последовательное соединение звеньев
При таком соединении выход предыдущего звена включается на вход последующего. Структурная схема соединения звеньев
показана на рис. 2.10.
x(p)
W1(p)
y1(p)
W2(p)
y2(p)
yn1(p)
Wn(p)
yn(p)
Рис. 2.10. Структурная схема последовательного соединения звеньев
Уравнения отдельных звеньев в символической форме будут
выглядеть следующим образом:
y1  p   W1  p  x  p  ;
y2  p   W2  p  y1  p  ;

y  p   Wn  p  yn 1  p  .
52
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Последовательно исключая промежуточные переменные,
получим
y  p   W1  p W2  p Wn  p  x  p  ,
откуда следует, что передаточная функция последовательного соединения звеньев равна произведению передаточных функций отдельных звеньев, входящих в соединение:
n
Wпос  p    Wi  p .
(2.58)
i 1
Параллельное соединение звеньев
При таком соединении входные сигналы всех звеньев одинаковы и равны общему входному сигналу, а выходной сигнал соединения равен алгебраической сумме выходных сигналов. Структурная схема параллельного соединения звеньев показана на рис. 2.11.
y1(p)
W1(p)
x(p)
y2(p)
y(p)
W2(p)
yn(p)
Wn(p)
Рис. 2.11. Структурная схема параллельного соединения звеньев
Аналогично, как и в случае последовательного соединения,
запишем уравнения для выходных сигналов звеньев:
y1  p   W1  p  x  p  ;
y2  p   W2  p  x  p 


yn  p   Wn  p  y  p  ;
y  p   y1  p   y2  p     yn  p  .
53
(2.59)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Подставляя выражения для yi  p  в последнее уравнение,
получим
y  p   W1  p   W2  p     Wn  p   x  p  ,
откуда передаточная функция параллельного соединения звеньев
равна сумме передаточных функций отдельных звеньев:
n
Wпap  p    Wi  p .
(2.60)
i 1
Соединение звеньев с обратной связью
Соединение звеньев с обратной связью изображено на рис. 2.12.
g(p)
x(p)
y(p)
W(p)
_
xос(p)
Wос(p)
Рис. 2.12. Структурная схема соединения звеньев с обратной связью
Знак плюс соответствует положительной обратной связи,
знак минус – отрицательной. Для такого соединения звеньев справедливы следующие очевидные соотношения между переменными:
x  p   g  p   xoc  p  ;
y  p   W  p  x  p ;
xoc  p   W0  p  y  p  .
Разрешая эту систему уравнений относительно x( p) и y ( p) ,
получим
y  p  1  W  p W0  p    W  p  x  p  .
Знак минус относится к положительной обратной связи, знак
плюс – к отрицательной, откуда выражение передаточной функции для соединения с обратной связью будет выглядеть так:
54
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
W3  p  
W  p
.
1  W  p Woc  p 
(2.61)
Следует обратить внимание на то, что, имея структурную
схему, можно однозначно с использованием правил преобразования структурных схем получить выражение для передаточной
функции и дифференциального уравнения системы. Обратное утверждение будет неверным (см. пример 2.1).
Пример 2.4. Найдем передаточную функцию системы, структурная схема которой в Simulink показана на рис. 2.13.
13
100
100s+1
W3
W1
Step
Scope
1
s
W2
2
5s+1
W4
Рис. 2.13. Структурная схема системы
В Simulink оператор Лапласа p заменяется символическим
оператором s. Структурная схема содержит четыре типовых звена,
два из которых соединены параллельно (W1, W2), звено W3 соединено последовательно со звеньями W1, W2, а звено W4 включено в
обратную связь.
В соответствии с правилами преобразования структурных
схем вначале найдем передаточную функцию параллельного соединения звеньев W1 и W2:
W12  p   W1 ( p )  W2 ( p )  k1 
1 k1 p  1

,
p
p
где k1 = 100. После такого преобразования структурная схема примет вид, представленный на рис. 2.14.
55
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Step
100s+1
13
s
100s+1
W12
W3
Scope
2
5s+1
W4
Рис. 2.14. Преобразованная структурная схема системы
Затем найдем передаточную функцию последовательного
соединения звеньев W12 и W3:
W123  p   W12 ( p)W3 ( p ) 
k  k p  1
k1 p  1 k3
 3 1
,
p T3 p  1 p T3 p  1
где k3 = 13; T3 = 100. Структурная схема после этого будет выглядеть так, как показано на рис. 2.15.
1300s+13
100s2 +s
Step
W123
Scope
2
5s+1
W4
Рис. 2.15. Преобразованная структурная схема системы
Теперь можно найти передаточную функцию всей системы,
используя правило соединения звеньев с обратной связью:
W  p 
W123  p 
k3  k1 p  1T4 p  1

,
1  W123  p W4  p  p T3 p  1 T4 p  1  k3k4  k1 p  1
где k4 = 2; T3 = 5.
2.5. Временные характеристики линейных систем
В общем случае под временной характеристикой следует понимать реакцию системы y(t) на входной сигнал x(t), являющийся
56
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
произвольной функцией времени. В операторной форме выходной
сигнал можно вычислить так:
y  p   W  p  x  p .
(2.62)
Переходя к оригиналам, можно записать
L  y  t    L ω  t   L  x  t   ,
(2.63)
где L – оператор преобразования Лапласа.
Применим к этому выражению теорему о свертке:
t

L ω  t   L  x  t    L   ω  t  τ  x    dτ  ,
0

(2.64)
откуда найдем y (t ) :
t
y  t    ω  t  τ  x    dτ.
(2.65)
0
Функция (t), определяемая как обратное преобразование
Лапласа от передаточной функции, называется функцией веса,
а выражение (2.65) – интегралом Дюамеля. Функция веса, таким
образом, представляет собой обратное преобразование Лапласа от
передаточной функции и также характеризует динамические свойства системы. Однако в отличие от передаточной функции она,
являясь функцией времени, может непосредственно наблюдаться
и, следовательно, может быть определена из эксперимента.
Из выражения (2.65) найдем, каким должен быть сигнал на
входе системы x(t), чтобы его выходной сигнал являлся функцией веса. Для этого заменим y(t) на (t), а x(t) на искомую функцию (t):
t
ω  t    ω  t   δ   d τ.
(2.66)
0
Используя вторую теорему о среднем значении определенного интеграла [13], можно записать
t

0
0
t
   t       d     t      d     0      d .
(2.67)

Выражение (2.67) будет равно (2.66) только в том случае, если при любом 0    
57
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

lim      d   1.
 0
(2.68)
Этот предел существует, если (t) принимает следующие
значения:
 при t  0;
 t   
0 при t  0
(2.69)
и называется -функцией, или функцией Дирака.
На практике сформировать такой импульс на входе системы
невозможно, однако если длительность импульса tи достаточно
мала, то реакция системы на такой импульс в силу ее линейности
будет приблизительно равна его площади.
Для проверки этого предположения рассмотрим простейший
пример действия на апериодическое звено первого порядка импульса произвольной формы U 0    и длительностью tи .
Выражение для функции веса найдем по таблице преобразования Лапласа:
ω  t   ke

t
T.
(2.70)
Подставим это выражение в (2.65) и учтем, что значение
входного сигнала равно нулю при t  tи . Изменяя пределы интегрирования, получим
tи
y  t    ke

t 
T U
0
 τ  dτ .
(2.71)
0
Вынося коэффициенты и переменные, не зависящие от , за
знак интеграла, будем иметь
y t  
t
 tи
ke T U

0
 

e T d .
(2.72)
0
Применяя вторую теорему о среднем значении определенного интеграла, найдем приближенное выражение для у(t):
y  t   ke

t
T
tи t


и
T
  U 0  τ  dτ  e  U 0  τ  dτ  .
 0


58
(2.73)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Если предположить, что tи  T , то
t
и
e T
tи
 1 и y  t   ω  t   U 0  τ  dτ .
0
Иногда экспериментальное определение функции веса путем
подачи на вход системы коротких импульсов не всегда возможно.
В этом случае на вход подают единичную ступенчатую функцию:
1 при t  0;
1 t   
0 при t  0.
(2.74)
Реакцию системы на единичную ступенчатую функцию
(функцию Хевисайда) называют переходной характеристикой, или
кривой разгона, и обозначают h(t).
Очевидно, в силу линейности преобразования Лапласа между функцией веса и переходной функцией существуют такие же
соотношения, как между  -функцией и единичной функцией:
dh  t 
   t ;
dt
d 1 t 
   t ;
dt
t
t
0
0
     d   h  t  ;    d   1 t  .
(2.75)
Для установления взаимного соответствия между передаточной функцией системы и переходной характеристикой достаточно
записать их операторное выражение по Лапласу:
1
L  h  t    L ω  t    W  p  ,
p 
(2.76)

где L   (t )    e  pt  (t ) dt  W ( p ) – оператор прямого преобразо0
вания Лапласа.
Таким образом, для того чтобы вычислить функцию веса,
необходимо найти прямое преобразование Лапласа от передаточной функции.
Пример 2.5. Найдем переходную характеристику системы,
приведенной в примере 2.4. Принимая во внимание, что k1 = T3, выражение для передаточной функции можно упростить и записать так:
59
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
W  p 
k 3 T4 p  1
pd
 k3
,
2
2
p T4 p  1  k 3k 4
 p  a  
1
; a  0,5d ;   d  k 3k 4  d / 4  . Тогда выражение для
T4
переходной характеристики можно найти из выражения
где d 





W
(
p
)
p
d

,
 k 3L1
h(t )  L1 

 
2
2
 p 
p
p
a





 
 
где L1 – оператор обратного преобразования Лапласа. По таблице
преобразования Лапласа находим
h(t )  k 3  Aeat sin  t     K  ,


2


d
1 a  d   
arctg
arctg
.



K

,
,
где A 
ad
a

a 2  2
a 2  2
Расчет переходной характеристики проводился в MATLAB
по следующей программе.
2
Программа расчета
k3=13;k4=2;t4=5;
wp=tf([k3*t4 k3],[t4 1 k3*k4])
t=0:.01:60;
h1=step(wp,t);
d=1/t4;a=-d/2;w=sqrt(d*(k3*k4-d/4));
A=k3*sqrt(((a+d)^2+w^2)/(a^2+w^2))/w;
al=atan(w/(a+d))-atan(w/a);
K=k3*d/(a^2+w^2);
h2=-A*exp(a*t).*sin(w*t+al)+K;
plot(t,h1,t,h2),grid
2.6. Частотные характеристики линейных систем
Использование преобразований Лапласа упрощает исследование систем управления, так как позволяет перейти от решения
дифференциальных уравнений к решению эквивалентным им алгебраических уравнений.
60
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Однако остается неясным, как экспериментальным путем
определить коэффициенты дифференциальных уравнений или передаточных функций системы. Использование для этих целей экспериментально снятых временных характеристик может внести
значительные погрешности в определение передаточной функции
из-за неточного воспроизведения входных тестовых сигналов
(-функции и единичной функции), а также наличия помех.
Для экспериментального определения параметров передаточной функции можно воспользоваться еще одним интегральным
преобразованием – преобразованием Фурье.
Это преобразование аналогично преобразованию Лапласа и
задается следующими формулами:
F ( jω) 
f (t ) 

 jωt
 f (t )e dt ;


1
F ( jω)e jωt d ,

2π 
(2.77)
2π
– круговая частота; j  1 .
T
Первое выражение является прямым преобразованием Фурье, второе – обратным.
Формально преобразование Фурье отличается от преобразования Лапласа заменой оператора jω на оператор p и изменением
предела интегрирования в первом выражении.
По аналогии с передаточной функцией W(р) можно ввести
понятие частотной передаточной функции W ( jω) , равной отношению преобразованных по Фурье выходной и входной величин
системы при нулевых начальных условиях:
где ω 
W ( jω) 
y ( jω)
.
x( jω)
(2.78)
Выражение (2.78) позволяет экспериментально определить
значение W ( jω) при заданной частоте . Для этого необходимо на
вход системы подать гармонический входной сигнал определенной частоты : x(t )  x0 sin(ωt ) .
В линейной системе выходной сигнал y (t ) также будет гармоническим y (t )  y0 sin(ωt  ) , где  – фазовый сдвиг между
61
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
входным и выходным сигналами. Подвергая эти сигналы преобразованию Фурье, найдем
x( jω)  x0 ;
y ( jω)  y0 e j .
(2.79)
Тогда из (2.78) можно вычислить W ( j) для конкретного
значения  :
y0 e j
 A(ω)e j(ω) .
W ( jω) 
x0
(2.80)
Задаваясь различными значениями частоты  и измеряя амплитуды входного x0 и выходного y0 сигналов системы, а также
фазовый сдвиг между ними, можно найти зависимость W ( jω) как
функцию частоты, а затем вычислить коэффициенты A(ω), (ω)
частотной передаточной функции.
Из (2.80) следует, что частотная передаточная функция является комплексной функцией, зависящей от . Используя показательную и алгебраическую формы представления комплексных
чисел, можно выделить в W ( jω) модуль, аргумент, вещественную
и мнимую части.
Модуль частотной передаточной функции, равный отношению амплитуды выходного гармонического сигнала к входному
как функции частоты, называется амплитудно-частотной характеристикой (АЧХ) и обозначается A(ω) :
A(ω)  W ( jω) .
(2.81)
Аргумент W ( jω) , равный фазовому сдвигу между выходным и входным сигналами как функции  , называется фазочастотной характеристикой (ФЧХ) и обозначается (ω) :
(ω)  arg W ( jω) .
(2.82)
Аналогично вещественная и мнимая части W ( jω) называются вещественной (ВЧХ) U (ω) и мнимой (МЧХ) V (ω) частотными
характеристиками:
W ( jω)  U (ω)  jV (ω);
U (ω)  Re W ( jω) ; V (ω)  Im W ( jω).
62
(2.83)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Между этими характеристиками существуют очевидные соотношения:
A(ω) 
U (ω) 2  V (ω) 2 ;
(ω)  arctg
V (ω)
;
U (ω)
U (ω)  A(ω) cos  (ω)  ; V (ω)  A(ω)sin  (ω) .
(2.84)
(2.85)
Кроме этих четырех частотных характеристик, существует
еще амплитудно-фазочастотная характеристика АФЧX, представляющая собой годограф частотной передаточной функции.
Годограф – это геометрическое место точек вектора W ( jω)
на комплексной плоскости при изменении  от 0 до . Помимо
выше приведенных частотных характеристик, в теории управления широко используются логарифмические частотные характеристики, построение которых осуществляется на основе простейших вычислений.
Прологарифмируем выражение частотной передаточной
функции (2.80):
ln W ( jω)   ln  A(ω)   j(ω).
(2.86)
Как видно из этого выражения, логарифм частотной передаточной функции равен комплексному числу, вещественная часть
которого является логарифмом модуля частотной передаточной
функции, а мнимая – фазой.
Для построения логарифмических частотных характеристик
используют десятичные логарифмы и строят отдельно логарифмическую амплитудную частотную характеристику (ЛАЧХ) и логарифмическую фазовую частотную характеристику (ЛФЧХ), которая фактически совпадает с фазовой частотной характеристикой:
L(ω)  20lg W ( jω)  20lg  A(ω) .
(2.87)
Эта величина выражается в децибелах. Бел представляет собой логарифмическую единицу, соответствующую десятикратному
увеличению мощности. Децибел равен одной десятой части бела.
Расчет и построение ЛАЧХ в соответствии с (2.87) предполагает, чтобы АЧХ, стоящая под знаком десятичного логарифма,
была безразмерной величиной мощности. Поэтому в том случае,
если A() имеет какую-либо размерность в (2.87), используют относительную передаточную функцию и относительную частотную
характеристику:
63
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Ao (ω) 
A(ω)
,
Aб
(2.88)
где Аб = 1 – базовое значение, имеющее размерность A(ω) .
Появление дополнительного сомножителя в выражении
(2.87) ЛАЧХ, равного двум, обусловлено тем, что A() представляет собой отношение действующих значений выходного и входного сигналов, а не их мощностей, т.е. при увеличении коэффициента передачи в k раз усиление мощности происходит в k2 раз, что и
вызывает появление дополнительного сомножителя, равного двум.
Построим ЛАЧХ типовых звеньев:
1. Безынерционное звено: A()  k , L()  20lg(k ) . ЛАЧХ
безынерционного звена представляет собой прямую, параллельную оси абсцисс (прямая 1, рис. 2.16).
k
2. Интегрирующее звено: A()  , L()  20lg(k )  20lg() .

ЛАЧХ интегрирующего звена – это прямая линия, проходящая через точку с координатами   1 и L()  20lg(k ) и имеющая отридБ
цательный наклон 20
(прямая 2, рис. 2.16).
дек
3. Дифференцирующее звено: A()  k, L()  20lg(k)  20lg().
ЛАЧХ дифференцирующего звена – это прямая линия, проходящая через точку с координатами   1 и L()  20lg(k ) и имеющая
дБ
положительный наклон 20
(прямая 3, рис. 2.16).
дек
k
,
4. Апериодическое звено первого порядка: A() 
2 2
1 T 
L()  20lg(k )  10lg(1  T 22 ). Эту характеристику приближенно
можно заменить асимптотической (прямая 4, рис. 2.16):
1



20lg(
k
)
при
;

T
L()  
20lg(k )  20lg(T )  20lg() при   1 .

T
Максимальная ошибка такого приближения на сопрягающей
1
частоте   не превышает 2 дБ.
T
64
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
5. Колебательное звено: A() 
k
1  T 
2
2
. Его
 42T 2 2
асимптотическая ЛАЧХ равна (прямая 5, рис. 2.16)
1



20lg(
k
)
при
;

T
L()  
 20lg( k )  40lg(T )  40lg() при   1 .

T
дБ
L()
1
2
3
4
60
5
– 4 дБ/дек
40
– 20 дБ/дек
20 дБ/дек
20

0
1/T
1/T
–20
0,01
0,1
1
10
100
рад/C
Рис. 2.16. Логарифмические частотные характеристики
типовых звеньев
Для построения ЛАЧХ используется стандартная логарифмическая сетка. По оси частот откладывается угловая частота в логарифмическом масштабе, т.е. наносятся отметки, соответствующие
lg  , а около отметок пишется само значение частоты  в рад/С.
По оси ординат откладывается модуль нормированной амплитудно-частотной характеристики в децибелах (дБ). Ось абсцисс (частот) должна пересекать ось ординат в точке 0 дБ, что соответствует значению A()  1.
Ось ординат может пересекать ось абсцисс в произвольном
месте, но обязательно левее самой малой сопрягающей частоты,
65
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
соответствующей наибольшей постоянной времени системы. Такое построение оси абсцисс необходимо, чтобы справа от нее
можно было показать всю ЛАЧХ.
Для построения ЛФЧХ используется та же ось абсцисс (ось
частот). По оси ординат откладывается фаза в градусах или радианах в линейном масштабе.
Главным достоинством логарифмических амплитудных частотных характеристик является возможность их построения практически без вычислительной работы. Это особенно проявляется в
тех случаях, когда частотная передаточная функция может быть
представлена в виде произведения передаточных функций типовых звеньев. Тогда результирующая ЛАЧХ может быть построена
суммированием ординат ЛАЧХ отдельных сомножителей и будет
представлять собой совокупность отрезков прямых с наклонами,
дБ
кратными величине 20
.
дек
Пример 2.5. Найдем частотные характеристики апериодического звена первого порядка с передаточной функцией:
W ( p) 
k
,
Tp  1
где k = T = 1.
Запишем выражение для частотной передаточной функции
W ( j) , делая формальную замену p  jω :
W ( jω) 
k
k
kωT


j
.
T ( jω)  1 1  ω2T 2
1  ω2T 2
Пользуясь соотношениями (2.70)–(2.72), найдем
A(ω) 
U (ω) 
k
2 2
1  T
k
2
1 ω T
; (ω)  arctg(ωT );
; V (ω)  
2
kωT
2 2
1 ω T
.
Графики данных частотных характеристик представлены на
рис. 2.172.19.
66
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Для получения аналитического выражения для АФЧХ сделаем подстановку x  U (ω) , y  V (ω) в выражения для ВЧХ и МЧХ
и исключим параметр . После преобразований получим уравнение АФЧХ на комплексной плоскости:
2
k
k2

2
x   y  .
2
4

1
0.5
0
-0.5
-1
-1.5
0
1
2
3
4
5
6
Частота, рад/с
7
8
9
10
Рис. 2.17. АЧХ и ФЧХ
1
0.5
0
-0.5
0
1
2
3
4
5
6
Частота, рад/с
7
Рис. 2.18. ВЧХ и МЧХ
67
8
9
10
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Bode Diagram
0
Magnitude (dB)
-10
-20
-30
Phase (deg)
-40
0
-45
-90
-2
-1
10
0
10
1
10
2
10
10
Frequency (rad/sec)
Рис. 2.19. ЛАЧХ и ФЧХ
Это уравнение полуокружности с центром в точке (k/2; j0) и
радиусом k/2 (рис. 2.20).
Nyquist Diagram
0.5
6 dB
4 dB 2 dB 0 dB -2 dB -4 dB
-6 dB
0.4
-10 dB
10 dB
0.3
0.2
Imaginary Axis
0.1
20 dB
-20 dB
0
-0.1
-0.2
-0.3
-0.4
-0.5
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
Real Axis
Рис. 2.20. АФЧХ
Программа расчета частотных характеристик в MATLAB
приведена ниже.
68
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Программа расчета
wp=tf(1,[1 1])
w=0:.1:10ж
Aw=abs(squeeze(freqresp(wp,w)));
fw=angle(squeeze(freqresp(wp,w)));
plot(w,Aw,w,fw),grid
pause
U=real(squeeze(freqresp(wp,w)));
V=imag(squeeze(freqresp(wp,w)));
plot(w,U,w,V),grid
pause
bode(wp),grid
pause
nyquist(wp),grid
69
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
3. Линейные импульсные
и цифровые системы
3.1. Квантование информации
Управляющие ЭВМ и контроллеры, входящие в состав систем управления, осуществляют прием, обработку и выдачу информации в цифровой форме. Цифровая форма представления
информации предполагает, что информация поступает в дискретные моменты времени в виде числа с конечным числом разрядов,
т.е. происходит квантование информации. Если с помощью цифрового прибора зарегистрировать сигналы на входе или выходе
ЭВМ, то они будут иметь вид, представленный на рис. 3.1. Тонкой
линией показана огибающая квантованного сигнала.
y
t
Рис. 3.1. Квантованный по времени и уровню сигнал ЭВМ
Поскольку входные и выходные сигналы объекта управления, как правило, непрерывные, то необходимы устройства, осуществляющие преобразование сигналов из аналоговой формы в
цифровую и обратно. Такими устройствами являются аналогоцифровой преобразователь (АЦП) и цифроаналоговый преобразователь (ЦАП).
На структурной схеме такие преобразователи условно обозначаются в виде, представленном на рис. 3.2. Наличие ключа на
структурной схеме с периодом коммутации T0 подчеркивает дискретный или импульсный характер обрабатываемых сигналов.
70
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
T0
y(t)
yи(t)
yd(t)
АЦП
y
yd
yи
t
Непрерывный
по времени
t
Квантованный
по уровню и времени
t
Квантованный
Рис. 3.2. Квантование сигналов в АЦП
В АЦП значение амплитуды импульса уи подвергается либо
округлению, либо усечению в зависимости от типа устройства.
В ЦАП (рис. 3.3) применена линейная интерполяция дискретного сигнала, однако чаще выходной сигнал ЦАП не интерполируется, а сразу выдается сигнал уи. Формирование непрерывного по времени сигнала уи достигается использованием регистров
на выходе ЦАП, которые в теории дискретных систем называются
фиксатором или экстраполятором нулевого порядка. Экстраполятор нулевого порядка сохраняет неизменным значение выходного
сигнала до прихода нового тактового импульса.
Применение АЦП и ЦАП позволяет сопрягать ЭВМ с аналоговыми устройствами и использовать ее в качестве мощного
управляющего устройства [25, 46].
На рис. 3.4. показано включение ЭВМ в замкнутую систему
управления.
Характерная особенность систем управления с ЭВМ – их конечное быстродействие. Следствием этого является асинхронная
работа ключей К1 и К2. Очевидно, для того чтобы не было потери
информации, период дискретизации Т0 должен быть больше, чем
время обработки информации в ЭВМ Тобр. Поскольку в процессе
работы ЭВМ Тобр может изменяться, выдачу обработанной информации обычно задерживают на один такт Т0 по отношению к мо71
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
менту ее поступления, что и отмечено на рис. 3.4 введением сомножителя (k – 1) перед периодом включения второго ключа.
В этом случае второй ключ на схеме не изображают, а учитывают
временное запаздывание, вносимое ЭВМ, как показано на рис. 3.5.
T0
yd(t)
yи(t)
y(t)
ЦАП
yd
y
yи
t
t
t
Квантованный
по уровню и времени
Квантованный
по уровню
Непрерывный
Рис. 3.3. Квантование сигналов в ЦАП
kT0
xd(k)
x(t)
АЦП

ud(k)
ЭВМ
g
(k1)T
u(t)
ЦАП
y(t)
ОУ
К1
К2
Рис. 3.4. Структурная схема СУ с ЭВМ
kT0
x(t)
xd(k)
АЦП

ud(k1)
ЭВМ
g
ЦАП
u(tτ)
y(tτ)
ОУ
К
Рис. 3.5. Структурная схема СУ с учетом запаздывания в ЭВМ
72
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
В том случае если быстродействие ЭВМ значительно выше
времени переходного процесса в объекте управления, запаздыванием пренебрегают. Кроме того, при использовании ЭВМ, работающих со словами длиной 16 разрядов и более, и аналогоцифровых преобразователей, имеющих не менее 10 двоичных разрядов, эффекты квантования по уровню практически незаметны.
Поэтому в первом приближении можно считать, что амплитуды
дискретных сигналов изменяются непрерывно и систему управления можно рассматривать как линейную импульсную систему [44,
49, 57].
С учетом указанных упрощений структура замкнутого контура управления с ЭВМ в качестве средства обработки дискретной
информации приобретает вид, показанный на рис. 3.5.
В этой системе квантователь, действуя синхронно, вырабатывает сигнал, дискретный только во времени. Управляемая переменная у вычисляется по запрограммированному алгоритму в
ЭВМ, входными величинами для которой служит ошибка регулирования х. Дискретная обработка сигналов характерна не только
для систем управления динамическими объектами, построенных
на базе ЭВМ. Проблемы обработки дискретных данных возникают
и в том случае, когда измеряемые или регулируемые переменные
доступны лишь в определенные моменты времени. Дискретные
данные поступают при измерении размеров выпускаемых деталей,
при отборе проб вещества с целью его последующего лабораторного анализа, в радиолокации и т.п.
Характерным примером импульсного исполнительного механизма является задвижка трубопроводной арматуры. Положение
задвижки зависит от длительности ее включения.
Широкое использование дискретной обработки информации
в задачах управления в первую очередь диктуется возможностью
программной реализации самых сложных алгоритмов управления.
Аппаратная реализация алгоритмов управления с помощью электронных, пневматических или гидравлических аналоговых регуляторов менее эффективна, так как проектировщику приходится
сталкиваться с весьма серьезными техническо-экономическими
ограничениями.
73
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
3.2. Решетчатые функции
и дискретные передаточные функции
Структурная схема, приведенная на рис. 3.5, содержит как
дискретные, так и непрерывные элементы, соединенные между
собой благодаря наличию АЦП и ЦАП. Однако провести расчет
такой системы с помощью математического аппарата непрерывных линейных систем управления, рассмотренного в предыдущих
разделах, невозможно из-за наличия дискретных элементов.
Для математического описания дискретных систем, по аналогии с непрерывными системами, введем понятие решетчатой
функции, являющейся аналогом непрерывной функции.
Решетчатая функция – это импульсная функция, состоящая
из периодически следующих друг за другом δ-импульсов, площадь которых равна значениям непрерывного сигнала в те же моменты времени.
Графически преобразование непрерывного сигнала в импульсный с помощью решетчатой функции можно изобразить так,
как показано на рис. 3.6.
T0
y(t)
yr (kT0)
yd (kT0)
ФЭ
y
ИИЭ
yr
yd
t
t
t
Рис. 3.6. Формирование импульсного сигнала
с помощью решетчатой функции
На схеме рис. 3.6 АЦП заменен идеальным импульсным
элементом (ИИЭ) и формирующим элементом (ФЭ). Идеальный
74
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
импульсный элемент формирует на выходе δ-импульсы, площадь
которых модулирована уровнем входного сигнала, т.е. идеальный
импульсный элемент формирует на своем выходе решетчатую
функцию от входного сигнала:
yr (t ) 

 y (kT0 )(t kT0 ) , k = 0, 1, 2, … .
(3.1)
k 0
Формирующий элемент является непрерывным с функцией
веса, равной выходному сигналу ФЭ. Это следует из определения
функции веса, которая есть реакция элемента на δ-импульс. Именно такие импульсы и действуют на входе ФЭ. Зная функцию веса,
нетрудно вычислить и передаточную функцию ФЭ:

WФЭ ( p )  L  yd (kT0 )    e  pt yd (t )dt.
(3.2)
0
Передаточная функция ФЭ вычисляется от одиночного импульса yd.
Введение понятия идеального импульсного элемента и решетчатой функции является математической абстракцией, позволяющей установить аналитическую связь между непрерывным и
импульсным сигналами [57].
Вычислим передаточную функцию ФЭ, который генерирует
на выходе прямоугольные импульсы с амплитудой А и длительностью tи:
WФЭ ( p ) 
tи
 Аe
 pt
0
dt 


1
1  e ptи .
p
(3.3)
Если теперь в (3.3) положить tи  T0 , то мы получим передаточную функцию экстраполятора нулевого порядка, поскольку на
интервале времени в отсутствие импульсов на выходе ФЭ на его
выходе сигнал будет сохранять постоянное значение, равное площади входного δ-импульса.
Найдем теперь выражение для дискретной передаточной
функции дискретного элемента, у которого входной и выходной
сигналы соответственно равны
75
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
ud (t ) 
yd (t ) 

 u (kT0 )(t kT0 );
k 0

(3.4)
 y (kT0 )(t kT0 ).
k 0
Вычислим y(t), используя теорему о свертке или интеграл
Дюамеля (3.53).
В дискретной форме этот интеграл заменится бесконечной
суммой:
y (t ) 

 u (kT0 )(t kT0 ).
(3.5)
k 0
Если квантование входного и выходного сигналов осуществляется синхронно, то выходное время t  nT0 и (3.5) запишется так:
yd (nT0 ) 


k 0
k 0
 ud (kT0 ) (n  k )T0    u  (n  k )T0  (kT0 ).
(3.6)
Найдем теперь дискретное изображение по Лапласу от y(t).
Для этого в преобразовании Лапласа также заменим интеграл
суммой:
yd ( p ) 

 yd (nT0 ) e nT0 p .
(3.7)
n 0
Подставим в (3.7) выражение (3.6), получим
yd ( p ) 


  ud (kT0 )(n  k )T0  e nT0 p .
(3.8)
n 0 k 0
Сделаем замену m = n – k и изменим очередность суммирования членов:
yd ( p ) 


  u (kT0 ) (mT0 ) e mT0 p e kT0 p 
k 0 k 0

   (mT0 ) e
 mT0 p
k 0

 ud (kT0 ) e kT0 p .
(3.9)
k 0
В (3.9) первая сумма есть ничто иное, как дискретное преобразование Лапласа от функции веса, или дискретная передаточная
функция, второе слагаемое представляет собой дискретное преобразование Лапласа от входного сигнала.
76
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Следовательно, можно записать
yd ( p )  Wd ( p )ud ( p ),
(3.10)
откуда
Wd ( p ) 
yd ( p ) 
   (mT0 ) e  mT0 p .
ud ( p ) m  0
(3.11)
Дискретная передаточная функция есть отношение дискретных изображений по Лапласу выходной и входной величин при
нулевых начальных условиях.
В теории дискретных систем более широко применяется
z-преобразование, введенное в рассмотрение Джури. По сути дела,
z-преобразование есть модифицированное преобразование Лапласа, получаемое путем замены оператора:
z  e pT0 .
(3.12)
Тогда дискретная передаточная функция по переменной z
запишется в виде
y( z) 
   (mT0 ) z  m .
Wd ( z ) 
u ( z ) m 0
(3.13)
Дискретная передаточная функция по переменной z есть отношение z-преобразований выходной величины к входной при нулевых начальных условиях.
На основе свойств z-преобразования из (3.13) следует, что
Wd ( z )   (0)   (T0 ) z 1   (2T0 ) z 2  ... .
3.3. Теоремы z-преобразования
Теоремы z-преобразования дадим без доказательств. Доказательства этих теорем приводятся в многочисленных книгах по
дискретным системам [10, 32, 64].
1. Линейность:
Z ax(kT0 )  by (kT0 )  aZ  x(kT0 )  bZ  y (kT0 ).
2. Сдвиг по времени вправо:
Z  x(kT0  dT0   z  d x( z ), d  0.
77
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
3. Сдвиг по времени влево:
d 1


Z  x(kT0  dT0   z  x( z )   x(mT0 ) z  m  , d  0.
m 0


d
4. Изменение масштаба переменной z:


Z x(k )e akT0  x( ze aT0 ).
5. Начальное значение:
x(0)  lim x( z ).
z 
6. Конечное значение:
 z 1

x( z )   lim  ( z  1) x( z ).
lim x(kT0 )  lim 
k 1
z 1  z
 z 1
Наиболее часто используемые свойства z-преобразования
сведены в табл. 3.1.
Таблица 3.1
Свойства z-преобразования
X(t)
1
X(p)
2
X(z)
3
1
1
p
z
t
1
p2
z 1
T0 z
( z  1) 2
t2
2
p3
T0 z ( z  1)
( z  1)3
e  at
1
pa
z
, d  e  aT0
zd
te  at
1
( p  a)2
T0 zd
, d  e  aT0
2
(z  d )
2  at
2
( p  a )3
T02 zd ( z  d )
, d  e  aT0
3
(z  d )
1  e  at
a
p( p  a)
(1  d ) z
, d  e  aT0
( z  1)( z  d )
e  at  e bt
ba
( p  a )( p  b)
z (d a  db )
, d a  e  aT0 , d a  e  aT0
( z  d a )( z  db )
t e
78
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Окончание табл. 3.1
1
2
sin t

p  2
3
z sin T0
2
z  2 z cos T0  1
cos t
p
p 2  2
z ( z  cos T0 )
z 2  2 z cos T0  1
e  at sin t

( p  a ) 2  2
zd sin T0
z  2 zd cos T0  d 2
e  at cos t
sin 
t
T0
cos 
t
T0
2
2
z ( z  d cos T0 )
pa
2
2
2
z  2 zd cos T0  d 2
( p  a)  
T01
p 2  2T02
0
p
z
p
2
 2T02
z 1
sin
 t
2 T0
0,5T01
p 2  0, 252T02
z
z2 1
cos
 t
2 T0
p
p 2  0, 252T02
z2
z2 1
3.4. Разностные уравнения и АРСС-модели
При анализе стохастических систем, встречающихся в самых
различных областях науки и техники, исходными данными для
анализа являются реализации случайного процесса, генерируемого
этой системой. Полученные в виде графиков, или осциллограмм,
реализации случайного процесса, обрабатываются и представляются в виде временного ряда. Временной ряд содержит ординаты
реализации случайного процесса снятые в дискретные и равноотстоящие моменты времени. Следовательно, о свойствах исходной
непрерывной системы судят по результатам цифровой обработки
сигналов (временных рядов), формируемых системой. В связи с
этим широкое распространение получили цифровые параметрические стохастические модели авторегрессии и скользящего среднего (АРСС-модели). Эти модели достаточно просты и включают
79
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
обычно небольшое число параметров, которые необходимо оценивать по наблюдениям. АРСС-модели могут быть использованы
как для изучения временных рядов, так и при определении статистических характеристик этих рядов. Широко используются такие
модели в управлении, экономике, медицине, геофизике, при обработке звуковых сигналов [2, 3, 12, 28, 44].
АРСС-процессом порядка (p, q) называется ряд
p
v  k    ci v  k  i  
i 1
q
 d jek  j   ek  ,
(3.14)
j 1
где v(k) – значения временного ряда в k-й момент времени; e(k) –
последовательность независимых, одинаково распределенных
случайных величин с нулевым математическим ожиданием и единичной дисперсией (белый шум); {ci, i = 1, p} – параметры авторегрессии; {dj, j = 1, q} – параметры скользящего среднего.
Частными случаями АРСС(p, q)-процессов является процесс
АР(p)-авторегрессии порядка p:
p
v  k    ci v  k  i   e  k 
(3.15)
i 1
и процесс СС(q)-скользящего среднего порядка q:
q
vk    d j ek  j  ek  .
(3.16)
j 1
Процессы АРСС (p, q), АР(p) и СС(q) можно рассматривать
как отклики соответствующих фильтров на входной белошумный
процесс {e(tk)}.
Если в качестве стохастической системы рассматривается одномерный объект управления, то АРРС-модель объекта примет вид
p
q
i 1
j 1
y  k    ai y  k  i    b j u  k  j   e  k  ,
(3.17)
где y(k), u(k) – выходная и входная координаты объекта.
Аналогично (3.15) АР-модель запишется как
p
y  k    a i y  k  i   bu (k )  e(k ) ,
i 1
80
(3.18)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
а СС-модель
q
y  k    b j u ( k  j )  e( k ) .
(3.19)
j 1
Уравнения (3.17)–(3.19) являются линейными разностными
уравнениями объекта управления. В частности, из (3.13) следует, что
Wd ( z )  (0)  (T0 ) z 1  (2T0 ) z 2  ... .
(3.20)
Переходя к оригиналам и используя свойства z-преобразования, (3.20) можно преобразовать к СС-модели, коэффициентами которой будут значения функции веса в равноотстоящие
на Т0 моменты времени:
y (k )  (0)u (k )  (1)u (k  1)  ...  (m)u (k  m)  ... .
Линейное разностное уравнение или АРСС-модель дискретного объекта вида (3.17) является аналогом линейного дифференциального уравнения непрерывного объекта.
Приближенно переход от дифференциального уравнения к
разностному может быть задан через конечные разности, являющиеся аналогами производных:
dx x x(k )  x(k  1)


– первая конечная разность;
dt t
T0
d 2x
dt 2


x(k )  x(k  1)
t 2

 x(k )  x(k  1)   x(k  1)  x(k  2) 
x(k )  2 x(k  1)  x( k  2)
T02
T02
– вторая конечная разность и т.д.
В качестве более точного приближения используется преобразование
2 z 1
p
,
(3.21)
T0 z  1
которое в англоязычной литературе получило название преобразования Тастина (Tustin). Это преобразование получается из раз1
ложения в ряд функции p  ln z , получаемой из z  eT0 p :
T0
1
2
p  ln z 
T0
T0
5
 z  1  z  13

z  1


.



...
3
5
z

1


3  z  1 5  z  1
81
(3.22)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Ограничиваясь первым членом разложения, получаем преобразование Тастина.
Используя z-преобразование, линейные разностные уравнениях можно записать в символической форме:
– АРСС-модель:
A( z ) y ( z )  B( z )u ( z )  e( z ) ;
(3.21)
– АР-модель:
A( z ) y ( z )  bu ( z )  e( z ) ;
(3.22)
y ( z )  B ( z )u ( z )  e( z ) ,
(3.23)
– СС-модель:
где y(z), u(z) и e(z) – z-изображения соответствующих сигналов;
n
m
i 1
j 0
A( z )  1   ai z i , B ( z )   b j z  j – коэффициенты уравнения.
Вводя дискретную передаточную функцию объекта как отношение z-изображений сигнала на входе к сигналу на выходе при
нулевых начальных условиях, можно записать
b01  b1 z 1  ...+ bm z  m
yz
.

W  z 
u  z  1  a1 z 1  a 2 2 z 2  ...  an z  n
(3.24)
При наличии запаздывания в объекте, равного целому числу
периодов дискретизации   d , выражение для дискретной передаточной функции необходимо умножить на z  d :
Wd ( z )  W ( z ) z  d 
B  z  d
z .
A z 
(3.25)
Приводя помехи, действующие на объект управления к выходу,
можно получить структурную схему объекта управления (рис. 3.7).
e(t)
u(t)
f(t)
A( z )
B( z )
+
y(t)
C ( z)
D( z )
y(t)+f(t)
Рис. 3.7. Структурная схема дискретного объекта управления
82
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Для шума (по аналогии) передаточная функция будет иметь вид
1
s
f  z  1  d1 z  ...  d s z
D z


Wf  z 
.
e  z  1  c1 z 1  ...  cr q  r C  z 
(3.26)
Объединив выражения (3.25) и (3.26), получим модель объекта с шумом измерений:
yz 
B  z  d
D z
z u z 
e z .
A z 
C z
(3.27)
В зависимости от типа модели шума, при котором гарантируется сходимость оценок модели (3.27), используются модели
частного вида [32]:
– МП-модель (модель максимального правдоподобия):
B  z  d
D z
yz 
z uz 
e z ;
(3.28)
A z 
A z 
– НК-модель (модель наименьших квадратов):
yz 
B  z  d
1
z u z 
e z .
A z 
A z 
(3.29)
Переход от непрерывной модели к дискретной задается с
помощью z-преобразования:
W ( z) 
z  1 W ( p ) 
Z
.
z
p


(3.30)
Тогда
 z

W ( p )  pZ 1 
W ( z) .
 z 1

(3.31)
z 1
указывает на наличие в дискретной сисz
теме экстраполятора нулевого порядка, который фиксирует сигнал
на ее выходе.
Пример 3.1. Имеется линейное неоднородное уравнение
первого порядка:
dy
du
T1  y  T2
.
dt
dt
Сомножитель
83
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Запишем его приближение через конечные разности:
y ( k )  y ( k  1)
u (k )  u (k  1)
T1
 y (k )  T2
.
T0
T0
Приводя подобные члены, получим неоднородное линейное
разностное уравнение первого порядка:
(T0  T1 ) y (k )  T1 y (k  1)  T2u (k )  T2u ( k  1) .
Дискретная передаточная функция этого уравнения будет
равна
T2 (1  z 1 )
y( z)
W ( z) 

.
u ( z ) (T0  T1 )  T1 z 1
Используя преобразование (3.21), получим
T2 (1  z 1 )
.
 1  T0 / 2T  
T1 1  T0 / 2T1   z 

1
/
2
T
T



0


Найдем точное выражение для передаточной функции и разностного уравнения, воспользовавшись правилом преобразования (3.30). Для этого сначала определим непрерывную передаточную функцию:
T p
W ( p)  2 .
T1 p  1
y( z)
W ( z) 

u( z)
Подставим эту передаточную функцию в (3.30):
W ( z) 
где a 
z  1  T2  z  1  T2 1 
Z
Z

,
z
T
p
1
z
T
p
a


 1

 1

1
.
T1
Воспользовавшись свойствами z-преобразования, приведенными в п. 3.3, получим
W ( z) 
T2 (1  z 1 )
1
T1 (1  dz )
,
где d  e  aT0 . Очевидно, что при малом периоде дискретизации
T0  T1 d  1 и приближенное значение дискретной передаточной функции (3.35) стремится к ее точному значению (3.38).
84
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
3.5. Правила преобразования линейных
импульсных систем
Если система управления содержит хотя бы один цифровой
элемент в цепи управления, то ее нужно рассматривать как цифровую. Еще раз отметим, что из-за большой разрядности современных цифровых устройств эффекты квантования по уровню
можно не учитывать и рассматривать цифровую систему как импульсную, содержащую идеальные импульсные элементы. Чаще
всего встречаются случаи, когда система управления одновременно содержит как цифровые, так и аналоговые элементы. Расчет таких систем можно осуществлять как в непрерывной, так и в дискретной области. При расчете системы в непрерывной области
вначале находят дискретные передаточные функции импульсных
или цифровых элементов, а затем по правилам преобразования
вычисляют их непрерывные передаточные функции, после чего
рассчитывают систему как непрерывную. При расчете системы в
дискретной области, наоборот, от непрерывных передаточных
функций аналоговых элементов переходят к их цифровым функциям и рассчитывают всю систему как цифровую.
В том случае если в составе цифровой системы управления
содержится вычислительное устройство с конечным быстродействием, то возникает временная задержка между временем ввода и
вывода информации. Время этой задержки может быть различным, зависящим от алгоритма обработки информации, поэтому
для синхронизации процессов ввода-вывода вывод информации
задерживают на один такт квантования, как показано на рис. 3.5.
Особой спецификой отличаются и правила преобразования
структурных схем линейных импульсных систем [25, 46, 57]. Если
имеется чисто дискретная система, состоящие из одних дискретных (импульсных) элементов, правила ее преобразования структурной схемы будут аналогичны правилам преобразования непрерывных схем, только вместо непрерывных передаточных функций
используются их дискретные аналоги (см. п. 3.3).
Последовательное соединение элементов (рис. 3.8):
n
Wпос  z    Wi  z .
i 1
85
(3.32)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
x(z)
y1(z)
W1(z)
y2(z)
yn1(z)
W2(z)
yn(z)
Wn(z)
Рис. 3.8. Структурная схема последовательного соединения звеньев
Параллельное соединение элементов (рис. 3.9):
n
Wпap  z    Wi  z .
(3.33)
i 1
x(z)
y1(z)
W1(z)
y2(z)
y(z)
W2(z)
Wn(z)
yn(z)
Рис. 3.9. Структурная схема параллельного соединения звеньев
Соединение элементов с обратной связью (рис. 3.10):
W3  z  
W  z
.
1  W  z Woc  z 
x(z)
(3.34)
y(z)
W1(z)
± y (z)
ос
W2(z)
Рис. 3.10. Структурная схема соединения звеньев с обратной связью
В отличие от непрерывных или чисто дискретных систем,
правила преобразования структурных схем комбинированных
систем, состоящих из дискретных и непрерывных элементов, будут иными. В этом случае преобразование структурных схем осуществляется в три этапа:
86
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
– на первом этапе непрерывные части комбинированной системы с использованием правила парообразования структурных
схем приводятся к выходу соответствующих идеальных импульсных элементов;
– на втором этапе находятся дискретные передаточные функции приведенных непрерывных систем по выражению (3.30);
– на третьем этапе производится пересчет дискретных передаточных функций к одному периоду дискретизации и осуществляется преобразование полученной структурной схемы чисто дискретной системы с использованием правил парообразования
(3.30), (3.31).
При необходимости можно, используя выражение (3.31), получить непрерывную передаточную функцию исходной комбинированной системы.
3.6. Представление дискретных систем
управления в пространстве состояний
В том случае если объект управления многомерный и имеет
математическую модель, заданную в пространстве состояний, то
последняя сводится к дискретной модели вида
x(k  1)  A d x(k )  B d u(k );
y (k )  Cd x(k )  Dd u(k ),
(3.35)
где параметры (матрицы) дискретной системы связаны с параметрами (матрицами) исходной непрерывной системы выражениями [53]
A d  e AT0 ;
h
B d   e As Bds;
0
(3.36)
Cd  C;
Dd  D,
где Т0 – интервал квантования.
Докажем это утверждение. Известно [46], что решение матричного дифференциального уравнения
dx
 Ax  Bu ,
(3.37)
dt
заданного в пространстве состояний при начальных условиях x(0),
описывается выражением
87
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
t
x(t )   (t )x(0)    (t  )Bu( )d  ,
(3.38)
Φ(t )  eeAt
(3.39)
0
а матрицу
называют переходной и определяют как ряд
e
 At
( At )

.

!
0

(3.40)
Дискретная форма записи решения (3.45) при условии, что
входной сигнал остается постоянным во время такта квантования,
запишется так:
x  (k  1)T0   Φ(T0 )x(kT0 )  u(kT0 )
( k 1)T0
   (k  1)T0  Bd  . (3.41)
kT0
Вводя новую переменную s  ( k  1)T0   и подставляя ее в
(3.41), получим
T0
x(k  1)  Φ(T0 ) x(k )  u( k )   ( s )Bds .
(3.42)
0
Откуда с учетом (3.39) непосредственно следует (3.36).
Переход от дискретной модели к непрерывной по (3.36) связан с вычислением матричной экспоненты и последующим ее интегрированием. Гораздо удобнее в этом случае воспользоваться
z-преобразованием. В этом случае переход от дискретной модели
к непрерывной имеет следующую последовательность:
1) осуществляют z-преобразование первого уравнения (3.35)
и приводят подобные члены:
 Iz  A d  x( z )  B d u( z ) , I – единичная матрица;
1
2) вычисляют обратную матрицу  Iz  A d  :
 A11
A
1
1
 21
 Iz  A d  
det  Iz  A d   ...

 An1
88
T
A12 ... A1n 
A22
A21 
,
... ... ... 

An1 ... Ann 
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Aij – алгебраические дополнения матрицы  Iz  A d  ;
3) находят матричную дискретную передаточную функцию
системы:
x( z )
1
  Iz  A d  B d ;
W( z ) 
u( z )
4) переходят к непрерывной передаточной функции, используя выражение (3.31):
 z

W( p )  pZ 1 
W( z )  ,
 z 1

где Z–1 – оператор обратного z-преобразования;
5) по найденной матричной непрерывной передаточной
функции переходят в пространство состояний, используя соотношение (2.38).
Пример 3.1. Найдем непрерывную модель в пространстве
состояний исполнительного механизма, уравнения состояния которого имеют вид
x1 (k  1)  a11x1 (k )  b1u (k );
x2 ( k  1)  a12 x1 ( k )  a22 x2 ( k )  b2u ( k ),
где a11  d , a12  1  d , a22  1, b1  1  d , b2  T0  d ; T0 – период
дискретизации, d  e T0 . Матрицы системы:
 d
Ad  
1  d
0
 1 d 
B

,
T  d  .
d
1 
 0

1) Осуществляем z-преобразование исходного уравнения и
приводим подобные члены:
0 
 1 d 
zd
x

(
z
)
 T  1  d  u( z) ;
 d  1 z  1


 0

0 
zd
2) вычисляем обратную матрицу от 
:
d
1
z
1




0 
zd
 d  1 z  1


1
1


 z 1 1  d 
1
zd



 0

1 d
zd
( z  1)( z  d ) 


 ( z  1)( z  d )
T
89

0 
;
1 
z  1 
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
3) находим матричную дискретную передаточную функцию
системы:
1


zd
W( z )  
1 d

 ( z  1)( z  d )

1 d



0 


 1 d 
zd
;


1   T0  1  d   T0
1 d 
 ( z  1)  z  d 
z  1 


4) переходим к непрерывной передаточной функции:
1


1 d

 


   p  1 
zd
1  z
;

  
W ( p )  pZ 
T

d
1
1

 
 z 1  0 





 ( z  1) z  d    p ( p  1) 
5) переходим в пространство состояний:
dx1
  x1  u;
dt
dx2
 x1;
dt
y  x2.
Этот пример в MATLAB для Т0 = 0,1 запишется так:
clear
Ad=[d 0;1-d 1];
Bd=[1-d;a];
Cd=[0 1];
Dd=0;
sd=ss(Ad,Bd,Cd,Dd,T0)
sn=d2c(spd)
Дискретная модель
a=
x1
x2
x1 0.9048
0
x2 0.09516
1
b=
u1
90
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
x1 0.09516
x2 0.004837
c=
x1 x2
y1 0 1
d=
u1
y1 0
Непрерывная модель
a=
x1 x2
x1 -1 0
x2 1 0
b=
u1
x1
1
x2 -6.874e-016
c=
x1 x2
y1 0 1
d=
u1
y1 0
Continuous-time model.
Аналогично делают и обратный переход от непрерывной к
дискретной модели.
91
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
1) Осуществляют преобразование уравнения (3.44) и приводят подобные члены:
 Ip  A  x( p)  Bu ( p) , I – единичная матрица;
1
2) вычисляют обратную матрицу  Ip  A d  :
 A11
A
1
1
 21
 Ip  A  
det  Ip  A   ...

 An1
T
A12 ... A1n 
A22
A21 
,
... ... ... 

An1 ... Ann 
где Aij – алгебраические дополнения матрицы  I  A  ;
3) находят матричную передаточную функцию системы:
W( p) 
x( p )
1
  Ip  A  B ;
u( p )
4) переходят к непрерывной передаточной функции, используя выражение (3.30):
W( z ) 
z  1  W( p) 
Z
 , Z-оператор z-преобразования;
z
 p 
5) по найденной матричной дискретной передаточной функции переходят в пространство состояний непрерывной системы
(3.37).
Пример 3.2. Найдем дискретную модель в пространстве состояний исполнительного механизма, уравнения состояния которого получены в предыдущем примере. Матрицы модели рассматриваемого механизма равны
 1 0 
1
,
A
B


0.
 1 0
 
1) Осуществляем преобразование Лапласа исходного уравнения и приводим подобные члены:
 p 1 0 
1
(
)
x
p

 1 p 
 0  u ( p) ;


 
92
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
 p 1 0 
2) вычисляем обратную матрицу от 
:
1
p



1


0
 p 1

1 
 p 1 0 
p
1


;
 1 p  

 
1
1
p( p  1)  0 p  1



 p( p  1) p 


3) находим матричную дискретную передаточную функцию
системы:
1
T
1
1




0
 p 1
 1  p 1 

   
;
W( z ) 
1
1  0 
1


 p ( p  1) p 
 p ( p  1) 




4) переходим к дискретной передаточной функции:

1
 
1 d

 p ( p  1)   

z  1 
zd


;
Z
W( z ) 
 T
1
d

1


z


0





2
 p ( p  1)    ( z  1) z  d 
5) переходим в пространство состояний:
x1 (k  1)  dx1 (k )  (1  d )u (k );
x2 ( k  1)  (1  d ) x1 (k )  x2 (k )  (T0  d  1)u (k ).
Результаты прямого и обратного переходов, рассмотренные
в примерах 3.1 и 3.2, совпадают.
Для дискретной системы также справедливы линейные преобразования в пространстве состояний, задаваемые с помощью
матрицы перехода
x1  Tx .
(3.43)
3.7. Временные характеристики линейных
импульсных систем
По аналогии с временными характеристиками непрерывных
систем введем понятие временных характеристик линейных импульсных систем. К таким характеристикам относятся функция
веса (k ) и переходная характеристика h(k ) .
93
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Функция веса линейной импульсной системы представляет
собой ее реакцию на решетчатую дельта-функцию, или функцию
Кронекера:
1 при k  0;
(3.44)
( k )  
0
при
k
0.


График решетчатой дельта-функции приведен на рис. 3.11.
δ(k)
1
3 2 1
0 1
2
k
3
Рис. 3.11. Решетчатая дельта-функция
Решетчатая переходная характеристика линейной импульсной системы является ее реакцией на решетчатую единичную
функцию:
1 при k  0;
(3.45)
h( k )  
0 при k  0.
График решетчатой единичной функции приведен на рис. 3.12.
δ(k)
1
3 2 1
0 1
2
3
k
Рис. 3.12. Решетчатая единичная функция
Так же как и для непрерывных систем временные характеристики линейных импульсных систем можно снять экспериментально или получить расчетным путем по дискретной передаточ94
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
ной функции или разностному уравнению. Для получения временных характеристик линейных импульсных систем по дискретной передаточной функции можно воспользоваться обратным
z-преобразованием. Поскольку дискретная передаточная функция
представляет собой z-преобразование от решетчатой функции веса
z
Z  h  k   ,
(3.46)
z 1 
то решетчатая функция веса и переходная характеристика могут
быть найдены как обратное z-преобразование от дискретной передаточной функции:
W  z   Z ω  k   
 z 1

ω  k   Z 1 W  z    Z 1 
W  z  ;
 z

(3.47)
 z

h  k   Z 1 
W  z    Z 1 W  z   .
 z 1

(3.48)
Проверку правильности вычисления временных характеристик можно осуществить путем первоначального вычисления непрерывных временных характеристик. Для их вычисления вначале
переходят от дискретной W ( z ) к непрерывной передаточной
функции W ( p ) , по непрерывной передаточной функции вычисляют нужную временную характеристику (t ) или h(t ) , а затем путем замены непрерывного времени t на дискретное время kT0 переходят к решетчатым временным характеристикам (kT0 ) или
h(kT0 ) . Последовательность вычисления решетчатых временных
характеристик по дискретной передаточной функции можно представить следующим образом:
W ( z )  W ( p )  (t ), h(t )  ( k ), h( k ) .
(3.49)
Вычисление временных характеристик по разностным уравнениям гораздо проще аналогичного вычисления временных характеристик по дифференциальным уравнениям, так как не требует операции интегрирования этих уравнений. Для вычисления
временных характеристик разностное уравнение записывают в виде АРСС-модели и используют рекуррентную процедуру вычисления при нулевых начальных условиях.
Пример 3.3. Вычислим функцию веса и переходную характеристику инерционного звена с передаточными функциями:
95
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
W ( p) 
где d
k0
1 d
, W ( z )  k0
,
Tp  1
zd
T
 0
e T
; k0 = 2; T = 6; T0 = 3.
Непрерывная и решетчатая функция веса и переходная характеристика будут, соответственно, иметь вид
t
k 
k 
(t )  0 e T ; (kT0 )  0 e
T
T
h(t )  k 1  e  ;

0
t
T
kT0
T
,
.
h(kT )  k 1  e

0
0
kT0
T
Рассчитаем теперь решетчатую функцию веса и переходную
характеристику по разностному уравнению инерционного звена:
y (k )  a1 y (k  1)  b0u (k ) ,
где a1  d ; b0  k0 (1  d ) .
При расчете решетчатой функции веса первое (начальное)
значение входного сигнала принимается равным единице: u(1) = 1,
последующие значения равны нулю, начальное значение функции
k
веса равно (1)  . При расчете решетчатой переходной характеT
ристики u(k) = 1, k = 1, 2, …, h(1)  0 .
Рекуррентная процедура вычисления запишется так:
y (1)  a1 y (0)  b0u (1)  b0  k0 (1  d );
y (2)  a1 y (1)  b0u (2)  b0 (a1  1)  k0 (1  d 2 );
y (3)  a1 y (2)  b0u (3)  b0 (a12  a1  1)  k0 (1  d 3 );

Сравнивая выражение для непрерывной функции веса с ее
первыми тремя значениями (3.72), можно убедиться, что они полностью совпадают.
На рис. 3.13,а,б представлены временные характеристики
инерционного звена рассчитанные по непрерывной и дискретной
передаточной функциям (3.66), а также по разностному уравнению (3.69).
96
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
а)
б)
Рис. 3.13. Временные характеристики инерционного звена:
а – функции веса; б – переходные характеристики
По графикам видно, что при вычислении временных характеристик по дискретной передаточной функции учитывается наличие экстраполятора нулевого порядка, удерживающего неизменным значение выходного сигнала между тактами квантования.
3.8. Частотные характеристики
линейных импульсных систем
Рассмотрим особенности квантования гармонических сигналов. Для этого запишем выражение для решетчатой гармонической функции:
y (k )  A sin(k T0  ) ,
(3.50)
где A и φ – амплитуда и начальная фаза; Т0 – период квантования;
2
T
– период гармонической последовательности.

Введенная решетчатая гармоническая функция обладает следующими особенностями:
1. В отличие от непрерывной гармонической функции, решетчатая гармоническая функция в общем случае может быть непериодической. Периодической она будет тогда, когда период квантования Т0 кратен периоду гармонической последовательности Т.
97
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
2. Максимальные значения решетчатой гармонической функции не обязательно равны ее амплитудному значению А.
3. Гармоническую последовательность нельзя отличить от
постоянной величины, если период квантования Т0 равен или кратен периоду Т решетчатой гармонической последовательности,
что иллюстрируется графиком рис. 3.14,а.
4. Невозможно различить две частоты f и fk решетчатых
гармонических последовательностей, если разность частот кратна
1
частоте квантования f 0  . Это условие запишется в следующем
T0
виде:
f k  f  kf 0 ,
k = 0, 1, 2, … .
(3.51)
На рис. 3.14,б приводится случай, когда f = 1 Гц, f0 = 11 Гц,
k = 1, Т0 = 0,1 с.
a)
б)
Рис. 3.14. Квантование гармонических сигналов:
a) Т0 = Т; б) f = 1 Гц, fk = 11 Гц
5. Из предыдущих особенностей следует, что для определения параметров гармонической последовательности с частотой f
частоту квантования f0 нужно выбирать как минимум в два раза
большей, что вытекает непосредственно из теоремы Котельникова:
f0  2 f .
(3.52)
Расчет частотных характеристик линейных импульсных систем проводится так же, как и непрерывных систем, – путем формальной замены оператора Лапласа p на оператор j . В отличие
от непрерывных систем, в дискретных системах используют
98
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
z-преобразование, поэтому для получения частотной передаточной
функции дискретной системы производят подстановку z  e jT0 .
По аналогии с непрерывными системами модуль частотной
дискретной передаточной функции называется амплитудно-частотной характеристикой (АЧХ) и обозначается Ad (ω) :
Ad (ω)  W (e jT0 ) .
(3.53)
Аргумент частотной дискретной передаточной функции
W (e
) называется фазочастотной характеристикой (ФЧХ) и
обозначается d (ω) :
jT0
d (ω)  arg W (e jωT0 )  .


(3.54)
Аналогично вещественная и мнимая части W (e jT0 ) называются вещественной (ВЧХ) U d (ω) и мнимой (МЧХ) Vd (ω) частотными характеристиками:
W (e jT0 )  U d (ω)  jVd (ω) ;
U d (ω)  Re W (e jT0 )  ; Vd (ω)  Im W (e jT0 )  .




(3.55)
Между этими характеристиками существуют очевидные соотношения:
Ad (ω) 
U d (ω) 2  Vd (ω) 2 ; d (ω)  arctg
Vd (ω)
;
U d (ω)
U d (ω)  Ad (ω)cos  d (ω) ; Vd (ω)  Ad (ω)sin  d (ω) .
(3.56)
(3.57)
Следует отметить, что, несмотря на схожесть вычисления
частотных характеристик непрерывных и дискретных систем, результаты вычислений будут различными. Покажем это на примере.
Пример 3.4. Вычислим частотные характеристики инерционного звена.
Амплитудно-частотные характеристики (рис. 3.15):
k
k (1  d )
An () 
, Ad () 
,
2
2
1  2d cos(T0 )  d
1  ( T )
где d
T
 0
e T.
99
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Рис. 3.15. Амплитудно-частотные характеристики инерционного звена
Фазочастотные характеристики (рис. 3.16):
 sin(T0 ) 
n ()  arctg(T ); n ()  arctg 
.
cos(
T
)
d


0


Рис. 3.16. Фазочастотные характеристики инерционного звена
100
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Вещественные частотные характеристики (рис. 3.17):
U n () 
k
1  (T )
; Ad () 
2
k (1  d )  cos(T0 )  d 
1  2d cos(T0 )  d 2
.
Рис. 3.17. Вещественные частотные характеристики инерционного звена
Мнимые частотные характеристики (рис. 3.18):
U n ()  
k T
1  ( T )
; Ad ()  
2
k (1  d ) sin(T0 ) 
1  2d cos(T0 )  d
2
.
Рис. 3.18. Мнимые частотные характеристики инерционного звена
101
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Сравнивая частотные характеристики непрерывного и дискретного инерционного звена можно сделать следующие выводы:
1. Частотные характеристики непрерывной и дискретной
системы хорошо совпадают в области низких частот f  0,1 f 0 .
2. При вычислении частотных характеристик дискретных систем достаточно ограничиться частотным диапазоном 0  f  0,5 f 0 .
102
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
4. Нестационарные и нелинейные
математические модели на базе матричных
операторов и рядов Вольтерра
4.1. Математические модели
на базе матричных операторов
При исследовании нестационарных и нелинейных систем
использование линейных моделей, рассмотренных в п. 3, становится громоздким и неэффективным. Поэтому возникла идея создания методов, использующих аппарат матричных операторов и
спектральную форму описания процессов [7, 8, 38, 48]. Аппарат
матричных операторов базируется на теории ортогональных
функций, использующей в качестве базиса не только тригонометрические, но и другие виды ортогональных функций, образующих
новые базисы. В качестве таких функций используют полиномы
Лежандра, Чебышева, Лагерра, функции Уолша и др.
Метод матричных операторов и спектральные методы предполагают разложение сигналов и временных динамических характеристик системы по ортогональным базисам.
T
Пусть Φ  1(t ), 2 (t ), ..., n (t )  – одностолбцовая матрица
элементов ортонормированного базиса, порождающая в общем
случае некоторое банахово пространство функций. Тогда произвольный сигнал системы x(t), заданный на отрезке [t0 t1], можно
приблизить с помощью разложения
x(t )  ΦT (t )C x ,
(4.1)
где C x  c1x , c2x , ..., cnx  – коэффициенты разложения x(t) по ба

зисным функциям (не обязательно тригонометрическим).
В терминах спектральных методов C x  c1x , c2x , ..., cnx 


представляет совокупность коэффициентов Фурье исходного сигнала x(t) относительно выбранной ортонормированной системы функций Ф(t). Применение спектральной формы описания сигналов позволяет перейти от исследования самих сигналов к рассмотрению
их спектральных характеристик относительно выбранного базиса.
103
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Выбранный базис образует пространство состояний системы, в котором ее входной и выходной сигналы будут соответственно векторами C x  c1x , c2x , ..., cnx  и C y  c1y , c2y , ..., cmy  . Без




нарушения общности рассуждений можно положить m = n. Тогда
в пространстве состояний, определяемом выбранным ортонормированным базисом, система осуществляет отображение входного
вектора в выходной с помощью матричного оператора А:
C y  AC x .
(4.2)
Этот оператор называется матричным оператором, или спектральной характеристикой, системы относительно ортонормированного базиса.
Выразим этот оператор через параметры системы, задаваемой дифференциальным уравнением с переменными коэффициентами:
dny
dt
n
n 1
   ak (t )
k 1
dk y
dt
k
m
  bk (t )
k 1
dkx
dt
k
.
(4.3)
Интегрируя n раз исходное уравнение системы и осуществляя
последующее интегрирование по частям с учетом нулевых начальных условий, получим интегральное уравнение Вольтерра 2-го рода, эквивалентное исходному дифференциальному уравнению
t
y (t )   hy (t , ) y ()d   f (t ) ,
(4.4)
(1) k d k 
hy (t , )  
ak ()(t  ) n 1  ,
k


k  0 ( n  1)! d 
(4.5)
0
где
n 1
t
f (t )   hx (t , ) x()d  ,
(4.6)
0
( 1) k d k 
hx (t , )  
bk ()(t  ) n 1  ,
k


k  0 ( n  1)! d 
m
 h (t , ), 0    t ;
h(t , )  
0    T.
0,
(4.7)
(4.8)
Функции h(t, ) называются ядрами интегрального уравнения.
104
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Выражая переменные интегрального уравнения в ортонормируемом базисе, получим
x(t )  ΦT (t )C x , y (t )  ΦT (t )C y ,
(4.9)
hx (t , )  ΦT (t ) A x Φ(), hy (t , )  ΦT (t ) A 0y Φ() , (4.10)
где
сix
T
сiy
  x(t )i (t )dt ,
0
T
  y (t )i (t ) dt , i  1, 2, ..., m,
0
k


A x    k x ( t ,  )  i ( t )  j (  ) dtd  
,
T
 i , j 1
k
A0y


   k x ( t ,  )  i ( t )  j (  ) dtd  
.
T
 i , j 1
Подставляя (4.9) и (4.10) в (4.4) с учетом (4.5)–(4.8), получим
T
Φ (t )C   ΦT (t ) A 0y Φ()ΦT ()C y d  
T
y
0
T
  ΦT (t ) A x Φ()ΦT ()C x d ,
(4.11)
0
или, после преобразований,
T
y
T
Φ (t )C  Φ
T
(t ) A 0y C y
x
x
T
T
 Φ()Φ ()d  
0
T
 Φ (t ) A C  Φ()ΦT ()d .
(4.12)
0
T
Поскольку  Φ()ΦT ()d   I – единичная матрица, то (4.12)
0
преобразуется к виду
C y  A 0y C x  A x C x .
105
(4.13)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Вводя обозначение
A y  I  A 0y ,
(4.14)
из (4.13) находим отображение входного вектора Cx в выходной
вектор Cy:
 
Cy  A y
1
A x C x  AC x .
(4.15)
Квадратную матрицу А вида
 
A  Ay
1
Ax
(4.16)
называют матричным оператором, или спектральной характеристикой, системы относительно ортонормируемого базиса Ф  Ф.
Вводя, по аналогии с типовыми динамическими звеньями
линейных систем, типовые матричные операторы интегрирования,
дифференцирования и умножения, можно формировать из этих
операторов матричные структурные схемы системы в выбранном
базисе.
Причем для таких структурных схем справедливы те же правила преобразования, что и для линейных систем.
Матричный оператор последовательного соединения элементов равен произведению матричных операторов отдельных
элементов (рис. 4.1):
A  A 2 A1 .
(4.17)
Сx
Сy
А1
А2
Рис. 4.1. Структура последовательного соединения
матричных операторов
Следует обратить внимание на то, что матричные операторы
перемножаются от выхода ко входу.
Матричный оператор параллельного соединения элементов
равен сумме матричных операторов отдельных элементов (рис. 4.2):
A  A1  A 2 .
106
(4.18)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Сy1
А1
Сx
Сy
А2
Сy2
Рис. 4.2. Структура последовательного соединения
матричных операторов
Матричный оператор соединения с обратной связью (рис. 4.3)
определяется произведением матричного оператора прямой цепи
1
и матричного оператора вида  I  A 2 A1  :
A  A1  I  A 2 A1  .
Сx
-
Сe
(4.19)
Сy
А1
Сoc
А2
Рис. 4.3. Структура соединения матричных операторов
с обратной связью
Пример 4.1. Рассмотрим построение матричного оператора
интегрирования
t
y (t )   x()d 
0
в базисе функций Уолша для входного сигнала x(t )  t , заданного на интервале времени [0, 1] (рис. 4.4). Поскольку функции
Уолша принимают значения +1 и –1, то их дискретным анало107
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
гом будут являться строки матрицы Адамара Φ(ti )  H , элементы которой определяют значение функций на множестве равноудаленных точек.
Рис. 4.4. Интегрирование в базисе Уолша
Построив матрицу Адамара, коэффициенты разложения
функции x(t) можно вычислить по формуле
Cx 
1
HX ,
n
где n – число дискретных значений; X = (x1, x2, …, xn) – вектор,
элементы которого представляют дискретные значения функции x(t), определенные в середине интервалов дискретизации.
Для нахождения матричного оператора интегрирования подставим в выражение для интегрируемой функции ее разложение
по выбранному базису:
T
T
0
0
y (t )   x()d    ΦT ()C x d  .
108
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Поскольку Cx не зависит от , ее можно вынести за знак интеграла:
T
y (t )   ΦT ()d  C x ,
0
а интеграл от базисных функций также разложить по выбранному
базису:
t
n
0
i 1
Φ s (t )   ΦT ()d    Φ(i ) Aи Φ(i ) .
Откуда можно найти искомый оператор интегрирования:
Aи  Φ 1Φ s .
Как следует из выражения для матрицы Фs, последнюю можно
получить суммированием с накоплением матрицы Φ(ti )  H или
матрицы Адамара.
Результаты расчетов
Матрица Адамара
H=
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
–1
–1
1
–1
1
1
–1
–1
–1
1
–1
–1
1
1
–1
1
1
–1
1
1
1
1
1
Коэффициенты разложения входного сигнала
Cx = [0,5000 –0,0625 –0,1250 0 –0,2500 0 0 0]
109
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Интегральный оператор
Aи =
0,5625
0,0625
-0,1250
0
-0,2500
0
0
0
0,0625
–0,0625
0
0
0
0
0
0
0,1250
0
0,0625
–0,0625
0
0
0
0
0
0
0,0625
0,0625
0
0
0
0
0,2500
0
0
0
0,0625
–0,0625
–0,1250
0
0
0
0
0
0,0625
0,0625
0
0
0
0
0
0
0,1250
0
0,0625
–0,0625
0
0
0
0
0
0
0,0625
0,0625
Коэффициенты разложения выходного сигнала
Cy = [0,1992 0,0352 –0,0703 0,0078 –0,1406 0,0156 0,0313 0]
Значения выходного сигнала (рис. 4.4)
y = [0,0078 0,0313 0,0703 0,1250 0,1953 0,2813 0,3828 0,5000]
4.2. Математические модели
нелинейных систем на базе функциональных
рядов Вольтерра–Винера
Данные модели являются дальнейшим развитием метода
матричных операторов и применяются для исследования нелинейных систем. В отличие от линейных, для нелинейных систем нарушаются принципы суперпозиции и постоянства масштаба переменных. Вследствие этого становится неприменимым математический аппарат теории линейных систем, а в нелинейных системах
возникают многие явления, не имеющие места в линейном случае
и связанные, например, с появлением комбинационных гармоник
и расширением спектра выходного сигнала, возникновением автоколебаний и нелинейного резонанса.
С позиции теории функций моделирование нелинейной системы можно рассматривать как аппроксимацию оператора, характеризующего систему, в классе функциональных полиномов заданной степени. Решение данной задачи методом матричных операторов существенно упрощается при условии ортогональности
используемых полиномов. Для аппроксимации статических нели110
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
нейных систем (без памяти) могут применяться обычные полиномы: Чебышева, Эрмита, Лагерра и др. Для динамических систем
(с памятью) требуется построение функциональных полиномов,
ортогональных для заданного класса входных и выходных сигналов системы. В частности, известные функционалы Винера ортогональны для белого гауссова шума [16].
С математической точки зрения процесс в нелинейной системе может быть представлен как преобразование множества X
входных сигналов в множество Y выходных сигналов с помощью
нелинейного оператора F. Различные классы процессов определяются видом элементов тройки < X, Y, F >. В свою очередь сигналы, являющиеся носителями информации во времени и пространстве, могут быть определены в виде двойки < T, S >, где множество T определяет область задания сигнала, а множество S  область
его значений. Для непрерывных сигналов множества T и S являются бесконечными, а для дискретных сигналов, ограниченных по
длительности, данные множества являются конечными.
В классе линейных систем, как уже отмечалось, выполняется
принцип суперпозиции, согласно которому для любых x1, x2  X
справедливо
F  ax1  bx2   aF  x1   bF  x2  ,
(4.20)
где a и b  произвольные константы. Если условие (4.20) не выполняется, то система является нелинейной.
При заданных множествах T и S и операциях над ними вид
линейного оператора F определяется однозначно. В частности, для
непрерывных одномерных сигналов x(t) оператор линейного преобразования, как известно, определяется интегральным уравнением
y (t )  F  x(t )    h(t , ) x()d  ,
(4.21)
T
а при условии стационарности оператора  интегралом свертки
y (t )  F  x(t )    () x(t  ) d  .
(4.22)
T
Аналогом данного выражения в дискретном случае является
линейная свертка вида
y (n)   (i ) x( n  i ) .
iT
111
(4.23)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Если множество T  {0, 1, ..., N  1}, то выражение (4.23) определяет линейную дискретную систему нерекурсивного типа с
импульсной характеристикой длиной N.
В отличие от линейных систем, класс нелинейных систем
значительно богаче, что не дает возможности описать его единым
выражением, подобным линейной свертке. Это обстоятельство,
с одной стороны, расширяет возможности нелинейных систем,
а с другой  в значительной степени усложняет их проектирование.
При выборе формы математического описания нелинейных
систем необходимо учитывать не только общность используемого
аппарата, но и возможность применения уже устоявшихся понятий и обобщения известных методов линейных систем на нелинейный случай. Наибольшими преимуществами в этом смысле
обладает подход, основанный на использовании функциональных
рядов, предложенных В. Вольтерра [18]. Для описания нелинейных систем данные ряды впервые были использованы Н. Винером.
Следуя функциональному подходу [50], введем следующие понятия.
Определение 1.1. Оператор Hm(x1, ..., xm) называется m-линейным, если он линеен по каждой из переменных xi, i  1, ..., m.
Примерами m-линейных стационарных операторов для непрерывных и дискретных сигналов соответственно являются
функционалы
m
y (t )  H m [ x1 (t ), ..., xm (t )]     hm (1 , ..., m ) xi (t  i ) d i ,
T1
Tm
i 1
m
y (n)  H m [ x1 (n), ..., xm (n)]    hm (n1 , ..., nm ) xi ( n  ni ) . (4.24)
T1
Tm
i 1
Определение 1.2. Оператор Hm(x), полученный из m-линейного оператора подстановкой x1  ...  xm  x называется однородным оператором степени m.
Однородный оператор степени m обладает следующим свойством:
H m [x ]   m H m [ x ] .
Например, линейные операторы вида (4.21)(4.24) являются
однородными операторами первой степени. Функционалы вида
112
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
m
y (t )  H m [ x(t )]     hm (1 , ..., m ) x(t  i ) d i ,
T1
i 1
Tm
m
y ( n )  H m [ x ( n )]     hm ( n1 , ..., nm ) x ( n  ni )
T1
(4.25)
(4.26)
i 1
Tm
являются примерами однородных операторов степени m соответственно для непрерывного и дискретного случаев. Однородный
оператор нулевой степени представляет собой постоянную h0.
Многомерные функции hm(1, ..., m) называются ядрами порядка m. Однородные функционалы с симметричными ядрами называются регулярными. Ядра однородных операторов всегда можно симметризировать, положив их равными
1
 hm (1 ,..., m ) ,
y!
где сумма вычисляется по всем перестановкам аргументов
1, ..., m. Сказанное относится также и к дискретным ядрам
hm(n1, ..., nm).
Определение 1.3. Функциональным полиномом степени M
называется сумма однородных операторов:
M
PM [ x]   H m [ x] .
(4.27)
m 0
Функциональные полиномы имеют много аналогий с обычными полиномами. Их можно складывать и умножать, причем результат также будет являться полиномом. Обычные полиномы являются частным случаем функциональных. Действительно, полагая в (4.25) ядро hm(1, ..., m) равным многомерной -функции:
hm (1 , ..., m )  (1 , ..., m )  (1 )  ...  (m ) ,
получим Hm(x)  xm(t). Аналогично однородный функционал (4.26)
будет равен xm(n) при равенстве его ядра hm(n1, ..., nm) многомерной
дискретной -функции:
hm ( n1 , ..., nm )   ( n1 , ..., nm )   ( n1 )  ...   ( nm ) .
Поэтому функциональный полином (4.27) будет представлять из себя обычный полином, если hm(1, ..., m)  am(1, ..., m)
в непрерывном случае и hm(n1, ..., nm)  am(n1, ..., nm)  в дискретном.
113
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
В отличие от обычных полиномов, определяющих статическую нелинейность, функциональные полиномы характеризуют
динамические нелинейные свойства и могут быть использованы
для аппроксимации широкого класса нелинейных операторов, подобно разложению функции в степенные ряды (например, ряды
Тэйлора). Правомерность такого подхода следует из известной
теоремы М. Фреше, согласно которой любой непрерывный функционал F[x], заданный на множестве X функций x(t), непрерывных
на интервале T  [a, b], с какой угодно степенью точности  можно
приблизить функциональным полиномом PM[x]:
F [ x]  PM [ x]  , x  X .
Требование непрерывности функционала F[x], необходимое
для приближения его последовательностью функциональных полиномов, с физической точки зрения означает отсутствие скачков
в изменении выходного сигнала y(t) при малых изменениях входного сигнала x(t). На практике данное условие выполняется для
широкого класса нелинейных систем, имеющих гладкий характер
нелинейности.
Если входной сигнал x(t) непрерывен всюду на действительной оси, то выходной сигнал y(t) системы может быть представлен
сходящимся функциональным рядом Вольтера:


m
m  0 

i 1


y (t )   H m [ x(t )]      hm (1 , ..., m ) x(t  i ) d i . (4.28)
m 0
В дискретном случае аналогом данного ряда является разложение вида




m
nm =- 
i 1
y (n)   H m [ x(n)]      hm (n1 , ..., nm ) x(n  ni ) . (4.29)
m 0
m 0 n1=- 
Определение 1.4. Цифровой полиномиальной системой порядка M будем называть дискретную систему, определяемую дискретным функциональным полиномом вида
M
M


m
nm =- 
i 1
y (n)   H m [ x(n)]      hm (n 1, ..., nm ) x(n  ni ) . (4.30)
m 0
m 0 n 1=- 
Отдельные составляющие уравнения (4.30), определяемые
сверткой
114
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
ym (n)  H m [ x(n)] 


m
n1= 
nm = 
i 1
   hm (n1 , ..., nm ) x(n  ni ), (4.31)
будем называть однородной цифровой полиномиальной системой
порядка m.
При m  1 выражение (4.31) представляет собой обычную
линейную свертку, определяющую линейную дискретную систему
с импульсной характеристикой h1(n). Так как для m > 1 свертка (4.31)
нелинейная относительно x(n), назовем ее нелинейной сверткой
порядка m. Такая свертка определяет однородную систему m-го
порядка с ядром hm(n1, ..., nm). По аналогии с h1(n) будем также называть ядро hm(n1, ..., nm) нелинейной импульсной характеристикой
порядка m.
Многие понятия линейных систем легко переносятся на случай полиномиальных систем. Условием физической реализуемости однородной системы порядка m является
hm ( n1 ,..., nm )  0 при ni < 0, i  1, ..., m,
а гарантией его устойчивости – неравенство


n1=
nm =
  
hm (n1 , ..., nm )   .
Данное условие выполняется, если длительность нелинейной
импульсной характеристики ограничена некоторой величиной N.
Таким образом, физически реализуемую устойчивую полиномиальную систему M-го порядка можно представить в виде
M N 1
N 1
m
m  0 n1=0
nm =0
i 1
y (n)      hm ( n1 , ..., nm ) x(n  ni ) .
(4.32)
Для данной системы выходной сигнал ym(n) в точке n нелинейным образом зависит от предшествующих N отсчетов x(n),
x(n  1), ..., x(n  N  1) входного сигнала. Если рассматривать эти
отсчеты как N переменных xi  x(n  i  1) , то выражение (4.32)
можно интерпретировать как полиномиальное приближение некоторой функции F(x1, ..., xN) многих переменных. В зависимости от
решаемой задачи функция F(x1, ..., xN) может иметь различный
смысл, характеризуя заданное поведение системы.
Как известно [26], импульсную характеристику h1(n) можно
рассматривать как реакцию линейной системы на единичный им115
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
пульс. Нелинейным импульсным характеристикам hm(n1, ..., nm)
также можно дать наглядную интерпретацию. Согласно принципу
суперпозиции реакция линейной системы на входной сигнал x(n) 
(n  s1)  (n  s2) в виде суммы двух единичных импульсов будет
равна
y1 (n)  H1[(n  s1 )]  H1[(n  s2 )]  h1 (n  s1 )  h1 (n  s2 ) . (4.33)
Определим теперь реакцию y2(n) однородной системы второго порядка на данную пару импульсов:
y2 (n)  H 2 [(n  s1 )]  H 2 [(n  s2 )]  2h2 (n  s1 , n  s2 ) .
В отличие от (4.33), выходной сигнал y2(n) такой квадратичной полиномиальной системы наряду с реакциями на отдельные
импульсы содержит дополнительный член, равный 2h2(n  s1, n  s2)
и определяющий взаимное влияние пары импульсов друг на друга.
В общем случае можно показать, что при воздействии суммы m
импульсов на однородную систему m-го порядка ее реакция будет
равна
m
ym (n)   H m  (n  si )   
i 0
m!
hm ( n  i1 , ..., n  im ) ,
1 !    p !
где первый член представляет собой сумму реакций на отдельные
импульсы, а второй определяет их взаимодействие и образован
различными сочетаниями (i1, ..., im) с повторениями из совокупности элементов (s1, ..., sm), причем каждое такое сочетание состоит
из p групп (p > 1), содержащих j равных между собой элементов.
Таким образом, нелинейная импульсная характеристика
hm(i1, ..., im) определяет составляющую реакции y(n) системы, обусловленную взаимодействием m импульсов, расположенных от
текущей точки n на расстоянии в i1, ..., im отсчетов. Так как произвольный дискретный сигнал x(n) можно представить в виде суммы
-функций

x(n)   x(i )(n  i ) ,
i 
импульсную характеристику hm(i1, ..., im) порядка m можно рассматривать как количественную меру нелинейного взаимодействия между m отсчетами входного сигнала.
116
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Одномерные функциональные ряды без труда обобщаются
на многомерный случай [65]. Для r-мерных сигналов дискретный
ряд Вольтерра можно представить в следующем виде:

y (n1 ,..., nr )   H m [ x(n1 ,..., nr )] 
m 0

 




n1r 
nm1 
nmr 
       hm (n11 , ..., n1r , , nm1 , ..., nmr ) 
m  0 n11 
m
 x(n  ni1 , , n  nir ) ,
i 1
где hm(n11, ..., n1r, ..., nm1, ..., nmr)  r-мерное ядро Вольтерра порядка m, представляющее собой функцию rm аргументов. С целью
упрощения выражений пространственные переменные далее
будем объединять в векторы, записывая r-мерные сигналы и ядра
в виде функций векторных аргументов: x(n), y(n), hm(n1, ..., nm), где
n  [n1 n2 ... nr]T и ni  [ni1 ni2 ... nir]T.
Многомерная полиномиальная модель системы характеризуется функциональным полиномом
M
y (n)   H m [ x(n)] ,
m 0
где x(n) и y(n) обозначают соответственно r-мерные входной и
выходной сигналы; Hm[x(n)]  однородный r-мерный дискретный
функционал m-го порядка, определяющий выходной сигнал ym(n)
однородного нелинейного фильтра m-го порядка и равный
m
ym (n)  H m [ x(n)]   hm (n1 ,..., n m )  x(n  n j ) ,
n1
(4.34)
j 1
nm
где  означает r-кратное суммирование по всем элементам векn
тора n.
Назовем для краткости однородную систему уравнений, описывающих полиномиальную систему вида (4.34), rm-системой.
При m  1 ядро hm(n1) представляет собой обычную импульсную характеристику многомерной линейной системы, в то
время как при m  2 , ..., M ядра hm(n1, ..., nm) можно рассматривать
как импульсные характеристики высших порядков, характери117
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
зующие нелинейные свойства многомерных полиномиальных систем. Используя в качестве входного сигнала сумму пространственных -функций, импульсную характеристику hm(n1, ..., nm) m-го
порядка можно интерпретировать аналогично одномерному случаю, рассматривая ее как составляющую реакции системы, обусловленную взаимодействием m пространственных импульсов.
В заключение покажем, что имеет место тесная взаимосвязь
между многомерной линейной и нелинейной системой, аппроксимированной полиномиальными функциональными многочленами.
Как известно [22], линейное многомерное преобразование сигнала
u(n1, ..., ns) описывается многомерной линейной сверткой вида


i1  0
is  0
y (n1 , ..., ns )   ...  h(i1 , ..., is )u (n1  i1 , ..., ns  is ) .
(4.35)
Как частные случаи, для s  1 получаем линейную свертку
для одномерных систем, для s  2  линейную свертку, описывающую двухмерные системы.
Допустим теперь, что s-мерный входной сигнал является сепарабельной функцией, т.е. представим его в виде произведения m
сигналов меньшей размерности r  s/m. Используя векторные аргументы, запишем
m
u (n1 , ..., n m )   x(n j ) .
(4.36)
j 1
Для данного воздействия выражение (4.35) принимает вид
m
y (n1 ,..., n m )   ... h(i1 ,..., i m )  x(n j  i j ) .
i1
j 1
im
Выделяя из выходного сигнала лишь диагональные блоки
размерности r, т.е. полагая n1  n2  ...  nm  n, получим
m
ym (n)   ... h(i1 ,..., i m )  x(n  i j ) .
i1
j 1
im
Это выражение есть не что иное, как нелинейная свертка, характеризующая rm-систему.
Таким образом, имеет место тесная взаимосвязь между многомерной линейной и полиномиальной нелинейной системой, состоящей в следующем. Выходной сигнал нелинейной системы по118
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
рядка m и размерности r может быть получен из реакции многомерной линейной системы (прототипа) размерности rm при сепарабельном воздействии вида (4.36) путем выделения из выходного
сигнала данной системы лишь диагональных блоков размерности r.
В частности, например, из шестимерной линейной системы в зависимости от представления s  6 в виде произведения rm могут
быть построены следующие rm-системы:
1. Нелинейная система шестого порядка (r  1, m  6):
6
u (n1 ,  , n6 )   x(n j ) ,
j 1
y6 (n)  y (n1 ,  , n6 )
n  n1    n6
.
2. Двухмерная нелинейная система третьего порядка (r  2,
m  3):
3
u (n11 , n12 , n21 , n22 , n31 , n32 )   x(n j1 , n j 2 ) ,
j 1
y3 (n)  y (n11 , n21 , n31 , n32 , n31 , n32 )
.




  n  n1  n 2  n3
n1
n2
n3
3. Трехмерная нелинейная система второго порядка (r  3,
m  2):
2
u (n11 , n12 , n13 , n21 , n22 , n23 )   x(n j1 , n j 2 , n j ,3 ),
j 1
.
y2 (n)  y (n11 , n12 , n13 n21 , n22 , n23 )
  n  n1  n 2
n1
n2
4.3. Аппроксимация нелинейной системы
ортогональными полиномами
Рассмотрим пространство функционалов F[x(n)], заданных
на множестве X = {x(n): n  T} реализаций стационарного дискретного процесса x(n), и определим норму и скалярное произведение функционалов в виде
119
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
F  x ( n)    F  x ( n)  , F  x ( n)   ,
2
 F1  x(n) , F2  x(n)  M F1  x(n)  F2  x(n) .
Тогда задачу моделирования нелинейной системы с помощью полинома M-го порядка можно интерпретировать как аппроксимацию функционала
y ( n)  F  x ( n)  ,
описывающего поведение нелинейной системы, функциональным
полиномом PM[x(n)], минимизирующим квадрат нормы
2
F  x(n)  PM  x(n)   min .
(4.37)
Решение данной задачи в гильбертовом пространстве функционалов [18] приводит к следующему уравнению:
 PM  x(n)  F  x(n) , PM  x(n)  0 .
(4.38)
Определение ядер дискретного функционального полинома
можно существенно упростить, если воспользоваться представлением PM[x(n)] в виде суммы ортогональных функционалов:
M
PM  x(n)    Gm  hm , x(n)  .
(4.39 )
m 0
Полином, определяемый данным выражением, будем называть ортогональным полиномом порядка M для класса входных
сигналов x(n). Ортогональность функционалов Gm[hm, x(n)] в (4.39)
понимается в смысле равенства нулю скалярного произведения
функционалов различных порядков:

0, i  j;
Gi  hi , x(n)  , G j  hi , x(n)   
2
 Gi  hi , x(n)  , i  j.

(4.40)
Заметим, что в отличие от разложения в ряд Вольтерра
(4.39), являющегося обобщением ряда Тейлора, разложение оператора F[x(n)] по ортогональным функционалам Gm[hm, x(n)] можно рассматривать как обобщенный ряд Фурье [66]. В этом случае
ядра ортогонального полинома определяются из системы независимых уравнений вида
 F  x(n) , Gm  hm , x(n) 
120
2
Gm  hm , x(n)  ,
(4.41)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
которая легко может быть получена из (4.38) с учетом свойства
ортогональности (4.40).
Структура ортогональных функционалов Gm[hm, x(n)] зависит от вероятностных свойств процесса x(n). Для статических нелинейных систем без памяти (T = {n}) определение ортогональных функционалов не составляет труда. Они фактически совпадают с обычными полиномами (Эрмита, Чебышева, Лежандра
и др.), ортогональными с весом, равным плотности вероятности
f(x) сигнала x(n) [24]. В случае динамических систем с памятью
(Т = {..., 1, 0, 1, ...}) и статистически независимыми процессами
на входе для построения Gm[hm, x(n)] также можно воспользоваться одномерными ортогональными полиномами [66].
Пусть для процесса x(n) существует полиномиальный базис
pi[x(n)], такой, что
0, i  j;
M pi  x( n) p j  x(n)    2
 pi  x(n)  , i  j.


Вид полиномов определяется плотностью f(x) случайного
процесса x(n). В частности, для гауссова процесса x(n) с математическим ожиданием M{x(n)}  0 и дисперсией М{x2(n)}  2 таким
базисом будут являться многочлены Эрмита вида
pm ( x) 
 m 2 
(1) r m !2 r
r 0
r !2r ( m  2r )!

x m2r ,
(4.42)
первые из которых равны
p0 ( x)  1 , p1 ( x)  x , p2 ( x)  x 2  2 , p3 ( x)  x3  32 x . (4.43)
Определим теперь симметричные многомерные полиномы
вида
 m [ x(i1 ), ..., x(i1 ), ..., x(is ), ..., x(is )]  pm1 [ x(i1 )]   pms [ x(is )] ,






m1
ms
для которых m  m1 + ... + ms, a все индексы i1, ..., is различны. Из
статистической независимости отсчетов x(i1), ..., x(is) случайного
процесса следует ортогональность таких полиномов в следующем
смысле:
121
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»




M  m [ x(i1 ),..., x(i1 ),..., x(is ),..., x(is )] n [ x( j1 ),..., x( j1 ),..., x( jr ),..., x( jr )] 











m1
k1
kr
ms
0, (m  n) или Per(k1 ,..., k s )  (m1 ,..., ms );

 s
(4.44)
2
M
p
x
i
m
n
k
k
m
m
[
(
)]
,
(

)
и

Per(
,...,
)

(
,...,
),

m
j
s
s
1
1

j
 j 1
т.е. скалярное произведение полиномов отлично от нуля только в
том случае, если их степени равны и существует перестановка
Per(k1, ..., ks) совокупности индексов (k1, ..., ks), переводящая ее в
(m1, ..., ms).
Данное свойство дает основание утверждать, что функционалы вида
Gm  hm , x(n)      hm (i1 ,..., im ) m  x(n  i1 ),..., x(n  im )  (4.45)


i1T
im T
будут удовлетворять условию (4.40) ортогональности. Используя в
данном выражении полиномы Эрмита (4.43), получаем как частный случай известные функционалы Винера [28, 91]:
G 0 [ h0 , x ( n )]  h0 , G1[ h1 , x ( n )] 
G2 [ h2 , x ( n )] 
G3 [ h3 , x ( n )] 
 h (i ) x ( n  i ) ,
iT
  h2 (i1 , i2 ) x ( n  i1 )x( n  i2 )   2  h2 (i, i ) ,
i1T i2 T
iT
   h3 (i1 , i2 , i3 )x ( n  i1 )x ( n  i2 ) x ( n  i3 ) 
i1T i2 T i3 T
3 2   h3 (i1 , i2 , i2 ) x ( n  i1 ) ,
(4.46)
i1T i2 T
ортогональные для белого гауссова шума x(n) с нулевым средним
и дисперсией 2. Аналогичным образом можно построить ортогональные функционалы для случайных процессов типа белого шума с другими законами распределений. Известны, например, ортогональные функционалы для импульсных шумов с пуассоновским
распределением, определяемые через многомерные многочлены
Шарлье [64].
Для ортогональных функционалов вида (4.45) уравнение
(4.41), определяющее его ядра hm(i1, ..., im), будет выглядеть следующим образом:
122
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
M  y (n) m  x(n  i1 )   x(n  im )   hm (n1 ,..., nm ) 
n1
nm
 M  m  x(n  i1 )   x( n  im )   m  x(n  n1 )   x(n  nm )  . (4.47)
С учетом свойства (4.44) ортогональности функционалов
решение может быть получено в явном виде:
hm (i1 ,..., i1 ,..., is ,..., is ) 


m1

,
m1 !  ms !M y (n)vm1 ( n  i1 )   vms ( n  is )]




m !M vm21 (n)   M vm2 s (n)
ms
где vi(n)  pi[x(n)], все i1, ..., is различны, m  m1  ...  ms,
а m = 0, 1, ..., M. Числитель полученного выражения представляет
собой многомерную взаимную корреляционную функцию выходного сигнала у(n) системы и различных сигналов vi(n), полученных
преобразованием входного сигнала x(n) ортогональными многочленами различного порядка, а знаменатель определяется произведением мощностей сигналов vi(n).
Для случайных процессов, отличных от белого шума (окрашенных), c корреляционной функцией Rx(n)  (n) условие (4.44)
ортогональности многомерных полиномов будет нарушаться.
В этом случае ортогональные функционалы Gm[hm, x(n)] могут
быть получены непосредственно из системы линейно независимых функциональных полиномов:
s
m
Pm [ x(n)]      hs (i1 ,..., is )  x( n  i j ) , m  0, 1, ..., M,
s  0 i1T
is T
j 1
с помощью процедуры ортогонализации ГрамаШмидта [186].
Можно показать, что для гауссовых процессов с произвольной
корреляционной функцией Rx(n) ортогональные функционалы Винера определяются выражением
Gm [hm , x(n)]     hm (i1 ,..., im ) Hem  x(n  i1 ),..., x(n  im )  , (4.48)
i1T
im T
где hm(i1, ..., im)  ядра Винера во временной области.
Входящие в (4.48) многомерные полиномы Эрмита в данном
случае определяются следующим образом:
Неm  [ x(n1 ),..., x(nm )] 
m / 2

r 0


(1)r   Rx (ni  n j )  x(nk )  , (4.49)
( m2r )
 ( r )

123
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
где Rx(n)  корреляционная функция процесса x(n), m/2 означает
наибольшее целое число, не превосходящее m/2, а суммирование
производится по всевозможным разбиениям совокупности
{n1, ..., nm} на r пар {ni, nj} и (m  2r) элементов nk. Например, первые полиномы будут равны
He0  1 , He1  x(i )  x(i ) , He2  x(i1 ), x(i2 )   x(i1 ) x(i2 )  Rx (i1  i2 ) ,
He3  x(i1 ), x(i2 ), x(i3 )   x(i1 ) x(i2 ) x(i3 ) 
 x(i1 ) Rx (i3  i2 )  x(i2 ) Rx (i3  i1 )  x(i3 ) Rx (i2  i1 ) .
Свойство ортогональности данных полиномов имеет следующий вид:
M  Hem  x(i1 ),..., x(im )  Hem  x( j1 ),..., x( jn )  
0, m  n;

   R (i  j ), m  n,
x s
r
 ( m )
(4.50)
где суммирование осуществляется по различным разбиениям (всего m!) на пары (is, jr), is  (i1, ..., im), jr  (j1, ..., jm), а произведение
содержит m сомножителей, соответствующих каждому такому
разбиению. В отличие от выражения (4.44), определяющего условие ортогональности для белого шума, здесь скалярное произведение отлично от нуля как только m  n и не требуется существования перестановки Per(i1, ..., is)  (j1, ..., js). Поэтому (4.50) отлично
от нуля в большей области, чем (4.44).
Для функционалов (4.48) уравнение (4.47), определяющее
оптимальные ядра ортогонального ряда Винера с окрашенным
процессом на входе, выглядит следующим образом:
m
   hm (i1 ,..., im )  Rx ( n j  i j )  R yHe ( n1 ,..., nm ) ,
i1T
im T
(4.51)
j 1
где RyHe(n1, ..., nm)  M{y(n)x(n  n1)  ...  x(n  nm)} представляет собой взаимную корреляционную функцию выходного сигнала у(n)
системы и многомерного многочлена Эрмита вида (4.49) от входного сигнала x(n). Хотя полученное уравнение и не допускает явного решения во временной области, как это было в случае белого
шума, оно может быть решено в частотной. Действительно, вы124
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
числяя многомерное преобразование Фурье от обеих частей уравнения (4.51), получим
H m (1 ,..., m ) 
S yHe (1 ,..., m )
m ! S x (1 )   S x (m )
,
(4.52)
где Sx()  спектр мощности процесса x(n); SуHe(1, ..., m)  преобразование Фурье функции RyHe(n1, ..., nm).
Для выполнения практических расчетов ядер рядов Винера
целесообразно выразить RyHe(n1, ..., nm) и SуHe(1, ..., m) непосредственно через данные вход-выход моделируемой системы. Учитывая, что скалярное произведение функционала m-го порядка и однородного функционала меньшего порядка равно нулю, можно
записать
R yHe (n1 , ..., nm )  M  ym (n) Hem [ x(n  n1 ), ..., x(n  nm )] 
m


 M  ym (n) x(n  ni )  ,
i 1


(4.53)
где сигнал ym(n) формируется в виде разности выходных сигналов
системы и ортогонального фильтра (m  1)-го порядка:
m 1
ym (n)  y (n)  ym 1 (n)  y (n)   Gi [hi , x(n)] .
(4.54)
i 1
Правую часть (4.53) можно рассматривать как многомерную
взаимную корреляционную функцию:
m


R ym x x (n1 ,..., nm )  M  ym (n) x(n  ni )  ,
i 1


а ее преобразование S ym xx (1 ,..., m ) – как многомерный взаимный спектр разностного ym(n) и входного x(n) сигналов системы.
С использованием данных величин выражение (4.52) для ядер Винера в частотной области может быть записано в следующей эквивалентной форме:
H m (1 ,..., m ) 
S ym x x (1 ,..., m )
m ! S x (1 )   S x (m )
.
(4.55)
Найдем связь взаимного спектра S ym xx (1 ,..., m ) процессов
ym(n) и x(n) с преобразованием Фурье и их реализациями уmN (n)
125
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
и xN (n) длительностью N отсчетов. Используя свойства преобразования Фурье, можно показать справедливость следующего соотношения:
1
N
m



(
,...,
)
(
)



Y
X

m
i 
 m 1
i 1




m
n1 
nm 
i 1
 y x... x ( n ,..., n ) exp(  j  n  ) ,
    R
1
m
i i
m
(4.56)
где Ym() и X()  преобразования Фурье соответственно реализа y x... x (n ,..., n )  оценка многомерной корреций уmN (n) и xN (n); R
1
m
m
ляционной функции, определяемая выражением
 y x... x (n , ..., n )  1
R
m
1
m
N
m
 ymN (n) xN (n  ni ) .
n
i 1
Вычисляя математическое ожидание от обеих частей уравнения (4.56) и устремляя N к бесконечности, получим
m

1 
S ym x... x (1 ,..., m )  lim
M Ym (1  ...  m ) X  (i )  . (4.57)
N  N
i 1


Выражения (4.55) и (4.57) характеризуют ядра Hm(1, ..., m)
Винера как многомерные периодические в комплексном пространстве функции, обладающие свойством симметрии относительно всевозможных перестановок аргументов и свойством комплексно сопряженной симметрии:
H m (1 ,..., m )  H m (1 ,..., m )
(4.58)
относительно начала координат. Рассматривая ядро Hm(1, ..., m)
на одном периоде, область его задания можно определить следующей системой неравенств:
1  ...  m   y   2, 

i   x   2, i  1,..., m, 
(4.59)
где   частота дискретизации; x и y  верхние граничные частоты входного и выходного сигналов системы. Отмеченные обстоятельства дают возможность ограничиться определением ядра
Винера m-го порядка лишь в некоторой области m-мерного куба.
126
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
В заключение следует отметить, что, несмотря на тождественность математической структуры рядов Вольтерра и Винера, последние имеют ряд преимуществ, так как ортогональный базис, во-первых, позволяет существенно упростить определение ядер функционалов, во-вторых, дает возможность увеличения порядка системы без
пересчета ранее полученных ядер и, в-третьих, облегчает статистический анализ характеристик системы и сигналов на его выходе.
4.4. Построение ортогональных функционалов
для класса псевдослучайных сигналов
Опишем статистические свойства псевдослучайного процесса x(n), определяемого дискретным аналогом известного разложения РайсаПирсона вида
Nx
2
x(n)   X (k ) exp( j kn) ,
(6.60)
N
k  N x
задаваемого с помощью высших моментов комплексных коэффициентов X(k) ДПФ. Вследствие симметрии плотности распределения x(n) нечетные моменты X(k) равны нулю. Для моментов четных порядков имеем следующее соотношение:
2
2m

 2m
 2m
1 2m
M  X (ki )  
A(ki )   exp  j  (ki )   d (ki ) ,
m
0
(2
)

i 1
 i 1
 i 1
 i 1

отличное от нуля лишь для тех наборов (k1, ..., k2m), для которых
2m
 (ki )  0 .
i 1
Данное условие выполняется только в том случае, ecли возможно разбиение совокупности {(k1), ..., (k2m)} на m пар
{(ki), (ki)}. Учитывая это, запишем соотношение для первых
двух четных моментов комплексных коэффициентов X(k):
M  X (k1 ) X (k2 )  A2 (k1 )(k1  k2 ) ,
M X (k1 ) X (k2 ) X (k3 ) X (k4 )  A2 (k1 ) A2 (k3 ) J (k1, k3 )(k1  k2 )(k3  k4 ) 
 A2 (k1 ) A2 (k2 ) J (k1 , k2 )(k1  k3 )(k2  k4 ) 
 A2 (k2 ) A2 (k4 ) J (k2 , k4 )(k2  k3 )(k1  k4 ) ,
127
(4.61)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
где коэффициент J(ki, kj) определяется следующим образом:
1 2, ki  k j ;

J (ki , k j )  
1, ki  k j
и исключает повторный учет одной и той же комбинации. Так,
например, для момента M{X(k)X*(k)X*(k)X(k)} вклад в (4.61) дают первое и второе слагаемые. Введение нормализующих коэффициентов J(ki, kj) позволяет получить правильный результат, равный A4(k).
Можно показать, что в общем случае соотношение для четных моментов X(k) имеет вид
m
2m

M  X (ki )    J (ki1 ,..., kim )  A2 (kir )(kir  k jr ) .
r 1
 i 1

(4.62)
Здесь суммирование выполняется по различным разбиениям
совокупности индексов {k1, ..., k2m} на m пар {kir , k jr } , а коэффициент J (ki1 ,..., kim ) равен 1/n1!...nm!, где ni  количество аргументов из
{ki1 ,..., kim } , имеющих одинаковые абсолютные значения, например
J(1, 1, 1, 2, 2) = 1/3!2!.
Полученная статистика позволяет наиболее просто выполнить процедуру ортогонализации в частотной области, определяя
условие ортогональности следующим образом:


M Gi [ H i , X (k )]  Gj [ H j , X (k )]  0, i  j ,
(4.63)
где Gi[Hi, X(k)]  изображение Фурье Gi[hi, x(n)] как функции от n.
Заметим, что из (4.63) следует также ортогональность функционалов во временной области в смысле (4.40), так как
 N 1

 N 1

M   Gi [ H i , X (k )]  Gj [ H j , X (k )]  M   Gi [hi , x(n)]  G j [h j , x(n)] .
 k 0

 n 0

Воспользуемся далее известным алгоритмом ГрамаШмидта
[50]. В качестве элементов системы линейно независимых функций возьмем дискретные однородные функционалы:
Fm [ hm , x ( n )] 
m
 hm ( n1 ,..., nm ) x ( n  ni ) ,
i 1
n1 ,..., nm
128
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
которые в частотной области могут быть записаны в виде
m
Fm [ H m , X (k )]   H m (k1 ,..., km )(k  k1    km ) X ( ki ) .
i 1
k1 ,..., km
В данных выражениях и далее для обозначения кратных
сумм
N 1
N 1
n1  0
nm  0

и
Nx
Nx
k1  N x
km  N x
  
используются следующие сокращенные обозначения:
 и  .
n1 ,..., nm
k1 ,..., km
Положим G0  0k и найдем функционал первого порядка:
G1[ H1 , X (k )]  H10 (k )  H1 ( k ) X (k ) ,
ортогональный к G0:


M G1  G0  H10 (k )  0 .
Следовательно, H10  0, и ортогональный функционал
G1[H1, X(k)] будет равен
G1[ H1 , X (k )]  H1 (k ) X (k ) .
(4.64)
Найдем далее функционал второго порядка:
G2 [ H 2 , X (k )]  H 20 (k )  H 21 (k ) X (k ) 

 H 2 (k1 , k2 )(k  k1  k2 ) X (k1 ) X (k2 ) ,
k1 , k2
ортогональный к G0 и G1[H1, X(k)]. Используя соотношение (4.62)
для моментов комплексных коэффициентов X(k) и условие (4.63)
ортогональности, получим


M G2  G0   H 20   H 2 (k1 ,  k1 )A2 (k1 )  (k )  0 ,


k1






M G2  G1  H1* (k ) H 21 (k ) A2 (k )  0 .
129
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Так как ядро H1(k)  произвольная функция, то
H 20 (k )   H 2 (k1 ,  k1 )A2 ( k1 ) , H 21 (k )  0 ,
k1
и выражение для функционала G2[H2, X(k)] принимает вид
G2 [ H 2 , X (k )] 
 H 2 (k1 , k2 )(k  k1  k2 ) X (k1 ) X (k2 ) 
k1 , k2
 H 2 (k1 , k1 )A2 (k1 )(k ) .
k1
Данное соотношение может быть также записано в следующей форме:
G2 [ H 2 , X (k )]   H 2 (k1 , k2 )(k  k1  k2 ) 1  (k1  k2 ) X (k1 ) X (k2 ) 
k1 , k2
 H 2 (k1 , k2 ) (k  k1  k2 ) X ( k1 ) X ( k2 ) ,

(4.65)
k1 , k2
где H 2 (k1 , k2 )  функция, тождественно равная нулю на диагонали
k1   k2 и H2(k1, k2) – в остальных точках.
Определим функционал G3[H3, X(k)] третьего порядка в виде
G3[ H 3 , X (k )]  H 30 (k )  H 31 (k ) X (k ) 

 H 32 (k1 , k2 ) (k  k1  k2 ) X (k1 ) X (k2 ) 
k1 , k2
 H 3 (k1 , k2 , k3 ))(k1  k2  k3 ) X (k1 ) X (k2 ) X (k3 )

k1 , k2 , k3
и вычислим математическое ожидание от произведения данного
функционала на ортогональные функционалы меньших порядков:


M G3  G1  H1 (k ) A2 ( k )  H 31 (k )  3 H 3 ( k , k1 ,  k1 )J (k , k1 ) A2 (k1 )  ,
k1






M G3  G2  2
 H 32 (k1 , k2 )H 2 (k1 , k2 ) A2 (k1 ) A2 (k2 )(k  k1  k2 ) 
k1 , k2
 2  (k1  k2 )1  (k1  k2  .
130
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Приравнивая полученные математические ожидания нулю,
получим искомые ядра ортогонального функционала третьего порядка:
H 31 (k )  3 H 3 (k , k1 ,  k1 ) J (k , k1 )A2 (k1 ) , H 32 (k )  0 .
k1
Тогда выражение для ортогонального функционала G3[H3, X(k)]
примет вид
G3[ H3 , X (k )] 
 H3 (k1, k2 , k3 )(k  k1  k2  k3 )X (k1 ) X (k2 ) X (k3 ) 
k1 ,k2 ,k3
 3 H 3 (k , k1 , k1 )J (k , k1 ) A2 (k1 ) X (k ) .
k1
Данный функционал может быть записан в следующей форме:
G3[ H 3 , X (k )] 
 H 3 (k1 , k2 , k3 )(k  k1  k2  k3 ) 
k1 , k2 , k3
1  (k1  k2 )1  (k1  k3 )1  (k2  k3 ) X (k1 ) X (k2 ) X (k3 ) 
 H 3 ( k1 , k2 , k3 )( k  k1  k 2  k3 ) X ( k1 ) X ( k2 ) X ( k3 ) ,

k1 , k 2 , k3
где H 3 (k1 , k2 , k3 )  функция, тождественно равная нулю на диагоналях k1  k2, k1  k3, k2  k3 и H3(k1, k2, k3) – в остальных точках.
Аналогичным образом могут быть получены ортогональные
функционалы более высоких порядков. В общем случае ортогональный функционал m-го порядка будет иметь вид
Gm [ H m , X (k )] 
=
m
 H m (k1 ,, km ) (k  k1  ...  km ) 1  (kr  k j )  X (ki ) 
i 1
k1 ,, km

m
 H m (k1 ,, km ) (k  k1  ...  km ) X (km ) ,
(4.66)
i 1
k1 ,, km
где  [1 (kr  kj] означает произведение m(m  1)/2 сомножителей, образованных всевозможными сочетаниями (r, j) из совокупности элементов {1, ..., m}; H m (k1 ,, km )  ядро, тождественно
равное нулю, если хотя бы два аргумента равны по модулю и
имеют противоположные знаки.
131
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Ядра Винера полученной модели, оптимальные в среднеквадратическом смысле, определим из уравнения (4.41), которое в
частотной области имеет вид



2
M  Gm [ H m , X (k )]   M  Y (k )Gm [ H m , X (k )] ,
k

k

(4.67)
где Y(k)  ДПФ выходного сигнала системы.
Подставляя в (4.67) выражение для ортогонального функционала нулевого порядка, получим




M  H 02 (k )   M  Y (k ) H 0 (k )  ,
k

k

и, следовательно, H 0  M Y (0) .
Полагая далее в (4.67) m  1 и учитывая (4.64), запишем
уравнение, определяющее ядро Винера первого порядка:
 H1 (k ) H1 (k ) A2 (k )  H1 (k )A2 (k1 ) M Y (k ) X * (k ) ,
k
k
из которого следует, что
H1 ( k ) 

.
M Y (k ) X  (k )
A2 ( k )
Определим ядро Винера второго порядка. Подставляя в
уравнение (4.67) выражение (4.65) для ортогонального функционала G2[H2, X(k)], после несложных преобразований получим
2!  H 2 (k1 , k2 ) H 2 (k1 , k2 ) A2 (k1 ) A2 (k2 ) J ( k1 , k2 ) 
k1 , k2

 H 2 (k1 , k2 ) M Y (k1  k2 ) X  (k1 ) X  (k2 ) .
k1 , k2
Из рассмотрения данного уравнения имеем
H 2 (k1 , k2 ) 
1  (k1  k2 ) M Y (k1  k2 ) X  (k1 ) X  (k2 )
2! J (k1 , k2 ) A2 (k1 ) A2 (k2 )
.
Таким же образом может быть получено уравнение, определяющее ядро Винера m-го порядка:
132
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
m
m!  нm (k1 , , km ) H m (k1 , , km ) J (k1 , , km ) A2 (ki ) 
i 1
k1 ,, km

m
*


*



H
(
k
,...,
k
)M
Y
(
k
...
k
)
 m 1 m  1
m  X ( ki )  , ,
k1 ,...,km
i 1


анализ которого приводит к следующему результату:
H m (k1 ,, km ) =

где
 1  (kr  k j )  M Y (k1    km ) X * (k1 )   X * (km )
m ! J (k1 , , km ) A2 (k1 )   A2 (km )
,
(4.68)
 1  (kr  k j )  имеет тот же смысл, что и в (4.66).
Полученные выражения (4.66) и (4.67) для ортогональных
функционалов и ядер Винера могут быть записаны в более простом виде, если принять во внимание свойство симметрии ядер
Hm(k1, ..., km) относительно перестановки аргументов и определить
опорную область Dm как множество всевозможных сочетаний индексов (k1, ..., km) из совокупности чисел {  N x ,..., 1,1,..., N x }, таких, что ki  kj . Тогда на основании (4.68) ортогональный функционал m-го порядка можно представить следующим образом:
Gm [ H m , X (k )] 
 m! J (k1 ,, km ) H m (k1 ,, km ) 
Dm
m
(k  k1  ...  km ) X (ki ) .
(4.69)
i 1
Так как выражения (4.68) и (4.69) содержат один и тот же
множитель m! J(k1, ..., km), они допускают дальнейшее совместное
упрощение и приобретают следующий окончательный вид:
Gm [ H m , X (k )] 
m
 H m (k1 ,, km )(k  k1  ...  km ) X (ki ) ,
i 1
Dm
H m (k1 , , km ) 

.
M Y (k1    km ) X * (k1 )   X * (km )
A2 (k1 )   A2 (km )
133
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
5. Математические модели
на базе нейронных сетей
5.1. Биологический и искусственный нейроны
Искусственные нейронные сети (ИНС) представляют собой
математические модели, в основе которых лежат современные
представления о строении мозга человека и происходящих в нем
процессах обработки информации. ИНС уже сейчас нашли широкое применение в задачах сжатия информации, оптимизации, распознавания образов, построения экспертных систем, обработки
сигналов и изображений и т.д. [55].
Процессы обработки информации человеком и ЭВМ существенно отличаются. Компьютер способен выполнять сложные вычисления с колоссальной скоростью и в то же время оказывается
бессильным перед решением типичных «человеческих» задач.
Человек не может вычислять со скоростью компьютера, но от рождения наделен способностью к образному восприятию внешнего
мира и общению на естественном языке. Время цикла обработки
единицы информации в современном компьютере составляет всего лишь 1 нс, в то время как среднее время цикла для нейронов
мозга равно приблизительно 1 мс. Таким образом, мозг человека
уступает по быстродействию компьютеру в миллион раз и тем не
менее способен решать такие задачи, перед которыми компьютер
оказывается бессильным. Причина кроется в разных принципах
обработки информации.
Если в компьютере обработка информации происходит последовательно под управлением некоторого алгоритма, то у человека процесс обработки информации протекает параллельно.
Человеческий мозг можно представить себе как громадное количество параллельно работающих процессоров (нейронов), имеющих распределенное управление и многочисленные связи между
собой. В отличие от традиционного компьютера, работа мозга не
подчиняется некоторому центральному процессору. Каждый нейрон функционирует вполне автономно и может повлиять лишь на
нейроны, непосредственно с ним связанные.
Как известно, данные в компьютере хранятся в специальном
блоке памяти. Память же человека носит распределенный и ассо134
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
циативный характер. Этим, в частности, можно объяснить удивительные способности человеческой памяти. Например, когда вам
называют совершенно незнакомое для вас слово, вы мгновенно
даете ответ, что его не знаете, в то время как компьютер при поиске ответа на запрос потратит некоторое время, необходимое для
просмотра всего объема хранимой информации. Другой особенностью нашей памяти является способность к обобщению и накоплению новой информации без разрушения старой. Информация в
мозге человека хранится в виде многочисленных связей между
нейронами. Этим достигается также высокая степень надежности,
обеспечивающая сохранение функций мозга даже при разрушении
некоторой его части.
Таким образом, исследования в области ИНС призваны объяснить подобные загадки человеческого мозга и построить модели, имитирующие его деятельность. Принципы построения таких
моделей и основанных на них вычислительных машин (ЭВМ шестого поколения или нейрокомпьютеров), естественно, будут существенно отличаться от существующих. Но, скорее всего, ЭВМ нового поколения будут совмещать в себе как способность быстрого
счета, так и способности человека, к которым следует отнести
распознавание речевых и визуальных образов, принятие решений
в нечетких ситуациях (интуиция), предсказание результатов по
ограниченным выборкам данных (предвидение).
Возникновение ИНС связано с исследованиями в области
биологии, в частности, с изучением мозговой деятельности. Однако сейчас развитие ИНС уже вышло далеко за пределы имитации
биологических прототипов. Такая ситуация во многом типична
для развития науки. Вспомнить хотя бы историю создания летательных аппаратов, когда простая имитация полета птиц не могла
решить проблемы, до тех пор пока не был изобретен аппарат тяжелее воздуха. Тем не менее полезно все же иметь представление
о биологическом нейроне [55], являющемся прототипом искусственных нейронов.
Нервная система человека состоит из огромного количества
связанных между собой нейронов (порядка 1011). Количество связей исчисляется числом 1015. На рис. 5.1 схематично представлена
пара биологических нейронов.
135
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Рис. 5.1. Биологические нейроны
Работа нейронов нашего мозга состоит в том, что они обмениваются сигналами с другими нейронами, образуя так называемые нейронные (нервные) сети. Нейроны характеризуются неправильным очертанием и многочисленным количеством отростков.
Эти отростки – живые «провода», с помощь которых образуются
нейронные сети. Нервная клетка имеет один главный отросток,
называемый аксоном, по которому она передает информацию другим нейронам. Другие отростки нейрона называются дендридами
(от греч. слова dendron – «дерево») и предназначены для приема
информации от других нейронов. Места соединения – специфические точки на поверхности нервных клеток, где происходит контакт, называются синапсами. Сигналы, принятые синапсами, подводятся к телу нейрона, где они суммируются. При этом одни
входные сигналы стремятся возбудить нейрон, а другие – воспрепятствовать его возбуждению. Когда суммарное возбуждение превысит некоторый порог, нейрон переходит в возбужденное состояние и посылает по аксону сигнал другим нейронам. Конечно,
деятельность биологического нейрона не ограничивается такой
простой схемой. Тем не менее именно это упрощенное представление лежит в основе построения искусственных нейронных
сетей.
Искусственный нейрон, представляющий собой математическую модель биологического нейрона, представлен на рис. 5.2.
136
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
a1
ai
j
w1j
bj
wij

wnj
f
an
Рис. 5.2. Искусственный нейрон
На его входы поступает множество сигналов ai с выходов других нейронов, которые образуют входной вектор a = [a1 a2 ... an].
Все сигналы, умноженные на соответствующие весовые коэффициенты wij, суммируются. Такие коэффициенты образуют весовой
вектор wj = [w1j w2j, ..., wnj], где коэффициент wij соответствует связи от i-го нейрона к j-му нейрону. Результат суммирования поступает на пороговый элемент, характеризуемый величиной порога j
и некоторой функцией активации f. Таким образом, сигнал bj на
выходе нейрона j может быть представлен в виде
 n

b j  f   ai wij   j  ,
 i 1

(5.1)
или в матричной форме:
bj = f(aTwj – j).
(5.2)
В качестве функций активации в нейронных моделях могут
использоваться различные функции. На рис. 5.3 показаны наиболее часто используемые функции активации, а именно:
а) линейная функция f(x) = x, эквивалентная отсутствию порогового элемента вообще;
б) кусочно-линейная функция, получаемая из линейной
ограничением диапазона ее изменения в пределах диапазона
[–, +], т.е.
 , x  ;

(5.3)
f ( x )   x , x  ;

 , x  .;
137
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
f(x)
f(x)
f(x)
x
x
x
а)
б)
в)
S(x)
S(x)
x
г)
x
д)
Рис. 5.3. Функции активации
в) ступенчатая пороговая функция
, x  0;
f ( x)  
 , x  0;
(5.4)
S(x) = 1 / (1 + e–x);
(5.5)
г) сигмоидная функция
д) гиперболический тангенс
S(x) = tanh(x).
(5.6)
5.2. Структуры нейронных сетей
Существует множество способов организации ИНС, которые
могут содержать различное число слоев нейронов. Нейроны могут
быть связаны между собой как внутри отдельных слоев, так и между слоями. В зависимости от направления связи могут быть прямыми или обратными. Слой нейронов, непосредственно принимающий информацию из внешней среды, называется входным
138
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
слоем, а слой, передающий информацию во внешнюю среду, –
выходным слоем. Любой слой, лежащий между ними, называется
промежуточным слоем и не имеет непосредственного контакта с
внешней средой. На рис. 5.4 представлены четыре примера организации нейронных сетей: а) однослойная структура с обратными
связями; б) двухслойная структура с прямыми связями; в) двухслойная структура с обратными связями; г) трехслойная структура
с прямыми связями.
a1
a1
b1
ai
bj
an
bp
ai
aj
an
а)
б)
a1
b
a1
b1
c1
ai
bj
ai
bj
ck
an
bp
an
bp
cq
в)
г)
Рис. 5.4. Структуры нейронных сетей
5.3. Организация памяти и принципы обучения
Одной из основных характеристик, присущих ИНС, является
память. Отдельные информационные единицы, хранимые в ИНС,
называются образами. Различают два типа памяти: оперативная
139
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
память (память с произвольной выборкой) и ассоциативная память. Оперативная память используется в традиционных ЭВМ
последовательного действия и осуществляет выборку данных по
адресам. Ассоциативная память осуществляет отображение данных в адреса или данных в данные. В ИНС используется последний тип памяти как наиболее быстродействующий, причем физически функцию памяти выполняют весовые коэффициенты сети,
соответствующие многочисленным связям между нейронами.
Существуют два механизма отображения данных в памяти
ИНС: автоассоциативный и гетероассоциативный. В первом
случае ИНС хранит лишь образы A1, A2, ..., An. Во втором случае
сеть хранит пары образов (A1, B1), (A2, B2), ..., (An, Bn). Гетероассоциативное отображение можно рассматривать как действие некоторой функции g, которая, используя матрицу весовых коэффициентов сети W и некоторый входной образ Ai, извлекает из памяти
соответствующую ему пару Bi, т.е. g(Ai, W) = Bi. Если предъявляемый входной образ A отличен от любого из (A1, A2, ..., An), то реакция сети может определяться или принципом ближайшего соседа
g(A  Ai, W) = Bi, или путем интерполяции g(A = Ai + , W) = Bi + ,
выполняемой по всем парам образов (Ai, Bi), i = 1, ..., n.
Одним из самых замечательных свойств нейронных сетей
является их способность обучаться. Несмотря на то, что процесс
обучения сети отличается от обучения человека в привычном нам
смысле, в результате такого обучения достигаются поразительно
похожие результаты. Так, например, магнитофонные записи процесса обучения системы NetTalk [67], предназначенной для превращения английского текста в высококачественную речь, показали, что она сильно напоминала звуки ребенка на разных этапах
обучения речи.
Цель обучения нейронной сети состоит в ее настройке на заданное поведение. Наиболее распространенным подходом для
обучения сети является коннекционизм [21]. Он предусматривает
обучение сети путем настройки значений весовых коэффициентов wij, соответствующих различным связям между нейронами.
Матрица W весовых коэффициентов wij сети называется синаптической картой.
Существует два вида обучения нейронных сетей: обучение с
учителем и обучение без учителя [55]. Обучение с учителем предполагает, что обучение происходит путем предъявления сети по140
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
следовательности обучающих пар (примеров) (Ai, Di), i = 1, ..., m,
образов, называемой обучающей последовательностью. При этом
для каждого входного образа Ai вычисляется реакция Bi сети и
сравнивается с соответствующим целевым образом Di. Полученное
рассогласование используется алгоритмом обучения для корректировки синаптической карты таким образом, чтобы уменьшить
ошибку рассогласования. Такая адаптация производится путем циклического предъявления обучающей выборки до тех пор, пока
ошибка рассогласования не достигнет достаточно низкого уровня.
Хотя процесс обучения с учителем понятен и широко используется во многих приложениях нейронных сетей, он все же не
полностью соответствует реальным процессам, происходящим в
мозге человека в процессе обучения. Действительно, трудно себе
вообразить, что в процессе обучения наш мозг использует какието данные свыше образы и постоянно корректирует свое поведение по заданным эталонам. Скорее всего мозг, используя поступающую информацию, сам осуществляет ее обобщение в некоторые
классы и коррекцию своей деятельности путем анализа допускаемых ошибок. В случае обучения без учителя обучающая последовательность состоит лишь из входных образов Ai. Алгоритм обучения
настраивает веса так, чтобы близким входным векторам соответствовали одинаковые выходные векторы, т.е. фактически осуществляет разбиение пространства входных образов на классы. При этом
до обучения невозможно предсказать, какие именно выходные образы будут соответствовать классам входных образов. Установить
такое соответствие и дать ему соответствующую интерпретацию
оказывается возможным лишь после обучения сети.
Обучение нейронной сети можно рассматривать как непрерывный или как дискретный процесс. В соответствии с этим алгоритмы обучения могут быть описаны либо дифференциальными
уравнениями, либо конечно-разностными. Использование дифференциальных уравнений предполагает моделирование нейронной
сети на аналоговой технике. Достоинством такого подхода является высокая скорость настройки нейронной сети. Однако сложность обеспечения коррекции синаптической карты и ограничения
на выбор алгоритма обучения сдерживают использование аналоговых нейронных сетей па практике. Поэтому в настоящее время
нейронные сети реализуются, как правило, на цифровых элементах с использованием алгоритмов обучения в виде конечно-разностных уравнений. Физически нейронная сеть может представлять из
141
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
себя специализированный параллельный процессор или программу,
эмулирующую нейронную сеть на последовательной ЭВМ.
У истоков различных алгоритмов обучения нейронных сетей
стоит концепция Хэбба [61]. Он предложил простой алгоритм обучения без учителя, в котором значение веса wij, соответствующее
связи между i-м и j-м нейронами, возрастает, если они оба находятся в возбужденном состоянии. Другими словами, в процессе
обучения происходит коррекция связей между нейронами в соответствии со степенью корреляции их состояний. Это можно выразить в виде следующего конечно-разностного уравнения:
wij(t + 1) = wij(t) + ai(t)aj(t),
(5.7)
где wij(t) и wij(t + 1) – значения веса связи нейрона i с нейроном j
до настройки (на шаге t) и после настройки (на шаге t +1) соответственно; ai(t) – выход нейрона i на шаге t; aj(t) – выход нейрона j на
шаге t;  – параметр скорости обучения.
Задачу обучения нейронной сети можно рассматривать как
задачу минимизации некоторой целевой функции [21]
min F ( W ),
W
(5.8)
где W – синаптическая карта нейронной сети.
При такой интерпретации для обучения ИНС могут быть использованы различные алгоритмы нелинейного программирования, такие как градиентный, квазиньютоновский, случайный поиск и т.д. При выборе алгоритма следует учитывать, что для такой
задачи оптимизации характерно большое количество параметров,
которое может достигать 108 и более, а также сильная изрезанность оптимизируемой функции и наличие локальных минимумов.
Рациональный выбор целевой функции F(W) и алгоритма для его
минимизации во многом определяет успех в обучении сети.
Например, в задаче распознавания образов обучение сети
можно проводить следующим образом. Если имеется m образов,
то количество нейронов в выходном слое целесообразно также
выбрать равным m. Будем считать распознавание i-го образа успешным тогда, когда на i-м выходном нейроне присутствует 1, а на всех
остальных –1. Тогда целевую функцию можно определить так:
2
Fi  (bi  1) 
m
 (b j  1)2 ,
j 1, j  i
где bi – сигнал на выходе i-го нейрона.
142
(5.9)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Иногда оказывается полезным смягчить требования к выходным сигналам сети [26]. Будем считать, что сеть распознала
i-й образ, если сигнал bi на выходе нейрона i превосходит сигналы
на остальных нейронах. Обозначим через Ei множество векторов
b = [b1, b2, ..., bm], таких, что bi > bj для всех j  i, а через ei –
m-мерный вектор, у которого i-я координата равна 1 при равенстве 0
всех остальных. Тогда в качестве целевой функции Fi можно взять
евклидово расстояние выходного образа сети до множества Ei:
Fi  dist(b  ei , Ei ) ,
(5.10)
где  – требуемая степень превышения i-го выходного сигнала над
остальными.
Наряду с выбором алгоритма обучения не менее важным
является стратегия обучения сети. Возможным подходом является последовательное обучение сети на серии примеров (Ai, Bi),
i = 1, 2, ..., m, составляющих обучающую выборку. При этом сеть
сначала обучают правильно реагировать сначала на первый образ A1, затем на второй A2 и т.д. Однако при данной стратегии
возникает опасность утраты сетью ранее приобретенных навыков
при обучении каждому следующему примеру, т.е. сеть может «забыть» ранее предъявляемые примеры. Для того чтобы этого не
происходило, необходимо обучать сеть сразу всем примерам из
обучающей выборки. В этом случае задача обучения, строго говоря, становится многокритериальной, так как необходимо одновременно оптимизировать сразу по нескольким критериям (по каждому примеру). Так как решение такой задачи сопряжено с большими сложностями, разумной альтернативой является минимизация целевой функции вида
m
F ( W )   i Fi ( W ) ,
(5.11)
i 1
где i – параметры, определяющие требования к качеству обучения сети по каждому из примеров, такие, что 1 + 2 + ... + m = 1.
Общий принцип построения алгоритмов обучения ИНС, основанных на принципах оптимизации, заключается в следующем
[26]. Для некоторого начального состояния W(0) синаптической
карты определяется направление уменьшения целевой функции и
находится ее минимум в этом направлении. При этом используется один из методов одномерной оптимизации, например метод золотого сечения, параболической интерполяции и т.п. [56]. Для по143
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
лученной точки опять находится направление убывания функции
и осуществляется одномерная оптимизация в данном направлении
и т.д. Таким образом, алгоритм обучения имеет вид
W(t + 1) = W(t) + tpt,
(5.12)
где pt и t – направление поиска и величина шага на шаге t алгоритма.
Различные алгоритмы отличаются друг от друга лишь выбором направления pt поиска. В частности, для градиентного алгоритма вектор p противоположен вектору градиента, т.е. p = –F / W.
5.4. Персептрон
Персептрон, являющийся одной из первых попыток создания
ИНС, был предложен Розенблатом [41]. Персептрон, структура
которого показана на рис. 5.5, имеет два слоя.
a1
ah
b1
wi1
wij
bi
wiq
an
bp
w
Fa
Fb
Рис. 5.5. Персептрон
Входной слой Fa обеспечивает прием входных образов
Ak = (a1k, ..., ank), k = 1, ..., m, а выходной слой Fb состоит из нейронов со ступенчатой функцией активации и обеспечивает формирование выходных бинарных образов Bk = (b1k, ..., bpk), принимающих
значения 0 или 1.
144
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Теоретическое доказательство способности персептрона
обучиться всему, чему его обучают, стимулировали его дальнейшие исследования. В то же время результаты Минского [41], суть
которых сводилась к тому, что персептрон с одним слоем нейронов способен представлять лишь ограниченный класс линейно
разделимых образов, развеял иллюзии насчет возможностей персептрона, и работы в данном направлении практически были прекращены.
Для того чтобы продемонстрировать суть проблемы, рассмотрим простейший персептрон для решения задачи дихотомии,
т.е. классификации образов на два класса в случае двух признаков.
Тогда выходной слой персептрона будет состоять всего лишь из
одного нейрона вида
b = f(w1a1 + w2a2 – ),
(5.13)
где b – выход нейрона; f – ступенчатая функция активации;  – значение порога.
Предположим для упрощения, что входные сигналы ai,
i = 1, 2, (признаки) принимают бинарные значения 0 или 1.
В этом случае пространство входных признаков состоит из четырех возможных комбинаций: (0,0); (0,1); (1,0); (1,1) и может быть
представлено на плоскости, как это сделано на рис. 5.6.
a1
(1,1)
(1,0)
w1a1 + w2a2 = 
(0,0)
(0,1)
a2
Рис. 5.6. Линейная разделяющая функция
В зависимости от конкретных значений весов w1, w2 и порога  уравнение
(5.14)
w1a1 + w2a2 = 
145
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
будет определять некоторую прямую, разбивающую плоскость признаков на две части, соответствующие двум классам выходных образов. Из приведенного рисунка очевидно, что возможности персептрона ограничены классом линейно разделимых образов. В частности, персептрон не способен реализовать функцию «исключающее
ИЛИ», принимающую значение 0 при равных значениях аргументов
и 1 для всех остальных комбинаций. В этом случае разделяющая
прямая должна проходить таким образом, чтобы точки (0,0), (1,1) находились по одну сторону прямой, а точки (1,0), (0,1) – по другую,
что невозможно. Наши рассуждения останутся справедливыми и в
случае наличия произвольного числа признаков и выходных классов.
Только в данной ситуации разделяющая функция будет представлять из себя гиперплоскость в n-мерном пространстве признаков.
Как уже отмечалось, персептрон способен обучиться всему
тому, что он может представлять, т.е. способен обучаться в классе
линейно разделимых функций. Для обучения персептрона используется процедура обучения с учителем, которая подстраивает синаптическую карту по ошибкам, измеряемым на выходах нейронной сети. Такая процедура состоит из следующих шагов:
1. Начальная инициализация весовых коэффициентов сети и
пороговых значений всех нейронов случайными числами, принимающими значения в интервале [–1, +1]:
wij(0) = r,
j = r, i = 1, 2, ..., n; j = 1, 2, ..., p.
2. Выполнение следующих действий для каждого примера
(Ak, Bk), k = 1, 2, ..., m, из обучающей выборки.
2.1. Активация входного слоя Fa вектором Ak, т.е. ai = aik,
i = 1, 2, ..., n.
2.2. Вычисление сигналов на выходе нейронов выходного
слоя Fb согласно выражению
n
b j  f (  wij ai   j ) , j = 1, 2, ..., p,
(5.15)
i 1
где ступенчатая функция активации f(x) = 1, если x > 0, и f(x) = 1 
в противном случае.
2.3. Вычисление ошибки между вычисленными выходными
величинами bj нейронов и компонентами желаемого выходного
образа Bk обучающей выборки:
ej = (bjk – bj), j = 1, 2, ..., p.
146
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
2.4. Корректировка весовых коэффициентов согласно соотношению
wij(t + 1) = wij(t) + аiej, i = 1, 2, ..., n, j = 1, 2, ..., p,
(5.16)
где параметр  определяет скорость обучения.
3. Повторение шага 2 алгоритма до тех пор, пока ошибки ej,
j = 1, ..., n, не станут достаточно малой величиной для всех обучающих примеров (Ak, Bk), k = 1, 2, ..., m.
Трудности, связанные с использованием персептрона на
практике, состоят в том, что затруднительно заранее проверить условие линейной разделимости и предсказать время обучения сети.
Ниже будут рассмотрены более современные парадигмы нейронных
сетей, в которых указанные проблемы были частично решены.
5.5. Алгоритм обратного
распространения ошибки
Недостаток персептрона, связанный с ограничением представляемых функций, относящихся к классу линейно разделимых,
может быть легко преодолен введением в сеть промежуточных
слоев. Так, например, нейронная сеть с одним промежуточным
слоем, показанная на рис. 5.7, уже способна классифицировать ограниченные и неограниченные выпуклые области. Напомним, что
область называется выпуклой, если отрезок, соединяющий две
любые точки этой области, полностью ей принадлежит.
a1
ah
an
Fa
vh1
vhi
vhp
b1
bi
bp
V
Fb
wi1
wij
wiq
W
c1
cj
cq
Fc
Рис. 5.7. Многослойная нейронная сеть
обратного распространения ошибки
147
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Покажем возможности нейронной сети с одним промежуточным слоем. Каждый нейрон этого слоя будет характеризоваться некоторой разделяющей поверхностью в пространстве параметров. Выбирая соответствующие веса в выходном слое сети, мы
можем образовывать из этих плоскостей различные выпуклые области, как это, например, показано на рис. 5.8, для случая двух
входных признаков (на плоскости), четырех нейронов в промежуточном слое и двух нейронов в выходном слое.
a1
a2
Рис. 5.8. Разделение пространства признаков нейронной сетью
с одним промежуточным слоем
Возможности нейронной сети можно увеличивать введением
новых промежуточных слоев. Так, возможности сети с двумя промежуточными слоями уже не ограничены только выпуклыми областями. В таких сетях нейроны выходного слоя позволяют образовывать из выпуклых областей предыдущего слоя более сложные
невыпуклые области, которые могут быть изолированы друг от
друга. Таким образом, выбором достаточно большого количества
нейронов можно, в принципе, аппроксимировать многомерные
области произвольной формы. Возможности многослойных нейронных сетей известны давно. Однако их развитие долгое время
сдерживалось отсутствием теоретически обоснованного алгоритма
обучения. Важную роль в возрождении интереса к нейронным сетям сыграл алгоритм обратного распространения ошибки
(backpropagation algorithm) [55]. Этот алгоритм предназначен для
обучения нейронных сетей с многослойной структурой, показанной на рис. 5.7, причем количество промежуточных слоев
148
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
может быть произвольным. Требования накладываются только
на вид функции активации нейронов, которая должна быть дифференцируема. Обычно используется сигмоидная функция вида
y = 1 / (1 + ex), производная которой имеет простой вид: y  y (1  y ) .
Для того чтобы понять суть алгоритма, рассмотрим нейронную сеть с одним промежуточным слоем Fb, показанную на рис. 5.7.
Тогда сигналы на выходе нейронов промежуточного слоя и на выходе сети в целом (на выходе слоя Fc) формируются в соответствии с выражениями
 n

bi  S   ah vhi  i  , i = 1, 2, ..., p;
 h 1

(5.17)
 p

c j  S   bi wij   j  , j = 1, 2, ..., q.
 i 1

(5.18)
Обучение сети осуществляется с учителем, т.е. сети последовательно предъявляются обучающие примеры (Ak, Dk), k = 1, 2, ..., m,
и производится настройка синаптической карты таким образом,
чтобы выходы Ck сети были как можно ближе к заданным образам
Dk для каждой обучающей пары. Сформулируем задачу обучения
сети как оптимизационную задачу: минимизировать квадрат нормы разности векторов
min Dk  Ck
2
.
(5.19)
В случае евклидовой нормы даннoe выражение может быть
записано в виде
min Fk 
q
 (d kj  c j )2 .
(5.20)
j 1
Для минимизации данной функции воспользуемся градиентным алгоритмом поиска. Для этого необходимо предварительно
найти производные по параметрам сети. Используя правило дифференцирования сложной функции, получим
Fk
 2bi e j ,
wij
Fk
 2ah  j ,
vhj
149
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Fk
 2e j ,
 j
Fk
 2e j ,
i
(5.21)
где ошибки ej и i определяются выражениями
ej = cj(1 – cj)(djk – cj),
q
i  bi (1  bi )  wij e j .
(5.22)
(5.23)
j 1
В соответствии с полученными выражениями для ошибок в
процессе обучения сети сначала вычисляются ошибки ej выходного слоя. Затем осуществляется продвижение вдоль сети в обратном направлении и вычисляются ошибки i промежуточного слоя.
Полученные ошибки используются для вычисления градиентов,
служащих для коррекции весовых коэффициентов и пороговых
величин нейронной сети. Именно поэтому такой алгоритм обучения сети называется алгоритмом обратного распространения
ошибки. Он состоит из следующих шагов:
1. Начальная инициализация всех весовых коэффициентов и
пороговых величин случайными числами r:
vhi(0) = r,
i(0) = r, h = 1, 2, ..., n, i = 1, 2, ..., p,
wij(0) = r,
j(0) = r, i = 1, 2, ..., p, j = 1, 2, ..., q,
где wij – весовой коэффициент, соответствующий связи от i-го
нейрона в слое Fb к j-му нейрону в слое Fc; i – пороговая величина i-го нейрона слоя Fb; vhi – весовой коэффициент, соответствующий связи от h-го входа (слой Fa) к i-му нейрону в слое Fb; j – пороговая величина j-го нейрона в слое Fc; r – случайные числа в
диапазоне [–1,1].
2. Выполнение следующей последовательности действий для
каждой пары (Ak, Dk), k = 1, 2, ..., m, из обучающей выборки:
2.1. Активация входного слоя Fa входным вектором Ak, т.е.
ah = ahk, h = 1, 2, ..., n.
150
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
2.2. Вычисление выходных величин нейронов слоя Fb согласно выражению
 n

bi  S   ah vhi  i  , i = 1, 2, ..., p,
(5.24)
 h 1

где S(x) – функция активации вида 1 / (1 + e–x).
2.3. Вычисление выходных величин нейронов слоя Fс согласно выражению
 p

c j  S   bi wij   j  , j = 1, 2, ..., q.
 i 1

(5.25)
2.4. Вычисление ошибки между вычисленными выходными
величинами cj нейронов и компонентами желаемого выходного
вектора Dk обучающей выборки:
ej = cj(1 – cj)(djk – cj), j = 1, 2, ..., q.
(5.26)
2.5. Пересчет величины ошибки для всех нейронов слоя Fb:
q
i  bi (1  bi )  wij e j , i = 1, 2, ..., p.
(5.27)
j 1
2.6. Корректировка весовых коэффициентов и пороговых величин в направлении, противоположном градиенту, согласно следующим соотношениям:
wij( t + 1) = wij(t) + biej,
j(t + 1) = j(t) + ej, i = 1, 2, ..., p, j = 1, 2, ..., q, (5.28)
vhi(t + 1) = vhi(t) + ahi,
i(t + 1) = i(t) + i, i = 1, 2, ..., p, h = 1, 2, ..., n,
где параметры  и  определяют скорость обучения.
3. Повторение шага 2 алгоритма до тех пор, пока ошибки ej,
j = 1, 2, ..., q, не станут достаточно малыми величинами для всех
обучающих примеров (Ak, Dk), k = 1, 2, ..., m.
В рассмотренном алгоритме обучение сети примерам (Ak, Dk),
k = 1, 2, ..., m, осуществляется последовательно. Как отмечалось
ранее, эта стратегия не всегда приводит к успеху, так как при обучении очередному примеру сеть может «забыть» предыдущие.
Этого можно избежать, если обучать сеть сразу нескольким примерам (странице примеров [26]). Для этого необходимо несколько
151
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
модифицировать исходную задачу оптимизации и минимизировать, например, суммарную целевую функцию вида
m
q

k 1 j 1
m

2
min  Fk    d kj  c j .
k 1
(5.29)
В этом случае величины ошибок и градиентов в рассмотренном алгоритме должны вычисляться путем их суммирования по
всем примерам обучающей выборки.
Несмотря на широкое использование алгоритма обратного
распространения ошибки, он не лишен недостатков. Прежде всего
это длительное время обучения. Более того, для сложных задач он
вообще может не привести к успеху. Такая ситуация возникает в
основном по двум причинам: паралич сети и попадание в ловушку
локального минимума.
Паралич сети возникает в том случае, когда все нейроны
функционируют на грани насыщения, т.е. при очень больших значениях выхода. В этом случае производная функции активации
очень мала. А так как изменения параметров сети в процессе обучения пропорциональны этой производной, обучение практически
может прекратится. Этого можно избежать в случае уменьшения
размеров  и  шага обучения, но это увеличивает время обучения.
Другой опасностью является попадание в локальный минимум. Поверхность целевой функции F нейронной сети имеет, как
правило, изрезанный вид и характеризуется наличием локальных
минимумов, при попадании в которые вектор градиента близок к
нулю. Поэтому при попадании в локальный минимум процесс
обучения с использованием градиентного алгоритма поиска прекращается. В этом случае сеть недоучивается, а ее синаптическая
карта не будет являться оптимальной. Для предотвращения «зависания» сети в локальных минимумах могут быть использованы
стохастические методы обучения нейронных сетей, которые рассматриваются ниже.
5.6. Стохастические алгоритмы обучения
Основной причиной использования стохастических алгоритмов [55] для обучения нейронных сетей является их способность
находить глобальный минимум целевой функции. Суть стохасти152
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
ческого подхода заключается в изменении весовых коэффициентов сети случайным образом и сохранении тех изменений, которые ведут к уменьшению заданной целевой функции. Основным
вопросом при построении стохастических алгоритмов является
рациональное изменение величины случайных приращений таким
образом, чтобы алгоритм мог выбираться из «ловушек», образованных локальными минимумами.
Для того чтобы продемонстрировать эту ситуацию, рассмотрим
некоторую условную целевую функцию, показанную на рис. 5.9.
Если в процессе поиска параметры сети оказались в точке A локального минимума и величина шага является достаточно малой,
то случайные шаги в любом направлении не приведут к уменьшению целевой функции и будут отвергнуты. В этом случае точка B
глобального минимума никогда не будет достигнута. Если же значения случайных приращений большие, то в процессе поиска будут посещаться окрестности как точки A, так и точки B. Однако
слишком большие флюктуации не позволят поиску стабилизироваться в точке B глобального минимума. Подходящая стратегия
могла бы состоять в постепенном уменьшении величины шага, что
позволило бы избежать локальных минимумов и в то же время
стабилизировать поиск в точке глобального минимума.
В
А
Рис. 5.9. Аналогия с шариком
В этой связи полезно провести аналогию с шариком
(см. рис. 5.9), находящимся на холмистой поверхности. Если поверхность заставить случайно колебаться в горизонтальном направлении, то шарик будет перекатываться из одного углубления
153
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
(локального минимума) в другое. При уменьшении амплитуды таких колебаний шарик будет на некоторое время оставаться как в
точке A, так и в точке B. Однако наступит такой момент, что сила
колебаний будет достаточной, чтобы вывести шарик из точки A,
но уже недостаточной, чтобы вывести его из B. Дальнейшее
уменьшение колебаний поверхности заставит шарик стабилизироваться в точке B глобального минимума.
Стохастическое обучение нейронных сетей по существу
представляет собой тот же самый процесс. В начале обучения производятся достаточно большие случайные коррекции, которые затем постепенно уменьшаются. При этом для исключения «зависания» алгоритма в локальных минимумах должны сохраняться не
только те изменения синаптической карты, которые ведут к
уменьшению целевой функции, но также изредка и изменения,
приводящие к ее увеличению. Такое обучение позволяет сети в
конце концов стабилизироваться в точке глобального минимума.
Основным вопросом при построении стохастических алгоритмов обучения является детальная разработка такой стратегии изменения синаптической карты. И здесь опять полезной оказывается
аналогия с физическими процессами, происходящими при отжиге
металла. В расплавленном металле атомы находятся в беспорядочном движении. При понижении температуры атомы стремятся к состоянию энергетического минимума (кристаллизации), т.е., по сути
говоря, к глобальному минимуму. В процессе отжига энергетическое состояние металла описывается распределением Больцмана:
 E
P( E )  exp  
 kT

,

(5.30)
где P(E) – плотность распределения энергии E металла; k – постоянная Больцмана; T – температура по шкале Кельвина.
В соответствии с данной формулой при высокой температуре вероятность всех энергетических состояний металла одинакова.
По мере уменьшения температуры вероятность высокоэнергетических состояний уменьшается по сравнению с низкоэнергетическими, и при стремлении ее к 0 вероятность низкоэнергетического
состояния приближается к 1.
По аналогии с процессом отжига металлов мы можем ввести
некоторую искусственную температуру. Уменьшая ее в процессе
обучения, мы будем сохранять состояния сети, связанные с увеличением целевой функции, в соответствии с распределением
154
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Больцмана. Таким образом, по мере обучения шаги в сторону увеличения целевой функции будут делаться все реже и реже. Одновременно с этим по некоторому правилу мы будем также уменьшать величину случайного шага. В качестве такого правила, например, может быть использовано распределение Гаусса
 2 
P()  exp   2  ,
(5.31)
 T 


где P() – плотность распределения вероятности величины  шага; T – искусственная температура.
В соответствии с таким законом распределения при увеличении искусственной температуры вероятность выполнения больших шагов будет уменьшаться.
К важным факторам, влияющим на сходимость алгоритма к
глобальному минимуму, следует отнести также скорость изменения искусственной температуры. Очевидно, что, уменьшая ее
слишком быстро, мы рискуем не достичь точки глобального минимума. Проведенные теоретические исследования [55] данного
вопроса показали, что «охлаждение» сети должно быть обратно
пропорционально логарифму времени, т.е. искусственная температура должна изменяться по следующему закону:
T (t ) 
T0
,
1  log t
(5.32)
где T(t) – искусственная температура на шаге t алгоритма; T0 – начальная температура.
Нейронная сеть, основанная на рассмотренных принципах
стохастического обучения, называется машиной Больцмана и
функционирует согласно следующему алгоритму:
1. Начальная инициализация синаптической карты W нейронной сети случайными числами r. Положить t = 1 и выбрать начальное значение T0 искусственной температуры достаточно большим.
2. Активизировать входной слой сети, вычислить ее реакцию
и рассчитать значение целевой функции F(W).
3. Вычислить искусственную температуру T = T0 / (1 + logt).
4. Сгенерировать случайные приращения весов, распределенных по закону Гаусса P() = exp(–2 / T2), и вычислить скорректированную синаптическую карту W*.
155
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
5. Активизировать входной слой сети, вычислить ее реакцию
и рассчитать значение целевой функции F(W*) для новой синаптической карты. Если F = F(W*) – F(W)  0, то сохранить изменение синаптической карты. Если F > 0, то сгенерировать случайное число , равновероятно принимающее значение в интервале [0, 1], и в случае  < exp(–F / T) сохранить изменения в синаптической карте, иначе – вернуться к прежней.
6. Повторять шаги 3–5 алгоритма до тех пор, пока значение
целевой функции не станет меньше некоторого предела при достаточно низкой искусственной температуре.
Хотя приведенный стохастический алгоритм и позволяет
достичь точки глобального минимума, время обучения сети, по
сравнению с алгоритмом обратного распространения ошибки, возрастает. Это связано с выполнением большого числа случайных
шагов в направлении возрастания целевой функции.
Известен ряд приемов, позволяющих сократить время обучения сети. Один из таких способов использует понятие искусственной теплоемкости сети. Дело в том, что в процессе отжига металла наблюдаются резкие изменения уровня энергии, сопровождающиеся скачкообразным изменением теплоемкости, свойства,
характеризующего скорость изменения температуры в зависимости от энергии. В искусственных нейронных сетях происходят
аналогичные явления. При «критических» температурах небольшое ее изменение приводит к резкому уменьшению целевой
функции, т.е. искусственная теплоемкость резко падает. При таких
температурах скорость ее изменения должна замедляться, чтобы
гарантировать сходимость к глобальному минимуму. В остальном
диапазоне температур может быть без риска использована более
высокая скорость снижения температуры, что приводит к существенному уменьшению времени обучения.
5.7. Алгоритм встречного
распространения ошибки
В отличие от рассмотренного ранее алгоритма обратного
распространения ошибки, алгоритм встречного распространения
ошибки (counterpropagation) не является столь общим, однако позволяет существенно уменьшить время обучения нейронной сети.
156
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Это оказывается полезным в тех случаях, когда имеются ограничения на длительность обучения. Данный алгоритм, по своей сути,
объединяет две известные нейросетевые парадигмы: самоорганизующуюся карту Кохонена [63] и сети Гросберга [60]. Такое объединение оказалось весьма полезным и позволило достигнуть таких
свойств, которых нет ни у одной из них по отдельности. Комбинирование различных нейронных сетей позволяет построить модели,
более близкие к мозгу по архитектуре, которая представляет собой,
как известно [13], каскадные соединения нейронов различных типов.
Структура сети встречного распространения ошибки показана
на рис. 5.7 и представляет собой два слоя нейронов: слой Fb – слой
нейронов Кохонена с весами vhi и Fc – слой нейронов Гросберга с
весами wij. Слой Fa не содержит нейронов и служит просто для
приема входных сигналов. В процессе обучения сети предъявляются обучающие примеры (Ak, Dk), k = 1, ..., m. Эти образы могут быть
двоичными, т.е. состоять из 0 и 1, или непрерывными. При предъявлении на вход обученной сети входного образа Ak на выходе сети
формируется ассоциированный с ним выходной образ Dk. Более того, в процессе обучения сеть приобретает способность к обобщению, позволяющую получать правильный выход при предъявлении
сети неполного или искаженного входного образа. Рассмотрим более подробно процедуру обучения различных слоев сети.
Обучение слоя Кохонена осуществляется без учителя по
принципу «победитель забирает все», т.е. для заданного входного
образа активизируется лишь один нейрон слоя Fb, имеющий максимальный выходной сигнал. Таким образом, слой Кохонена фактически осуществляет классификацию входных образов на группы
схожих. Предварительно входные образы желательно нормализовать по формуле
ahk


ahk
a12

12
 ...  an2
.
(5.33)
Эта операция превращает входной вектор в единичный вектор с тем же самым направлением.
В процессе обучения на входы нейронов слоя Кохонена подается нормализованный входной образ A k = [a1k...ank]. Нейрон с
максимальным выходным сигналом (допустим, j-й нейрон) объявляется победителем, и его синаптические коэффициенты подстраиваются по алгоритму
157
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»


vhj (t  1)  vhj (t )  (t ) ahk  vhj (t ) .
(5.34)
Здесь параметр (t) определяет скорость обучения и, как
правило, постепенно уменьшается в процессе обучения.
В соответствии с данным алгоритмом коррекция вектора весов нейрона-победителя осуществляется в направлении, уменьшающим разность между этим вектором и входным образом. Это
наглядно демонстрируется на рис. 5.10, из которого видно, что в
процессе обучения происходит вращение вектора Vj = [v1j...vnj] весовых коэффициентов в направлении входного образа A k.
vj(t)
vj(t + 1)
Ak
Рис. 5.10. Корректировка весового вектора в процессе обучения
При этом величина коррекции определяется параметром 
алгоритма. Если бы каждому входному образу соответствовал
свой нейрон Кохонена, то, выбрав параметр  = 1, можно было бы
обучить весь слой, выполняя всего лишь одну коррекцию на каждый нейрон. На практике, как правило, обучающее множество
включает в себя группы сходных между собой входных векторов.
Нейронная сеть должна быть обучена активизировать один и тот
же нейрон для близких входных векторов в группе. Это достигается уменьшением параметра  алгоритма в процессе обучения.
В результате синаптические веса нейрона, ассоциированные с некоторой группой близких входных образов, будут стабилизироваться вблизи среднего значения, соответствующего «центру»
данной группы.
158
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Для обучения слоя Гросберга может быть использован ранее
рассмотренный алгоритм обучения с учителем вида
wij (t  1)  wij (t )  (t )bi e j ,
(5.35)
где ej – ошибка j-го выхода, равная разности между j-й компонентой желаемого образа и выходом j-го нейрона слоя Гросберга, т.е.
(djk – cj); (t) – параметр, определяющий скорость обучения. Для
обеспечения сходимости алгоритма параметр (t) должен выбираться небольшим (порядка 0,1) и постепенно уменьшаться в процессе обучения.
Таким образом, в процессе обучения нейронной сети в целом
синаптические веса в слое Кохонена корректируются по значениям входных образов Ak, в то время как веса в слое Гросберга корректируются по значениям выходных образов Dk. В результате
обучения слоя Кохонена происходит автоассоциативная классификация входных образов, которая далее используется в слое
Гросберга для получения на выходе сети заданных выходных образов.
Базовый алгоритм обратного распространения ошибки можно представить состоящим из следующих основных шагов:
1. Начальная инициализация всех весовых коэффициентов
нейронов слоя Кохонена (Fb) случайными числами r, принимающими значения в интервале [0,1]:
vhi(0) = r, h = 1, 2, ..., n, I = 1, 2, ..., p.
2. Формирование p нормализованных векторов Vi  [v1i ...vni ]
синаптических коэффициентов, соответствующих нейронам слоя
Кохонена:
vhi 
vhi
,
Vi
где Vi – евклидова норма вектора Vi = [v1i...vni].
3. Выполнение следующей последовательности действий для
каждой пары (Ak, Dk), k = 1, 2, ..., m, из обучающей выборки.
3.1. Нормализация всех входных образов Ak = [a1k...ank] к векторам единичной длины:
ahk
ahk

, h = 1, 2, ..., n; k = 1, 2, ...., m,
Ak
159
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
где A k  (a1k ) 2  ...  (ank ) 2 – евклидова норма вектора Ak.
3.2. Нахождение среди векторов Vi , i = 1, 2, ..., p, вектора Vg ,
наиболее близкого к Ak в смысле минимума евклидова расстояния, т.е.
A k  Vg  min A k  Vi .
i
3.3. Корректировка синаптических весов vhg слоя Кохонена в
направлении входного образа Ak по алгоритму
vhg (t  1)  vhg (t )  (t )(ahk  vhg (t )) , h = 1, 2, ..., n,
где параметр (t) скорости обучения уменьшается в процессе обучения по закону 1 / t или 0,2[1 – t / 10000].
3.4. Нормализация скорректированного вектора весов к вектору единичной длины:
vhg 
нена:
vhg
Vg
, h = 1, 2, ..., n.
3.5. Вычисление выходных величин нейронов слоя Fb Кохо 1, i  g ;
i = 1, 2, ..., p.
bi  

i
g
0,
,

3.6. Вычисление выходных величин нейронов слоя Fс Гросберга согласно выражению
p
c j   bi wij , j = 1, 2, ..., q.
i 1
3.7. Вычисление ошибки между вычисленными выходными
величинами cj нейронов и компонентами желаемого выходного
вектора Dk обучающей выборки:
ej = djk – cj, j = 1, 2, ..., q.
3.8. Корректировка синаптических весов wgj нейронов слоя Fb
Гросберга по формуле
wgj (t  1)  wgj (t )  (t )bg e j , j = 1, 2, ..., q.
160
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
4. Повторение шага 3 алгоритма до тех пор, пока ошибки ej,
j = 1, 2, ..., q, не станyт достаточно малыми величинами для всех
обучающих примеров (Ak, Dk), k = 1, 2, ..., m.
В базовом алгоритме для начальной инициализации сети используется стандартный прием, состоящий в присваивании всем
весовым коэффициентам слоя Кохонена случайных значений. После такой начальной инициализации векторы синаптических весов
нейронов будут распределяться равномерно по поверхности гиперсферы единичного радиуса. В то же время входные векторы
(образы), как правило, распределены неравномерно и могут быть
сосредоточены на относительно малой части поверхности гиперсферы. Это может привести к тому, что часть весовых векторов
будет так удалена от любого входного вектора, что никогда не
приблизится к ним, т.е. будет всегда иметь нулевой выход и фактически окажется бесполезной. Оставшихся же векторов может
оказаться слишком мало, чтобы разделить входные образы на
классы, которые могут быть слишком близко расположены друг к
другу.
Более эффективным решением, очевидно, является начальное распределение весовых векторов в соответствии с плотностью
распределения входных образов. Один из методов, основанный на
этом принципе, известен под названием метода выпуклой комбинации [55] и состоит в следующем. Все веса приравниваются к одной и той же величине n–1/2 , где n – размерность входных образов,
т.е. совпадают и имеют единичную длину. Компонентам входных
векторов A k присваиваются значения (t) ahk + (1 – (t))n–1/2. В начале обучения  очень мало, и входные векторы почти совпадают
с весовыми векторами. В ходе обучения сети параметр  постепенно возрастает, приближаясь к 1, и входные образы стремятся к
A k. Таким образом, векторы синаптических весов отслеживают
один или небольшую группу близких входных векторов, постепенно приближающихся к своим истинным значениям. Хотя метод выпуклой комбинации и позволяет достичь требуемой цели,
однако время обучения возрастает, так как весовые коэффициенты
подстраиваются к изменяющимся входным образам.
Модификация данного метода, позволяющая сократить время обучения, состоит в том, что на начальной стадии обучения
подстраиваются все веса, а не только веса, связанные с выигравшим нейроном. По мере обучения коррекция весов начинает про161
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
изводиться лишь в некоторой окрестности победившего нейрона,
радиус которой постепенно уменьшается.
Рассмотренный нами метод функционирования нейронной
сети, когда в конечном итоге активизируется лишь один нейрон
слоя Кохонена, называется методом аккредитации. Так как на
выходе всех остальных нейронов присутствует нулевой сигнал, на
выходе слоя Гросберга в этом случае формируется вектор, равный
весам связей, идущих от единственного возбужденного нейрона.
Известен также более общий метод интерполяции [55], когда активизируется целая группа нейронов, имеющих наибольшие значения выходов. В этом случае вектор выходов нейронов группы
предварительно нормализуется и используется далее для вычисления выходов нейронов Гросберга. Так как реализуемая при этом
функциональная зависимость существенно более сложная, чем в
методе аккредитации, данный метод позволяет реализовать более
сложные ассоциации образов.
5.8. Модели ассоциативной памяти
До настоящего момента мы рассматривали сети, в которых
сигналы распространялись в прямом направлении, т.е. они не содержали обратных связей. Такие сети всегда устойчивы. В нейронных сетях с обратными связями допускается передача выходных сигналов на вход сети. Это приводит к переходным процессам
в сети, после которых сеть может установиться в некоторое устойчивое состояние. Однако возможна также и ситуация, при которой в сети никогда не наступит состояние равновесия. В этом
случае сеть является неустойчивой. Анализ устойчивости нейронных сетей с обратными связями представляет собой сложную теоретическую задачу и здесь подробно рассматриваться не будет.
Мы ограничимся рассмотрением некоторого подкласса нейронных
сетей с обратными связями, устойчивость которых при определенных условиях может быть доказана.
К таким сетям в первую очередь следует отнести сеть Хопфилда [62]. Эта простая сеть показана на рис. 5.11 и представляет
собой один слой нейронов. Сигнал на выходе каждого нейрона
формируется согласно выражению
162
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
 n

a j (t  1)  f   ai (t ) wij  , j = 1, ..., n,
 i 1

(5.36)
где aj(t) – выход нейрона j на такте t; f(x) – ступенчатая пороговая
функция, принимающая значения 1.
Данное уравнение может быть также переписано в матричном виде следующим образом:
A(t  1)  f ( A(t ) W) .
(5.37)
Fa
a1
w1i
wi1
ai
win
wni
an
Рис. 5.11. Сеть Хопфилда
Сеть Хопфилда можно рассматривать как примитивную модель ассоциативной памяти, позволяющей по искаженному входному образу извлечь ближайший к нему эталон. Для этого сеть
должна быть предварительно обучена на некоторой обучающей
выборке. Обучение осуществляется без учителя путем предъявления сети серии входных образов Ak, k = 1, ..., m. Предъявляемые
образы запоминаются в синаптической карте, которая формируется следующим образом:
m
W   ATk A k .
(5.38)
k 1
Это выражение фактически является матричной формой записи алгоритма обучения Хэбба, согласно которому синаптические веса формируются путем вычисления корреляций между состояниями отдельных нейронов. Такое задание весов позволяет
сети запомнить входные образы и обеспечить в дальнейшем возможность их извлечения по неполным и искаженным данным.
163
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
В процессе функционирования нейроны обученной сети активизируются некоторым входным образом, а затем сети предоставляется возможность «расслабиться», опустившись в ближайший энергетический минимум. Теоретически было показано, что
сеть всегда достигнет устойчивого состояния, если синаптическая
карта симметрична и ее диагональные элементы равны нулю, т.е.
wij = wji, wii = 0. Таким образом, алгоритм функционирования сети
Хопфильда можно представить состоящим из следующих шагов:
1. Формирование синаптической карты сети W путем ее обучения по серии входных образов Ak = [a1k, ..., ank], k = 1, ..., m:
m
W   ATk A k  I .
(5.39)
k 1
Здесь единичная матрица I введена для того, чтобы обеспечить равенство нулю диагональных элементов синаптической карты wii = 0.
2. Начальная активация сети входным образом C = [c1, ..., cn],
т.е. приведение нейронов сети в состояния aj = cj, j = 1, ..., n.
3. Итерационное вычисление выходных сигналов сети до тех
пор, пока сеть не достигнет установившегося состояния:
 n

a j (t  1)  f   ai (t ) wij  , j = 1, ..., n.
 i 1

Рассмотрим простой пример, демонстрирующий работу данного алгоритма. Пусть имеются три входных образа:
A1 = [1 1 1 1 1], A2 = [–1 –1 1 1 1], A3 =[ 1 1 –1 –1 –1].
Тогда синаптическая карта будет равна
 0 3 1 1 1
 3 0 1 1 1


5
T
W    A k A k  I    1 1 0 3 3  .


k 1
1
1
3
0
3




 1 1 3 3 0 
Теперь подадим на вход сети искаженный образ C = [1 1 1 1
–1 –1] и «отпустим» сеть для того, чтобы она пришла в установившееся состояние. В результате получим
A(1) = f(A(0)W) = f([4 4 –8 –2 –2]) = [1 1 –1 –1 –1];
A(2) = f(A(1)W) = f([6 6 –8 –8 –8]) = [1 1 –1 –1 –1].
164
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Таким образом, сеть стабилизировалась уже после второго
шага, скорректировав искаженный образ в направлении ближайшего эталона A3.
При использовании сети Хопфилда как ассоциативной памяти важно знать ее максимально допустимую емкость, т.е. максимальное количество сохраняемых образов. Сеть из N нейронов
может иметь 2N возможных состояний. Однако, как показали исследования, при слишком большом количестве образов сеть может
не стабилизироваться на некоторых из них либо выдавать образы,
совершенно отличные от примеров. По утверждению Хопфилда,
такой нежелательной ситуации можно избежать, если количество
запоминаемых классов не превосходит 0,15N. Например, для
10 классов входных образов сеть должна содержать 70 нейронов и
приблизительно 5000 связей между ними. Такая расточительность
является существенным недостатком сети Хопфилда.
Сеть Хопфилда является автоассоциативной сетью, в которой входные образы ассоциируются сами с собой и не могут быть
ассоциированы с другими (выходными) образами.
Рассмотрим теперь гетероассоциативный механизм установления ассоциаций на примере нейронной сети, известной как двунаправленная ассоциативная память. Такая сеть состоит из двух
слоев нейронов и показана на рис. 5.12.
W
Fa
a1
Fb
wj1 wi1
wij
ai
bj
wji
wjn
b1
wip
an
bp
WT
Рис. 5.12. Двунаправленная ассоциативная память
В качестве функции активации нейронов используется ступенчатая пороговая функция. В процессе обучения сети предъяв165
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
ляются примеры (Ak, Bk), k = 1, ..., m, ассоциированных образов и
формируются ее веса:
m
W   ATk B k .
(5.40)
k 1
Сети (см. рис. 5.12) с прямыми связями (от слоя Fa к слою Fb)
соответствует синаптическая карта W, а обратным связям (от слоя
Fb к слою Fa)  транспонированная синаптическая карта WT.
Функционирование сети осуществляется следующим образом:
1. Активация слоя Fa сети входным образом C = [c1, ..., cn],
т.е. приведение нейронов входного слоя в начальные состояния:
ai(0) = ci.
2. Вычисление сигналов на выходе нейронов выходного слоя
Fb согласно выражению
 n

b j (t )  f   ai (t ) wij  , j = 1, ..., p,
 i 1

или в матричной форме: B(t) = f(A(t)W). Затем внешнее возбуждение убирается.
4. Повторение шагов 2–3 до тех пор, пока сеть не достигнет
стабильного состояния.
Рассмотрим в качестве примера простую сеть, состоящую из
четырех нейронов в первом слое и трех – во втором. Пусть обучающая выборка состоит из следующих примеров:
A1 = [–1 –1 1 1], B1 = [1 –1 1];
A2 = [1 1 –1 –1], B2 = [–1 1 –1].
Синаптическая карта формируется следующим образом:
 2 2 2 
 2 2 2 
2
T
.
W   Ak Bk  
 2 2 2 
k 1


 2 2 2 
Подавая на вход сети образ A1(0) = [–1 –1 1 1], получим
B(0) = f(A(0)W) = f([8 –8 8]) = [1 –1 1];
A(1) = f(B(0)W) = f([–6 –6 6 6]) = [–1 –1 1 1].
166
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Таким образом, уже после первого шага сеть стабилизировалась на ассоциации (A1, B1).
Теперь усложним задачу для сети, подавая на ее вход искаженный образ C = [–1 1 1 1]. Это приведет к следующему процессу:
B(0) = f(A(0)W) = f([4 –4 4]) = [1 –1 1];
A(1) = f(B(0)W) = f([–6 –6 6 6]) = [–1 –1 1 1],
в результате которого сеть скорректировала искаженный образ к
ближайшему примеру A1 и вновь выдала соответствующую ему
ассоциацию B1.
Таким образом, двунаправленная ассоциативная память обладает способностью к исправлению и обобщению. Если искаженный или незавершенный образы подаются на вход сети, то она
тем не менее способна выдать запомненный ранее выходной образ, который в свою очередь стремится восстановить входной образ. Это может потребовать нескольких итераций, но, как правило,
их количество не слишком большое и сеть всегда является устойчивой. Устойчивость сети обеспечивается тем обстоятельством,
что синаптическая карта в обратных связях сети выбирается равной транспонированной карте в прямых связях сети.
Аналогично сети Хопфилда для двунаправленной ассоциативной памяти также имеется ограничение на количество образов.
Если это ограничение не выполняется, то сеть может выдавать неверные ассоциации. Для запоминания m ассоциаций количество
нейронов N в наименьшем слое должно выбираться таким образом, чтобы выполнялось неравенство m < N / (2log2N). Например,
сеть с 1024 нейронами может запомнить не более 25 ассоциаций.
5.9. Когнитивные карты
Когнитивная карта – это ориентированный граф, узлы которого представляют собой некоторые объекты (концепты),
а дуги – связи между ними, характеризующие причинно-следственные отношения. Причинная связь является более общим понятием, чем, например, логическая импликация, и позволяет более полно отразить взаимосвязи между объектами реального
мира. Связи могут быть положительные, отрицательные. Положительная причинная связь между двумя концептами существует в том случае, если увеличение (уменьшение) количественной
167
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
характеристики одного концепта приводит к увеличению
(уменьшению) другого концепта. В случае когда увеличение
(уменьшение) количества одного концепта приводит у уменьшению (увеличению) другого, имеет место отрицательная причинная связь. Когнитивные карты являются удобным средством для
представления знаний в некоторой предметной области. В качестве примера на рис. 5.13 изображена когнитивная карта, характеризующая причинно-следственные зависимости между концептами: национальный доход (С1), угроза войны (С2), социальная устойчивость (С3), жилищное строительство (С4), преступность (С5), научно-технический потенциал (C6) и развитие тяжелой промышленности (С7).
Рис. 5.13. Представление знаний в виде когнитивной карты
Когнитивная карта полностью определяется своей матрицей
связей, которая для приведенного примера будет выглядеть следующим образом:
168
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
 0
 1

 0

W 0
 0

 1
 1
0 0
0 1
0 0
0 1
0 1
0 0
0 0
1 1
0 0
0 0
0 0
0 0
1 0
1 0
1
1
1
0
0
0
0
0
1

0

0 .
0

1
0 
Элемент wij данной матрицы определяет связь от i-го элемента к j-му, причем положительные связи кодируются 1, отрицательные кодируются –1, а отсутствие связей между концептами – 0.
Для составления подобных карт, как правило, привлекается
эксперт, задачей которого является формирование множества концептов, определяющих предметную область, и характера связей
между ними. Использование когнитивных карт позволяет естественным образом объединять знания нескольких экспертов для более адекватного описания предметной области. При этом каждый
эксперт формирует свой набор концептов, определяющих заданную предметную область, и характер связей между ними. Когнитивные карты каждого эксперта естественным образом могут быть
объединены в одну итоговую карту, учитывающую мнения всех
экспертов. Данная процедура обобщения знаний экспертов демонстрируется на рис. 5.14.
Здесь мнения четырех экспертов представлены в виде четырех отдельных когнитивных карт, отличающихся как составом
концептов, так и связями между ними.
Полученные карты могут быть охарактеризованы следующими множествами Fi концептов:
F1 = {C1, C2, С3, С4},
F2 = {C1, C2, С3, С5},
F3 = {C1, C2, С3, С6},
F4 = {C1, C2, С5, С6}.
169
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Рис. 5.14. Комбинирование знаний экспертов путем слияния
когнитивных карт
Таким образом, все эксперты признали весомость концептов
С1 и С2, относительно же остальных мнения разделились. Например, первый эксперт признал важность концепта С4, а второй –
С5. Для представления общей картины, учитывающей мнения
всех экспертов, данные множества объединяются:
4
F   Fi  {C1, C2, C3, C4, C5, C6}
i 1
и формируются матрицы связей Fi для каждой карты. Причем если некоторая карта не содержит некоторых концептов из множества F, то соответствующие столбцы и строки матриц дополняют170
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
ся нулями. Например, для первой когнитивной карты матрица связей будет выглядеть следующим образом:
 0 1 1 1 0 0 
 0 0 0 1 0 0 


 1 1 0 1 0 0 
Fi  
.
0
0
1
0
0
0


 0 0 0 0 0 0


 0 0 0 0 0 0
Для получения матрицы связей для итоговой карты (см.
рис. 5.14) выполняется суммирование всех Fi, i = 1, ..., 4, что приводит к результату
 0 4 3 1 2 1
 1 0 0 1 2 0 


4
 3 1 0 1 1 1
F   Fi  
.
0
0
1
0
0
0
i 1


 1 1 1 0 0 1


 2 2 1 0 1 0 
Так как полученная матрица отражает мнения всех зкспертов, она не только содержит элементы 1, 0, –1, но и более полно
отражает причинно-следственные зависимости между выбранными концептами.
Замечено, что когнитивные карты по своей структуре напоминают нам нейронные сети, если рассматривать каждый концепт
как отдельный нейрон, а коэффициенты связей между ними  как
синаптические веса. Такой подход, предложенный впервые Коско,
оказался весьма полезным при построении экспертных систем,
предназначенных для прогнозирования ситуаций по имеющимся
данным. В таких системах используются так называемые экстраполирующие нейронные сети, являющиеся разновидностью уже
известных нам моделей ассоциативной памяти. Рассмотрим некоторые особенности функционирования подобных сетей.
Пусть на вход сети поступает входной образ A = [a1...an],
у которого k компонент, составляющих множество k, известны
точно, а остальные неопределенны. В процессе функционирования
сеть реконструирует недостающие компоненты по следующему
алгоритму:
171
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
1. Начальная инициализация нейронов сети при t = 0:
a , i k ;
bi (0)   i
 0, i k .
2. Вычисление новых состояний нейронов bi(t + 1) сети для
всех i  k по формуле
 n

bi (t  1)  f   bi (t )wij  ,
 j 1



где f(x) – ступенчатая функция активации.
3. Выполнение шага 2 до тех пор, пока сеть не достигнет устойчивого состояния.
Рассмотрим функционирование экстраполирующей нейронной
сети на примере когнитивной карты, изображенной на рис. 5.13 и
характеризуемой матрицей W весов. Пусть нас интересует получение прогноза для случая угрозы войны (концепт 2). Тогда входной
вектор А = [0 1 0 0 0 0 0]. Согласно алгоритму выходной вектор
В = [b1...b7] последовательно принимает следующие состояния:
В(1) = f( [–1 1 –1 0 0 1 1] ) = [–1 1 –1 0 0 1 1],
B(2) = f( [1 1 –1 1 1 –1 2] ) = [1 1 –1 1 1 –1 1],
B(3) = f( [1 1 –1 1 –1 1 0] ) = [1 1 –1 1 –1 1 0],
B(4) = f( [0 1 1 0 1 –1 2] ) = [0 1 1 0 1 –1 1],
B(5) = f( [–1 1 –2 0 0 2 0] ) = [–1 1 –1 0 0 1 0],
B(6) = f( [0 1 –1 0 1 –1 2] ) = [0 1 –1 0 1 –1 1],
B(7) = f( [–1 1 –2 0 0 0 0] ) = [–1 1 –1 0 0 0 0],
B(8) = f( [–1 1 –1 –1 1 –1 1] ) = [–1 1 –1 –1 1 –1 1],
B(9) = f( [–1 1 –3 –1 1 –1 0] ) = [–1 1 –1 –1 1 –1 0],
B(10) = f( [–2 1 –3 –2 1 –1 0] ) = [–1 1 –1 –1 1 –1 0],
B(11) = f( [–2 1 –3 –2 1 –1 0] ) = [–1 1 –1 –1 1 –1 0].
Таким образом, сеть стабилизировалась после 10-го такта.
Состояние сети, которое можно интерпретировать как прогноз в
случае угрозы войны, характеризуется снижением С1 (национального дохода), С3 (социальной устойчивости), С4 (жилищного
строительства) и увеличением С5 (преступности). Интересно заметить, что, хотя между концептом С2 (угроза войны) и концеп-
172
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
тами С6 (научно-технический потенциал), С7 (развитие тяжелой
промышленности) существует непосредственная положительная
связь (см. рис. 5.13), проявилась тенденция к ее снижению, что
можно объяснить косвенным влиянием других концептов сети.
5.10. Динамические нейронные сети
В задачах управления чаще всего приходится иметь дело с
динамическими моделями управляемых систем. Так, линейное
разностное уравнение (или АРСС-модель), описывающее динамику дискретных систем, представляет собой взвешенную сумму
входных и выходных переменных, задержанных на определенное
число тактов квантования, определяемых порядком модели. Поскольку искусственный нейрон также выполняет операцию взвешенного суммирования входных переменных, то дискретную динамическую модель можно построить на базе искусственных нейронов. В этом случае структура динамического нейрона может
быть представлена в следующем виде [20, 32] (рис. 5.15).
u(k)
b
a0
z1
a1
Σ
f
y(k)
z1
a2
an1
z1
an
Рис. 5.15. Структура динамического нейрона
Выходная переменная такого нейрона в случае линейной
функции активации и нулевого смещения будет равна
y (k )  a0 x( k )  a1 x(k  1)  ...  an x(k  n) .
Это есть ничто иное, как СС-модель.
173
(5.41)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Для получения АРСС-модели необходимо использовать
двухслойную нейронную сеть с двумя динамическими нейронами
на входе и линейными функциями активации в каждом слое. Во
втором слое в качестве нейрона можно использовать обычный
сумматор, как показано на рис. 5.16.
u(k)
m
 b u (k  j )
j 0
j
DN1
Σ
y(k)
n
z 1
 a y (k  i)
DN2
i 1
i
Рис. 5.16. Структура динамической нейронной сети
Уравнение, описывающее динамику работы такой сети, будет выглядеть следующим образом:
y (k )  a1 y (k  1)  a2 y (k  2)  ...  an y (k  n)  b0u (k ) 
 b1u (k  1)  ...  bm x(k  m).
(5.42)
Используя многомерные и многослойные динамические
нейронные сети, можно получать многомерные нелинейные динамические модели.
Обучение динамических нейронных сетей производится на
обучающих выборках, представляющих собой тренды или временные ряды, снятые на реальном объекте.
Пример 5.1. Рассмотрим построение и обучение двухслойной динамической нейронной сети с линейными функциями активации, моделирующей работу воздушного охладителя электрогенератора. Охлаждение воздуха происходит в теплообменнике за
счет изменения подачи охлаждающей воды.
На рис. 5.17 показано изменение тока в электродвигателе насоса, подающего охлаждающую воду, и температуры воздуха генератора.
Эти параметры использовались в качестве обучающей выборки. Обучение осуществлялось по алгоритму обратного распространения ошибки с использованием метода Левенберга–Марквардта. 174
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Рис. 5.17. Изменение параметров системы охлаждения
В результате обучения получена нейронная сеть со структурой, показанной на рис. 5.18. В первом слое использовались два
нейрона, во втором – один.
а)
б)
в)
Рис. 5.18. Структура нейронной сети
175
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Ошибка обучения такой сети (рис. 5.19) практически равна
нулю.
Рис. 5.19. Ошибка обучения
Создание и обучение нейронной сети осуществлялось в системе MATLAB.
Программа обучения
Clear % Очистка рабочей области
% Чтение и формирование данных
dan=xlsread('opertrend');
y=dan(:,19); u=dan(:,20);
n=length(y);
t=0:3:3*(n-1);
% Создание массива ячеек обучающей выборки
for i=1:n
P(i)={[u(i);y(i)]};
T(i)={y(i)};
end
% Ограничение входных и выходных переменных
um=max(u)+1; ym=max(y)+1;
PR=[0 um;0 ym];
176
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
% Задание величины задержки на входе нейронной сети
ID=[0 1 2];
%Задание числа нейронов в первом и втором слоях
S1=2 ;S2=1;
% Задание вида функций активации в первом и втором слоях
TF1='purelin';TF2='purelin';
% Создание динамической нейронной сети
net=newfftd(PR,ID,[S1 S2] ,{TF1 TF2},'trainbr');
% Обучение сети
[net,TR]=train(net,P,T);
% Реакция сети на заданный входной сигнал
ym=sim(net,P);
Построение графика ошибки обучения
subplot(1,1,1)
plot(t,cat(2,T{:})-cat(2,ym{:})),grid
177
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
6. Устойчивость систем управления
6.1. Устойчивость систем
в пространстве состояний.
Первая теорема Ляпунова
Пусть система управления описывается нелинейными дифференциальными уравнениями в форме Коши:
dx
 F (x, u, f , t );
dt
y  (x, u);
(6.1)
u    x .
Так, устойчивость является внутренним свойством системы,
на нее не оказывают влияние ни управляющие, ни возмущающее
воздействия.
Кроме того, ограничимся рассмотрением устойчивости стационарных систем, для которых все ее параметры не зависят от
времени.
С учетом этих допущений исходную систему можно представить в виде
dx
 F (x, t ).
(6.2)
dt
Решение этого векторного дифференциального уравнения
при некоторых начальных условиях x(t0 ) имеет вид
x  x0 (t ) .
Полученное решение описывает траекторию движения системы в пространстве состояний, а само движение называется невозмущенным движением.
Если теперь решить систему при других начальных условиях x (t0 ) , отклоняющихся от x(t0 ) на незначительную величину  ,
то ее решение будет называться возмущенным движением и запишется в виде
x  x1 (t ).
178
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Введем отклонение координат x  x1  x 0 ‚ характеризующее разность между возмущенным и невозмущенным движениями
системы. Выражая x1 через x 0 и x , после подстановки его
в (6.2) получим дифференциальное уравнение системы, записанное для отклонений:
d  x 
(6.3)
 F (x0  x, t )  F (x0 , t ).
dt
Это уравнение возмущенного движения. Его тривиальное
решение x  0 соответствует невозмущенному движению, так
как в этом случае x 0  x1 .
Начальные значения x (t0 ) носят название возмущений.
Решение уравнения (6.3) при x  0 представляет собой возмущенное движение.
А. М. Ляпунов дал следующее определение устойчивости.
Невозмущенное движение называется устойчивым по отношению
к переменным x, если при всяком заданном положительном числе А2, как бы мало оно не было, можно выбрать другое положительное число 2 так, что для всех возмущений, удовлетворяющих условию
x(t0 )  ,
(6.4)
возмущенное движение (6.4) будет в промежутке времени t0  t  
удовлетворять неравенству
x(t0 )  A.
(6.5)
Если с течением времени x (t ) стремится к нулю, то система называется асимптотически устойчивой.
Геометрическая интерпретация устойчивости показана на
рис. 6.1.
x3
xx33
xx00((tt) )
xx00 (tt))
АA

xx2 2
xx11((t ) x1х1
x1x1
xx11(tt))
Устойчивое движение
xx22
Асимтотически устойчивое движение
Рис. 6.1. Геометрическая интерпретация устойчивости
179
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Отметим, что условие устойчивости, доказанное Ляпуновым,
будет справедливо, если имеется возможность перехода к дифференциальным уравнениям, записанным в отклонениях (6.3). Очевидно, что такой переход возможен только в случае линейных или
линеаризуемых систем, причем линеаризация осуществляется в
окрестностях точки невозмущенного движения при малых отклонениях x .
Линеаризуя (6.3), можно записать:
n
dxi
  aij x j   (t ; x1 , x2 ,..., xn ), i  1, 2,..., n .
dt j 1
(6.6)
Первая теорема Ляпунова дает определение достаточного
условия устойчивости при малых отклонениях системы от ее невозмущенного движения, или определение устойчивости «в малом», и формулируется следующим образом [10].
Пусть все корни характеристического уравнения линеаризованной системы (6.6) без учета второго слагаемого
 i ( t ; x1 , x 2 ,..., x n ) имеют отрицательную действительную часть
и все функции  i (t ; x1 , x 2 ,..., x n ) удовлетворяют условию
1

2 2
xi 
,

 i (t ; x1 , x2 ,..., xn )  M  
причем M – постоянная и   0 .
i 1 
Тогда тривиальное решение системы (6.2) устойчиво.
Наиболее просто можно судить об устойчивости линейных
систем. Для них понятие устойчивости «в малом» и устойчивости
«в большом», или абсолютной устойчивости, совпадают. Если
система устойчива «в малом», то она устойчива и «в большом».
В случае нелинейной системы с гладкими нелинейностями
Ляпуновым были доказаны следующие теоремы:
1. Если характеристическое уравнение линеаризованной системы имеет все корни с отрицательными вещественными частями,
то реальная система будет также устойчивой. Малые нелинейные
члены не могут нарушить устойчивость системы.
2. Если характеристическое уравнение линеаризованной системы имеет хотя бы один корень с положительной вещественной
частью, то реальная система также будет неустойчивой. Малые
нелинейные члены не могут сделать ее устойчивой.
n
180
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
3. При наличии нулевых или чисто мнимых корней поведение реальной системы не всегда даже качественно определяется ее
линеаризованными уравнениями. Малые нелинейные члены могут
коренным образом изменить характер переходного процесса.
Следует иметь в виду, что данные теоремы Ляпунова сформулированы для устойчивости «в малом» и для нелинейных систем с гладкими нелинейностями, которые могут быть линеаризованы путем разложения в ряд Тейлора.
Для определения устойчивости нелинейных систем с нелинейными статическими характеристиками, имеющими точки разрыва, или для определения устойчивости нелинейных систем
«в большом» используется прямой метод Ляпунова, или вторая
теорема Ляпунова.
6.2. Устойчивость линейных систем.
Алгебраические критерии устойчивости
Для линейной системы уравнения ее свободного движения в
пространстве состояний можно представить в следующем виде:
dx
 Ax,
dt
 a11 a12
a
a22
где A   21
 

 an1 an 2
(6.7)
 a1n 
 a2 n 
.
 

 ann 
Квадратная матрица  размером n  n или в развернутой
форме:
dx1
 a11 x1  a12 x2    a1n xn ;
dt
dx2
 a21 x1  a22 x 2   a2 n xn ;
(6.8)
dt

dxn
 an1 x1  an 2 x2    ann xn .
dt
181
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Из математического анализа известно, что любое частное
решение однородной системы (6.8) вида
xi  ei t
(6.9)
будет обращаться в тождество, где i – произвольные числа.
Подставляем в (6.8) частное решение (6.9) и после очевидных преобразований получим следующую систему линейных однородных алгебраических уравнений, из которых можно найти i :
(a11   1) x1  a12 x2  a13 x3    a1n xn  0;
 a x  (a   ) x  a x    a x  0;
22
2 2
23 3
2n n
 21 1
 a31 x1  a32 x2  (a33   3) x3    a3n xn  0;



 an1 x1  an 2 x2  an3 x3    ( ann   n ) xn  0.
(6.10)
Решая эту систему, можно найти xi . Известно, что нетривиальное решение такой системы будет при условии равенства нулю
главного определителя системы:
a11   1
a21
a31

an1
a12
a22  
a32

an 2

a13
2
a23
a33  

an3
3
a1n
a2 n

a3n



 ann  
 0.
(6.11)
n
Это и будет характеристическое уравнение системы,
a 1 ,  2 ,...,  n являются корнями характеристического уравнения.
Получив характеристическое уравнение системы, можно определить устойчивость по корням этого уравнения. Для этого запишем общее решение системы (6.8):
n
xсв i   Ci ei t .
i 1
Для устойчивости системы необходимо и достаточно, чтобы
lim xсв  0 .
t 
Это условие выполняется в случае, если все корни характеристического уравнения будут «левыми», т.е. будут иметь отрица182
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
тельные действительные части и располагаться слева от мнимой
оси комплексной плоскости.
Непосредственное определение устойчивости, требующее
решения по корням характеристического уравнения, просто лишь
для систем первого и второго порядков, менее удобно в случае
систем третьего и четвертого порядков, а для систем более высоких порядков является довольно трудоемкой задачей. Однако,
чтобы судить о том, удовлетворяет ли линейная система необходимому и достаточному условию устойчивости, нет надобности
находить корни характеристического уравнения: достаточно убедиться в том, что их вещественные части отрицательны. Для этого
служат алгебраические критерии, позволяющие судить об устойчивости линейной системы по коэффициентам ее характеристического уравнения.
Рассмотрим характеристическое уравнение вида
a0 p n  a1 p n 1  ...  an 1 p  an  0 ,
(6.12)
все коэффициенты которого вещественны.
В конце XIX в. с необходимостью определения устойчивости
систем высокого порядка столкнулся словацкий инженер Стодола,
выдающийся конструктор паровых турбин, работающий в Швейцарии. По его предложению швейцарский математик Гурвиц в
1894 г. нашел способ, позволяющий достаточно просто определить по коэффициентам характеристического уравнения, отрицательны ли вещественные части его корней. Для этого составляется
определитель Гурвица:
a1
a0
Dn  0
..
0
a3
a2
a1
a5 ...
a4 ...
a3 ...
0
0
0 ,
... .
0 an
..
0
..
0
(6.13)
по диагонали которого располагаются коэффициенты характеристического уравнения от a1 до an . Выше коэффициента, стоящего
по диагонали, в каждом столбце пишутся подряд старшие по индексу коэффициенты, а ниже – младшие. Затем составляются все
диагональные миноры определителя:
183
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
D1  a1 ;
D2 
a1
a0
a3
;
a2
a1
D3  a0
a3
a2
a5
a4 и т.д.
0
a1
a3
Критерий Гурвица требует, чтобы у системы, для которой
соблюдается необходимое и достаточное условие устойчивости,
выполнялось условие
Dk  0, k  1, 2, ..., n.
Это легко проверить с помощью формул Виета, задаваясь
корнями с отрицательной вещественной частью.
Применим критерий Гурвица к системе третьего порядка с
характеристическим уравнением
a0 p3  a1 p 2  a2 p  a3  0 ,
для которой определитель (6.12) принимает вид
a1
D3  a0
a3
a2
0
0 .
0
a1
a3
Отсюда
D1  a1;
D 2  a1a2  a0 a3 ;
D3  a3 D 2.
Из условия D1  0 находим a1  0 . При этом из условия D 2  0
и D3  0 получаем a3  0 . Тогда из условия D 2  0 следует, что
a1a 2  a0 a3  0 .
Таким образом, определители D1, D2, D3 будут положительными, как требует критерий Гурвица, если все коэффициенты характеристического уравнения положительны и между ними имеет
место соотношение a1a 2  a0 a3  0 .
184
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Пример 4.1. Определим устойчивость системы, передаточная функция которой в разомкнутом состоянии равна
k
,
W ( p) 
(T1 p  1)(T2 p  1)(T3 p  1)
где T1 = 100 c; T2 = 40 c; T3 = 10 c; k = 4.
Определим устойчивость замкнутой системы по алгебраическому критерию Гурвица. Для этого вначале найдем передаточную функцию замкнутой системы:
k
.
Wz ( p ) 
(T1 p  1)(T2 p  1)(T3 p  1)  k
Характеристическое уравнение получится приравниванием
нулю знаменателя передаточной функции замкнутой системы:
a0 p 3  a1 p 2  a2 p  a3  0 ,
где a0  T1T2T3 , a1  T1T2  T1T3  T2T3 , a2  T1  T2  T3 , a3  1  k .
В соответствии с критерием Гурвица условия устойчивости
будут выглядеть следующим образом:
1 1 1
a1a2  a0 a3  (T1  T2  T3 )      k  1  0 .
 T1 T2 T3 
Откуда граничное значение коэффициента усиления будет
равно
1 1 1
k g  (T1  T2  T3 )      1  19,8 .
 T1 T2 T3 
6.3. Частотные критерии
6.3.1. Критерий устойчивости Михайлова
Применение критериев Гурвица и Рауса к системам высокого порядка требует длительных вычислений. В этих случаях имеют преимущества методы исследования устойчивости по частотным характеристикам. С помощью этих методов формулируются
частотные критерии устойчивости.
185
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Частотные характеристики можно получить, переходя от
преобразования Лапласа к преобразованию Фурье, путем замены
оператора Лапласа p на комплексный оператор частоты jω. Рассмотрим отдельно левую часть характеристического уравнения
(6.12), представляющую некоторый вектор на комплексной плоскости корней.
Этот вектор называется характеристическим и имеет n составляющих вида p  pk , где pk – корни характеристического
уравнения. Делая подстановку p = jω, составляющие характеристического вектора можно представить в виде j  pk , а общее его
выражение определяется произведением
n
a0  ( j  pk ) ,
(6.14)
k 1
где n – степень характеристического уравнения.
Рассмотрим две составляющие характеристического вектора (4.14), соответствующие паре комплексно-сопряженных
корней:
pk  sk  jk ;
pk 1  sk  jk ,
где sk  0 , так что эти корни удовлетворяют необходимому и достаточному условию устойчивости.
Нанеся их на плоскость корней (рис. 6.2), построим векторы
j  pk и j  pk 1 . Исследуем, как изменяется положение этих
векторов при изменении  от 0 до бесконечности.
jω
pk
jω
jω – pk
sk
jωk
q
jω – pk+1
pk+1
Рис. 6.2. Положение характеристических векторов
186
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

 q , где q,
2
показанный на рис. 6.2, – угол между вектором pk и отрицательным направлением оси абсцисс. Вектор j  pk 1 повернется в

том же случае на угол  q . Эти повороты рассматриваемых век2
торов изменяют аргумент характеристического вектора на угол
Очевидно, что вектор j  pk повернется на угол


 q   q  ,
2
2
так что при изменении частоты  от 0 до бесконечности на каж
дый корень приходится изменение аргумента на угол .
2
То же самое будет и в случае вещественных корней, для которых q = 0, за исключением нулевых корней, которые не вызывают изменения аргумента характеристического вектора. Чисто
мнимые корни изменяют аргумент характеристического вектора
так, что при изменении частоты в указанных пределах корень с
положительной мнимой частью дает +π, а корень с отрицательной
мнимой частью – 0. Таким образом, можно считать, что на каждый
«левый» корень характеристического уравнения приходится изме
нение аргумента на угол .
2
Положим теперь, что pk > 0, так что необходимое и достаточное условие устойчивости не удовлетворяется. Нетрудно убедиться, что в этом случае при изменении частоты в тех же пределах на каждый корень будет приходиться изменение аргумента

характеристического вектора, равное  , за исключением нуле2
вых и чисто мнимых корней.
Таким образом, при изменении частоты ω характеристический вектор (6.14) будет вращаться на комплексной плоскости,
причем его аргумент будет так же изменяться за счет каждого корня характеристического уравнения, как это найдено выше.
Конец характеристического вектора будет вычерчивать на
комплексной плоскости некоторую траекторию, называемую годографом Михайлова.
Рассмотрим изменение аргумента вектора (6.14) при изменении частоты  от 0 до бесконечности. Если все n корней характе187
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
ристического уравнения лежат в левой полуплоскости, то при таком изменении частоты аргумент вектора Михайлова изменится
n
на угол
, как установлено выше. Следовательно, необходимое
2
и достаточное условие устойчивости системы можно интерпретировать так: при изменении частоты от 0 до бесконечности вектор
n
, где n – порядок систеМихайлова совершает поворот на угол
2
мы. Это первая формулировка критерия устойчивости, называемого критерием Михайлова.
Рассматривая годограф, получаемый при указанном повороте вектора Михайлова, найдем, что при изменении частоты от 0 до
бесконечности годограф устойчивой системы должен окружать
начало координат, пересекая n квадрантов. Это – вторая формулировка критерия Михайлова.
На рис. 6.3 показан вид годографов для систем различного
порядка.
V
n=1
n=2
n=5
U
n=3
n=4
Рис. 6.3. Годографы Михайлова для систем различного порядка
Как видно из рис. 6.3, координаты U и V годографа по очереди меняют знак, проходя через 0. Отсюда третья формулировка
критерия Михайлова: система устойчива, если при изменении частоты от 0 до бесконечности координаты годографа поочередно
проходят через нуль, в общем n раз. Если характеристическое
уравнение имеет нулевой корень, то изменение аргумента вектора

Михайлова при изменении частоты от 0 до бесконечности на
2
меньше требуемого для устойчивости системы. При этом an = 0
и годограф начинается в начале координат. При наличии пары
188
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
чисто мнимых корней годограф проходит через начало координат.
В этих случаях, поскольку имеются корни, лежащие на мнимой
оси, система находится на границе устойчивости, если только все
остальные корни лежат в левой полуплоскости.
Пример 4.2. Определим устойчивость системы, рассмотренной в примере 4.1, используя критерий Михайлова. Характеристический вектор, или вектор Михайлова, определяется из характеристического уравнения системы путем замены оператора p на оператор jω:




M ( j)  a3  a2 2  j a2  a12 .
Годографы Михайлова показаны на рис. 6.4. Поскольку годограф последовательно переходит из квадранта, исследуемая система устойчива.
3.5
3
M(jω)
2.5
2
1.5
1
V(ω)
Mкр(jω)
0.5
0
Устойчивая
Неустойчивая
-0.5
1+k
1 + kкр
-1
-1.5
-20
-15
-10
-5
0
5
10
15
20
25
U(ω)
Рис. 6.4. Годографы Михайлова
Здесь же показан случай системы, находящейся на границе
устойчивости. В этом случае годограф Михайлова проходит через
начало координат, тогда
a
3
 

 a2 2  a2  a12  0 .
189
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Откуда следует после исключения ω
a1a2  a0 a3  0 ,
что совпадает с условиями устойчивости критерия Гурвица.
6.3.2. Критерий устойчивости Найквиста
Рассмотрим теперь влияние охвата отрицательной обратной
связью на устойчивость системы. Пусть разомкнутая система
(рис. 6.5,а) имеет передаточную функцию
W p ( p)  k
P1 ( p )
,
P2 ( p )
(6.15)
и, следовательно, характеристическое уравнение будет равно знаменателю передаточной функции:
P2 ( p)  0.
x
y
g
(6.16)
x
Wp(p)
y
Wp(p)
_
а)
б)
Рис. 6.5. Структурные схемы разомкнутой (а) и замкнутой (б) систем
Вектор Михайлова для разомкнутой системы имеет вид
M ( j)  P2 ( j) .
(6.17)
Предположим, что характеристическое уравнение (6.16)
имеет m корней с положительной действительной частью, находящихся в правой полуплоскости.
Тогда при изменении частоты от 0 до бесконечности аргуm
мент вектора (6.17) изменяется за счет этих корней на угол
,
2
а за счет корней, находящихся в левой полуплоскости,  на угол
190
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
( n  m) 
. Полное изменение аргумента вектора Михайлова при
2
этом будет равно
( n  m )  m ( n  2 m ) 
.


2
2
2
После охвата системы (рис. 6.5,б) отрицательной единичной
обратной связью передаточная функция системы имеет вид
Wz ( p ) 
W p ( p)
1  W p ( p)
,
(6.18)
а характеристическое уравнение
1  W p ( p)  0 ,
(6.19)
откуда
kP1 ( p )  P2 ( p )  0 .
(6.20)
Теперь для замкнутой системы выражение для вектора Михайлова запишется в виде
M z ( j)  kP1 ( j)  P2 ( j) .
(6.21)
Чтобы замкнутая система была устойчивой, все n корней
уравнения (6.20) должны находиться в левой полуплоскости. Тогда при изменении частоты от 0 до бесконечности аргумент вектоn
ра (6.21) изменится на
.
2
Введем вектор, представляющий собой после подстановки
p  j левую часть уравнения (6.19):
N ( j)  1  W p ( j) .
(6.22)
Этот вектор называется вектором Найквиста. Принимая во
внимание (6.15), имеем
N ( j) 
kP1 ( j)  P2 ( j)
.
P2 ( j)
Отсюда, согласно (6.21) и (6.17),
N ( j) 
M z ( j)
,
M p ( j)
191
(6.23)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
т.е. вектор Найквиста равен частному от деления вектора Михайлова замкнутой системы на вектор Михайлова разомкнутой системы. Следовательно, аргумент вектора Найквиста равен разности
аргументов векторов Михайлова замкнутой и разомкнутой систем.
При изменении частоты от 0 до бесконечности изменение аргумента вектора Найквиста будет равно
n ( n  2 m ) 

 m.
2
2
Отсюда следует первая формулировка критерия Найквиста:
если характеристическое уравнение разомкнутой системы имеет
m корней в правой полуплоскости, то аргумент вектора N ( j) устойчивой замкнутой системы должен изменяться на угол m при
изменении частоты от 0 до бесконечности.
Для графической интерпретации этого критерия построим
годограф вектора Найквиста по амплитудно-фазочастотной характеристике, данной для той же системы в разомкнутом состоянии.
С этой целью представим частотную характеристику W p ( j)
в форме W p ( j)  U ()  jV () и построим ее в прямоугольных
координатах U () и V () . Каждой точке (U , V ) получаемой при
этом кривой будет соответствовать некоторая частота , а вектор,
исходящий из начала координат и заканчивающийся в этой точке,
будет равен по величине модулю частотной характеристики при
той же частоте: W p ( j)  U 2 ()  V 2 () (рис. 6.6).
V
1  W p ( jω)
W p ( jω)
1
U
Рис. 6.6. Векторы Михайлова и Найквиста
192
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Теперь построим вектор, начинающийся в точке (1, j 0) и
кончающийся в рассмотренной точке (U ,V ) . Модуль этого вектора, как видно из рис. 6.6, равен
(1  U ) 2  V 2  1  W p ( j) . Отку-
да следует, согласно (6.14), что это – вектор Найквиста N ( j) .
Таким образом, частотная характеристика разомкнутой системы, построенная в координатах U, V, является годографом вектора Найквиста в координатах U + 1, V. При изменении частоты 
вектор N ( j) замкнутой системы «обегает» своим концом частотную характеристику разомкнутой системы, имея начало в точке
(–1, 0).
Если разомкнутая система устойчива, то m = 0, и изменение
аргумента вектора N ( j) при изменении частоты от 0 до бесконечности должно быть равно нулю, чтобы замкнутая система была
также устойчивой. Это условие будет соблюдено, если частотная
характеристика разомкнутой системы не охватывает точку (–1, 0),
как показано на рис. 6.7.
Nyquist Diagram
1
Imaginary Axis
0.5
0
-0.5
-1
-1.8
-1.6
-1.4
-1.2
-1
-0.8
-0.6
-0.4
-0.2
0
Real Axis
Рис. 6.7. АФЧХ разомкнутой системы при m = 0
193
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Если же m > 0, то частотная характеристика должна охватывать точку (–1, 0), чтобы при изменении частоты от 0 до бесконечности вектор N ( j) делал поворот на угол m , тогда замыкание
сделает систему устойчивой. На рис. 6.8 показан пример, в котором m = 2, но частотная характеристика разомкнутой системы охватывает точку (–1, 0) так, что при изменении частоты от 0 до бесконечности вектор N ( j) делает поворот на 2 . Это значит, что
замкнутая система устойчива.
Nyquist Diagram
15
10
Imaginary Axis
5
0
-5
-10
-15
-5
0
5
10
15
Real Axis
Рис. 6.8. АФЧХ разомкнутой системы при m = 2
В том случае, если разомкнутая система является астатической, то модуль вектора частотной передаточной функции при

  0 стремится к бесконечности и поворачивается на угол k
2
по часовой стрелке, где k  порядок астатизма системы. Этот случай показан на рис. 6.9.
194
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Nyquist Diagram
1
8
0.8
6
0.6
4
0.4
2
0.2
Imaginary Axis
Imaginary Axis
Nyquist Diagram
10
0
-2
0
-0.2
-4
-0.4
-6
-0.6
-8
-0.8
-10
-1
-0.9
-0.8
-0.7
-0.6
-0.5
-0.4
-0.3
-0.2
-0.1
0
-1
-18
-16
-14
-12
-10
-8
-6
-4
-2
0
2
Real Axis
Real Axis
а)
б)
Рис. 6.9. АФЧХ разомкнутой системы:
а – при k = 1; б – при k = 2
Рассмотрим систему, устойчивую в разомкнутом состоянии.
По приведенной уже формулировке критерия Найквиста система
будет устойчивой и в замкнутом состоянии, если частотная характеристика разомкнутой системы при W p ( p )  1 пересекает вещественную ось четное число раз, поочередно меняя знак производной
частоты по углу или угла по частоте при этих пересечениях, либо
таких пересечений (при модуле, большем единицы) не имеет. Это
вторая формулировка критерия Найквиста.
Случай четного числа пересечений показан на рис. 6.7.
Случай отсутствия пересечений левее точки (–1, 0) показан на
рис. 6.10, где представлена частотная характеристика устойчивой
разомкнутой системы, остающейся устойчивой и после замыкания.
Рассмотрим рис. 6.7, предполагая, что часть характеристики,
проходящая левее точки (–1, 0), приближается к этой точке. Пока
эта часть характеристики остается левее точки (–1, 0), замкнутая
система сохраняет устойчивость; но система теряет устойчивость,
как только характеристика оказывается правее этой точки. Очевидно, поэтому в случае характеристики, проходящей через точку
(–1, 0), замкнутая система будет находиться на границе устойчивости. Тот же вывод легко сделать из рассмотрения случаев, представленных на рис. 6.8 и 6.10.
195
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Nyquist Diagram
2
1.5
1
Imaginary Axis
0.5
0
-0.5
-1
-1.5
-2
-1
-0.5
0
0.5
1
1.5
2
2.5
Real Axis
Рис. 6.10. АФЧХ устойчивой системы
На этом основано понятие о запасе устойчивости, характеризующее удаление АФЧХ от точки (–1, 0). Если замкнутая система
находится на границе устойчивости, то в точке (–1, 0) модуль частотной характеристики равен единице, а фаза равна  . Поэтому
запас устойчивости по амплитуде A характеризуется отличием
модуля W p ( p ) от единицы при   , а запас устойчивости по фазе  – отличием фазы  от  при W p ( j)  1 (см. рис. 6.7).
Определение устойчивости по критерию Найквиста удобно
проводить, используя логарифмические амплитудно-частотные и
фазочастотные характеристики разомкнутой системы, как показано на рис. 6.11. Для устойчивости системы в замкнутом состоянии
необходимо, чтобы ЛАЧХ пересекала ось абсцисс (точка а) раньше, чем ФЧХ пересекает ось 180 (точка б).
196
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Bode Diagram
Magnitude (dB)
50
а1
а
0
Запас по амплитуде
-50
-100
0
Phase (deg)
-45
-90
-135
Запас по фазе > 0, устойчивая
-180
б
Запас по фазе < 0,
неустойчивая
-225
-270
-2
10
-1
10
0
10
1
10
2
10
Frequency (rad/sec)
Рис. 6.11. Логарифмические амплитудно-частотные
и фазочастотные характеристики разомкнутой системы
6.4. Особые точки фазовых траекторий
Фазовая траектория представляет собой годограф обобщенных координат системы в пространстве состояний (фазовом пространстве). Фазовые траектории свободного движения системы
при различных начальных условиях образуют фазовый портрет
системы, позволяющий дать качественную оценку динамических
свойств системы, в том числе и ее устойчивости.
Для наглядной геометрической интерпретации фазовых траекторий ограничимся системами второго порядка.
Пусть имеется система стабилизации частоты вращения
двигателя постоянного тока с независимым возбуждением, структурная схема которой показана на рис. 6.12.
197
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
g
x
kр
u
W0(p)


xoc
kос
Рис. 6.12. Структурная схема системы стабилизации
частоты вращения двигателя постоянного тока
На структурной схеме приняты следующие обозначения: g –
задание частоты вращения; xос – сигнал обратной связи; u –
напряжение якоря; ω – частота вращения якоря; kp – коэффициент
передачи пропорционального регулятора; kос – коэффициент обратной связи; W(p) – передаточная функция двигателя.
Структурной схеме соответствует система дифференциальных уравнений следующего вида:
d  (cm I  M c )
;

dt
J
dI (u  IR  ce )

;
dt
L
u  k p x;
(6.24)
x  g  koc ,
где ω – частота вращения якоря двигателя; I – ток якоря; u – напряжение якоря; Mc – приведенный момент сопротивления на валу
двигателя; R, L – активное сопротивление и индуктивность якоря;
ce, ст – конструктивные коэффициенты.
Определим свободное движение системы, для этого положим равными нулю все внешние воздействия на систему g = Mс = 0,
тогда система (5.14) преобразуется к виду
dx1
 a12 x2 ;
dt
dx2
 a21 x1  a22 x2 ,
dt
ce  kp koc
c
R
, a22   .
где x1 = ω, x2 = I, a12  m , a21  
J
L
L
198
(6.25)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Найдем корни λ1 и λ2 характеристического уравнения системы (6.25):
0
a12
 0;
a21 a22  
 2  a22   a12 a21  0.
Пусть 1   2 . Приведем исходную систему к диагональному виду, для этого введем новые переменные:
x  Ax1  Bx2 ;
y  Cx1  Dx2 ,
где коэффициенты A, B, C и D, по сути, являются координатами
собственных векторов исходной системы, и их можно найти, решая систему однородных алгебраических уравнений:
(0   2 ) А  а21В  0;

а12 А  (а22   2 ) В  0;

(0  1 )С  а21D  0;
а12C  (а22   2 ) D  0.
Переход к диагональной форме путем замены переменных
и исключение времени t позволяет исходную систему уравнений (6.25) привести к дифференциальному уравнению
dy 1 y
,

dx  2 x
(6.26)
решение которого будет иметь вид
1
y  C0 x  2 .
(6.27)
Если 1   2   , то посредством замены
a22
x2 ;
2
y  x2 .
x  a21 x1 
исходная система приводится к виду
dy x  y
.

dx
x
199
(6.28)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Решение этого уравнения будет выглядеть следующим образом:
y
1
x ln x  C0 x.

(6.29)
Особыми точками уравнений (6.26) и (6.28) являются точки,
в которых производная неопределенна, т.е. когда x1 = x2 и имеет
место деление на ноль.
Рассмотрим особые точки, определяемые корнями характеристического уравнения:
1. Корни действительные и одного знака. Особая точка называется узлом. Все кривые в особой точке имеют общую касательную (рис. 6.13).
λ1 = λ2
λ1 ≠ λ2
а)
б)
Рис. 6.13. Фазовые траектории,
имеющие узел
Для устойчивой системы (корни отрицательные) особая точка является точкой устойчивого равновесия, и движение системы
осуществляется в особую точку, т.е. в начало координат. Для неустойчивой системы особая точка является точкой неустойчивого
равновесия, и движение системы происходит из особой точки.
2. Корни действительные и разных знаков. Особая точка называется седлом (рис. 6.14). Система в этом случае неустойчива и
не имеет точки устойчивого равновесия.
200
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Рис. 6.14. Фазовые траектории, имеющие седло
3. Корни комплексно-сопряженные. Особая точка называется
фокусом (рис. 6.15).
Имеет место случай, аналогичный первому. Для устойчивой
системы особая точка является точкой устойчивого равновесия, и
свободное движение системы заканчивается в этой точке. В случае
неустойчивой системы (корни имеют положительную действительную часть) особая точка является точкой неустойчивого равновесия.
Рис. 6.15. Фазовые траектории, имеющие фокус
201
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
4. Корни чисто мнимые. Особая точка называется центром.
Система в этом случае находится на колебательной границе
устойчивости и совершает движение по замкнутому циклу, размер
которого зависит от начальных возмущений (рис. 6.16).
Рис. 6.16. Фазовые траектории, имеющие центр
6.5. Особые линии фазовых траекторий
В отличие от линейных, нелинейные системы обладают
большим разнообразием фазовых траекторий. Помимо особых точек, характерной особенностью этих траекторий является наличие
особых линий, формирующихся в окрестностях особых точек.
Возникновение особых линий соответствует либо наличию зоны
нечувствительности, либо режиму автоколебаний, либо границе
устойчивости. В сложных нелинейных системах, помимо особых
линий, в окрестностях особых точек могут существовать особые
области. Причем в этих областях движение системы является хаотическим, но в то же время не выходящим за пределы особой области.
1. Особые линии, обусловленные наличием зоны нечувствительности. Если положить, что пропорциональный регулятор системы рис. 6.12 имеет зону нечувствительности, то фазовые траектории в этом случае примут вид, показанный на рис. 6.17.
202
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Рис. 6.17. Фазовые траектории системы с зоной нечувствительности
2. Сепаратрисы. Рассмотрим математическую модель физического маятника, уравнение свободных колебаний которого без
учета демпфирования колебаний может быть записано в виде [4]
d 2
(6.30)
 mgl sin   0 ,
dt 2
где φ – угол отклонения маятника; J – момент инерции; l – расстояние от центра тяжести до точки подвеса; m – масса маятника;
g – ускорение свободного падения. Вводя угловую скорость движения маятника, исходное уравнение (5.20) можно привести к системе двух уравнений первого порядка:
J
d
 ;
dt
(6.31)
d
mgl
sin .

dt
J
Для получения уравнений фазовых траекторий исключим
из (6.31) время t:
d
mgl sin 
.

d
J 
(6.32)
Интегрируя это уравнение, получим уравнения фазовых траекторий, или семейство интегральных кривых:
203
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
m2
 mgl cos   C ,
(6.33)
2
где С – постоянная интегрирования. Первое слагаемое в уравнении (6.33) дает выражение для кинетической энергии, а второе –
для потенциальной. В зависимости от начальных условий (при
различных значениях С) будем получать различные фазовые траектории, показанные на рис. 6.18.
1
2
3
ωφ
π
φ
π
Рис. 6.18. Фазовые траектории физического маятника
Фазовые траектории имеют три особые точки: два седла с
координатами (π, 0), (π, 0) и центр с координатами (0, 0).
Минимум потенциальной энергии (кривая Р) соответствует
случаю, когда маятник находится в нижнем устойчивом положении равновесия, максимум потенциальной энергии соответствует
случаю нахождения маятника в верхнем неустойчивом положении
равновесия.
В том случае, когда начальное значение потенциальной
энергии маятника отвечает условию C  mgl , фазовые траектории
соответствуют периодическим вращательным движениям маятника вокруг точки подвеса (кривые 1).
204
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
При C  mgl получается интегральная кривая 2, проходящая
через седло (±π, 0) и состоящая из двух сепаратрис (выделено
жирными линиями). Сепаратриса – интегральная кривая, проходящая через особые точки и разделяющая фазовую плоскость на
области, внутри которых характер движения системы различен.
Действительно, внутри области, ограниченной сепаратрисами, характер движения маятника колебательный, вне этой области маятник совершает вращательные движения вокруг точки подвеса. Если траектория движения маятника совпадает с сепаратрисой, то
говорят, что он совершает лимитационные (предельные) движения
в неустойчивую особую точку.
Если С  mgl , то фазовые траектории (интегральная кривая 3)
соответствуют периодическим колебаниям маятника около нижнего положения равновесия.
3. Предельные циклы. Рассмотрим математическую модель
малых колебаний физического маятника, находящегося в среде с
вязким трением, на который действует постоянная сила, всегда
направленная в сторону движения [17]:
J
d 2
dt 2

d
 d 
 mgl   Fsign 
,
dt
 dt 
(6.34)
где β – коэффициент демпфирования; F – постоянная сила.
Вводя новую переменную – угловую скорость колебаний
d

, разобьем исходное уравнение на два:
dt
d
 ;
dt
d
 fsign    2b   2 ,
dt
F

mgl
, 2 
где f  , b 
.
2J
J
J
(6.35)
Поскольку F  постоянная сила, решение уравнения (6.34)
можно найти методом припасовывания. В соответствии с этим методом вначале находят решение нелинейного уравнения на линейных участках (при F = F0 и F = F0) при произвольных начальных
условиях, а затем припасовывают (соединяют) решения для различных участков, учитывая, что конечное значение переменных
205
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
на одном участке должно являться начальным значением (начальным условием) для другого. Поскольку в рассматриваемом случае
ищется установившееся решение, то начальные и конечные значения переменных на рассматриваемых участках должны совпадать.
На участке, когда F = F0, при начальных условиях t = 0, φ = φ1,
ω = 0 уравнение (6.34) имеет решение

t T 
t  f
f 
f 
  ebt  1  2  cos  b  1  2  sin   2 ,
T  
T 
 
 

где T 

2
 b
2
(6.36)
.
При t = T получим конечное значение переменной φ на рассматриваемом участке:
f  f

2  e bT  1  2   2 ,
(6.37)
  

  0.
На участке, когда F = F0, при начальных условиях t = 0, φ = φ2,
ω = 0 уравнение (6.34) имеет решение

t T 
t  f
f 
f 
  ebt  2  2  cos  b  2  2  sin   2 .
T  
T 
 
 

(6.38)
При t = T
f  f

3  e bT  2  2   2 ,
  

  0.
(6.39)
Припасовывая решения, подставим в (6.39) выражение (6.37):
3  e
2bT
1 
f
2
1  e 
bT 2
,
(6.40)
  0.
Для установившегося режима колебаний φ1 = φ3 = φ0, тогда
из (6.40) получаем выражение для амплитуды автоколебаний φ0:
0 
1  ebT f
1  ebT  2
206
.
(6.41)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Для исследования устойчивости автоколебаний можно воспользоваться диаграммой Кенигса–Лемерея. Эта диаграмма строится в координатах φ1, φ3.
На диаграмме изображаются графики уравнений φ3 = φ1
и (6.40), представляющие собой прямые. Точка пересечения этих
прямых определяет значение φ0.
φ3
φ3 = φ1
φ3б
φ3м
φ1
φ1м
φ0
φ1б
Рис. 6.19. Диаграмма Кенигса–Лемерея
Из рассмотрения диаграммы следует, что при больших начальных отклонениях маятника 1б  0 колебания затухают:
1б  3б , при малых начальных отклонениях маятника 1м  0
колебания нарастают: 1м  3м . И в том и другом случаях устанавливаются автоколебания с амплитудой φ0 и периодом 2Т.
Фазовые траектории движения маятника показаны на
рис. 6.20.
Рассматриваемая система неустойчива «в малом», но устойчива «в большом». В начале координат фазовые траектории имеют
вид расходящихся спиралей, как в неустойчивой линейной системе, но далее все они расходятся не до бесконечности, а асимптотически приближаются к некоторому замкнутому контуру ограниченных размеров.
При больших возмущениях система оказывается устойчивой,
так как внешние спирали стремятся к замкнутому контуру. Эта
замкнутая кривая называется устойчивым предельным циклом.
Устойчивый предельный цикл соответствует автоколебательному
режиму нелинейной системы.
207
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Рис. 6.20. Фазовые траектории движения маятника
Возможен и другой случай, когда система устойчива «в малом», но неустойчива «в большом». В этом случае при малых возмущениях система устойчива, а при больших неустойчива. Направление закручивания спиралей фазовых траекторий  обратное. Граница возмущений, до которой система устойчива, называется неустойчивым предельным циклом.
Возможны и более сложные случаи устойчивости, когда
внутренний неустойчивый предельный цикл охватывается устойчивым внешним предельным циклом. Для сложных систем число
устойчивых и неустойчивых предельных циклов может быть отличным от единицы.
4. Аттракторы. В 1963 г. специалист по физике атмосферы
Э. Н. Лоренц из Массачусетского технологического института,
сделав ряд упрощающих допущений, получил трехмерную модель
тепловой конвекции в обыкновенных дифференциальных уравнениях [39]:
dx1
   x1  x2  ;
dt
dx2
 x1  x2  x1 x3 ;
dt
dx3
 x1 x2  x3 ,
dt
208
(6.42)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
где x1 – безразмерная переменная, пропорциональная скорости
циркуляции жидкости; x2, x3 – безразмерные переменные, которые
отражают распределение температуры в струе жидкости; , ρ связаны с числами Прандтля и Релея соответственно; β описывает
геометрию системы.
Найдем координаты особых точек уравнения (6.42) их условий установившегося режима системы, когда она находится в положении равновесия:
0    x1  x2  ;
0  x1  x2  x1 x3 ;
(6.43)
0  x1 x2  x3 .
Система однородных нелинейных уравнений имеет три решения, т.е. в системе существуют три особые точки, соответствующие трем положениям равновесия системы:
x10  (0,0,0);
x 20  ( (  1), ( (  1)),   1);
(6.44)
x 20  ( (  1),  ( (  1)),   1).
Исследуем устойчивость положения равновесия системы в
этих точках. Для этого воспользуемся первым методом Ляпунова
и линеаризуем систему (6.43) в окрестностях особых точек, приведя ее к виду
dx
(6.45)
 Ax.
dt
Первая особая точка x10 = (0, 0, 0).
В этой точке матрица А10 линеаризованной системы будет
равна
A10
   0 
   1 0  .
 0
0  

(6.46)
Матрица А10 имеет три собственных значения (корня характеристического уравнения системы (6.46)):
p1,2  
 1 1

2
2
   12  4(  1) ,
209
p3  .
(6.47)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Если принять 0 < ρ < 1, то в первой особой точке система устойчива (все корни характеристического уравнения отрицательны
p1,2,3 < 0) и особая точка будет узлом. Фазовые траектории при различных начальных условиях для этого случая показаны на рис. 6.21.
Расчет траекторий проводился при  = 10; ρ = 0,1; β = 8/3.
Рис. 6.21. Фазовые траектории для первой особой точки
Если ρ = 1, p1 = 0, то система в первой особой точке находится на границе устойчивости, и особая точка становится центром.
Дальнейшее увеличение ρ приводит к неустойчивости системы в
первой точке, зато устойчивыми становятся положения равновесия в двух других точках.
Вторая особая точка x 20  ( (  1), ( (  1)),   1) .
Во второй точке матрица А20 линеаризованной системы будет равна
A 20
 


1

 (  1)

1
(  1)
210


(  1)  .

 
0
(6.48)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Характеристическое уравнение матрицы
p3  (    1) p 2  (  ) p  2(  1)  0 .
(6.49)
Используя общепринятое значение коэффициентов уравнения (6.49): ρ > 1;  =10; β = 8/3, определим, как изменяются корни
характеристического уравнения при увеличении ρ.
При 1 < ρ < 1,3456 все корни уравнения (6.49) «левые», и
вещественная вторая особая точка является устойчивым узлом.
При ρ = 1,3456 два корня сливаются в один: p1 = p2 = 1,2894,
и устойчивый узел переходит в устойчивый фокус, показанный на
рис. 6.22.
Рис. 6.22. Фазовая траектория второй особой точки
Третья особая точка x 20  ( (  1),  ( (  1)),   1) .
В третьей точке матрица А30 линеаризованной системы будет равна
A30




1

  (  1)

1
 (  1)
211


 (  1)  .



0
(6.50)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Характеристическое уравнение матрицы будет таким же, как
и для второй точки (6.49), следовательно, будет аналогичным и
изменение корней характеристического уравнения при изменении ρ.
Фазовая траектория для третьей особой точки при ρ = 23 показана на
рис. 6.23.
Рис. 6.23. Фазовая траектория третьей особой точки
Дальнейшее увеличение ρ приводит к тому, что при
ρ = 24,7368 (критическое значение ρ) появляется пара чисто мнимых
корней, а затем комплексно сопряженные корни становятся «правыми», точка x10 – седлом, а точки x20 и x30 – неустойчивыми фокусами. Движения системы становятся хаотическими (рис. 6.24),
наступает хаос (нерегулярная динамика).
Рис. 6.24. Хаотические движения системы
212
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Возникающее хаотическое движение системы имеет следующие особенности:
1. Каждая из особых точек системы является неустойчивой,
однако траектория движения находится в окрестностях особых
точек и занимает ограниченную область, называемую аттрактором. Аттрактор  ограниченное притягивающее множество точек,
внутри которого находятся неустойчивые особые точки.
2. Внутри аттрактора Лоренца невозможно точно предугадать движение системы, так как ее движения хаотические. Такие
аттракторы получили название странных аттракторов. В отличие
от предельных циклов, странные аттракторы не имеют четко заданной траектории.
3. Аттрактор, или множество, к которому притягиваются траектории движения системы, не является двумерной поверхностью.
В отличие от предельных циклов, странные аттракторы не имеют
четко заданной траектории.
На рис. 6.25 приведен странный аттрактор Лоренца.
Рис. 6.25. Странный аттрактор Лоренца
213
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
6.6. Понятие абсолютной устойчивости.
Прямой метод Ляпунова
Для определения абсолютной устойчивости линейных систем Ляпуновым был разработан специальный метод, называемый
в настоящее время прямым (вторым) методом Ляпунова. Основополагающим понятием этого метода является понятие о знакоопределенной (положительно определенной, отрицательно определенной) и знакопостоянной (знакоположительной, знакоотрицательной) функциях. Функция V (x) в пространстве состояний G
размерности n называется знакоопределенной, если она во всех
точках этого пространства сохраняет один и тот же знак и нигде
не обращается в нуль, кроме начала координат.
V ( x)  0, x  G  положительно определенная функция;
V ( x)  0, x  G  отрицательно определенная функция;
V ( x)  0.
Функция V (x) называется знакопостоянной, если она сохраняет один и тот же знак во всей области пространства состояний и
может обращаться в нуль не только в начале координат.
V (x)  0, x  G  знакоположительная функция;
V (x)  0, x  G  знакоотрицательная функция;
V ( x )  0.
Примером таких функций могут являться:
– функция V (x)  x12  x22  x32 – положительно определенная;
– функция V ( x )   ( x12  x22  x32 ) – отрицательно определенная;
– функция V (x)  x12  x22 – знакоположительная при n = 4,
т.е. x  ( x1 , x2 , x3 ) ;
– функция V (x)  ( x12  x22 ) – знакоотрицательная при n = 4.
Пусть система описывается дифференциальными уравнениями вида
dx
 f (x, u, t ) .
(6.51)
dt
214
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Тогда каждое решение x(t )  x(1) (t ) с помощью замены
z (t )  x(t )  x(1) (t ) можно преобразовать в решение z (t )  0 для но-
вой системы:
dz
 f (z  x(1) , u, t )  f (x(1) , u, t )  F (z, u, t ) .
dt
При этом F (0, u, t )  0 для всех t  0 .
(6.52)
Функция V (z, t )  V ( z1 , z2 , ..., zn , t ) называется функцией Ляпунова для системы (6.52), если:
1) V (z, t ) непрерывно дифференцируема в некоторой окрестности G точки z  0 в пространстве состояний ( z1 , z2 , ..., zn ) при
всех t  0 ;
2) V (z, t ) = 0 при всех t  0 ;
4) V (z, t )  W (z ) для всех точек z , принадлежащих G, и при
всех t  0 , где функция W (z ) такова, что W (z ) > 0 для всех z  0 и
W (0)  0 ;
n V
dV
V
Fk  0 для всех z  G и t  0 .

 
4)
dt
 t k 1  z k
При таком определении функции Ляпунова теорема об устойчивости формулируется следующим образом.
Решение z (t )  0 устойчиво в смысле Ляпунова в том и только в том случае, если существует соответствующая функция Ляпунова (теорема Ляпунова об устойчивости).
Решение асимптотически устойчиво в окрестности G, если
существует функция Ляпунова V (z, t ) , удовлетворяющая в окрестdV
 0 для всех z  0 (теорема Ляности G строгому неравенству
dt
пунова об асимптотической устойчивости).
Продемонстрируем справедливость этой теоремы на примере системы третьего порядка:
dx1
 f1 ( x1 , x2 , x3 );
dt
dx2
 f 2 ( x1 , x2 , x3 );
dt
dx3
 f3 ( x1 , x2 , x3 ).
dt
215
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Возьмем знакоопределенную положительную функцию Ляпунова в виде
V (x)  ax12  bx22  cx32 ,
где a, b, c – произвольные положительные числа.
Очевидно, что поверхности равного уровня для функции Ляпунова V (x)  C будут представлять собой эллипсоиды в пространстве состояний. Возьмем производную от функции Ляпунова:
dV
 W (x)  2ax1 f1  2bx2 f 2  2cx3 f3 .
dt
Если производная будет знакоопределенной и отрицательной
W (x)0 во всех точках исследуемого пространства, кроме начала
координат, то при любых начальных отклонениях обобщенных
координат изображающая точка вследствие отрицательности производной от функции Ляпунова будет двигаться в сторону уменьшения этой функции, т.е. будет пересекать эллипсоиды извне вовнутрь. Следовательно, с течением времени изображающая точка
А достигнет начала координат (рис. 6.26).
V(x) = C1
x3
A
x1
V(x) = C2
x2
Рис. 6.26. Траектория движения устойчивой системы
Если производная будет не знакоопределенной, а знакопостоянной, то в этом случае изображающая точка А будет касаться
поверхностей равного уровня и может застрять на этой поверхности, образуя предельный устойчивый цикл.
По аналогии сформулируем теорему Ляпунова о неустойчивости нелинейных систем [10].
Решение z (t )  0 уравнения (6.52) неустойчиво, если существует область G1, содержащаяся в некоторой окрестности G точки
z  0 , и действительная функция W ( z ) такая, что:
216
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
1) функция W ( z ) непрерывно дифференцируема в G1 и
W ( z )  0,
W
Fk  0 , для всех z  0 в G1;

z
k 1
k
n

2) W (0)  0 во всех граничных точках области G1, лежащих
внутри G.
Отметим особенности применения теоремы Ляпунова:
1. Теорема Ляпунова не позволяет определить функцию Ляпунова, т.е., чтобы этой теоремой воспользоваться, нужно сначала
каким-либо образом задать функцию V ( z , t ) .
2. Теорема Ляпунова дает достаточные, но не необходимые
условия устойчивости, т.е. выполнение условий теоремы гарантирует устойчивость, но нет гарантии, что выбор другого вида
функции Ляпунова не изменяет область устойчивости в пространстве состояний.
Пример 4.3. Рассмотрим применение второй теоремы Ляпунова для разомкнутой системы (6.24). После введения новой переменной в соответствии с (6.25) введем функцию Ляпунова, равную энергетическому потенциалу системы:
Jx12 Lx22
V ( x) 

.
2
2
Первое слагаемое пропорционально приращению кинетической энергии системы, второе – энергии магнитного поля двигателя.
Очевидно, что эта функция знакоопределенная, а точнее 
положительно определенная. Найдем производную по времени от
функции Ляпунова V:
W ( x) 
dV V dx1 V dx2


.
dt x1 dt x2 dt
Подставим сюда производные от x1 , x2 из выражения V(x).
После преобразований найдем W ( x ) и потребуем, чтобы она была
знакоотрицательной:
W (x)  (cm  ce ) x1 x2  Rx22  0.
Так как cm  ce , система будет устойчивой при R > 0.
217
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
6.7. Устойчивость линейных импульсных систем
Рассмотрим дискретную систему, описываемую неоднородным разностным уравнением n-го порядка:
a0 y (k )  a1 y (k  1)  ...  an y (k  n) 
 b0u (k )  b1u ( k  1)  ...  bm y (k  m),
(6.53)
устойчивость системы будет определяться устойчивостью решения разностного уравнения (6.53).
Как и в случае непрерывных систем, устойчивость решения (6.53) зависит от устойчивости решения однородного уравнения
a0 y (k )  a1 y ( k  1)  ...  an y (k  n)  0 ,
(6.54)
которое для случая некратных корней ищется в виде
y (k )  C1 z1k  C2 z2k  ...  Cn znk ,
(6.55)
где zi (i  1, 2, ..., n)  корни характеристического уравнения
a0 z n  a1 z n 1  ...  an  0 ,
(6.56)
а Сi – произвольные постоянные, определяемые из начальных условий.
Из (6.55), в частности, вытекает условие устойчивости свободного движения системы:
zi  1 (i  1, 2, ..., n).
(6.57)
В этом случае lim y (k )  0 .
k 
Для определения области устойчивости линейной импульсной системы отобразим мнимую ось комплексной плоскости оператора р, являющуюся границей устойчивости, на комплексную
плоскость оператора z: z  e pT0  e jT0 . Очевидно, что e jT0 является уравнением окружности единичного радиуса.
По аналогии с непрерывными системами необходимое и
достаточное условие устойчивости линейных импульсных систем
можно сформулировать следующим образом. Для устойчивости
линейной импульсной системы необходимо и достаточно, чтобы
все корни характеристического уравнения системы находились
внутри окружности единичного радиуса (рис. 6.27).
218
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Im
Im
Плоскость p
Плоскость z
Re
Re
Рис. 6.27. Области устойчивости непрерывной и дискретной систем
Оценка устойчивости системы по корням характеристического уравнения легко может быть получена для систем невысокого
порядка, позволяющих найти корни уравнения по теореме Виетта.
Для оценки устойчивости систем высокого порядка используются критерии устойчивости. Совпадение критериев устойчивости непрерывных и дискретных систем достигается путем перехода от z-преобразования к билинейному w-преобразованию путем
подстановки [25]:
1 w
z
(6.58)
1 w
или, соответственно,
z 1
w
.
(6.59)
z 1
Такая замена переменных делает левую комплексную полуплоскость областью устойчивости для комплексной переменной w.
Действительно на границе устойчивости комплексная переменная z представляет собой на комплексной плоскости окружность
единичного радиуса, уравнение которой запишется так:
z  e jT0  cos(T0 )  j sin(T0 ) .
(6.60)
Комплексная переменная w в этом случае должна совпадать
с мнимой осью, причем при T0   , w   . Этому условию
удовлетворяет
 T 
w  j tg  0  .
(6.61)
 2 
219
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Действительно, подставляя z  e jT0 в (6.59), получим (6.61):
w
e jT0  1
e jT0
 T 
 j tg  0   j ,
1
 2 
(6.62)
 T 
где   tg  0   относительная псевдочастота. Для построения
 2 
частотных характеристик вводят в рассмотрение абсолютную
псевдочастоту:

2  T0  2
tg
 .
T0  2  T0
(6.63)
Следовательно, для передаточной функции W ( w) от переменной w, полученной из дискретной передаточной функции
W ( z ) путем w-преобразования (6.58), могут использоваться
обычные критерии устойчивости, справедливые для непрерывных
систем.
Отметим, что при использовании частотных критериев устойчивости для дискретных систем можно не использовать w-преобразование, а пользоваться подстановкой z  e jT0 .
Пример 4.4. Определим устойчивость системы, передаточная функция которой в разомкнутом состоянии состоит из двух
параллельно соединенных апериодических звеньев с передаточными функциями
W1 ( p ) 
1
1
; W2 ( p) 
.
T1 p  1
T2 p  1
Тогда дискретная передаточная функция такой системы будет равна
W ( z )  W1 ( z )  W2 ( z ) 

где
d1  e
T
 0
T1
1  d1 1  d 2


z  d1 z  d 2
 2  d1  d 2  z   2d1d 2  d1  d 2  ,
 z  d1  z  d 2 
, d2  e
T
 0
T2
.
220
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Характеристическое уравнение данной системы получится
путем приравнивания нулю передаточной функции этой системы:
 z  d1  z  d 2   z 2  (d1  d 2 ) z  d1d 2  0 .
Его корни равны d1 и d2. Тогда условия устойчивости запишутT
 0
T1
T
 0
T2
1
1
 0;
 0,
T1
T2
что полностью совпадает с условиями устойчивости исходной непрерывной системы.
ся так: d1  e
 1, d 2  e
 1 . Откуда следует:
Воспользуемся теперь билинейным преобразованием, сделав
подстановку (6.58) в характеристическое уравнение:
2
1 w
1 w 
z  a1 z  a2  

a
 a2  0 ,

1
1 w
 1 w 
2
где a1 = d1 – d2; a2 = d1d2.
После приведения к знаменателю получим
(1  d1  d 2  d1d 2 ) w2  2(1  d1d 2 ) w  1  d1  d 2  d1d 2  0 .
Для устойчивости системы необходимо, чтобы все коэффициенты этого уравнения были положительны. Откуда опять следует, что d1  1, d 2  1 .
Определим устойчивость по частотному критерию Михайлова. Построим два годографа Михайлова: один по исходному характеристическому уравнению после подстановки z  e jT0 , другой – по модифицированному с помощью билинейного преобразования характеристическому уравнению после подстановки
w  j . В результате получим два многочлена Михайлова: в первом в качестве аргумента выступает реальная частота ω, во втором
–псевдочастота λ:
M ()  e
2 jT0
 (d1  d 2 )e
jT0
 d1d 2 ;
M ( )  (1  d1  d 2  d1d 2 )( j ) 2  2(1  d1d 2 ) j  1  d1  d 2  d1d 2 .
На рис. 6.28 показаны эти годографы.
221
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
0.014
0.012
λ
0.01
0.008
Im
ω
0.006
0.004
0.002
0
-8
-6
-4
-2
0
2
4
Re
6
-3
x 10
Рис. 6.28. Годографы Михайлова дискретной системы
Аналогично можно определять устойчивость по критерию
Найквиста. На рис. 6.29 показаны ЛАЧХ и ФЧХ непрерывной и
дискретной систем.
Bode Diagram
10
Magnitude (dB)
0
-10
-20
-30
-40
0
Phase (deg)
-45
-90
-135
-180
-2
10
-1
10
0
10
1
10
2
10
Frequency (rad/sec)
Рис. 6.29. ЛАЧХ и ФЧХ непрерывной и дискретной систем
222
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Характеристики дискретной системы ограничиваются часто2
той    20 рад/с.
T0
Программа для вычисления устойчивости по частотным показателям качества приведена ниже
Программа вычисления
clear
w1=tf(1,[1 1]);
w2=tf(1,[2 1]);
w12=w1+w2 % Задание непрерывной функции
T0=.1;% Период дискретизации
wd=c2d(w12,T0) % Задание дискретной функции
[num,den]=tfdata(wd,'v');% Выделение многочленов числителя (num)
и знаменателя (den)
w=0:.01:1;% Задание круговой частоты
x1=exp(j*w*T0)';
x2=exp(2*j*w*T0)';
Mw=x2*den(1)+x1*den(2)+den(3); % Вычисление многочлена
Михайлова
plot(real(Mw),-imag(Mw)) % Построение годографа Михайлова
hold on % Наложение графиков
lm=tan(w*T0/2);% Задание псевдочастоты
a1=den(2);a2=den(3);
b0=1-a1+a2;b1=2*(1-a2);b2=1+a1+a2;
Re=b2-b0*lm.^2;% Вычисление реальной части многочлена Михайлова
Im=b1*lm; % Вычисление мнимой части многочлена Михайлова
plot(Re,Im),grid% Построение годографа Михайлова
pause
hold off % Отмена наложение графиков
bode(w12,wd),grid% Построение ЛАЧХ и ФЧХ
223
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
6.8. Понятие наблюдаемости
и управляемости линейных систем
Наблюдаемость и управляемость характеризуют свойства
систем управления и являются такими же важными понятиями,
как устойчивость [1, 9, 54].
Если устойчивость линейных систем однозначно определяется по коэффициентам матрицы передаточной функции, или матрицы А, или по коэффициентам характеристического уравнения,
то для оценки наблюдаемости необходимо наряду с матрицей А
знать также матрицу наблюдаемости С. Аналогично для оценки
управляемости системы необходимо знать матрицу А и матрицу
управляемости В.
Рассмотрим вначале понятие наблюдаемости. При автоматическом управлении предполагается, что наблюдение за системой
или процессом сопровождается измерением обобщенных (фазовых) координат xi, и в понятия «наблюдение» и «измерение» вкладывается практически одинаковый смысл. В отличие от тождественности понятий наблюдения и измерения, понятия «наблюдаемость» и «измеримость» в теории управления имеют различное
содержание.
Под измеримостью понимается возможность прямого измерения той или иной фазовой координаты. В этом случае речь идет
о непосредственной наблюдаемости. Под наблюдаемостью же понимается возможность как косвенного, так и прямого измерения
фазовых координат на основе прямого измерения других, как правило, регулируемых, величин.
Общая постановка задачи определения состояния системы
по наблюдениям заключается в следующем. Пусть получено посредством наблюдения (измерения) множество Y, связанное известной функциональной зависимостью с множеством X, например Y = CX, принадлежащим пространству состояний системы с
заданной математической моделью в форме Коши. Требуется определить X или некоторое его подмножество X n  X .
В зависимости от видов множеств X и Y, а также уравнений
наблюдаемого процесса, происходящего в системе управления,
возможны следующие задачи наблюдения:
1. Множества X и Y имеют одинаковую размерность, т.е. имеет
место случай полнокомпонентного мгновенного измерения.
224
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Задача наблюдаемости в этом случае сводится к решению
системы, в общем случае, алгебраических уравнений n-го порядка
с n неизвестными.
2. Измеряются одна компонента вектора Y и (n – 1) ее производные. Этот случай аналогичен случаю 1. Однако он не имеет
практического значения, так как невозможно точно измерить производные высокого порядка.
3. Размерность множества Y меньше размерности множества X. Наиболее распространенная – постановка задачи наблюдаемости. Очевидно, что решение этой задачи возможно только на
основании априорной информации о работе системы, т.е. необходима математическая модель системы.
Если в этом случае возможно определение полного вектора
состояния системы, то говорят о полной наблюдаемости, и система называется вполне наблюдаемой.
Если существует возможность восстановления только некоторого подмножества из множества X, а именно части компонент
обобщенных координат, то имеет место неполная наблюдаемость,
а система называется не вполне наблюдаемой.
Для количественной оценки степени наблюдаемости вводятся критерии, по которым оценивается эта степень.
Наиболее простой вид критерия получается для первого случая полнокомпонентного измерения вектора обобщенных координат. Этот критерий соответствует условию разрешимости системы
из n линейных уравнений с n неизвестными.
Для линейных систем уравнений это условие формулируется
в следующем виде. Ранг матрицы наблюдаемости С системы должен быть равен порядку системы.
Рассмотрим теперь третий случай. Так как наблюдаемость
является внутренним свойством системы, то ограничимся определением условий наблюдаемости для свободного движения. При
свободном движении уравнения (2.10) системы преобразуются к
виду
dx
 Ax;
dt
y  Cx.
(6.64)
Продифференцируем n – 1 раз второе уравнение (6.64) и подставим в полученные выражения для производных первое уравне225
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
ние. В результате получим систему из n уравнений для вычисления x.
y  Cx;
y  CAx;
.............
(6.65)
y n 1  CAn 1x.
Система уравнений (6.65) будет иметь единственное решение в том случае, если ранг матрицы наблюдаемости V этой системы будет равен n.
Матрица наблюдаемости имеет вид
C

 CA 


2 

,
V  CA


 ...


n 1 
CA


(6.66)
а ее ранг должен быть равен порядку системы V:
Rank(V)  n .
(6.67)
Это необходимое и достаточное условие наблюдаемости
Калмана.
Пример 4.5. Пусть система управления описывается дифференциальными уравнениями вида V:
dx1
 a11  b1u;
dt
dx2
 a21 x1  a22 x2  b2u;
dt
y  cx1.
Матрицы А и С имеют вид
0 
a
A   11
 ; C   c 0 .
a
a
 21 22 
Матрица наблюдаемости V запишется в следующем виде, согласно (6.66):
226
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
C 
V 
.
CA


Подставляя сюда выражения для транспонированных матриц
А и С, получим
с 0


0

  с
V 

a
a
 11
  1.
21   
(
0)
0
с
сa


   11


 0 a22  

Ранг матрицы V равен 1, следовательно, рассматриваемая
система не вполне наблюдаема, и, зная из эксперимента y, невозможно вычислить (наблюдать) координату x 2 .
Рассмотрим теперь понятие управляемости многомерной
системы. Это понятие связано с возможностью перевода системы
посредством управления из одного состояния в другое. Пусть в
пространстве состояний X заданы два подмножества: Γ1  X и
Γ 2  X . Рассматриваемая система будет управляемой, если суще-
ствует такое управление U  t   (U1 ,U 2 , ...,U k )T , определенное на
конечном интервале времени 0  t  T , которое переводит систему
в пространстве X из подмножества Г1 в подмножество Г2 .
Возможны частные случаи управляемости:
1) пространство состояний Х ограничено замкнутой областью;
2) в процессе управления осуществляется переход из подмножества Г1 в заданную точку пространства состояний;
3) в процессе управления осуществляется переход из заданной точки пространства состояний в заданное подмножество Г1;
4) в процессе управления осуществляется переход из окрестности одной точки пространства состояния в окрестность другой
точки.
В случае неполной управляемости размерность подобласти Г1 меньше размерности пространства состояния.
Кроме этого, управление может происходить при ограничениях, накладываемых на управляющие и управляемые переменные. В общем виде задача управления при таких ограничениях до
настоящего времени решена для частных случаев.
227
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Для линейной стационарной системы можно записать
dx
 Ax  Bu,
(6.68)
dt
где матрицы А и В постоянны.
При отсутствии ограничений в пространстве состояний и
пространстве управлений управляемость зависит только от коэффициентов матриц А и В.
Для управляемой системы справедливо следующее определение. Если для произвольно заданных x0 и x1 существует управление u(t), переводящее систему (6.68) за некоторое конечное
время t1 t0 из состояния x(t0) = x0 в состояние x(t1) = x1, то система
называется вполне управляемой.
Пусть решение уравнения (6.68) задано в виде суммы общего решения однородного уравнения xсв и частного решения xв неоднородного уравнения:
x  xсв  xв .
(6.69)
Для управляемости системы необходимо, чтобы решение
(6.69) было устойчивым, что будет выполняться в том случае, если
lim xсв  0 .
(6.70)
t 
Следовательно, для оценки управляемости системы можно
ограничиться рассмотрением статических режимов. В этом случае
исходная система уравнений преобразуется к виду
Ax + Bu  0.
(6.71)
В том случае, если размерность вектора u больше или равна
размерности вектора x, то по завершении управления, когда вектор x(t1) = x1, система (6.71) будет иметь единственное решение в
том и только в том случае, если ранг матрицы В равен n. Если размерность вектора u меньше размерности вектора x, то необходимое и достаточное условие полной управляемости по Калману
примет вид
x(1) = Ax(0) + Bu(0);
x(2) = Ax(1) + Bu(1) = A 2 x(0) + ABu(0) + Bu(1);
x(3)=Ax(2) + Bu(2) = A3x(0) + A 2 Bu(0) + ABu(1) + Bu(2); (6.72)
.....................................................................................
x(n) = A n x(0) + WU,
228
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»


T
где U  uT (n  1)...uT (0)  вектор управления;


W  B(AB)(A 2 B)...(A n 1B) 
(6.73)
матрица управляемости.
Если ранг матрицы управляемости равен n:
Rank( W)  Rank B(AB)(A 2B)...(A n-1B)   n,


(6.74)
то рассматриваемую систему (6.68) за конечное время можно перевести из состояния x(0) в x(n) под действием управления U.
В противном случае система не вполне управляема.
Пример 4.6. Определим критерий управляемости двигателя
постоянного тока с двузонным регулированием (одновременное
регулирование как по цепи якоря, так и по цепи возбуждения).
Система уравнений для рассматриваемого случая будет выглядеть следующим образом:
dx1 u1  Rb x1

;
dt
Lb
dx2 u2  k n x1  Rx2  kI bn x3
;

dt
L
dx3 kI n x1  kI bn x2

dt
J
или после преобразований
dx1
 a11 x1  b11u1;
dt
dx2
 a21 x1  a22 x2  a23 x3  b22u2 ;
dt
dx3
 a31 x1  a32 x2 ;
dt
0 
 a11 0
 b11 0 
A   a21 a22 a23 ; B   0 b22 .
 0
a

0 

 31 a32 0 
Запишем выражение для матрицы W в соответствии с формулой (6.73):
229
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
  b11 0   a11 0

U    0 b22   a21 a22
 0
0   a31 a32

 a11 0
  a21 a22
a
 31 a32
0   b11 0   a11 0
a23    0 b22   a21 a22
0   0
0   a31 a32
0 
a23  
a33 
0   b11 0  

a23    0 b22   .
0   0
0  
После перемножения матриц и вычисления ранга получим,
что Rank( W)  3 , т.е. двигатель постоянного тока при двузонном
регулировании является вполне управляемым. Самостоятельно
можно убедиться, что при раздельном управлении двигателем по
цепи якоря, или по цепи возбуждения, система также будет управляемой.
Управляемость двигателя постоянного тока предполагает,
что в результате соответствующего изменения напряжения возбуждения или якоря можно получить любые, наперед заданные, значения обобщенных координат двигателя (тока, скорости и угла
поворота) из области их допустимых значений.
230
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
7. Качество систем управления
7.1. Критерии качества
Для сравнительного анализа различных систем управления
необходимо иметь некоторые числовые характеристики этих систем, позволяющие оценивать, какая из них будет более эффективной. Эти числовые характеристики и называются критериями качества.
Критерии качества позволяют дать количественную оценку
различным системам управления и тем самым обоснованно подойти к выбору системы и ее закону управления, удовлетворяющему выбранному критерию качества.
Система управления характеризуется различными показателями, к которым в первую очередь можно отнести: точность, устойчивость, быстродействие, надежность, стоимость, оптимальность и др. При большом разнообразии систем и объектов управления в настоящее время разработано большое число различных
критериев, так или иначе включающих в себя вышеприведенные
показатели. Между этими показателями (критериями качества)
существует тесная взаимосвязь, поэтому стремление улучшить какой-либо показатель системы управления приводит к ухудшению
другого. Так, например, стремление уменьшить ошибку регулирования приводит к уменьшению запаса устойчивости и быстродействия или, наоборот, повышение надежности системы неизбежно
приводит к увеличению ее стоимости.
Использование того или иного показателя системы или их
комбинации в виде критериев качества определяется удобством
его применения в системах управления, а также, в известной мере,
сложившимися традициями [9, 19, 53].
В линейных системах наиболее широко используются критерии качества переходных процессов, которые подразделяются на
прямые, косвенные и интегральные. Кроме этого, на основе этих
критериев может быть вычислен еще ряд дополнительных критериев, к которым относятся:
1) критерии точности, использующие для оценки качества
величину ошибки управления и регулирования в некоторых типовых режимах;
231
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
2) критерии запаса устойчивости, устанавливающие, насколько далеко от границы устойчивости находится система управления;
3) критерии быстродействия, позволяющие оценить время
переходных процессов в системе.
Вычисление всех этих критериев основывается на использовании математического аппарата теории управления, причем
наиболее часто при вычислении критериев качества используются временные и частотные характеристики систем. По временным характеристикам определяют прямые показатели качества, по частотным – косвенные. К косвенным показателям качества относятся также и корневые критерии, позволяющие по
корням характеристического уравнения замкнутой системы оценить ее свойства.
Понятие критериев качества тесно связано с понятием критериев оптимальности, а в ряде случаев эти понятия совпадают.
Учитывая взаимосвязь между различными показателями
систем управления, задачу выбора или проектирования оптимальной системы можно рассматривать как задачу на условный экстремум: найти экстремум (минимум и максимум) какого-либо показателя, например стоимости, при условии, что остальные показатели превышают заранее заданные величины.
Такой постановке отвечают интегральные критерии качества, представляющие собой определенные интегралы от некоторых
функций переменных системы. Наиболее часто в качестве подынтегральной функции используются квадратичные формы от обобщенных координат x и управлений u системы



J   xT Qx  uT u dt ,
0
(7.1)
где Q – заданная положительно определенная матрица весовых
коэффициентов размером n  n; n – порядок системы.
Дополнительными условиями в том случае являются уравнения системы и ограничения на изменение обобщенных координат
и управлений.
Рассмотрим основные наиболее употребительные критерии
качества.
232
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
7.2. Временные показатели качества
Временные показатели качества системы регулирования определяются по переходной характеристике замкнутой системы
(рис. 7.1).
T
2Δ
hm
hy
tпп
Рис. 7.1. Переходная характеристика замкнутой системы
Запас устойчивости системы оценивается по перерегулированию
hmax  hy

(7.2)
100 %.
hy
В большинстве случаев считается, что запас устойчивости
является достаточным, если величина  не превышает 10–30 %.
Быстродействие системы определяется по длительности
переходного процесса. Так как в линейных системах время переходного процесса бесконечно, длительность переходного процесса оценивается как время, протекающее от момента приложения на вход единичного скачка до момента, когда имеет место
неравенство
y  t   y     , y     y y ,
(7.3)
233
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
где  – малая постоянная величина, равная 1–5 % от y y . Если система астатическая, то y y  0 и в качестве  принимают допустимую ошибку регулирования. Оценка качества управления по временным (переходным) характеристикам системы весьма наглядна
и может быть экспериментально проведена на действующих АСР,
что является несомненным достоинством временных показателей
качества. Для вновь проектируемых САР временные показатели
качества менее удобны, так как требуют вычисления переходных
характеристик, что для систем высокого порядка является достаточно сложной вычислительной задачей. Более простым в вычислительном отношении является определение корней характеристического уравнения замкнутой системы и частотных характеристик, поэтому наряду с временными критериями качества широко
используются и косвенные критерии качества, основанные на вычислении корней характеристического уравнения замкнутой системы и частотных характеристик.
7.3. Корневые критерии качества
Известно, что вид корней характеристического уравнения
линейной системы определяет характер переходных процессов,
в ней происходящих. Поэтому расположение корней характеристического уравнения на комплексной плоскости может служить
оценкой характера переходных процессов в системе. Чем ближе
корни характеристического уравнения располагаются к мнимой
оси, тем медленнее будут затухать переходные процессы.
Абсолютное значение вещественной части ближайшего к
мнимой оси корня называется степенью устойчивости:
 .
  min Re Pj
j
(7.4)
Если ближайшим к мнимой оси будет вещественный корень,
то составляющая переходного процесса, определяемая этим корнем, будет иметь вид
x  t   C e
 t
.
(7.5)
Причем все остальные составляющие переходного процесса
будут затухать быстрее, так как показатель степени будет больше.
234
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Если считать, что переходный процесс заканчивается при
tn  3, то можно определить время переходного процесса из соотношения
3
tn  .

(7.6)
Если ближайшей к мнимой оси является пара комплексно сопряженных корней   j , то составляющая переходного процесса,
определяемая этими корнями, примет вид X   t   Ce t  sin t , что
при sin  t  1 дает (7.5).
Если в системе имеют место два колебательных процесса с
одинаковой степенью устойчивости  , но различной частотой  ,
как показано на рис. 7.2, можно утверждать, что, хотя время затухания этих процессов будет одинаково, однако эти процессы будут существенно отличаться друг от друга. Для сравнения колебательных процессов поэтому вводят дополнительный показатель
качества, называемый степенью колебательности.
A1
A2
2Δ
tпп
Рис. 7.2. Переходные характеристики системы
с разной степенью колебательности
235
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Степень колебательности равна отношению мнимой части
корня к вещественной:

 .
(7.7)

Задание определенной величины колебательности ограничивает область расположения корней характеристического уравнения двумя лучами, составляющими с вещественной осью угол

   arctg   arctg .
(7.8)

Таким образом, если в системе заданы степени устойчивости
и колебательности, все корни характеристического уравнения системы должны располагаться внутри незаштрихованной области
комплексной плоскости, определяемой выражениями (7.4) и (7.7),
что показано на рис. 7.3.
+J
 P4
 P2
1
P 5
 P3
 P1
2
h
Рис. 7.3. Область заданной степени устойчивости
и колебательности
Степень колебательности связана с еще одним корневым показателем качества – степенью затухания.
Затухание показывает, насколько уменьшается относительная амплитуда колебаний за один период:
h t  T 
A  A2
 1
,
 1
A1
h t 
где
y  t   Ce  t sin   t    ;
y  t  T   Ce  (t T ) sin   t    .
236
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Откуда
  1  e  T .
Принимая во внимание, что T 
получим
  1 e

2

, а  , окончательно


2

(7.9)
.
Кроме затухания, иногда приводится логарифмический декремент затухания, равный показателю степени в выражении (7.9):

2 
.

(7.10)
Недостатком корневых критериев качества является необходимость вычисления корней характеристического уравнения и невозможность или сложность их экспериментального определения.
Поэтому большее распространение получили частотные показатели качества.
7.4. Частотные показатели качества
Частотные показатели качества определяются по частотным
характеристикам системы, в частности, по амплитудно-частотной
характеристике замкнутой системы и амплитудно-фазочастотной
характеристике разомкнутой системы. Нормированная амплитудно-частотная характеристика замкнутой системы (рис. 7.4) дает
следующие показатели качества:
1) показатель колебательности M 
Am
 Am ;
A(0)
2) резонансная частота системы P ;
3) частота среза, при которой A  с   1 ;
5) частота пропускания A  п  
1
2
;
5) эквивалентная частота пропускания э :

э   A2    d  .
0
237
(7.11)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
А(w)
Аm
1/ 2 ωэ
ωр
ωc ωп
ωэ
Рис. 7.4. Частотные показатели качества
Показатель колебательности М характеризует запас устойчивости системы: чем выше показатель колебательности, тем меньше запас устойчивости. Для доказательства этого утверждения запишем выражение для амплитудно-частотной характеристики
замкнутой системы:
W ( j)
U ()  jV ()
A() 


1  W ( j) 1  U ()  jV ()
U 2 ()  V 2 ()
1  U ()
2
2
 V ()
, (7.12)
где W ( j) – частотная передаточная функция разомкнутой системы; U (), V () – вещественная и мнимая частотные характеристики системы соответственно. Возводя (7.12) в квадрат и освобождаясь от знаменателя, получим уравнение окружности на комплексной плоскости:


A2 () 1  U ()   V 2 ()  U 2 ()  V 2 ().
2
238
(7.13)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
В каноническом виде это уравнение запишется так:
U ()  C 2  V 2 ()  R 2 ,
где C 
A2 ()
2
A ()  1
, R
A()
2
A ()  1
(7.14)
.
Как следует из (7.14), минимальный радиус соответствует
максимальному значению А(ω), равному показателю колебательности М. Задаваясь допустимым значением М из диапазона
1,1 < М < 1,5, на комплексной плоскости по уравнению (7.14)
можно построить окружность, соответствующую заданному М.
Очевидно, что для получения показателя колебательности не
больше заданного необходимо, чтобы АФЧХ разомкнутой системы не заходила в эту окружность, как показано на рис. 7.5.
C
V
R
U
1, j0
0
W(jω)
Рис. 7.5. Условие получения заданного показателя
колебательности
Быстродействие системы оценивается по частоте пропускания: чем выше частота пропускания, тем больше быстродействие
системы.
Использование АФЧХ разомкнутой системы позволяет оценить запас устойчивости системы на основании запаса устойчиво239
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
сти по амплитуде (модулю) А и фазе  . Эти показатели связаны с
критерием устойчивости Найквиста.
Рассмотрим АФЧХ устойчивой системы в окрестностях точки (–1, 0) (рис. 7.6).
L2
a
1, j0
c
φ
L1
b
Рис. 7.6. Запас по амплитуде и фазе
Для общего случая условной устойчивости запас устойчивости определяется двумя точками а и с по выражениям
L1  20lg  1;
L2  20lg  2 .
В хорошо демпфированных системах эти величины составляют примерно 5–20 дБ, что соответствует 2–10-кратному уменьшению коэффициента усиления системы.
Для абсолютно устойчивых систем L2   , и оценку запаса
по модулю производят по L1 .
Запасом устойчивости по фазе  называется выражение
 
  180   c ,
(7.15)
где  – аргумент АФЧХ, соответствующий модулю АФЧХ, равному 1 (точка b, рис. 7.6). В хорошо демпфированных системах
запас по фазе составляет 30–50.
Зная частотные характеристики системы, можно вычислить
их временные характеристики, используя преобразование Фурье.
240
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Можно записать
W ( p) 
 W ( j) 
h(t )  L1 
  1 

,
p
j





где L1,  1 – обратные преобразования Лапласа и Фурье.
Переходя к вещественной форме интеграла Фурье, получим
2  W ( j) 
h(t )    Im 
sin td .
 0  j 
Подставляя сюда W ( j)  U ()  jV () и выделяя мнимую
часть, найдем
2
sin(t )
h(t )   U ()
dt.
0

(7.16)
Пример 7.1. Для систем невысокого порядка все критерии и
показатели качества связаны между собой. Рассмотрим это утверждение на примере колебательного звена с передаточной функцией
k
W  p  2 2
.
T p  2 Tp  1
Корни характеристического уравнения найдем из условия
T 2 p 2  2 Tp  1  0 .
Откуда
 j 1  2
p12   
   j .
T
T
Следовательно, степень устойчивости и степень колебательности для такого звена будут равны

 ;
T
1  2

 
.


Переходную характеристику звена найдем путем обратного
преобразования Лапласа–Карсона от передаточной функции:




h  t   k 1  e  t   cos  t  sin  t   .




241
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Максимальные значения вычисляются по следующей формуле:
ke
hM 


2
T 1 
2
.
Перерегулирование будет равно





2
 e

 1  100 %.

 T  1  2



Время переходного процесса tп найдем из условия, при котором
h  tп   0,95hycт ;
tп  
ln 0,05
.

Амплитудно-частотная характеристика звена будет равна
модулю частотной передаточной функции:
A   
k
1  
2
T

2 2
.
2
2
 4  T
2
Максимальное значение AM найдем из уравнения
dA
 0:
d
1  2 2
P 
.
T
Откуда показатель колебательности М найдем из отношения
AM
1

.
A  0  2 2 1   2
7.5. Интегральные критерии
Интегральные критерии дают общую оценку качества переходных процессов. Наряду с обобщенным интегральным критерием (7.1) используются более простые критерии или функционалы.
242
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Простейшей интегральной оценкой для одномерных систем
может служить величина

J 0     t  dx,
(7.17)
0
где ε – ошибка системы.
Очевидно, что J 0 будет тем меньше, чем быстрее затухает
переходный процесс и чем меньше величина ошибки.
Для вычисления интеграла (7.17) достаточно знать изображение ε(p), а затем воспользоваться теоремой о предельном значении изображения:

  p .
   t  dt  plim
0
(7.18)
0
Для типового входного сигнала типа  -функции


0
0
W  p .
   t  dt     t  dt  plim
0
(7.19)
Неудобство интегральной оценки вида (7.17) заключается
в том, что она может использоваться только для апериодических
процессов. Если имеет место колебательный процесс, то используются критерии

J1     t  dt ;
(7.20)
J 2    2  t  dt.
(7.21)
0

0
Более широко используется последний критерий (7.21), называемый квадратичной интегральной оценкой. Это обусловлено
возможностью вычисления этого критерия без непосредственного
определения ε(t).
Для обоснования этого утверждения запишем интеграл (7.21)
в виде

1 

it
x
t
    2    i e d  dt.
0
0


(7.22)
В выражение в квадратных скобках запишем обратное преобразование Фурье от ε(t). В последней формуле изменим порядок
интегрирования:
243
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

1 
i t 
i
t
e
dt  d .










2 0
0

(7.23)
Выражение, стоящее в квадратных скобках, есть прямое преобразование Фурье от ε(t) при замене  на  , откуда получается
формула Рэлея:

1 
2
   t  dt  2    i d ,
0
0
2
(7.24)
где ε (i) – преобразование Фурье от ε(t).
Если использовать выражение для передаточной функции по
ошибке W ( p ) от задающего сигнала, то выражение (7.22) можно
записать в виде

2
1 




t
dt
W
i
q
i
d .







 

2
0
0
2
(7.25)
Если q  t     t  , то q  i  1 , и интегральный квадратный
критерий примет вид
2
1 
J3 
W  i d .

2 0
(7.26)
Оценка качества системы по интегральной квадратичной
оценке не учитывает колебательность переходного процесса. Оказывается, что переходные процессы с разными показателями колебательности и различной длительностью могут дать равные значения критерия (7.21). Если выбирать параметры системы по минимуму этой оценки, то переходные процессы в такой системе
имеют высокий показатель колебательности.
Поэтому применяется еще один вид интегральной оценки:

I 4    2  t   ax 2  t   dt , a  0,


(7.27)
0
или

I 5    q 2  t   u 2  t   dt , q  0.


0
244
(7.28)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Последний критерий является частным случаем обобщенного критерия (7.1) для одномерной системы.
Необходимо отметить, что невозможно одновременно обеспечить наилучшие показатели качества по всем интегральным
критериям. Например, увеличение запаса устойчивости системы
приводит к увеличению динамической ошибки или, наоборот,
стремление уменьшения показателя колебательности может привести к увеличению времени переходного процесса.
Поэтому при синтезе систем регулирования используют несколько показателей качества. Для одного из них, называемого
критерием оптимальности, добиваются экстремального (минимального или максимального) значения, а для других вводят ограничения в виде неравенств.
7.6. Критерии точности
Критерии точности системы, к которым относятся статическая xс и динамическая xд ошибки системы, могут быть определены
по временной характеристике (рис. 7.7) из очевидных соотношений:
c  g  hy ;  д  g  hm ,
где g – задание системы.
εд
εс
g(t) = 1(t)
hy = 0,9
Рис. 7.7. Определение ошибок системы
по ее переходной характеристике
245
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Кроме статической и динамической ошибок, определяемых
по переходной характеристике, в качестве критериев точности используют коэффициенты ошибок.
Коэффициенты ошибок представляют собой коэффициенты
разложения передаточной функции системы по ошибке в ряд
Маклорена при p = 0. Если известна передаточная функция системы по ошибке от управляющего или возмущающего воздействия
Wgf(p), то коэффициенты ошибок сi определяются из разложения
c
c
Wgf ( p)  c0  c1 p  2 p 2  3 p 3  ... .
(7.29)
2!
3!
На основании (7.29) можно записать выражение для ошибки
системы:
c
c


( p )  c0  c1 p  2 p 2  3 p3  ... g ( p).
2!
3!


(7.30)
В соответствии с теоремой о предельном значении изображения Лапласа статическая ошибка системы может быть найдена
по ее изображению:
 у  lim (t )  lim ( p ) 
t 
p 
dg (t ) c2 d 2 g (t ) c3 d 3 g (t )
 c0 g (t )  c1


 ... .
dt
2! dt 2
3! dt 3
(7.31)
Коэффициенты ошибок определяются согласно правилу разложения функции в ряд Маклорена:
c0  Wgf ( p ) 
,
p 0
 d 2 mWgf ( p ) 
 dWgf ( p) 
c1  
, ..., cm  
.


m
dp
dp



 p 0
p 0
(7.32)
Более просто коэффициенты ошибок можно получить путем
операции длинного деления числителя на знаменатель передаточной функции системы по ошибке.
Пример 7.2. Определим первых два коэффициента ошибки
по задающему воздействию, если передаточная функция разомкнутой системы имеет вид
W ( p) 
k
a0 p 2  a1 p  1
246
.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Передаточная функция замкнутой системы по ошибке от задающего воздействия будет равна
Wg ( p) 
a2 p 2  a1 p  1
a2 p 2  a1 p  1  k
.
Для нахождения коэффициентов ошибок проведем длинное
деление числителя на знаменатель Wg(p):
1  a1 p
a
1 1 p
1 k
a1k
p
1 k
a1k
p
1 k




a2 p 2
(1  k )  a1 p  a2 p 2
a2 2 1
a1k
p
+
p +…
1  k 1  k 2
1 k
a2 k 2
p
1 k
a12 k
a1a2 k 3
2
p

p
2
2
1
1

k

k
 
 
a12  2 a0 a1k 3
k 
p
 a2 
 p 
2
1

k
1

k
 
1  k 

Тогда c0 
ak
1
, c2  1 2 , … .
1 k
1  k 
Помимо коэффициентов ошибок, в качестве критериев точности используют ошибки системы в типовых режимах. Наиболее
употребительными режимами являются:
– установившийся режим g (t )  1(t );
– движение с постоянной скоростью g (t )  vt ;
– движение с постоянным ускорением g (t ) 
t 2
;
2
– движение при гармоническом воздействии g (t )  g m sin(k t );
– движение при случайном воздействии g (t )  (t ) , где (t ) –
центрированная случайная величина с нулевым математическим ожиданием и заданной дисперсией D, корреляционной
функцией R () или спектральной плотностью S () .
247
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Установившийся режим. Статическую ошибку системы
можно вычислить, используя выражение передаточной функции
системы по управляющему или возмущающему воздействиям.
Так, для замкнутой системы, структурная схема которой показана
на рис. 6.5,б, ошибка системы будет равна
x( p)  g ( p )  y ( p );
y ( p )  x( p )W ( p );
W ( p) 
k (b0 p m  b1 p m 1  ...  bm 1 p  bm )
p s ( p n  s  a1 p n  s 1  ...  an  s 1 p  an  s )
(7.33)
.
Подставляя второе уравнение в первое, получим передаточную функцию по ошибке:
x p 
g  p
.
1W  p
(7.34)
Используя теорему о предельном значении изображения,
найдем, чему будет равно xc :
lim x(t )  lim xc ( p).
t 
p 0
(7.35)
Подставляя сюда выражение для xc , полученное из (7.34),
найдем
g ( p)
.
p 0 1  W ( p )
xc  lim
(7.36)
Если система не содержит в своем составе интегрирующих
звеньев, то s = 0 в выражении передаточной функции (7.33) и такая система называется статической. Это соответствует отсутствию в знаменателе передаточной функции сомножителей p. В статической системе ее статическая ошибка при g  t   1 t  будет
равна конечной величине, получаемой после подстановки в (7.36)
выражения (7.33):
1
,
(7.37)
1 k
где k – коэффициент усиления разомкнутой системы, равный отb
ношению k  m . Очевидно, что для статической системы ее
an  s
xc 
248
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
статическая ошибка равна первому коэффициенту ошибок с0. Это
следует непосредственно из (7.29), так как в установившемся режиме все производные от задающего воздействия равны нулю.
В том случае, если в составе системы имеются интегрирующие звенья, то система называется астатической. Статическая
ошибка системы будет равна нулю, так как limW ( p)   , а выp 0
ражение (7.36) для статической ошибки будет стремиться к нулю.
Движение с постоянной скоростью. Такой режим возникает в следящих системах и системах программного регулирования.
Выражение для ошибки системы (7.35) в этом случае запишется с
v
учетом того, что g ( p )  .
p
В таком режиме работы ошибка регулирования будет отлична от нуля даже при астатизме первого порядка, когда показатель
степени в (7.33) s = 1. Действительно, подставляя g(p) в (7.36), получим выражение для скоростной ошибки:
v/ p
v
 ,
kv
p 0 1  W ( p )
xv  lim
(7.38)
Поскольку работа системы может происходить с разными
скоростями отработки задающего воздействия, то критерием качества служит величина добротности по скорости, равная
kv 
v
.
xv
(7.39)
Как следует из (7.37), режим движения с постоянной скоростью используется для оценки точности только систем с астатизмом первого порядка. В таком режиме добротность по скорости в
системе с астатизмом первого порядка равна обратной величине
от второго коэффициента ошибок с1.
Движение с постоянным ускорением. Этот режим, как и
режим движения с постоянной скоростью, характерен для следящих систем и систем программного регулирования. Ошибка от
постоянного ускорения имеет смысл только для систем с астатизмом второго порядка, когда показатель степени в (7.33) s = 2.
v / p2

x  lim
 .
k
p 0 1  W  p 
249
(7.40)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Показателем качества для такого режима является добротность по ускорению:
k 

.
x
(7.41)
Движение при гармоническом воздействии. При гармоническом воздействии в линеаризованной системе ошибка также будет изменяться по гармоническому закону, отличаясь от задающего воздействия только амплитудой и фазой:
x  xm sin(k t  ) .
(7.42)
Амплитудное значение ошибки xm можно определить из (7.34)
путем подстановки p  j:
xm 
gm
.
1  W ( jk )
(7.43)
Как правило, для реальных систем W ( j)  1 , тогда приближенно (7.43) можно представить следующим образом:
xm 
gm
gm
,

W ( jk ) A(k )
(7.44)
где A(k ) – амплитудно-частотная характеристика разомкнутой
системы при частоте   k .
Если переходить к логарифмическим характеристикам, то
критерием точности системы при гармоническом воздействии
может служить контрольный коэффициент усиления:
g 
L(k )  20lg  A(k   20lg  m  .
 xm 
(7.45)
Движение при случайном воздействии. Будем полагать что
замкнутая система (рис. 7.8) в этом случае одновременно находится под воздействием случайного задающего сигнала g(t) и случайного возмущения f(t), приведенного ко входу системы, а задающее
воздействие g(t) и возмущение f(t) представляют собой стационарные случайные процессы с корреляционными функциями Rgg () ,
R ff () и спектральными плотностями S gg () , S ff () соответст-
венно.
250
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
f(t)
g(t)
y(t)
W(p)
Рис. 7.8. Структура системы при наличии случайных возмущений
Запишем выражение для передаточной функции ошибки
системы от задающего и возмущающего воздействий:
Wgf ( p)  Wg ( p)  W f ( p) 
1
W ( p)

.
1  W ( p) 1  W ( p)
(7.46)
Среднеквадратичное значение, или дисперсия ошибки, являющееся критерием точности для рассматриваемого режима,
может быть вычислено через спектральную плотность ошибки
S xx () или ее корреляционную функцию Rxx () :
2
xck
1 
D
 S x ()d   Rxx (0).
2 
(7.47)
Наиболее просто выражение для спектральной плотности
ошибки может быть получено при отсутствии корреляции между
задающим сигналом и возмущением:
2
2
S xx ()  Wg ( j) S g ()  W f ( j) S f () 
2
2
1
W ( j)
S g () 
S f ();

1  W ( j)
1  W ( j)




(7.48)
Rxx ()   d    wg () Rgg (    ) wg () 
 wgf ( ) R ff (     ) w f ()  d ,
(7.49)
где wg (t ) и w f (t ) – функции веса системы по заданию и возмущению, полученные соответственно по передаточным функциям
Wg ( p) и W f ( p) .
251
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Сравнивая выражения для ошибки (7.48) и (7.49), можно сделать вывод, что вычисление ошибки через спектральные плотности значительно проще, поэтому чаще используют частотные методы для ее вычисления. При наличии корреляции между g(t) и f(t)
выражения (7.48) и (7.49) усложняются:
2
2
S xx ()  Wg ( j) S g ()  W f ( j) S f () 
 Wg ( j) S fg ()W f* ( j)  Wg* ( j) S gf ()W f ( j),
(7.50)
где S gf () и S fg () – взаимные спектральные плотности сигналов
задания и возмущения; Wg* ( j) и W f* ( j) – комплексно сопряженные частотные передаточные функции по задающему воздействию и возмущению:
Rxx () 




 d  wg ()Rgg (   )wg () 
 wgf ()R ff (   )wf () d





 d    w f () R fg (    ) wg () 
 wg ( ) Rgf (    ) w f ()  d .
252
(7.51)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
8. Методы и средства улучшения качества
процессов управления
8.1. Проблема улучшения качества процессов
управления
Проблема улучшения качества процессов управления сложными техническими системами решается на основе развития методов и средств управления этими процессами. Современное состояние теории управления позволяет успешно решать задачи
проектирования, анализа и синтеза систем автоматизации и управления. Основной трудностью при решении этих задач является их
корректная постановка [27, 34].
Современная теория управления, как теория оптимальных
систем [1, 51, 53], требует четкой математической постановки задачи в рамках теории функционального анализа, что предполагает
наличие математической модели системы и определение критериев эффективности ее функционирования [1, 23, 35, 36, 42].
Реальная техническая система в силу ее сложности, невысокого априорного и апостериорного информационного обеспечения, нелинейности характеристик, нестационарности параметров и
внешних возмущений не позволяет однозначно сформулировать
задачу управления. При этом значительные трудности возникают
как при получении математических моделей [36, 45, 52, 59], так и
при определении критериев оптимальности [1, 14, 35]. Преодоление
этих трудностей осуществляется в рамках системного подхода [42],
предполагающего единое комплексное рассмотрение и проектирование системы управления в целом, и представляет достаточно
сложное переплетение организационных, информационных, математических, программных и технических средств и приемов.
В связи с этим результат решения проблемы улучшения качества процессов управления сложных технических систем является
некоторым паллиативом исходной задачи оптимального управления
и в значительной степени зависит от выбранной целевой функции
или критериев управления, важнейшими из которых являются:
– критерии точности, использующие для оценки качества величину ошибки управления и регулирования в типовых режимах;
– критерии запаса устойчивости, устанавливающие, насколько
далеко от границы устойчивости находится система управления;
253
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
– критерии быстродействия, позволяющие оценить время переходных процессов в системе.
Сложность решения этой проблемы обусловлена, во-первых,
неполным и приближенным математическим описанием системы,
поэтому даже в случае комплексного решения оптимизационной
задачи по приближенной математической модели результаты могут оказаться далеко не оптимальными. Во-вторых, для сложных
систем возникают трудности выбора критерия оптимальности,
преодолеваемые в настоящее время в рамках теории многокритериальной оптимизации, из которой следует, что выбранный на основе любого метода критерий в лучшем случае будет неполным,
а в худшем – противоречивым [34, 42, 47].
Действительно, стремление к увеличению точности воспроизведения управляемых процессов неизбежно приводит к уменьшению запаса устойчивости системы и снижению ее быстродействия.
В связи с этим, помимо оптимизационных методов, основными решениями проблемы улучшения качества процессов управления сложных технических систем являются метод последовательных приближений и рассмотрение различных вариантов решения совокупности частных задач, включающих в себя:
– задачу получения необходимой точности в установившихся и переходных режимах работы;
– задачу увеличения запаса устойчивости системы;
– задачу обеспечения заданного качества регулирования.
8.2. Повышение точности систем управления
Основными методами повышения точности систем регулирования являются [10]:
– увеличение коэффициента усиления разомкнутой системы;
– введение неединичных обратных связей;
– повышение порядка астатизма (введение интегрирующих
звеньев);
– регулирование по производным от ошибки;
– инвариантное управление.
Увеличение коэффициента усиления разомкнутой системы. Рассмотрим замкнутую систему (рис. 8.1) в которой для
254
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
уменьшения ошибки регулирования последовательно с объектом,
имеющим передаточную функцию Wo ( p ), включено корректирующее устройство с передаточной функцией Wk ( p). Будем полагать, что возмущение приведено к входу объекта, а передаточная
функция обратной связи Woc(p) = 1.
f
g(t)
e(t)
u(t)
W k(p)
y(t)
W o (p)
-
W ос(p)
Рис. 8.1. Структурная схема системы
с корректирующим устройством
Тогда уравнения системы, записанные в символической форме, можно представить в следующем виде:
e( p )  g ( p )  y ( p );

u ( p)  Wk ( p )e( p );
 y ( p)  W ( p) u ( p)  f ( p) .


o

(8.1)
Исключая из (8.1) переменные u(p) и y(p), найдем передаточную функцию замкнутой системы по ошибке:
e( p ) 
Wo ( p ) f ( p )
g ( p)

.
1  Wk ( p )Wo ( p ) 1  Wk ( p)Wo ( p)
(8.2)
Первое слагаемое дает ошибку по управлению или заданию
g(t), второе слагаемое – ошибку по возмущению f(t).
Если в выражениях для передаточных функций корректирующего устройства и объекта выделить коэффициенты их передачи kk и ko, то выражение для ошибки системы запишется так:
e( p ) 
koGo ( p ) f ( p )
g ( p)

,
1  kk koGk ( p)Go ( p ) 1  kk koGk ( p)Go ( p )
255
(8.3)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Wk ( p )
W ( p)
и Go ( p)  o
– нормированные передаточkk
ko
ные функции корректирующего устройства и объекта.
Анализ выражения (8.3) позволяет сделать вывод, что для
уменьшения как статической, так и динамической ошибки системы необходимо увеличивать коэффициент передачи разомкнутой
системы k  kk ko . Увеличение общего коэффициента усиления разомкнутой системы является универсальным способом уменьшения всех составляющих ошибок в любых режимах работы.
Несмотря на универсальность рассмотренного способа
уменьшения ошибки регулирования, его недостатком является
снижение запаса устойчивости системы. Действительно, при увеличении общего коэффициента усиления разомкнутой системы ее
ФЧХ остается неизменной, в то время как ЛАЧХ начинает подниматься вверх, что и приводит к снижению запасов устойчивости,
как по амплитуде, так и по фазе, вплоть до потери устойчивости.
Это утверждение поясняется на рис. 8.2, где приведены ЛАЧХ и
ФЧХ статической разомкнутой системы третьего порядка при различных коэффициентах передачи.
где Gk ( p ) 
Рис. 8.2. Частотные характеристики системы
с различными коэффициентами усиления
256
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
В связи с этим повышение общего коэффициента усиления с
целью снижения ошибки регулирования должно сопровождаться
введением дополнительных корректирующих устройств, повышающих запас устойчивости.
Введение неединичных обратных связей. Статическая
ошибка ес системы (8.1) может быть найдена из выражения (8.2)
по теореме о предельном значении передаточной функции:
ec  lim e(t )  lim ec ( p ) 
p 0
t 
g (0)
.
1 k
(8.4)
Из выражения для статической ошибки ес следует, что в статической системе она всегда отлична от нуля при любом коэффициенте усиления. Положим, что обратная связь неединичная и
Woc(p) = d0. Найдем такое d0, при котором статическая ошибка
равна нулю: ес = 0. Для этого запишем выражение для передаточной функции замкнутой системы при условии неединичной обратной связи:
Wz ( p ) 
kG ( p )
,
1  d o kG ( p )
(8.5)
где G(p) – нормированная передаточная функция разомкнутой
системы.
Для устранения статической ошибки потребуем, чтобы
 lim G ( p )  1;
 p 0

 kG ( p ) 
k

 1.
 lim Wz ( p )  lim 

p 0 1  d o kG ( p )  1  d o k
 p 0
(8.6)
Откуда
k 1
1
 1 .
(8.7)
k
k
При выполнении этого условия в установившемся режиме
передаточная функция замкнутой системы будет равна единице и
gуст = yуст, следовательно, статическая ошибка ec  g уст  yуст  0.
d0 
Аналогичный результат можно получить и при единичной
обратной связи за счет изменения масштаба задающего воздействия. Если изменить масштаб задающего воздействия, поступающего на вход системы, по сравнению с исходным в m раз, где
257
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
k 1
, то ее регулируемая величина в установившемся режиме
k
будет равна
m
k k 1


yуст   lim Wz ( p )  mg уст 
g уст  g уст ,
k 1 k
 p 0

(8.8)
что также соответствует нулевой статической ошибке.
Очевидно, что устранение статической ошибки при введении
неединичных обратных связей возможно только при стабильном
коэффициенте передачи разомкнутой системы.
Повышение порядка астатизма. Использование в качестве
корректирующего звена интегратора с передаточной функцией
Wk ( p ) 
kk
p
(8.9)
полностью устраняет статическую ошибку в системе. Действительно, подставляя (8.9) в выражение для ошибки системы (8.3),
получим
e( p ) 
pk G ( p) f ( p )
pg ( p )
 o o
.
p  kk koGo ( p ) p  kk koGo ( p )
(8.10)
Тогда по теореме о предельном значении передаточной
функции статическая ошибка системы равна нулю:
ec  lim e(t )  lim ec ( p ) 
t 
p 0

pk G ( p) f ( p ) 
pg ( p )
 lim 
 o o
  0.


p
k
k
G
(
p
)
p
k
k
G
(
p
)
p 0 
k o o
k o o

(8.11)
Увеличивая порядок астатизма, можно устранять ошибку по
скорости и ускорению.
Однако, как и в случае увеличения коэффициента усиления,
повышение порядка астатизма приводит или к снижению запаса
устойчивости системы, или к уменьшению ее быстродействия.
Регулирование по производным от ошибки. Такое регулирование позволяет уменьшать динамические ошибки в системе и
осуществляется путем параллельного соединения усилительного и
дифференцирующего звена в корректирующем устройстве.
258
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Передаточная функция корректирующего устройства в этом
случае будет равна
Wk ( p)  kk (1  Td p).
(8.12)
Статическая ошибка системы в этом случае не изменяется,
однако происходит уменьшение динамической ошибки.
Покажем это на примере.
Пример 8.1. Определим первые три коэффициента ошибки
по задающему воздействию системы с передаточной функцией
Wo ( p ) 
ko
,
p (Tp  1)
что в первом приближении соответствует передаточной функции
исполнительного двигателя, отрабатывающего заданное перемещение.
С учетом последовательного введения корректирующего
устройства передаточная функция разомкнутой системы будет
равна
W ( p )  Wk ( p)Wo ( p ) 
ko kk (Td p  1)
.
p (Tp  1)
Тогда передаточная функция системы по ошибке от задающего воздействия запишется так:
Wg ( p ) 
p (Tp  1)
,
p (Tp  1)  k (Td p  1)
где k  kk ko – общий коэффициент усиления разомкнутой системы.
Проводя длинное деление числителя на знаменатель, получим следующие три коэффициента ошибок:
c0  0,
1
c1  ,
k
c2 T 1 Td
 
 .
2 k k2 k
При соответствующем выборе величины постоянной времени Тd можно добиться условий с2 = 0, при которых система не будет иметь установившейся ошибки, пропорциональной ускорению.
Теоретически вводя дополнительные дифференцирующие
звенья в передаточную функцию корректирующего устройства,
можно полностью устранить все коэффициенты ошибок. Однако
на практике реализация идеального дифференцирующего устрой259
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
ства невозможна. Тем более невозможно практически осуществить двойное дифференцирование какого-либо сигнала. При подаче на вход такого звена с передаточной функцией W ( p)  kp 2 высокочастотной помехи u = Asin t на выходе после двукратного
дифференцирования получим
y   k  A 2sin  t.
Амплитуда выходного сигнала возрастает пропорционально
квадрату его частоты. Если на вход системы действует помеха с
частотой 10 кГц, то она усилится после прохождения такого звена
в 100 000 000 раз и подавит полезную информацию.
Инвариантное управление. Рассмотрим структурную схему системы, у которой корректирующий элемент включен так, как
показано на рис. 8.3. На структурной схеме: ЗУ – задающее устройство, КЭ – корректирующий элемент, АР – автоматический регулятор, ОО – обобщенный объект.
f
КЭ
g
ε
+
u
АР
ЗУ
x
ОО

y
Рис. 8.3. Структурная схема системы, инвариантная по управлению
Найдем передаточную функцию Wкэ(p) корректирующего
элемента, обеспечивающую нулевую ошибку регулирования по
управлению (условие инвариантности по управлению). Для этого
запишем передаточную функцию замкнутой системы по ошибке:
W (p ) 
(p )
g (p )

1  Wкэ (p )Wо (p )
1  Wар (p )Wо (p )
,
(8.13)
где Wo(p) – передаточная функция объекта; Wap(p) – передаточная
функция автоматического регулятора.
Откуда следует, что ошибка будет равна нулю, если W(p) = 0,
что выполняется при условии, когда
W (p )  
260
1
.
Wo (p)
(8.14)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Условие (8.14) называется условием инвариантности системы по управлению. При выполнении этого условия ошибка регулирования по возмущению тождественно равна нулю при любом
задающем воздействии g(t).
Из выражения для передаточной функции системы по ошибке (8.13) следует, что введение корректирующего элемента, обеспечивающего условие инвариантности по управлению, не влияет
на динамические свойства системы, поскольку остается неизменным характеристическое уравнение системы. Вместе с тем следует
иметь в виду, что практически условия полной инвариантности
достичь невозможно. Это связано с тем, что в соответствии с условием инвариантности (8.14) передаточная функция корректирующего элемента обратна передаточной функции объекта. Следовательно, она представляет собой неправильную дробь, у которой порядок числителя больше порядка знаменателя. При разложении такой дроби на простейшие в разложении будут появляться
сомножители с передаточными функциями идеальных дифференцирующих звеньев. Как уже отмечалось ранее, практически возможно осуществить только однократное интегрирование, поэтому
можно обеспечить только приближенное условие инвариантности
по управлению. Отметим, что инвариантное управление также
представляет собой управление по производным.
Инвариантное управление возможно не только по управлению, но и по возмущению. Найдем условия инвариантности по
возмущению, для этого рассмотрим структурную схему рис. 8.4.
f
W f(p)
W кэ(p)
u
+
y
W o (p)
Рис. 8.4. Структурная схема системы, инвариантная по возмущению
Если известны передаточные функции объекта по управлению Wo(p) и возмущению Wf(p), то передаточная функция корректирующего элемента Wкэ(p) находится из условия полной компенсации возмущения (условия инвариантности по возмущению):
y  W p (p )Wu (p)  W f (p)  f (p )  0.
(8.15)
261
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Откуда
Wкэ (p)  
W f (p )
Wo (p )
.
(8.16)
Недостатком такой коррекции возмущений является то, что
корректируют только те возмущения, которые можно измерить.
Одновременное обеспечение условий инвариантности по
управлению и возмущению достигается при комбинированном
управлении, когда управляющая величина u зависит как от ошибки системы ε, так и от действующих на нее возмущений f.
В том случае если u зависит только от ε, в системе реализуется принцип регулирования по отклонению; если u зависит только от f , имеет место принцип регулирования по возмущению.
8.3. Увеличение запаса устойчивости
систем управления
Увеличение запаса устойчивости, или демпфирование, системы достигается за счет изменения ее АФЧХ путем введения
корректирующих звеньев. Задачей демпфирования является такая
деформация АФЧХ разомкнутой системы, в результате которой
она будет находиться на достаточно большом удалении от точки
(1, j0). Величину требуемого удаления можно определить, пользуясь каким-либо показателем качества. Поскольку увеличение
запаса устойчивости оценивается по частотным характеристикам,
то наиболее просто в этом случае использовать частотные показатели качества. Наиболее просто использовать запас по фазе, получаемый по ЛАЧХ и ФЧХ разомкнутой системы.
Получение заданного запаса по фазе достигается введением
корректирующих звеньев различного типа: последовательных, параллельных и включенных в цепь обратной связи. Для линейных
систем всегда возможна замена одного типа корректирующих устройств на другой без искажения их характеристик. Поэтому в
дальнейшем будет рассматриваться последовательное включение
корректирующих звеньев как наиболее наглядное.
Коррекция частотных характеристик разомкнутой системы с
целью ее демпфирования может осуществляться тремя основными
способами:
1. Подавление высоких частот, когда в качестве корректирующего устройства используются фильтры низких частот (ФНЧ).
262
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
2. Подавление низких частот, когда в качестве корректирующего устройства используются фильтры высоких частот (ФВЧ).
3. Подавление средних частот в области частоты среза, когда в качестве корректирующего устройства используются полосовые фильтры (ПФ).
Увеличение запаса устойчивости путем использования
ФНЧ. В простейшем случае в качестве ФНЧ можно использовать
апериодическое звено второго порядка с большой постоянной
времени и единичным коэффициентом усиления с передаточной
функцией
1
Wk ( p) 
(8.17)
.
Tk p  1
Этот случай показан на рис. 8.5, где изображены ЛАЧХ
и ФЧХ разомкнутой системы третьего порядка с передаточной
функцией
k
W ( p) 
,
8.18)
(T1 p  1)(T2 p  1)(T3 p  1)
неустойчивой при замыкании единичной обратной связью.
L
Lф
Lk
φф
Δφ
Δφk
φk
ωс
Рис. 8.5. Увеличение запаса устойчивости
с использованием инерционного звена
263
φ
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
На рисунке видно, что последовательное включение корректирующего устройства с передаточной фикцией (8.16) делает систему устойчивой, так как запас по фазе Δφk в скорректированной
системе становится положительным: Δφk > 0, в то время как в исходной системе он отрицателен: Δφ < 0.
Если выбрать постоянную времени корректирующего устройства Tk значительно больше суммы постоянных времени некорректированной системы Ti, то частота среза скорректированной
системы ωc будет меньше сопрягающих частот, определяемых по1
стоянными времени Ti: c  . Следовательно, левее частоты среTi
за ЛАЧХ скорректированной системы сколь угодно мало будет отличаться от ЛАЧХ апериодического звена с передаточной функцией
Wk ( p ) 
k
.
Tk p  1
(8.19)
Этой передаточной функции соответствует хорошо демпфированная и устойчивая в замкнутом состоянии система. Причем,
изменяя Tk, можно добиться, что запас устойчивости системы
(8.19) не будет нарушаться при любом коэффициенте усиления.
Действительно, на частоте среза значение АЧХ разомкнутой системы будет равно единице:
A(c ) 
k
1  2Tk2
 1.
(8.20)
При фиксации частоты среза ωc, удовлетворяющей заданному запасу устойчивости, из (8.20) следует, что постоянную времени корректирующего устройства следует выбирать из условия
k 2 1
Tk 
.
c
(8.21)
Демпфирование статических систем может также осуществляться введением интегрирующего звена с достаточно большой
постоянной времени. Этот случай показан на рис. 8.6.
Для сохранения запаса устойчивости постоянную времени
интегрирующего звена Tk следует выбирать из условия
k
Tk 
.
(8.22)
c
264
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
L
Lф
Lk
φф
Δφ
Δφk
φ
φk
Рис. 8.6. Увеличение запаса устойчивости
с использованием интегратора
Для коррекции можно использовать также и более сложные
корректирующие устройства с передаточной функцией
Wk ( p) 
Tk1 p  1
.
Tk 2 p  1
(8.23)
Если выполнить условие
Tk1  T1 ,
(8.24)
где T1 – наибольшая постоянная времени нескорректированной
системы, то передаточная функция разомкнутой скорректированной системы примет вид
W ( p) 
k (Tk1 p  1)

(Tk 2 p  1)(T1 p  1)(T2 p  1)(T3 p  1)

k
.
(Tk 2 p  1)(T2 p  1)(T3 p  1)
(8.25)
Сравнивая передаточные функции скорректированной (8.25)
и нескорректированной (8.18) систем, можно сделать вывод, что
они имеют одинаковый вид. Отличие заключается в том, что наи265
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
большая постоянная времени скорректированной системы определяется параметрами корректирующего устройства, а именно –
большой постоянной времени Tk2. Эту постоянную времени можно
выбрать по условию (8.21), обеспечивая тем самым необходимый
запас устойчивости. Отметим, что в корректирующем устройстве
(8.23) Tk1  Tk 2 , что и обеспечивает подавление высоких частот.
На рис. 8.7 приведены ЛАЧХ и ФЧХ корректирующего устройства исходной (8.18) и скорректированной (8.25) систем. Параметры корректирующего устройства выбирались по условиям
(8.21) и (8.24).
L
Lф
Lk
φ
φф
φk
Δφk
Δφ
Рис. 8.7. Увеличение запаса устойчивости с использованием ФНЧ
Достоинствами коррекции с использованием ФНЧ являются
простота корректирующих средств и подавление высокочастотных помех.
К существенным недостаткам такой коррекции относятся
сужение полосы пропускания системы и, как следствие, снижение
быстродействия. Поэтому такой способ коррекции может быть рекомендован только для систем с невысоким быстродействием.
Увеличение запаса устойчивости путем использования
ФВЧ. При такой коррекции в состав корректирующих устройств
266
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
входят дифференцирующие звенья. Наиболее простым типом корректирующего звена, обладающего свойствами фильтра высоких
частот, является форсирующее звено, состоящее из параллельного
соединения безынерционного и дифференцирующего звеньев с
передаточной функцией
Wk ( p )  Tk p  1 .
(8.26)
Использование такого звена в качестве корректирующего
позволяет получить дополнительный положительный фазовый
сдвиг, что в конечном итоге увеличивает запас устойчивости. Это
иллюстрируется на рис. 8.8.
Lk
Lф
L
φk
φ
φф
Δφk
Δφ
Рис. 8.8. Увеличение запаса устойчивости
с использованием дифференцирующего звена
Действительно, коррекция системы с передаточной функцией (8.18) с помощью корректирующего устройства (8.23) приводит
к следующему: в области средних и высоких частот происходит
подъем ЛАЧХ и ФЧХ, что и приводит к увеличению устойчивости
системы. Постоянная времени корректирующего устройства Tk
выбирается из условия компенсации наибольшей постоянной времени T1 нескорректированной системы:
Tk  T1.
(8.27)
267
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Если это условие выполняется, то передаточная функция разомкнутой скорректированной системы принимает вид
W ( p) 
k (Tk p  1)
k

.
(T1 p  1)(T2 p  1)(T3 p  1) (T2 p  1)(T3 p  1)
(8.28)
Благодаря введению высокочастотной коррекции (8.23) и
при выполнении условия (8.25) происходит понижение порядка
системы, что и приводит к повышению запаса устойчивости.
В том случае если такая коррекция не обеспечивает необходимые
показатели качества, можно использовать последовательное включение двух корректирующих устройств с передаточными функциями (8.23). В этом случае возможна компенсация двух постоянных времени некомпенсированной системы и увеличение фазового сдвига в области высоких частот до 180.
В рассматриваемом примере, в случае выполнения условий
Tk1  T1 и Tk 2  T2 , передаточная функция скорректированной разомкнутой системы запишется так:
W ( p) 
k (Tk1 p  1)(Tk 2 p  1)
k

.
(T1 p  1)(T2 p  1)(T3 p  1) (T3 p  1)
(8.29)
Следует иметь в виду, что последовательное включение двух
форсирующих звеньев (8.23) приведет к значительному увеличению высокочастотных шумов в системе, что может привести к потере ее работоспособности.
Повышение помехозащищенности может быть обеспечено,
если в качестве корректирующего устройства использовать звено
с передаточной функцией, аналогичной (8.23). Отличие заключается в том, что соотношение постоянных времени будет обратным.
Постоянная времени числителя передаточной функции корректирующего устройства будет значительно больше постоянной времени знаменателя Tk1  Tk 2 , чем и обеспечивается поднятие высоких частот. Результаты такой коррекции приведены на рис. 8.9.
Аналогичные результаты можно получить, если вместо последовательного включения корректирующих звеньев (8.23) использовать замыкание нескорректированной системы местными
обратными связями, содержащими апериодические звенья. Передаточная функция звена, охваченного местной обратной связью,
в этом случае будет иметь вид, аналогичный (8.23), причем
Tk1  Tk 2 . Этому случаю соответствует структурная схема, приведенная на рис. 8.10.
268
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Lk
Lф
L
φф
Δφk
φ
φk
Δφ
Рис. 8.9. Увеличение запаса устойчивости с использованием ФВЧ
g
έ
y
k

Xoc
1
Tk1 p  1
Рис. 8.10. Структурная схема корректирующего устройства
с обратной связью
Нетрудно убедиться, что передаточная функция такой структурной схемы будет равна
k Tk1 p  1
,
(8.30)
Wk ( p ) 
k  1 Tk 2 p  1
Tk1
, что при большом коэффициенте усиления хорошо
k 1
совпадает с (8.23).
где Tk 2 
269
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Достоинством демпфирования путем использования ФВЧ
является универсальность этого метода коррекции, позволяющего
теоретически получить требуемый запас устойчивости при одновременном увеличении быстродействия по сравнению с нескорректированной системой.
Существенным недостатком данного метода коррекции, ограничивающего его применение, является значительный, зачастую
недопустимый, уровень высокочастотных помех в канале регулирования. Высокий уровень помех обусловлен поднятием высоких
частот корректирующими устройствами, в качестве которых выступают ФВЧ.
На практике приходится при поднятии верхних частот одновременно предусматривать подавление высокочастотных помех,
что достигается применением полосовых фильтров.
Увеличение запаса устойчивости путем использования
ПФ. Простейшим полосовым фильтром является фильтр, составленный из последовательно соединенного интегрирующего звена
1
с передаточной функцией W1 ( p ) 
и форсирующего звена с
Tи p
передаточной функцией W2 ( p )  Tд p  1.
Такое корректирующее звено состоит из комбинации ФВЧ и
ФНЧ и имеет передаточная функцию
Wk ( p ) 
Tд p  1
Tи p
.
(8.31)
Если осуществить почленное деление числителя на знаменатель, то получим следующий вид передаточной функции:
Wk ( p )  k 
где k 
1
Tи p
,
Tд
(8.32)
. Такую передаточную функцию корректирующего устTи
ройства можно получить параллельным соединением усилительного и интегрирующего звеньев.
При выборе параметров корректирующего устройства (8.31)
постоянную времени Tд выбирают из условия (8.26) компенсации
наибольшей постоянной времени нескорректированной системы,
270
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
постоянную времени Tи – из условия (8.22) получения заданного
запаса устойчивости.
Передаточная функция разомкнутой скорректированной системы при выполнении этих условий запишется таким образом:
W ( p) 
k (Tд p  1)
Tи p (T1 p  1)(T2 p  1)(T3 p  1)

k
.
Tи p (T2 p  1)(T3 p  1)
(8.33)
Воспользовавшись критерием Гурвица, можно записать следующие условия устойчивости рассматриваемой системы:
1 1
k
  ,
T2 T3 Tи
(8.34)
из которых можно определить необходимую постоянную времени Tи.
На рис. 8.11 показан такой случай коррекции для разомкнутой нескорректированной системы, задаваемой передаточной функцией (8.18).
L
Lф
Lk
φ
φk
φф
Δφk
Δφ
Рис. 8.11. Увеличение запаса устойчивости
с использованием пропорционального и интегрирующего звеньев
Рассматриваемое корректирующее устройство, по сути, является однополосным фильтром низких частот и не позволяет по271
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
лучить высокого быстродействия системы. Для его увеличения
можно воспользоваться последовательным включением интегрирующего звена и двух форсирующих звеньев с передаточными
функциями (8.26).
Передаточная функция такого корректирующего устройства
будет выглядеть следующим образом:
Wk ( p ) 
(Tд1 p  1)(Tд2 p  1)
Tи p
.
(8.35)
Почленное деление числителя на знаменатель передаточной
функции (8.35) дает следующее выражение:
Wk ( p)  kp 
где k 
Tд1  Tд2
Tи
, Tд 
Tд1Tд2
Tи
1
Tи p
 Tд p,
(8.36)
.
Откуда следует, что корректирующее устройство с передаточной функцией (8.35) можно получить параллельным соединением усилительного, интегрирующего и дифференцирующего
звеньев.
Выполняя условия компенсации двух наибольших постоянных времени нескорректированной системы, получим передаточную функцию скорректированной разомкнутой системы:
W ( p) 
k (Tд1 p  1)(Tд2 p  1)
Tи p (T1 p  1)(T2 p  1)(T3 p  1)

k
.
Tи p (T3 p  1)
(8.37)
Постоянную времени Tи можно определить на основании
обеспечения какого-либо показателя качества, например из условия сохранения быстродействия системы. Для того чтобы скорректированная и нескорректированная системы имели одинаковое
быстродействие, необходимо, чтобы в этих системах были равны
сопрягающие частоты. Условие равенства сопрягающих частот
исходной (8.18) и скорректированной (8.36) систем запишется из
условия равенства их АЧХ единице:
k
1  (T1 )2  1  (T2 )2  1  (T3 ) 2 




272

k
Tи
1  (T3 ) 2 


 1. (8.38)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Откуда
1  (T1 ) 2  1  (T2 ) 2 



Tи 
.

На рис. 8.12 показаны результаты такой коррекции.
(8.39)
L
Lk
Lф
φ
φф
Δφk
φk
Δφ
Рис. 8.12. Увеличение запаса устойчивости с использованием ПФ
Увеличение запаса устойчивости с использованием полосовых
фильтров сочетает в себе достоинства ранее рассмотренных способов. При таком виде демпфирования устраняется статическая ошибка, сохраняются быстродействие системы и полоса ее пропускания.
Недостатками такой коррекции являются сложность расчета
параметров корректирующего устройства и сложность настройки
системы. Тем не менее этот вид коррекции является наиболее распространенным.
8.4. Использование автоматических регуляторов
Автоматический регулятор – это программа или техническое
устройство, в котором реализуется тот или иной закон регулирования.
273
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Под законом регулирования в общем случае понимается
функциональная взаимосвязь между регулируемыми координатами системы y, задающими воздействиями g, возмущениями f,
с одной стороны, и управляющим воздействием u – с другой:
U = F(y, g, f, a),
(8.40)
где F – в общем случае, некоторая нелинейная функция; a – постоянные параметры закона управления.
Автоматический регулятор, реализующий закон управления
(8.40), подключается к объекту в соответствии со структурной
схемой, показанной на рис. 8.13.
f
g
ПУ
e
x
u
АР
ОО
y
Рис. 8.13. Структурная схема системы автоматического управления
На структурной схеме приняты следующие обозначения:
ПУ – программное (задающее) устройство; АР – устройство
управления (автоматический регулятор); ОО – обобщенный объект; g – задающее воздействие или задание; e – ошибка регулирования; u – управляющие координаты или величины, вырабатываемые устройством управления (АР); x – зависимые переменные
(обобщенные или фазовые координаты), которые однозначно характеризуют состояние управляемого процесса в любой момент
времени; y – управляемые координаты, которые в процессе управления измеряются и используются для оценки качества функционирования системы управления; f – внешние неконтролируемые
переменные (возмущающие воздействия), отклоняющие y от заданных значений.
В структурной схеме (рис. 8.13) реализуется наиболее общий
случай комбинированного управления. При решении практических задач автоматического регулирования чаще всего ограничиваются регулированием по отклонению в соответствии со структурной схемой рис. 8.14.
274
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
f
g
e
x
u
АР
ОО
y
Рис. 8.14. Структурная схема системы, реализующая принцип ОС
В структурной схеме (рис. 8.14) реализуется фундаментальный принцип управления – принцип обратной связи, когда информация с выхода объекта после соответствующей обработки в
устройстве управления поступает на его вход. Причем управляющие воздействия, подаваемые на вход объекта, вычисляются таким образом, чтобы обеспечить достижения заданной цели управления и скомпенсировать неблагоприятные изменения управляемых координат y при неконтролируемом действии внешних возмущений f.
В рассматриваемой системе автоматического регулирования, которой соответствует структурная схема, приведенная на
рис. 8.14, обобщенный объект можно рассматривать как нескорректированную и неизменяемую часть системы, а автоматический
регулятор – как корректирующее устройство. При использовании
автоматических регуляторов для управления различными промышленными объектами, помимо обеспечения заданного качества
процессов управления, они должны иметь унифицированную
структуру и быть достаточно универсальны в применении.
Рассмотренные в п. 8.3 методы улучшения качества процессов управления позволяют остановиться на корректирующем устройстве с передаточной функцией (8.36). Такое корректирующее устройство принято называть пропорциональноинтегрально-дифференциальным регулятором (ПИД-регулятором). Название регулятора определяется названием типовых
звеньев, из которых он состоит, а именно – пропорционального
звена, интегрирующего звена и дифференцирующего звена,
включенных параллельно.
В настоящее время такие регуляторы являются основным
типом промышленных регуляторов.
275
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Дополнительно, кроме ПИД-регулятора, используются
П-регулятор, И-регулятор, ПИ-регулятор и ПД-регулятор.
Широкое распространение таких регуляторов обусловлено
простой схемной или программной реализацией закона регулирования, невысокой чувствительностью параметров настройки регулятора к изменению параметров объекта (грубостью или робастностью),
сравнительно простой настройкой регулятора под конкретный объект. Недостатком этих регуляторов является не очень высокое качество регулирования, особенно для сложных объектов, имеющих в
своем составе нелинейные элементы и звенья запаздывания.
8.5. Динамические характеристики систем
с линейными регуляторами
Для одномерных систем используются пять законов регулирования, одноименных с названием соответствующего типа регулятора:
1) пропорциональный;
2) интегральный;
3) пропорционально-интегральный;
4) пропорционально-дифференциальный;
5) пропорционально-интегрально-дифференциальный.
Рассмотрим особенности динамики систем с этими законами
для объекта второго порядка [7]:
W0  p  
ko
.
T1 p  1  T2 p  1
(8.41)
Пропорциональный закон регулирования
Пропорциональный закон регулирования в соответствии
с (8.41) задается выражением
u  kп e.
(8.42)
Реализация такого закона осуществляется пропорциональным регулятором (П-регулятором) с передаточной функцией
WP  p   k p .
276
(8.43)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Оценим, каким образом влияет введение пропорционального
регулятора на качество регулирования. Воспользуемся для этого
корневыми критериями качества и статической ошибкой системы.
Для нахождения статической ошибки по регулирующему
воздействию найдем выражения для передаточной функции по
ошибке:
1
,
We  p  
(8.44)
1W  p
где W(p) – передаточная функция разомкнутой системы:
W  p 
K p kо
T1 p  1T2 p  1
.
(8.45)
Выражение для статической ошибки найдем, используя теорему о предельном значении от изображения ошибки по Лапласу:
g  p
g  0

.
p  0 1  W  p  1  k p kо
xcт  lim
(8.46)
Статическая ошибка системы с П-регулятором отлична от 0
и уменьшается с ростом kп , т.е. система с П-регулятором статическая.
Для оценки качества регулирования по корневым критериям
найдем передаточную функцию замкнутой системы, используя
рис. 8.14 и правило преобразования структурных схем:
W3  p  
k p kо
T1 p  1T2 p  1  kp kо
.
(8.47)
После очевидных преобразований можно записать
W3  P  
K
1

,
1  K T1T2 p 2  T1  T2 p  1
1 K
1 K
(8.48)
где K  kp kо – коэффициент усиления разомкнутой системы.
Корни характеристического уравнения будут равны
p1,2
2


 1 1  4 1  K  
1  1 1 
.
        

2  T1 T2 
T
T
T
T
2
1 2
 1


277
(8.49)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Сравнивая полученное выражение с выражением для корней
характеристического уравнения объекта регулирования
po1,2
2

1 1 
1  1 1 
4
        
2  T1 T2 
 T1 T2  T1T2


,


(8.50)
можно сделать вывод об увеличении степени колебательности.
Это следует из меньшего значения подкоренного выражения в
формуле (8.49) по сравнению с (8.50).
Более того, чрезмерное увеличение коэффициента усиления
П-регулятора увеличивает степень колебательности.
Таким образом, введение пропорционального регулятора
1
раз и увеличивает
уменьшает статическую ошибку системы в
1 K
степень колебательности, а следовательно, и запас устойчивости.
Интегральный закон
Интегральный закон регулирования осуществляется введением в систему интегрального регулятора (И-регулятора).
Выражения для интегрального закона и передаточная функция И-регулятора будут выглядеть следующим образом:
1t
u   e dt ;
Ti 0
WP  p  
1
Tip
(8.51)
.
По аналогии с П-регулятором найдем статическую ошибку
системы:
g ( p )1
 0;
p 0 1  W  p 
xcт  lim
k0
.
W  p 
Ti p T1 p  1T2 p  1
(8.52)
Этот предел будет стремиться к нулю, т.е. интегральный регулятор устраняет статическую ошибку и делает систему астатической.
278
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Анализируя выражение для передаточной функции системы
W3  p  
ko
,
Tи p T1 p  1T 2 p  1  k o
(8.53)
можно сделать вывод, что порядок системы возрос на единицу по
сравнению с порядком объекта, и в системе уменьшился запас по
фазе и амплитуде.
Для системы третьего порядка устойчивость будет обеспечена при выполнении соотношения, следующего из критерия устойчивости Гурвица:
a 1 a2  a0 a3  0,
где a0  T1  T2 ; a1  T1  T2 ; a2  1; a3 
Ko
.
Tи
Откуда получается условие устойчивости для системы с
И-регулятором и объектом второго порядка:
1 1 Ko
 
.
(8.54)
T1 T2 Tи
Чем больше будет величина параметра Tи настройки интегрального регулятора, тем больше будет запас устойчивости. Однако увеличение Tи приводит к снижению быстродействия системы.
Пропорционально-интегральный закон регулирования
Увеличить быстродействие системы при нулевой статической ошибке позволяет пропорционально-интегральный регулятор
(ПИ-регулятор), задаваемый следующими соотношениями:
1 t
u  kp e   e dt ;
Tи 0
WP  p   kp 
1

Tи p
kpTи p  1
Tи p
(8.55)
.
Введение ПИ-регулятора позволяет при правильной его настройке скомпенсировать самую большую постоянную объекта,
например T1 , и тем самым значительно увеличить быстродействие
системы, а наличие интегральной составляющей в законе регулирования устраняет статическую ошибку.
279
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Для получения условия компенсации постоянной времени
объекта запишем выражение для передаточной функции разомкнутой системы:
W  p 


ko kpTи p  1
Tи p T1 p  1T2 p  1
.
(8.56)
Если подобрать параметры настройки регулятора kp и Tи таким образом, чтобы kpTи  T1 , то порядок системы понизится и
(8.56) преобразуется к виду
W  p 
k0
.
Tи p T2  1
(8.57)
Откуда передаточная функция замкнутой системы будет
равна
W3  p  
k0
,
Tи p T2 p  1  k0
(8.58)
а корни характеристического уравнения могут быть найдены по
формуле
p1,2  
koT2
1 
1  1 
2T2 
Tи

 .

(6.59)
Сравнивая (8.49) с (8.59), можно заключить, что запасы устойчивости в системе с ПИ- и П-регуляторами соизмеримы, следовательно, соизмеримо и быстродействие систем. Однако ПИрегулятор устраняет статическую ошибку.
Пропорционально-дифференциальный закон
регулирования
Еще большее быстродействие системы обеспечивает пропорционально-дифференциальный закон, реализуемый ПД-регулятором:
de
u  kp e  Tд ;
dt
(8.60)
W  p   kp  Tд p.
280
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
При правильной настройке ПД-регулятор также компенсирует наибольшую постоянную времени объекта. Условие компенсации найдем из передаточной функции разомкнутой системы:
T

ko k p  д p  1 
 kp


 .
W  p 
T1 p  1T2 p  1
Если принять T1 
(8.61)
Tд
, то передаточная функция значительно
kp
упростится:
W  p 
ko k p
T 2 p 1
(8.62)
.
ПД-регулятор обеспечивает высокое быстродействие системы и увеличение запаса устойчивости как по амплитуде, так и по
фазе, однако он не устраняет статической ошибки.
Пропорционально-интегрально-дифференциальный
закон регулирования
Этот закон сочетает достоинства всех вышеперечисленных
законов:
1 t
de
u  kp e   e dt  Tд ;
Tи 0
dt
W  p   kp 
1
Tи p
 Tд p 
TиTд p 2  kpTи p  1
Tи p
(8.63)
.
ПИД-регулятор позволяет скомпенсировать сразу две постоянные времени, что следует из передаточной функции разомкнутой системы:
W  p 

.
ko TиTд p 2  kpTи p  1
Tи p T1 p  1T2 p  1
(8.64)
Если выполнить соотношения TиTд  T1T2 ; kpTи  T1  T2 , то
передаточная функция замкнутой системы примет вид
281
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
W3  P  
ko
1
.

Tи p  k0 Tи p  1
ko
(8.65)
Эта передаточная функция соответствует апериодическому
звену первого порядка и обладает высокими показателями качества.
Компенсация большего количества постоянных времени
требует введения в состав регулятора двукратно дифференцирующих звеньев, что практически не реализуемо.
Для доказательства этих утверждений запишем передаточную функцию регулятора, компенсирующего три постоянных времени:
WP  P  
T1 p  1  T2 p  1  T3 p  1
Tи p
.
(8.66)
Раскрывая скобки и проводя почленное деление, получим
Wp ( p ) 
T1T2T3 2 T1T2  T2T3  T1T3
T T T
1
p 
p 1 2 3 
. (8.67)
Tи
Tи
Tи
Tи p
Одно из слагаемых в законе регулирования содержит дифференцирующее звено второго порядка, что делает такой регулятор практически нереализуемым.
282
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
9. Синтез и настройка автоматических
регуляторов
9.1. Основные понятия о синтезе автоматических
систем управления
Синтез системы – это целенаправленный процесс, позволяющий создать систему, удовлетворяющую заранее заданным условиям. Под синтезом автоматической системы управления понимается определение закона управления, удовлетворяющего заданным показателям качества, т.е. синтез системы управления сводится к поиску закона управления.
Рассмотрим обобщенную структуру системы управления
(рис. 9.1).
f
g(t)
ПУ
e(t)
u(t)
УУ
ОО
[х(t)]
y(t)
Рис. 9.1. Обобщенная структура системы управления
На структурной схеме приняты следующие обозначения:
ПУ – программное (задающее) устройство, УУ – устройство
управления (регулятор), ОО – обобщенный объект.
Для такой обобщенной структуры задачу управления можно
сформулировать следующим образом: для заданной математической модели объекта найти закон управления, удовлетворяющий
заранее заданным критериям (показателям) качества, для всех
x  X и u U .
I  I (x, u).
(9.1)
В качестве критерия качества, как правило, выбирается какой-либо интегральный критерий.
283
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Под законом управления понимается функциональная взаимосвязь между обобщенными координатами системы x и управляющим воздействием u :
u  F (x, f , a),
(9.2)
обеспечивающая экстремум какой-либо целевой функции (9.1) от
x и u , где F – в общем случае, некоторая нелинейная функция;
a – постоянные параметры закона управления.
Предполагается, что объект управления полностью управляем и наблюдаем, что позволяет достичь за конечное время любого
x  X при использовании для управления u  U , а также восстановить вектор обобщенных координат x по измеренным значениям вектора регулируемых величин y.
Для систем, задаваемых структурой рис. 9.1, выражение (9.2)
может быть представлено в линейной форме:
u  F1  e   F2  q   F3  f  .
(9.3)
Первое слагаемое соответствует регулированию по отклонению. Второе и третье – регулированию по внешним воздействиям
(по возмущению).
Поиск неизвестных функций F2  q  и F3  f  осуществляется
из условий инвариантности системы к внешним возмущениям
(см. п. 8.2). Более сложным является поиск закона регулирования
по отклонению. В этом случае возможны две постановки задачи
синтеза управления. Первая задача – это функциональный синтез,
при котором требуется найти закон управления, удовлетворяющий
заданным показателям качества системы. Вторая задача – это параметрический синтез, при котором для заранее заданного закона
управления требуется найти его параметры, обеспечивающие заданные показатели качества. Отсюда следует, что задача синтеза
системы управления разбивается на два этапа.
На первом этапе решается задача оптимального (функционального) синтеза, которая решается как задача оптимального
управления с использованием методов вариационного исчисления,
принципа максимума и динамического программирования. В результате ее решения определяется функция F, удовлетворяющая
заданным критериям оптимальности для всех x  X и u  U . Как
правило, в качестве таких критериев используются интегральные
критерии.
284
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
На втором этапе решается задача параметрического синтеза,
заключающаяся в определении параметра a при заданной F, обеспечивающая системе показатели качества не хуже заданных. Чаще
при решении этой задачи используют частотные, временные или
корневые показатели качества, а при ее решении используются
методы нелинейного программирования.
Синтез автоматических регуляторов является частным случаем решения задачи управления и заключается в решении задачи
параметрического синтеза, в результате определяются закон регулирования и настройки регуляторов.
Решение указанных задач включает следующие основные
этапы [37]:
1. Постановка задачи синтеза регуляторов, включающая назначение и состав системы, режимы ее работы, численные значения ее основных показателей качества, ограничения на регулируемые и регулирующие координаты.
2. Построение математической модели объекта управления и
математическая формулировка задачи синтеза регуляторов.
3. Функциональный и (или) параметрический синтез регулятора.
4. Анализ полученного решения. В результате анализа по
найденным параметрам системы рассчитываются ее показатели
качества. Если система не удовлетворяет полученным показателям, то необходимо вернуться к начальному этапу решения.
5. Техническая (программная или аппаратная) реализация
регулятора.
6. Испытания системы.
В рамках настоящей главы более подробно остановимся на
функциональном и параметрическом синтезе регулятора. В общем
виде задача функционального синтеза формулируется так: для
объекта управления, заданного уравнением в пространстве состояний (2.2), найти такое управление u, которое при заданных
ограничениях на обобщенные координаты х ≤ х0, управления
u ≤ u0 и некоторые показатели качества обеспечивает минимум
функционалу системы:
T
J   F ( x, u , t ) dt.
0
285
(9.4)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
В зависимости от вида ограничений и функционала качества
задачу функционального синтезе можно решать как вариационную задачу, задачу динамического программирования или задачу
принципа максимума.
Задача параметрического синтеза, как уже отмечалось, может
рассматриваться как задача нелинейного программирования: найти
такие параметры настройки регулятора, которые обеспечивали показатели качества системы не хуже заданных. Для решения этой задачи на втором этапе необходимо найти аналитическую взаимосвязь
между параметрами системы и ее показателями качества.
На практике из-за неточности, неполности или даже отсутствия математической модели объекта управления сформулировать
задачу синтеза как оптимальную задачу не представляется возможным. В этом случае речь идет не о синтезе, а о настройке автоматических регуляторов. В результате настройки параметры регуляторов могут отличаться от оптимальных, тем не менее показатели качества системы остаются в заданных пределах.
9.2. Экспериментальные методы настройки
ПИД-регуляторов
Экспериментальные методы настройки регуляторов заключаются в проведении экспериментов на действующей системе регулирования или ее модели с последующим изменением параметров регулятора по результатам экспериментов. Наиболее распространенным из этих методов является метод, разработанный американскими учеными Циглером и Никольсом [43].
Метод незатухающих колебаний. В работающей системе
отключаются интегральная и дифференциальная составляющие
регулятора путем установки времени изодрома Tи   и времени
дифференцирования Tд  0, т.е. в системе используется П-закон
регулирования.
Путем последовательного увеличения kp с одновременной
подачей небольшого скачкообразного сигнала задания добиваются
возникновения в системе незатухающих колебаний с периодом Tkr . Это соответствует выведению системы на границу колебательной устойчивости. При возникновении данного режима работы фиксируются значения критического коэффициента усиления ре286
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
гулятора kkr и периода критических колебаний в системе Tkr . При
появлении критических колебаний ни одна переменная системы
не должна выходить на уровень ограничения.
По значениям kkr и Tkr рассчитываются параметры настройки
модифицированного ПИД-регулятора с передаточной функцией


1
W ( p)  kpm 1  m  Tдm p  :
 T p

и


 П-регулятор:
kpm  0,55kkr ;
 ПИ-регулятор:
kpm  0, 45kkr , Tиm 
(9.5)
Tkr
;
1, 2
Tkr
T
, Tдm  kr .
2
8
Учитывая, что собственная частота о ОУ совпадает с критической частотой kr колебаний замкнутой системы с П-регулятором, величины kkr и Tkr могут быть определены по амплитуде и
периоду критических колебаний собственно объекта управления.
В том случае если выведение объекта на границу колебательной устойчивости нежелательно из-за возможности возникновения аварийной ситуации, используется метод затухающих колебаний.
Метод затухающих колебаний. Применение этого метода
позволяет настраивать регуляторы без выведения системы на критические режимы работы. Так же, как и в предыдущем методе, для
замкнутой системы с П-регулятором путем последовательного
увеличения kpm добиваются возникновения в системе колебатель-
 ПИД-регулятор: kpm  0,6kkr , Tиm 
ного переходного процесса с логарифмическим декрементом затухания   0, 25 . Далее определяются период этих колебаний Tkr и
значения постоянных интегрирования Tиm и дифференцирования
Tдm регулятора:
 для ПИ-регулятора: Tиm 
 для ПИД-регулятора: Tиm
Tkr
.
6
T
 kr ,
6
287
Tдm 
Tkr
.
1,5
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
После установки вычисленных значений Tиm и Tдm на регуляторе производится дополнительная подстройка коэффициента kpm до получения исходного декремента затухания   0, 25 , что
обычно приводит к уменьшению kpm на 20÷30 %. Аналогичный метод настройки используется в адаптивных регуляторах американской фирмы «Фоксборо».
9.3. Синтез систем методом последовательной
коррекции с подчиненным регулированием
координат
Пусть передаточная функция объекта имеет вид [58]
Wo ( p ) 
k1k2 ...kn e  τp
n
(9.6)
,
 (Ti p  1)
i 1
где  – постоянное запаздывание; Ti – постоянные времени элементов объекта регулирования, расположенные в порядке убывания по значению; k1 , k2 , ..., kn – коэффициенты передачи элементов
объекта регулирования.
Предположим, что передаточная функция регулятора задана
в виде
l
 (T j p  1)
Wp ( p ) 
j 1
k1k2 ...kn To p
,
(9.7)
где l – число больших и средних постоянных времени. Для физически реализуемых регуляторов l  2 , т.е. в качестве наиболее
сложного регулятора можно использовать ПИД-регулятор.
Тогда передаточная функция разомкнутой системы
k1k2 ...kn e
 τp
W ( p) 
l
 (T j p  1)
j 1
n
k1k2 ...kn To p (Ti p  1)
i 1
288
.
(9.8)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Если выбрать параметры настройки регулятора из условия
компенсации наибольших постоянных времени объекта: ki  ki,
Ti  T j , исходная передаточная функция (9.6) существенно видоизменится:
e  τp
W ( p) 
n
.
(9.9)
Tо p  (T j p  1)
j l
Исключение из передаточной функции разомкнутой системы
звеньев с большими и средними постоянными времени повышает
быстродействие системы, а введение интегрирующего звена с постоянной времени To повышает точность регулирования.
Выбирая To из условия To  Tl , где Tl , как было принято, является наибольшей из оставшихся некомпенсированных постоянных времени Ti , выражение (9.8) можно упростить и приближенно
записать так:
1
(9.10)
W ( p) 
,
Tо p (T p  1)
n
где Tμ  τ   Ti – суммарная некомпенсированная постоянная
l
времени объекта регулирования, эквивалентная по потере запаса
по фазе на частоте среза всем его реальным некомпенсированным
постоянным.
При этом передаточная функция замкнутой системы будет
иметь вид
Wz ( p ) 
1
,
Tо p (Tμ p  1)  1
(9.11)
а корни характеристического уравнения равны
p1,2
где a 

1
1
1
1 a
a2





 
 a ,
2


2Tμ
4
4Tμ TоTμ To  2

Tо
– отношение постоянных времени.
Tμ
289
(9.12)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Зная выражение для передаточной функции замкнутой системы и корней характеристического уравнения, нетрудно записать
выражение для переходной характеристики замкнутой системы:
h(t )  1  e

1
2Tμ


a
sin(ωt )  ,
cos(ωt ) 

4a  a 2

(9.13)
4a  a 2
– собственная частота замкнутой системы.
где  
2aTμ
При a  4 переходный процесс в замкнутой системе будет
колебательным, причем время переходного процесса будет определяться суммарной некомпенсируемой постоянной Tμ из следующего выражения:
t p  (6  8)Tμ .
Изложенный инженерный метод синтеза широко используется в практике проектирования систем автоматического регулирования электроприводами. С помощью этого метода на основе
простейших расчетов можно по заданной передаточной функции
объекта регулирования найти передаточную функцию регулятора
и передаточные функции разомкнутой и замкнутой систем. Оценить качество регулирования в этом случае можно по переходным
характеристикам типового колебательного звена.
Если в составе объекта регулирования имеется больше двух
постоянных времени, подлежащих компенсации, то в этом случае
прибегают к введению подчиненных контуров регулирования.
Допустим, необходимо регулировать выходную координату
объекта регулирования, содержащего три большие постоянные времени T1 , T2 , T3 и три обобщенные координаты x1 , x2 , x3 (рис. 9.2).
u
x1
k1
(Tμ p  1)(T1 p  1)
k2
T2 p  1
x2
Рис. 9.2. Структурная схема объекта
290
k3
T3 p  1
x3
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Введем вспомогательные контуры регулирования внутренних координат таким образом, чтобы в каждом контуре оказалась
только одна компенсируемая постоянная времени, как показано на
рис. 9.3.
xз3
xз2

Wp3(p)
xз1

Wp2(p)
u

Wp1(p)
x1
W1(p)
x2
W2(p)
x3
W3(p)
Рис. 9.3. Структура системы с подчиненным
регулированием координат
Проведем вначале синтез внутреннего контура регулирования для переменной x1.
Для первого контура желаемая передаточная функция разомкнутого контура в соответствии с (9.10) будет иметь вид
W11 ( p ) 
1
.
a1Tμ p (Tμ p  1)
(9.14)
Передаточную функцию регулятора найдем из условия
Wp1 ( p )W1p  W11 ( p ).
(9.15)
k1
– передаточная функция первого
(Tμ p  1)(T1 p  1)
звена объекта рис. 9.2. Тогда
где W1p ( p ) 
Wp1 ( p ) 
W11 ( p ) T1 p  1 T1
1



.
W1p ( p ) k1a1Tμ p Tи1 Tи1 p
(9.16)
В результате синтеза получен ПИ-регулятор с постоянной
интегрирования Tи1  k1a1Tμ .
На основании (9.14) и (9.16) с учетом (9.11) найдем передаточную функцию замкнутой системы:
Wz1 ( p ) 
1
.
a1Tμ p (Tμ p  1)  1
291
(9.17)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Если выбрать a1 таким образом, чтобы внутренний контур
представлял собой высокодемпфированное звено с невысоким показателем колебательности, то выражение (9.17) можно упростить,
пренебрегая членами второго порядка малости:
Wz1 ( p ) 
1
.
a1Tμ p  1
(9.18)
С учетом этого допущения структурная схема рис. 9.3 преобразуется к виду, показанному на рис. 9.4.
xз3
xз2
xз1
Wp3(p)

Wp2(p)
x1
1
a1Tμ p  1
x2
W2(p)
x3
W3(p)

Рис. 9.4. Структурная схема скомпенсированной системы
В результате введения первого контура регулирования из
второго контура исключена большая постоянная T1 , а некомпенсируемая постоянная времени принимает значение Tμ2  a1Tμ , т.е.
увеличивается в a1 раз.
Проводя синтез второго контура регулирования, можно записать выражения передаточных функций.
Желаемая передаточная функция разомкнутого второго контура
W21 ( p ) 
1
1

.
a2Tμ2 p (Tμ2 p  1) a1a2Tμ p (a1Tμ p  1)
(9.19)
Передаточная функция регулятора
Wp2 ( p ) 
T2 p  1
T
1
 2 
,
k2 a1a2T p Tи2 Tи2
где Tи2  k2 a1a2Tμ .
Вновь получена передаточная функция ПИ-регулятора.
292
(9.20)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Передаточная функция замкнутого второго контура
Wz 2 ( p ) 
1
1

.
a1a2Tμ p (a1Tμ p  1)  1 a1a2Tμ p  1
(9.21)
Структурная схема преобразуется к виду, показанному на
рис. 9.5.
xз3
1
a1a2Tμ p  1
Wp3(p)
x3
W3(p)
_
Рис. 9.5. Структурная схема скомпенсированной системы
Сравнивая рис. 9.2 с рис. 9.5, можно установить, что в результате введения двух контуров регулирования исключено влияние на динамику системы больших постоянных времени T1 , T2 .
Вместе с тем увеличилась суммарная некомпенсируемая постоянная времени контура, величина которой составляет Tμ3  a1a2Tμ .
Желаемая передаточная функция разомкнутой системы при этом
запишется в виде
W21 ( p ) 
1
.
a1a2 a3Tμ p (a1a2Tμ p  1)
(9.22)
Передаточная функция регулятора третьего контура
Wp2 ( p ) 
T3 p  1
T
1
 3 
,
k3a1a2 a3Tμ p Tи3 Tи3
(9.23)
где Tи3  k3a1a2 a3Tμ – постоянная времени ПИ-регулятора.
С учетом принятых допущений передаточная функция замкнутого внешнего контура регулирования приближенно соответствует колебательному звену с передаточной функцией
Wz 3 ( p ) 
1
.
a1a2 a3T p (a1a2T p  1)  1
293
(9.24)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Введение вспомогательных, внутренних контуров регулирования имеет целью формирование благоприятной передаточной
функции замкнутой системы при использовании для последовательной коррекции физически реализуемых простых регуляторов.
Вспомогательные контуры называют подчиненными контурами
регулирования, а структура, показанная на рис. 9.3, представляет
собой структуру подчиненного регулирования обобщенных координат объекта.
Динамические показатели качества регулирования каждой
обобщенной координаты определяются соотношением постоянных ai . На практике принимают a1  a2  ...  an  2, такая настройка называется настройкой на технический оптимум, или оптимум по модулю. Она обеспечивает минимальное время регулирования tp  4,7Tμ при незначительном перерегулировании
σ  4,3 %.
При настройке всех контуров на технический оптимум
(ai  2) передаточную функцию i-го разомкнутого контура, используя (9.22), можно записать так:
W pazi ( p) 
1
2i Tμ p (2i 1Tμ p  1)
(9.25)
.
То же для замкнутого контура:
W pazi ( p) 
1
i 1
i
2 Tμ p (2 Tμ p  1)  1
.
(9.26)
В случаях, когда требуется более высокая точность регулирования, используют ПИД-регуляторы, обеспечивающие настройку на симметричный оптимум. При такой настройке желаемую
передаточную функцию разомкнутого контура записывают в виде
W ( p) 
4Tμ p  1
1
.
4Tμ p 2Tμ p(Tμ p  1)
(9.27)
Формула (9.27) записана для первого внутреннего контура и
может быть применена для следующих контуров, если в нее подставлять соответствующие значения Tμi  2i 1Tμ . Астатизм системы в этом случае повышается до двух, но при этом перерегулирование возрастает до 56 %.
294
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
9.4. Синтез регуляторов
по минимуму среднего квадрата ошибки
Исходная постановка задачи синтеза формулируется следующим образом: для объекта, математическая модель которого
представлена в виде модели максимального правдоподобия
(рис. 9.6), найти оптимальные настройки параметров регулятора,
обеспечивающие в системе рис. 9.7 минимум среднего квадрата
ошибки регулирования.
v(t)
f(t)
Wf (p)
+
u(t)
y(t)
Wo(p)
Рис. 9.6. Структурная схема объекта управления
f(t)
Wf (p)
v(t)
g(t)
Wg(p)
+
u(t)
x(t)
y(t)
Wo(p)
Wр(p)

Рис. 9.7. Структурная схема системы регулирования
Параметрический синтез регулятора можно осуществить, ис-
пользуя передаточную функцию системы рис. 9.7 по ошибке:
Wx ( p ) 
Wg ( p )  W f ( p )
1  Wp ( p )Wo ( p )
,
(9.28)
где Wg ( p ) – передаточная функция по управляющей переменной;
W f ( p) – передаточная функция по возмущению; Wp ( p ) – переда-
295
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
точная функция регулятора; Wo ( p ) – передаточная функция объекта.
Неизвестные передаточные функции в выражении (9.28)
можно найти по реализациям входных и выходных сигналов системы, работающей с неоптимальными настройками регулятора.
Для такого поиска можно воспользоваться рекуррентными методами оценивания и идентификации, используя для определения
Wg ( p ) и W f ( p) метод формирующего фильтра, для определения
Wo ( p ) – метод наименьших квадратов и его разновидности.
По идентифицированным передаточным функциям можно
вычислить спектральную плотность ошибки
2
S x ()  Wx ( j) ,
(9.29)
1 
 S x ()d 
2 
(9.30)
ее дисперсию
Dx 
и среднеквадратичное значение
xcк
1 

 S x ()d 
2 
(9.31)
при условии, что v(t) является белым шумом.
Выражения (9.30), (9.31) являются целевыми функциями в
задаче оптимального параметрического синтеза, которые эквивалентны, так как достигают минимума при одних и тех же значениях параметров регулятора. Действительно, нетрудно убедиться,
что необходимые и достаточные условия существования экстремума для (9.30), (9.31) совпадают. В качестве целевой функции
удобнее выбирать выражение для дисперсии ошибки, так как последнее не содержит иррациональных функций.
Вводя дополнительные условия на частотные показатели качества системы, такие как запас по фазе, запас по амплитуде, показатель колебательности, полоса пропускания, получим типичную задачу нелинейного программирования в следующей постановке.
Для заданных передаточных функций системы регулирования с ПИД-регулятором
296
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
B ( p )e  p 
Wo ( p ) 
;
A( p )
1
Wp ( p )  k 
 Tд p;
Tи p
Wgf ( p ) 
(9.32)
G ( p)
,
D( p)
где Wgf ( p)  Wg ( p)  W f ( p ) , найти минимум среднего квадрата
ошибки е2:
2
Wgf ( j)
1 
2
e 
d   min,

2  1  Wp ( j)Wo ( j)
(9.33)
при дополнительных условиях на частотные показатели качества
по фазе  , амплитуде A и показателю колебательности М:
    arg Wp ( j)Wo ( j)  ;
A  Wp ( j)Wo ( j) ;
M  max

Wp ( j)Wo ( j)
1  Wp ( j)Wo ( j)
.
(9.34)
9.5. Синтез регуляторов для объектов
с запаздыванием по частотным
показателям качества
Рассмотрим синтез ПИД-регулятора самовыравнивающегося
объекта второго порядка с запаздыванием, передаточная функция
которого имеет вид
k0 e  p
.
Wo ( p ) 
(T1 p  1)(T2 p  1)
Для определенности будем считать, что T1  T2 .
297
(9.35)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Запишем передаточную функцию разомкнутой системы:
W ( p) 
ko (TиTд p 2  k pTi p  1)e p
Ti p (T1 p  1)(T2 p  1)
.
(9.36)
Разложим квадратный трехчлен числителя от оператора р на
множители:
TиTд p 2  kpTи p  1  T3 p  1 T4 p  1 ,
(9.37)
где постоянные времени Tи , Tд находятся из уравнений
TиTд  T3T4 ,

kpTи  T3  T4 .
(9.38)
Положим, что T1  T3 , т.е. выполним условие компенсации
наибольшей постоянной времени объекта, тогда (9.36) упростится
и примет следующий вид:
K (T4 p  1)e  p
W ( p) 
,
p(T2 p  1)
где K 
(9.39)
kо
.
Tи
Для получения высоких показателей качества замкнутой системы потребуем, чтобы в разомкнутой системе (9.38) был максимальный запас по фазе при максимальной частоте среза.
Запишем выражение для ФЧХ разомкнутой системы:

()      arctgT4  arctgT2 .
2
Максимум () достигается из условия
T4
T2
d ()
  

 0,
2
2
d
1   cT4  1   cT2 
(9.40)
(9.41)
а максимум частоты среза – из условия
 d 


 d  c
T4

1   cT4 
2
2 2
1    T 
c 4


298
 0.
(9.42)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Из (9.42) находим, что
cT4  1.
(9.43)
Подставляя частоту среза c из (9.43) в (9.41), найдем кубическое уравнение для вычисления T4 :
T43  T2    T42  T22T4  T22   0 .
(9.44)
Поскольку на частоте среза АЧХ разомкнутой системы равна
единице, то для (9.38) можно записать следующее выражение для
АЧХ:
K 1   cT4 
 1.
c 1   cT2 2
2
(9.45)
Учитывая (9.43), найдем требуемый коэффициент передачи
разомкнутой системы:
K
T22  T42
2T42
.
(9.46)
Зная коэффициент передачи разомкнутой системы K, нетрудно найти параметры настройки регулятора:
kо
.
K
Из системы уравнений (9.38) находим
Tи 
kp 
(9.47)
T3  T4
,
Tи
(9.48)
T3T4
.
Tи
(9.49)
Tд 
9.6. Синтез регуляторов
при модальном управлении
Синтез параметрических регуляторов на основе метода подчиненного регулирования, или метода логарифмических частотных характеристик, применим в первую очередь для одномерных
объектов или предполагает заранее заданную последовательную
299
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
структуру объекта при скалярном управлении. При векторном
управлении многомерным объектом использовать данные методы
синтеза затруднительно. В этом случае более предпочтительным
является использование модального управления (от лат. moda –
корень).
В соответствии с теорией модального управления для всякого полностью управляемого объекта
dx
(9.50)
 Ax  Bu
dt
всегда можно найти управление
u  C T x,
(9.51)
такое, что корни (моды) характеристического полинома замкнутой
системы
D( p )  det(Ip  A  BCT )
(9.52)
имеют наперед заданные значения p1 , p2 , ..., pn , I – единичная
матрица.
Корни характеристического уравнения можно задать, используя корневые критерии качества.
Докажем это утверждение. Для этого подставим (9.51) в
(9.50):
dx
 ( A  BCT )x.
(9.53)
dt
Подвергнем последнее уравнение преобразованию Лапласа:
Ipx( p)  ( A  BCT )x( p).
(9.54)
Приведя подобные члены, получим
(Ip  A  BCT )x( p )  0.
(9.55)
Нетривиальное решение этого уравнения может быть найдено из условия равенства нулю определителя системы:
Ip  A  BCT  0.
(9.56)
Это характеристическое уравнение системы, которое всегда
можно привести к виду
p n  a1 p n 1  a2 p n  2  ...  an 1 p  an  0.
300
(9.57)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Значения коэффициентов ai можно найти по теореме Виета
p1  p2  ...  pn   a1;
p1 p2  p1 p3  ...  pn 1 pn  a2 ;
p1 p2 p3  p1 p2 p4  ...  pn  2 pn 1 pn  a3 ;
(9.58)
..............................................................
p1 p2 ... pn  an ,
где pi – корни характеристического уравнения (9.57).
С учетом полной управляемости эта система алгебраических
уравнений всегда разрешима относительно неизвестных коэффициентов cij матрицы управления CT .
Таким образом, синтез регуляторов при модальном управлении сводится к выражению коэффициентов характеристического
уравнения ai через заданные коэффициенты матриц А и В, а также
неизвестные коэффициенты матрицы CT с последующим их определением путем решения уравнения (9.58) при заданных корнях
характеристического уравнения pi .
Рассмотрим случай скалярного управления, когда u является
скаляром.
Построение модального управления в этом случае осуществляется в следующем порядке [1, 30].
Уравнение системы (9.50) приводится к канонической
управляемой форме (форме Фробениуса):
  
x  Ax  bu ,
(9.59)
 0
  0
где A  
 :

 d0
1
0
0 I n2
0
0
d1 ...
0 
0

0
0 
, b   ;
:
1 

 
d n 1 
1
I n  2 – единичная матрица размером (n  2)  (n  2) ; d 0 , d1 , ...,
d n 1 – коэффициенты характеристического полинома объекта, задаваемого выражением
D( p )  p n  d n 1 p n 1  ...  d1 p  d 0 .
301
(9.60)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»

Переход от переменной x к x осуществляется преобразованием

x  Ψ 1x,
(9.61)
  

где Ψ  (bAb ...An 1b )(bAb...An 1b)1.

Из структуры матрицы A следует, что уравнение системы в
канонически управляемой форме (9.58) может быть представлено
в символической форме:

D ( p ) x1 ( p )  u ( p ).
(9.62)
Сравнивая это уравнение и заданный полином с известными
корнями характеристического уравнения pi
n
 ( p  pi )  p n  d * p n 1  ....  d1* p  d0*  0,
(9.63)
p 1
получим


D( p ) x1 ( p )  u ( p )  D* ( p) x1 ( p).
(9.64)
Разрешая последнее уравнение, относительно u ( p) будем
иметь

u ( p )   D( p )  D* ( p)  x1 ( p ).
(9.65)


Раскрывая выражение, стоящее в квадратных
скобках (9.65),

найдем коэффициенты матрицы управления C :



 
(9.66)
U ( p )  (cn p n  cn 1 p n 1  ...  c2 p  c1 ) x1 ,
где ci  di*  di , i  1, 2, ..., n.
 
Принимая во внимание, что pxi  xi 1 , получим
 

u    ci xi  CT x,
n
(9.67)
i 1

где C – n-мерный вектор чисел.
Возвращаясь к исходным переменным, найдем исходный
вектор C :

CT  CT Ψ.
(9.68)
302
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Пример 7.1. Рассмотрим пример вычисления матрицы C
при модальном управлении. Пусть имеется объект со структурной
схемой (рис. 9.8) и заданными корнями характеристического
уравнения замкнутой системы pi .
u
k1
T1 p  1
x1
k2
T2 p  1
x2
Рис. 9.8. Структурная схема объекта
В развернутом виде уравнения (9.50) движения объекта
можно записать в следующем виде:
dx1
k
1
  x1  1 u;
dt
T1
T1
dx2 k2
1
 x1  x2 ,
dt T2
T2
а уравнение для скалярного управления
u  c1 x1  c2 x2 .
Матрицы A, B, C будут выглядеть следующим образом:
 1
T
1
A
 k2
 T
 2

0 
 k1 
 , B   T1  , C   c1 c2  .
 
1 
0
 
 
T2 
Характеристическое уравнение системы найдем из уравнения (9.50), подставляя сюда заданные матрицы A,B,C :
p
k
1 k1
 c1  1 c2
T1 T1
T1
k
 2
T2
1
p
T2
 0,
или
 1 1 k 
11 k  kk
p 2     1 c1  p    1 c1   1 2 c2  0 .
T2  T1 T1  T1T2
 T2 T1 T1 
303
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Заданное характеристическое уравнение имеет вид
( p  p1 )( p  p2 )  0,
или
p 2  ( p1  p2 ) p  p1 p2  0.
Приравнивая одноименные коэффициенты при характеристических полиномах, получим систему уравнений для вычисления коэффициентов c1 , c2 :
1 1 k1
  c1  ( p1  p2 );
T1 T2 T2
k1k2 
1  1 k1
c
c2   p1 p2 .



1
T2  T1 T1
T1

9.7. Аналитическое конструирование
регуляторов
Впервые задача аналитического конструирования регуляторов (АКОР) решена А. М. Летовым в 1960 г. В зарубежных источниках задача АКОР называется задачей линейно-квадратичного
управления или оптимизации.
Исходная постановка задачи АКОР формулируется следующим образом [1]: для объекта управления, движение которого в
первом приближении описывается уравнением
dx
 Ax  Bu; x(0)  x0 ,
(9.69)
dt
где А и В – заданные матрицы размером n  n и n  m соответственно, найти матрицу С размером m  n уравнения регулятора
u  CT x ,
(9.70)
такую, чтобы на асимптотически устойчивых движениях системы
(задаваемой уравнениями (9.69) и (9.70)), создаваемых произвольными начальными склонениями x(0)  x0 , минимизировать интегральный квадратичный критерий (функционал):
I

T
T
  x Qx  u u  dt ,
0
304
(9.71)
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
где Q – заданная положительно определенная матрица размером
nn.
Доказательство единственности и существования управления (9.70) осуществляется в рамках теории оптимального управления [2] и нами рассматриваться не будет.
Рассмотрим процедуру АКОР, которая состоит из следующих операций:
1. Составляется векторно-матричное алгебраическое уравнение Риккати:
PA  A T P  PBBT P  Q  0.
(9.72)
2. Осуществляется его решение, т.е. определяются неизвестные коэффициенты матрицы Р.
3. Вычисляется матрица С по формуле
C  PB.
(9.73)
Отметим подобие законов управления при модальном и линейно-квадратичном управлении. Однако в первом случае искомая
матрица C обеспечивает заранее заданное расположение корней
характеристического управления, а во втором случае подобная ей
матрица обеспечивает минимум интегрального квадратичного
критерия (9.71). Недостатком методов модального и линейноквадратичного управления следует считать значительное снижение качества управления при неточной настройке регуляторов, что
значительно сужает области их применения. Этот недостаток отсутствует у грубых или робастных систем [81].
Пример 7.2. В качестве примера рассмотрим процедуру
АКОР для системы, структура которой показана на рис. 9.9.
g
x
u
C2
C1
_
x1
k1
T1 p  1
C1
x2
k2
T2 p  1
_
Рис. 9.9. Структура системы с линейно-квадратичным регулятором
305
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
1. Для составления уравнения Риккати (9.73) примем
q 
q
Q   11 12  и найдем произведение матриц PA, A T P, PBBT P :
 q12 q22 
p
PA   11
 p12
p12  a11 0   p11a11  p12 a21
 p a  p a
p22 
a
a
22 21
 21 22   12 11
a21  p11
a
A T P   11

 0 a22  p12
p
PBB P   11
 p12
T
p12   a11 p11  a21 p12

p22  
a22 p12
p12   b 
 p11
b
0



p
p22   0 
 12
p12 a22 
;
p22 a22 
a11 p12  a21 p22 
;
a22 p22

2
 p11
p12 
2
b 
p p
p22 
 11 12
p11 p12 
.
2 
p12 
2. Осуществляя сложение найденных матриц, в уравнении
Риккати получим систему из трех алгебраических уравнений для
вычисления неизвестных коэффициентов матрицы P :
2
2( p11a11  p12 a21 )  b 2 p11
 q11  0;
p12 (a11  a21  a22  b 2 p11 )  q12  0;
2
2 p22 a22  b 2 p12
 q22  0.
3. Вычисляем матрицу управления C по формуле (9.73):
p
C  PB    11
 p12
p12  b 
  b  p11
p22 
0
 
306
p12  .
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Список литературы
1. Александров, А. Г. Оптимальные и адаптивные системы /
А. Г. Александров. – М. : Высш. шк., 1986. – 262 с.
2. Алексеев, А. А. Теория управления / А. А. Алексеев,
Д. X. Имаев, Н. Н. Кузьмин, В. Б. Яковлев. – СПб. : Изд-во
СПбГЭТУ «ЛЭТИ», 1999. – 435 с.
3. Альтшуллер, С. В. Методы оценки параметров процессов
АРСС / С. В. Альтшуллер // Автоматика и телемеханика. – 1982. –
№ 8. – С. 5–18.
4. Андронов, А. А. Теория колебаний / А. А. Андронов,
А. А. Витт, С. Э. Хайкин. – М. : Физматгиз, 1959. – 915 с.
5. Арсенин, В. Я. Методы математической физики и специальные функции / В. Я. Арсенин. – М. : Наука, 1984. – 382 с.
6. Артамонов, Д. В. Основы теории линейных систем автоматического управления / Д. В. Артамонов, А. Д. Семенов. –
Пенза : Изд-во Пенз. гос. ун-та, 2004. – 130 с.
7. Ахизер, Н. И. Теория линейных операторов в гильбертовом пространстве / Н. И. Ахизер, И. Н. Глазман. – М. : Наука,
1966. – 544 с.
8. Ахмед, Н. Ортогональные преобразования при обработке
цифровых сигналов / Н. Ахмед, К. Р. Рао. – М. : Связь, 1980. – 248 с.
9. Бесекерский, В. А. Теория систем автоматического регулирования / В. А. Бесекерский, Е. П. Попов. – М. : Наука, 1972. –
767 с.
10. Блейхут, Р. Быстрые алгоритмы цифровой обработки
сигналов / Р. Блейхут. – М. : Мир, 1989. – 448 с.
11. Блум, Ф. Мозг, разум поведение / Ф. Блум, А. Лейзерсон,
Л. Хофстедтер. – М. : Мир, 1988. – 248 с.
12. Бриллинджер, Д. Временные ряды. Обработка данных и
теория / Д. Бриллинджер. – М. : Мир, 1980. – 536 с.
13. Бронштейн, И. М. Справочник по математике для инженеров и учащихся вузов / И. М. Бронштейн, К. А. Семендяев. – М. :
Наука, 1980. – 576 с.
14. Бусленко, Н. П. Моделирование сложных систем /
Н. П. Бусленко. – М. : Наука, 1968. – 322 с.
15. Ван дер Варден, Б. Л. Алгебра / Б. Л. Ван дер Варден. –
М. : Наука, 1980. – 624 с.
307
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
16. Винер, Н. Нелинейные задачи в теории случайных
процессов / Н. Винер.  М. : Изд-во иностр. лит., 1961.  158 с.
17. Вибрации в технике : справочник : в 6 т. / ред. совет:
В. Н. Челомей (пред.). – М. : Машиностроение, 1979. – Т. 2. Колебания нелинейных механических систем / под ред. И. И. Блехмана. –
351 с.
18. Вольтерра, В. Теория функционалов, интегральных и
интегрально-дифференциальных уравнений / В. Вольтерра. – М. :
Наука, 1982. – 386 с.
19. Воронов, А. А. Основы теории автоматического управления. Особые линейные и нелинейные системы / А. А. Воронов. –
М. : Энергия, 1979. – 80 с.
20. Галушкин, А. И. Теория нейронных сетей / А. И. Галушкин : учеб. пособие для вузов / общ. ред. А. И. Галушкина. – М. :
ИПРЖР, 2000. – Кн. 1. – 416 с.
21. Горбань, А. Н. Обучение нейронных сетей / А. Н. Горбань. – М. : СП Параграф, 1990. – 159 с.
22. Даджион, Д. Цифровая обработка многомерных сигналов / Д. Даджион, Р. Мерсеро. – М. : Мир, 1988. – 488 с.
23. Джури, Е. Н. Робастность дискретных систем. Обзор /
Е. Н. Джури // Автоматика и телемеханика – 1990. – № 5. – С. 12–21.
24. Иванов, А. И. Быстрая идентификация нелинейных динамических объектов / А. И. Иванов // CD-ROM «Бизнес-игры». –
М. : CD-ROM изд-во «CompactBookPublishing», 1996. – 226 с.
25. Изерман, Р. Цифровые системы управления : пер. с англ. /
Р. Изерман. – М. : Мир, 1984. – 541 с.
26. Каппелини, В. Цифровые фильтры и их применение /
В. Каппелини, А. Дж. Константинидис, П. Эмилиани. – М. :
Энергоатомиздат, 1983. – 360 с.
27. Квейд, Э. Анализ сложных систем : пер. с англ. / Э. Квейд. –
М. : Сов. радио, 1969. – 519 с.
28. Кендал, М. Временные ряды / М. Кендал. – М. : Радио и
связь, 1981. – 198 с.
29. Корн, Г. Справочник по математике для научных
работников и инженеров / Г. Корн, М. Корн. – М. : Мир, 1982. –
831 с.
30. Кузовков, Н. Т. Модальное управление и наблюдающие
устройства / Н. Т. Кузовков. – М. : Наука, 1976. – 184 с.
308
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
31. Ланкастер, П. Теория матриц / П. Ланкастер. – М. :
Наука, 1978. – 280 с.
32. Медведев, В. С. Нейронные сети. MATLAB 6 / В. С. Медведев, В. Г. Потемкин. – М. : Диалог-МИФИ, 2002. – 496 с.
33. Месарович, М. Теория иерархических многоуровневых
систем / М. Месарович, Д. Мако, И. Такахара. – М. : Мир, 1973. –
342 с.
34. Месарович, М. Общая теория систем: математические
основы / М. Месарович, И. Такахара. – М. : Мир, 1978. – 311 с.
35. Методы анализа, синтеза и оптимизации нестационарных
систем автоматического управления / К. А. Пупков, Н. Д. Егупов,
В. Г. Коньков, Л. Т. Милов, А. И. Трофимов ; под ред. Н. Д. Егупова. – М. : Изд-во МГТУ им. Баумана, 1999. – 684 с.
36. Методы анализа и синтеза сложных автоматических
систем / под ред. П. И. Чинаева. – М. : Машиностроение, 1992. –
304 с.
37. Методы классической и современной теории автоматического управления : учеб. : в 3 т. Т. 1. Анализ и статистическая
динамика систем автоматического управления / под ред. Н. Д. Егупова. – М. : Изд-во МГТУ им. Баумана, 2000. – 748 с.
38. Методы классической и современной теории автоматического управления : учеб. : в 3 т. Т. 2. Синтез регуляторов и
теория оптимизации систем автоматического управления / под
ред. Н. Д. Егупова. – М. : Изд-во МГТУ им. Баумана, 2000. – 736 с.
39. Методы классической и современной теории автоматического управления : учеб. : в 3 т. Т. 3. Синтез регуляторов и
теория оптимизации систем автоматического управления / под
ред. Н. Д. Егупова. – М. : Изд-во МГТУ им. Баумана, 2000. – 736 с.
40. Мизин, И. А. Цифровые фильтры (анализ, синтез, реализация с использованием ЭВМ) / И. А. Мизин, А. А. Матвеев. – М. :
Связь, 1979. – 240 с.
41. Минский, М. Персептроны / М. Минский, С. Пейперт ;
пер. с англ. Г. Л. Гиммельфарба, В. М. Шарыпанова. – М. : Мир,
1971. – 262 с.
42. Моисеев, Н. Н. Математические задачи системного анализа / Н. Н. Моисеев. – М. : Наука, 1988. – 488 с.
43. Наладка средств автоматизации и автоматических систем
регулирования / А. С. Клюев, А. Г. Лебедев, С. А. Клюев, А. Г. То309
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
варнов / под ред. А. С. Клюева. – 2-е изд., перераб. и доп. – М. :
Энергоатомиздат, 1989. – 368 с.
44. Оппенгейм, А. В. Цифровая обработка сигналов / А. В. Оппенгейм, Р. В. Шафер. – М. : Радио и связь, 1979. – 416 с.
45. Основы управления технологическими процессами /
С. А. Анисимов, В. Н. Дынькин, А. Д. Красавин [и др.] ; под ред.
Н. С. Райбмана. – М. : Наука, 1978. – 440 с.
46. Острем, К. Системы управления с ЭВМ / К. Острем,
Б. Виттенмарк. – М. : Мир, 1987. – 480 с.
47. Первозванский, А. А. Декомпозиция, агрегирование и
приближенная оптимизация / А. А. Первозванский, В. Г. Гайцгорн. – М. : Наука, 1979. – 342 с.
48. Пойда, В. Н. Спектральный анализ в дискретных ортогональных базисах / В. Н. Пойда. – Минск : Наука и техника, 1978. –
136 с.
49. Применение цифровой обработки сигналов / под ред.
Э. Оппенгейма. – М. : Мир, 1980. – 552 с.
50. Пупков, К. А. Функциональные ряды в теории нелинейных систем / К. А. Пупков, В. И. Капалин, А. С. Ющенко. – М. :
Наука, 1976. – 448 с.
51. Пупков, К. А. Методы синтеза оптимальных систем автоматического управления / К. А. Пупков, Н. В. Фалдин, Н. Д. Егупов. – М. : Изд-во МГТУ им. Баумана, 2000. – 512 с.
52. Пухов, Г. Е. Модели технологических процессов / Г. Е. Пухов, Ц. С. Хатиашвили. – Киев : Техника, 1974. – 242 с.
53. Справочник по теории автоматического управления / под
ред. А. А. Красовского. – М. : Наука, 1987. – 443 с.
54. Ту, Ю. Современная теория управления / Ю. Ту. – М. :
Машиностроение, 1976. – 472 с.
55. Уоссермен, Ф. Нейрокомпьютерная техника: Теория и
практика / Ф. Уоссермен. – М. : Мир, 1990. – 240 с.
56. Хемминг, Р. В. Цифровые фильтры / Р. В. Хемминг. –
М. : Сов. Радио, 1980. – 224 с.
57. Цыпкин, Я. З. Теория линейных импульсных систем /
Я. З. Цыпкин. – М. : Физматгиз, 1963. – 968 с.
58. Чиликин, М. Г. Теория автоматизированного электропривода / М. Г. Чиликин, В. И. Ключев, А. С. Сандлер. – М. :
Энергия, 1979. – 614 с.
310
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
59. Шульце, К. П. Инженерный анализ адаптивных систем /
К. П. Шульце, К. Ю. Реберг. – М. : Мир, 1992. – 280 с.
60. Grossberg, S. Neural Networks and Natural Intelligence /
S. Grossberg. – Cambridge : MIT Press, 1988.
61. Hebb, D. O. Organization of behavior / D. O. Hebb. – New
York : Science Edition, 1949.
62. Hopfield, J. Computing with Neural Circuits: A model /
J. Hopfield, D. Tank // Science. – 1986. – № 233. – P. 625–633.
63. Kohonen, T. Self-Organization and Associative Memory /
T. Kohonen. – Berlin : Springer-Verlag Press, 1984.
64. Kroeker, J. P. Wiener analysis of nonlinear systems using
Poisson – Charliercrosscorrelation / J. P. Kroeker // Biol. Cybernetics. –
1977. – V. 27. – P. 221–227.
65. Sicuranza, G. L. Theory and realization ofM-D nonlinear
digital filters / G. L. Sicuranza, G. Ramponi // Proc. of the IEEE Int.
Conf. Acoust., Speech and Signal Processing, Tokyo, Japan, Apr. –
1986. – P. 1061–1064.
66. Schetzen, M. The Volterra and Wiener theory of nonlinear
systems / M. Schetzen. – New York : John Wiley, 1980. – 527 p.
67. Sejnowski, T. Parallel networks that learn to pronounce English text / T. Sejnowski, C. Rosenberg // Complex Systems. – 1987. –
№ l. – P. 145–168.
311
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
СОДЕРЖАНИЕ
ПРЕДИСЛОВИЕ ...................................................................................... 3
ЧАСТЬ 1. УПРАВЛЕНИЕ ТЕХНИЧЕСКИМИ СИСТЕМАМИ .. 6
ВВЕДЕНИЕ............................................................................................... 6
1. МАТЕМАТИЧЕСКИЕ МОДЕЛИ ТЕХНИЧЕСКИХ
СИСТЕМ ................................................................................................... 12
1.1. Обобщенные аналитические модели объектов
управления ............................................................................................... 12
1.2. Линеаризация нелинейных моделей объектов
управления ................................................................................................ 17
2. ЛИНЕЙНЫЕ СИСТЕМЫ УПРАВЛЕНИЯ .................................. 24
2.1. Представление систем управления
в пространстве состояний ....................................................................... 24
2.2. Линейные преобразования в пространстве состояний ....... 30
2.3. Структурированные модели на основе
передаточных функций............................................................................ 41
2.4. Динамические звенья и структурные схемы систем
управления. Правила преобразования структурных схем ................... 49
2.5. Временные характеристики линейных систем .................... 56
2.6. Частотные характеристики линейных систем ..................... 60
3. ЛИНЕЙНЫЕ ИМПУЛЬСНЫЕ И ЦИФРОВЫЕ СИСТЕМЫ..... 70
3.1. Квантование информации....................................................... 70
3.2. Решетчатые функции и дискретные
передаточные функции............................................................................ 74
3.3. Теоремы z-преобразования .................................................... 77
3.4. Разностные уравнения и АРСС-модели ............................... 79
3.5. Правила преобразования линейных
импульсных систем.................................................................................. 85
3.6. Представление дискретных систем управления
в пространстве состояний ....................................................................... 87
3.7. Временные характеристики линейных
импульсных систем.................................................................................. 93
3.8. Частотные характеристики линейных
импульсных систем.................................................................................. 97
4. НЕСТАЦИОНАРНЫЕ И НЕЛИНЕЙНЫЕ
МАТЕМАТИЧЕСКИЕ МОДЕЛИ НА БАЗЕ МАТРИЧНЫХ
ОПЕРАТОРОВ И РЯДОВ ВОЛЬТЕРРА ............................................... 103
4.1. Математические модели на базе
матричных операторов. ........................................................................... 103
312
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
4.2. Математические модели нелинейных систем
на базе функциональных рядов Вольтерра–Винера..............................110
4.3. Аппроксимация нелинейной системы
ортогональными полиномами .................................................................119
4.4. Построение ортогональных функционалов
для класса псевдослучайных сигналов ...................................................127
5. МАТЕМАТИЧЕСКИЕ МОДЕЛИ НА БАЗЕ
НЕЙРОННЫХ СЕТЕЙ .............................................................................134
5.1. Биологический и искусственный нейроны ...........................134
5.2. Структуры нейронных сетей ..................................................138
5.3. Организация памяти и принципы обучения .........................139
5.4. Персептрон ...............................................................................144
5.5. Алгоритм обратного распространения ошибки ...................147
5.6. Стохастические алгоритмы обучения ...................................152
5.7. Алгоритм встречного распространения ошибки..................156
5.8. Модели ассоциативной памяти ..............................................162
5.9. Когнитивные карты .................................................................167
5.10. Динамические нейронные сети ............................................173
6. УСТОЙЧИВОСТЬ СИСТЕМ УПРАВЛЕНИЯ ........................178
6.1. Устойчивость систем в пространстве состояний.
Первая теорема Ляпунова ........................................................................178
6.2. Устойчивость линейных систем.
Алгебраические критерии устойчивости ...............................................181
6.3. Частотные критерии ................................................................185
6.4. Особые точки фазовых траекторий .......................................197
6.5. Особые линии фазовых траекторий.......................................202
6.6. Понятие абсолютной устойчивости.
Прямой метод Ляпунова...........................................................................214
6.7. Устойчивость линейных импульсных систем ......................218
6.8. Понятие наблюдаемости и управляемости
линейных систем ......................................................................................224
7. КАЧЕСТВО СИСТЕМ УПРАВЛЕНИЯ ...................................231
7.1. Критерии качества ...................................................................231
7.2. Временные показатели качества ............................................233
7.3. Корневые критерии качества..................................................234
7.4. Частотные показатели качества .............................................237
7.5. Интегральные критерии ..........................................................242
7.6. Критерии точности ..................................................................245
313
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
8. МЕТОДЫ И СРЕДСТВА УЛУЧШЕНИЯ КАЧЕСТВА
ПРОЦЕССОВ УПРАВЛЕНИЯ ............................................................... 253
8.1. Проблема улучшения качества процессов управления ...... 253
8.2. Повышение точности систем управления ............................ 254
8.3. Увеличение запаса устойчивости систем управления ........ 262
8.4. Использование автоматических регуляторов ...................... 273
8.5. Динамические характеристики систем
с линейными регуляторами..................................................................... 276
9. СИНТЕЗ И НАСТРОЙКА АВТОМАТИЧЕСКИХ
РЕГУЛЯТОРОВ ....................................................................................... 283
9.1. Основные понятия о синтезе автоматических
систем управления ................................................................................... 283
9.2. Экспериментальные методы настройки
ПИД-регуляторов ..................................................................................... 286
9.3. Синтез систем методом последовательной коррекции
с подчиненным регулированием координат ......................................... 288
9.4. Синтез регуляторов по минимуму среднего
квадрата ошибки....................................................................................... 295
9.5. Синтез регуляторов для объектов с запаздыванием
по частотным показателям качества ...................................................... 297
9.6. Синтез регуляторов при модальном управлении ................ 299
9.7. Аналитическое конструирование регуляторов.................... 304
СПИСОК ЛИТЕРАТУРЫ ...................................................................... 307
314
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Учебное издание
Семенов Анатолий Дмитриевич,
Щербаков Михаил Александрович
ОСНОВЫ ТЕОРИИ УПРАВЛЕНИЯ
И ИДЕНТИФИКАЦИИ
В ТЕХНИЧЕСКИХ СИСТЕМАХ
В двух книгах
Книга 1
Редактор Ю. В. Коломиец
Компьютерная верстка Р. Б. Бердниковой
Подписано в печать 25.09.12. Формат 60×841/16.
Усл. печ. л. 18,25. Тираж 100.
Заказ № 717.1.
Издательство ПГУ.
440026, Пенза, Красная, 40.
Тел./факс: (8412) 56-47-33; е-mail: iic@pnzgu.ru
315
1/--страниц
Пожаловаться на содержимое документа