close

Вход

Забыли?

вход по аккаунту

?

415.Авдеев Ю.В Системы передачи информации

код для вставкиСкачать
Министерство образования и науки РФ
Федеральное государственное бюджетное образовательное учреждение
высшего профессионального образования
«Воронежский государственный архитектурно-строительный университет»
Ю.В. Авдеев, А.В. Полуказаков
Системы передачи информации
Конспект лекций
Рекомендовано в качестве учебного пособия
редакционно-издательским советом
Воронежского государственного архитектурно-строительного университета
для студентов, обучающихся по специальности
«Автоматизация технологических процессов
и производств (в строительстве)»
Воронеж 2012
УДК 004.451.622(07)
ББК 32.973.202я7
А187
Рецензенты:
кафедра электромеханических систем и электроснабжения
Воронежского государственного технического университета;
С. А. Чепелев, д. т. н., проф. Воронежской государственной
лесотехнической академии
2
А187
Авдеев Ю. В.
Системы передачи информации: конспект лекций / Ю. В. Авдеев,
А. В. Полуказаков; Воронежский ГАСУ. – Воронеж, 2012. - 57 с.
Рассматриваются вопросы, связанные с системами передачи
информации. Содержит тексты лекций, а также задания для практических
занятий и самостоятельной работы, кроме того позволит более глубоко
изучить и усвоить теоретические знания, приобрести практические навыки,
необходимые инженеру по автоматизации в практической деятельности.
Предназначен для студентов специальности 220301 «Автоматизация
технологических процессов и производств (в строительстве)».
Ил. 34. Табл. 7. Библиогр.: 5 назв.
УДК 004.451.622(07)
ББК 32.973.202я7
ISBN 978-5-89040-382-7
© Ю.В. Авдеев, А.В. Полуказаков, 2012
© Воронежский ГАСУ, 2012
3
Введение
Повышение эффективности управления производством невозможно без
использования систем автоматизации технологических процессов и
производств (АТПП).
Системы передачи информации (СПИ) являются составной частью
комплекса технических средств систем АТПП. Теория информации занимает
базовое положение и устанавливает количественные характеристики
информации, определяет физические и статистические параметры каналов
связи, в теории формулируются условия согласования источников
информации с каналами связи и предлагается использование кодирования
для повышения помехоустойчивости передачи информации по каналам связи
с шумом.
Существенное внимание уделяется вопросам преобразования
аналоговых сигналов, снимаемых с датчиков, в дискретные.
Теоретическая часть учебного пособия представлена восемью
лекциями (темами). К каждой из тем прилагаются задания для практического
усвоения лекционного материала. Изучение дисциплины потребует от
студента определенных знаний из курса «Математика»: теории вероятностей,
ортогональных функций, преобразования Фурье.
Оценка качества функционирования систем АТПП требует
комплексного учета качества функционирования как технических средств
систем АТПП, где возмущающими воздействиями выступают неисправности
аппаратуры (постепенные или мгновенные отказы (сбой)), так и систем
передачи информации при действии помех в каналах связи.
Проблемы оптимизации систем передачи информации были
поставлены и частично решены одним из основоположников теории
информации американским ученым К. Шенноном в работе «Математическая
теория связи», вышедшей в 1948 году. Работа «Теория потенциальной
помехоустойчивости» была опубликована советским ученым В.А.
Котельниковым в 1946 году. Эти работы создали теоретическую базу для
бурного развития современных систем передачи информации.
Так как конспект лекций ориентирован на студентов с различной
подготовкой, то математический уровень постараемся свести к минимально
необходимому для объяснения основных обсуждаемых вопросов. С другой
стороны, на практических занятиях обсуждаются вопросы, которые кажутся
наиболее интересными и увлекательными с точки зрения математического
или прикладного характера.
Хорошие результаты в части освоения материала курса были получены
при использовании перекрестного самотестирования по предварительно
составленным дома вопросам по материалам предыдущей лекции на основе
4
электронного конспекта (обычно 10 вопросов). Это в какой-то степени
подготавливает студентов к освоению нового материала и вызывает у них
большее понимание.
Лекция №1
Понятие информации и меры информации
Философское определение информации: информация есть отражение
реального мира.
Практическое: информация есть все сведения, являющиеся объектом
хранения, передачи и преобразования.
Понятие информации связано с некоторыми моделями реальных
вещей, отражающими их сущность в той степени, в какой это необходимо
для практических целей.
Под информацией надо понимать не сами объекты и процессы, а их
характеристики, отражения или отображения в виде чисел, формул,
описаний, чертежей, символов, образов и других абстрактных характеристик.
С передачей и обработкой информации связаны действия любого
автоматического устройства, поведения живого существа, творческая
деятельность человека, развитие науки и техники, экономические и
социальные преобразования в обществе и сама жизнь.
Фазы обращения информации
5
Фазы обращения информации представлены на рис. 1.1.
Рис. 1.1
Восприятие формирует образ объекта. В эту фазу входят операции:
нормализации информации,
квантования,
кодирования,
модуляции сигналов.
Передача информации заключается в переносе ее на расстояние
посредством сигналов различной физической природы по механическим,
гидравлическим, пневматическим, акустическим, оптическим, электрическим
или электромагнитным каналам. Прием информации на другой стороне
канала носит характер вторичного восприятия с процедурами борьбы с
шумами.
Обработка информации решает задачи преобразования информации.
Промежуточным этапом обработки может быть хранение информации в
запоминающих устройствах.
6
Представление информации необходимо, когда в цикле обращения
информации участвует человек.
Воздействие информации включает выработку
воздействий для изменения состояния объекта.
управляющих
Измерение информации
Важнейшим вопросом теории информации является установление
меры количества и качества информации.
Информационные меры отвечают трем основным направлениям теории
информации:
структурному,
статистическому,
семантическому.
Структурная теория рассматривает дискретное строение массивов
информации и их измерение простым подсчетом информационных
элементов (квантов).
Статистическая теория оперирует понятием энтропии как меры
неопределенности, учитывающей вероятность появления, а следовательно, и
информативность тех или иных сообщений.
Семантическая теория учитывает целесообразность, ценность,
полезность или существенность информации.
Структурная теория применяется для оценки возможностей
аппаратуры информационных систем (каналов связи, запоминающих и
регистрирующих устройств) независимо от условий применения.
Статистическая теория дает оценки информационных систем в
конкретных условиях (канал с определенными статистическими
характеристиками).
Семантическая теория прилагается к оценке эффективности
логического опыта.
7
Источники информации
Источники информации и создаваемые ими сообщения разделяются на
следующие:
дискретные,
непрерывные.
Дискретные сообщения слагаются из счетного множества элементов,
создаваемых источником последовательно во времени.
Дискретный источник в конечное время создает конечное множество
сообщений.
Непрерывные сообщения отражаются какой-либо физической
величиной, изменяющейся в заданном интервале времени. В этом случае
получение конечного множества сообщений за конечный промежуток
времени предполагает дискретизацию (во времени) и квантование (по
уровню).
Структурные меры информации
Информационный элемент – квант (неделимая часть информации).
Различают:
геометрическую,
комбинаторную,
аддитивную меры информации.
Наибольшее распространение получила двоичная аддитивная
логарифмическая мера (мера Хартли), измеряющая количество информации
в двоичных единицах (битах). Для сообщения (числа) (рис. 1.2) Q= hN ,
где N- количество элементов (разрядов, длина) числа,
h – количество фиксированных состояний (основание системы числа).
8
Рис. 1.2
Количество информации по Хартли:
I = log2 Q = Nlog2 h (бит).
Если N=1, h=2 (двоичная система), то I=1*log2 2= 1 бит.
При наличии нескольких источников общее количество информации от
всех источников:
I (Q1 ……..QS) = I(Q1) + ……+I(QS).
Удельной информативностью называют количество информации на
один элемент:
I1=
I
=log2h.
N
Статистические меры информации
Рис. 1.3
Рассмотрим сообщение (рис. 1.3) из N элементов, каждый из которых
может принимать любое из m состояний х1, . . .хк, . . .хm с вероятностью р 1,. .
рк,. .рm.
Средняя информация в битах
m
I ср
k 1
p k log 2 pk .
Шеннон назвал эту величину энтропией, т.е.
H= Icр .
Энтропия характеризуется следующими свойствами:
1. Энтропия всегда неотрицательна.
2. Энтропия равна 0, когда одно событие имеет вероятность 1,
остальные – 0, т.е. этот опыт не несет новой информации.
9
3. Энтропия имеет наибольшее значение при р 1= р2 =. . р m= 1/m, при
этом Нmax= - log21/m = log 2m.
Очевидно, если m=h, то удельная информативность по Хартли и энтропия
Шеннона совпадают. Это совпадение будет означать полное использование
информационной емкости системы. В случае неравных вероятностей
количество информации по Шеннону меньше информационной емкости
системы.
Количество информации и избыточность
Наибольшее количество информации получается тогда, когда
полностью снимается неопределенность, причем эта неопределенность была
наибольшей, т.е. вероятности всех событий одинаковы. Это соответствует
значению, оцениваемому мерой Хартли:
Нmax= log2m = log2(1/р) = - log2p.
Абсолютная избыточность информации:
Dабс= Нmax-H, т.е. разность между максимально возможным количеством
m
p k log 2 pk .
информации Нmax и энтропией: H
k 1
В ряде случаев используется понятие относительной избыточности
=
.
Лекция №2
Квантование информации
Основные понятия и определения
Непрерывные сигналы описываются непрерывными функциями х(t).
Переход от аналогового представления к цифровому дает значительные
преимущества при передаче, хранении и обработке информации и связан с
квантованием (дискретизацией) сигнала х(t) по времени и уровню.
Функция х(t) (рис. 2.1) описывает следующие разновидности сигналов:
10
а) непрерывная функция
непрерывного аргумента
б) непрерывная функция
дискретного аргумента
в) дискретная функция
непрерывного аргумента
г) дискретная функция
дискретного аргумента
Рис. 2.1
Все сигналы (процессы) можно разделить на детерминированные и
случайные.
Детерминированные
сигналы
описываются
точными
математическими соотношениями и могут быть периодическими и
непериодическими. Многие физические процессы невозможно описать
точными математическими соотношениями. Предсказать точные значения
для этих процессов невозможно. Такие процессы являются случайными.
В результате эксперимента получаем реализацию из множества
возможных реализаций случайного процесса.
Дискретизация сигнала х (t) означает замену х (t) совокупностью
отдельных значений х (ti).
По значениям х (ti) можно восстановить исходную функцию х (t) с
некоторой погрешностью.
При дискретизации решается проблема: каков должен быть шаг
дискретизации ti ?
Оптимальным является шаг, который обеспечивает представление
исходного сигнала с заданной точностью при минимальном количестве
выборок.
Избыточные отсчеты не увеличивают точность восстановления,
загружают тракт передачи информации, уменьшают производительность
обработки данных в ЭВМ и т.д.
11
Сокращение избыточных данных – актуальная задача и может
решаться в процессе дискретизации.
Равномерная дискретизация
При равномерной дискретизации шаг Δt и частота отсчетов являются
постоянными величинами. На рис. 2.2 изображена функциональная схема
дискретизации.
ИИ – источник информации,
ГТИ – генератор тактовых импульсов,
П – прерыватель,
Д – дискретизатор
Рис. 2.2
Выбор частоты отсчетов
По теореме В.А. Котельникова функция с ограниченным
спектром полностью определяется дискретным множеством
своих значений (отсчетов), взятых с частотой F=2fm, где fm –
максимальная частота в спектре S( j ) сигнала х(t) (рис. 2.3). В этом
случае функция х(t) восстанавливается без погрешностей с
помощью интерполяционного ряда
x t
x k t
sin
k
где интервал t
1
2 fm
m
.
m
12
t k t
,
t k t
m
Рис. 2.3
Реальные сигналы имеют конечную длительность. Спектр таких
сигналов не ограничен, поэтому применение теоремы Котельникова
приводит к погрешностям восстановления и проблемам в выборе шага
квантования. Но когда речь идет о приближенном восстановлении с заданной
точностью, то теорему можно применять и для сигналов с неогр аниченным
спектром (рис. 2.4).
На практике частоту отсчетов определяют по формуле Fo=K32fmax, где
К3 - коэффициент запаса, fmax – условно-максимальная частота с учетом доли
энергии в спектре, ограниченном частотой fmax ( max).
Рис. 2.4
Квантование по уровню
Квантование сигнала х(t) по уровню состоит в преобразовании
непрерывных значений х(ti) в моменты отсчета ti в дискретные хk (рис. 2.5).
В результате непрерывное множество значений х(ti) в диапазоне от хmin
до хmax превращается в дискретное множество хk уровней квантования, где
k=1,. . . m.
При равномерном квантовании шаг квантования δ=(хmax- хmin)/m.
Если истинное значение отсчета в некоторый момент времени лежит
внутри интервала δк, то его значение заменяется значением k-го уровня.
Оптимальным в смысле точности воспроизведения квантованного
сигнала будет расположение уровня квантования в середине шага
квантования.
Значения сигнала х(ti) могут быть отнесены к тому или иному уровню
квантования следующим образом:
13
1) сигнал х(ti) отождествляется с ближним уровнем квантования;
2) сигнал х(ti) отождествляется с ближним меньшим (большим)
уровнем квантования.
Устройство для квантования сигналов – квантизатор (рис. 2.6, а)
представляет собой нелинейный элемент с амплитудной характеристикой,
представленной на рис. 2.6, б - при отождествлении сигнала с ближним
меньшим уровнем квантования или, приведенной на рис. 2.6, в - в случае
отождествления сигнала с ближайшим уровнем.
При квантовании возникает обязательная ошибка, которая не может
быть устранена, т.е. квантованный сигнал хк(ti) есть сумма истинного сигнала
х(ti) и ошибки Δхк (помехи), т.е. хк(ti) = х(ti) + Δхк. Помеха Δхк называется
шумом квантования.
На рис. 2.6 (г, д) отображены ошибки квантования x для обоих
способов квантования.
Рис. 2.5
14
а)
б)
в)
Рис. 2.6
Для k-го уровня квантования (k=0…,m-1) математическое ожидание
ошибки M xk и её дисперсия D xk могут быть найдены из соотношений
k
xk
M
2
x xk w x dx ,
xk
k
xk
xk
D
2
k
2
2
x xk w x dx ,
xk
xk
k
2
где w x - плотность распределения величины x x ti .
Если интервал k мал по сравнению с диапазоном изменения сигнала, а
плотность w x постоянна и равна w xk , то
xk
k
2
w x dx
xk
w xk
k
,
k
2
и тогда
D
M
xk
xk
1
12
0;
3
k
w xk .
Дисперсия полной погрешности квантования D x в диапазоне от xmin
до xmax по всем уровням квантования будет D x
m 1
D
k 0
15
xk .
Для равномерного шага
k
, и если
m 1
w xk
k 0
1 , то D
2
x
12
и
среднеквадратическая погрешность квантования сигнала по уровню для
равномерного распределения
.
x
D x
2 3
Лекция №3
Кодирование информации
Общие понятия и определения
Под кодированием понимается представление информации в виде,
удобном для передачи по каналу связи.
Операция восстановления сообщения по принятому сигналу
называется декодированием.
Общая схема передачи информации представлена на рис. 3.1.
Рис. 3.1
Техническая реализация процесса кодирования в простейшем виде при
непрерывном входном сигнале осуществляется аналого-кодовыми
преобразователями.
Шеннон в своих работах обосновал эффективность введения в тракт
кодирующих и декодирующих устройств, цель которых состоит в
согласовании свойств источника сообщений со свойствами канала связи.
Цель кодера источника (КИ) обеспечить такое кодирование, при
котором путем устранения избыточности существенно снизится среднее
число символов на букву сообщения. При отсутствии помех это дает
выигрыш во времени передачи. Такое кодирование получило название
эффективного или оптимального.
16
При наличии помех в канале оно позволяет преобразовать входную
информацию в последовательность символов, наилучшим образом
подготовленную для дальнейшего преобразования.
Второе кодирующее устройство (кодер КК) обеспечивает заданную
достоверность при передаче информации путем внесения избыточности с
учетом интенсивности и статистических закономерностей помехи в канале
связи. Такое кодирование называют помехоустойчивым.
Выбор кодирующих и декодирующих устройств зависит от
статистических свойств источника сообщений, уровня и характера помех в
канале связи.
Если избыточность источника мала и помехи в канале связи
отсутствуют, то введение кодера источника и кодера канала
нецелесообразно.
После кодера канала (КК) кодированный сигнал поступает в
устройство кодирования символов сигналами – модулятор М. Сигнал x t на
выходе модулятора подготовлен к передаче по конкретной линии связи (ЛС).
В линии связи на сигнал накладываются помехи из условнопоказанного источника помех (ИП), так что в устройство декодирования
сигналов в символы (ДМ) из канала связи поступает сигнал, искаженный
шумами. Устройство декодирования помехоустойчивого кода – декодер
канала (ДК) и устройства декодирования сообщений – декодер источника
(ДИ) выдают декодированное сообщение и получателю (П) – человеку или
машине.
Цифровое кодирование
Большинство кодов, используемых при кодировании информации без
учета статистических свойств источника и помех, основано на системах
счисления.
Любому дискретному сообщению или букве сообщения ставится в
соответствие какой-то порядковый номер. Передача или хранение
информации сводится к передаче или хранению чисел. Числа можно
выразить в какой-либо системе счисления.
Логические элементы вычислительных устройств с основанием h>2
должны иметь более двух устойчивых состояний, что технически трудно
выполнимо при условии обеспечения надежной фиксации этих состояний.
17
Наиболее удобна с точки зрения физической реализации двоичная
система. Логические элементы имеют всего два устойчивых состояния.
Задача различения состояний сводится к задаче обнаружения ( есть импульс
или нет импульса). Число в двоичной системе выразится
N
Q
ai 2i 1 ,
i 1
где ai принимает значение либо 0, либо 1.
Арифметические и логические операции наиболее просто
осуществляются тоже в двоичной системе.
Сложение
Умножение
0+0=0
0*0=0
0+1=1
0*1=0
1+0=1
1*0=0
1+1=10
1*1=1
Двоичный код удобен для передачи и проведения логических и
арифметических операций. Однако при вводе и выводе информации он не
удобен, поэтому часто используют более удобные системы –
шестнадцатиричную и двоично-десятичную с весами (8-4-2-1, 5-1-2-1, 2-4-21).
Среди кодов, несвязанных с системами счисления, получил
распространение код Грея (рис. 3.2).
0-0000 2-0011 4-0110 6-0101 8-1100 10-1111 12-1010 14-1001
1-0001 3-0010 5-0111 7-0100 9-1101 11-1110 13-1011 15-1000
Рис. 3.2
Эффективное кодирование
Буквы сообщений преобразуются в последовательности двоичных
символов. До данного момента это преобразование выполнялось без учета
статистических характеристик сообщений. Шеннон доказал, что сообщения,
18
составленные из букв некоторого алфавита, можно закодировать так, что
среднее число двоичных символов на букву будет сколь угодно близко к
энтропии источника этих сообщений.
Код Шеннона-Фано строится следующим образом:
1) буквы алфавита вписываются в таблицу в порядке убывания
вероятностей;
2) разделяются на две группы, чтобы суммы вероятностей в каждой
были одинаковы;
3) у всех букв верхней половины первым символом пишется 1, у всех
букв нижней – 0;
4) процесс повторяется до тех пор, пока в каждой подгруппе останется
по одной букве.
В качестве примера рассмотрим алфавит из 8 букв (табл. 1).
Вычислим энтропию:
8
H z
8
p zi log 2 p zi
p zi log 2
i 1
i 1
1
p zi
1
1
1
1
63
log 2 2
log 2 4
log 2 8
log 2 16 ... 1 .
2
4
8
16
64
Среднее число символов на букву
8
N ср
p zi n z i
i 1
1 1
1
1
1
1
1
1
63
1
2
3
4
5
6
7
7 1 .
2 4
8 16
32
64
128
128
64
При обычном кодировании без учета статистических связей требуется
три разряда.
Если равенства вероятностей при определении границы нет, то
однозначность в построении кода нарушается.
Методика Хаффмена ликвидирует эту неопределенность.
Таблица 1
Буквы
Вероятность
Z1
Z2
Z3
Z4
Z5
Z6
Z7
Z8
1/2
1/4
1/8
1/16
1/32
1/64
1/128
1/128
Кодовые
комбинации
1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
0
1
0
0
0
0
Ступень разбиения
1
0 1
0 0 1
0 0 0
Помехоустойчивое кодирование
19
I
II
III
IV
V
VI
VII
Основная теорема Шеннона для дискретного канала с шумом: при
любой скорости передачи двоичных символов меньше, чем пропускная
способность канала, существует такой код, при котором вероятность
ошибочного декодирования будет сколь угодно мала; вероятность ошибки не
может быть сделана произвольно малой, если скорость передачи больше
пропускной способности канала.
Практически указанный эффект можно получить введением при
кодировании избыточности, что позволяет на приемной стороне обнаружить
и исправить ошибки. Способность кода обнаруживать и исправлять ошибки
обусловлена наличием избыточных символов. На вход кодирующего
устройства поступает последовательность из k информационных двоичных
символов. На выходе ей соответствует последовательность из n двоичных
символов, причем n>k.
Всего может быть 2k различных входных последовательностей и 2n
выходных. 2n-2k последовательностей определяют запрещенные кодовые
комбинации.
Рассмотрим, например, обнаруживающую способность кода, каждая
комбинация которого содержит всего один избыточный символ (n=k+1).
Общее число выходных последовательностей 2 к+1, то есть вдвое больше
входных.
При кодировании каждой последовательности из k символов
добавляется один символ (0 или 1) такой, чтобы число единиц в кодовой
комбинации было четным.
Примером кода не только обнаруживающего, но и исправляющего
одиночные ошибки является код Хэмминга. Пусть имеется код, содержащий
m информационных и k контрольных разрядов. Запись на k позиций
определяется при проверке на четность каждой из проверяемых k групп
информационных символов. Пусть проведено k проверок. Если результат
свидетельствует об отсутствии ошибки, запишем 0, если есть ошибки, то
запишем 1. Запись полученной последовательности - двоичное,
кодированное число, указывающее номер позиции, где произошла ошибка,
т.е. при m=4 и k=3 может быть определена ошибка в каждом из (m+k)
разрядов, т.е. в семи передаваемых разрядах. Позиции 1, 2, 4, 8 удобно
использовать в качестве контрольных. Первое проверочное уравнение
включает позиции, номера которых содержат 1 в младшем разряде, т.е.
k1 x1 x3 x5 x7 x9 ... ( xk -содержимое 1-го разряда чисел 1, 3, 5, 7, 9...).
Второе уравнение включает позиции, которые имеют 1 во втором
разряде, т.е. k2 x2 x3 x6 x7 x10 ... .
Третье уравнение по аналогии можно представить в виде
k3 x4 x5 x6 x7 x12 x13 ... Аналогично можно составить и последующие
уравнения. При m=4, k=3 пример кодирования 16 чисел приведен в табл. 2.
20
Таблица 2
1
k1
х1
0
1
0
1
1
0
1
0
1
0
1
0
0
1
0
1
2
k2
х2
0
1
1
0
0
1
1
0
1
0
0
1
1
0
0
1
Разряды двоичного числа
3
4
5
6
7
m1
k3
m2 m3 m4
х3
х4
х5
х6
х7
0
0
0
0
0
0
1
0
0
1
0
1
0
1
0
0
0
0
1
1
0
1
1
0
0
0
0
1
0
1
0
0
1
1
0
0
1
1
1
1
1
0
0
0
0
1
1
0
0
1
1
1
0
1
0
1
0
0
1
1
1
1
1
0
0
1
0
1
0
1
1
0
1
1
0
1
1
1
1
1
Число
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Используя уравнения
x1 x3 x5 x7 0 ,
x2 x3 x6 x7 0 ,
x4 x5 x6 x7 0 ,
определим значения x1 , x2 , x4 для ячеек k1 , k2 , k3 . Число k3k2 k1 в десятичной
форме записи определяет номер разряда, где произошла ошибка.
Пример. Пусть при передаче 12 (0111100) произошло искажение
информации в разряде 5, т.е. получено 0111000. Найдем разряд, в котором
произошла ошибка с помощью метода Хэмминга. Из формулы
k1 x1 x3 x5 x7 имеем k1 0 1 0 0 1 . Аналогично для k2 x2 x3 x6 x7
имеем k2 1 1 0 0 0 , и для k3 x4 x5 x6 x7 имеем k3 1 0 0 0 1 .
Контрольное число 101 в десятичном виде определяет разряд 5, в котором
произошел сбой.
21
Коды компьютерных интерфейсов
Для передачи применяют (рис. 3.3):
1) код без возвращения к нулю;
2) код без возвращения к нулю с инверсией;
3) код Манчестер II.
Код без возвращения к нулю отображает последовательность двоичных
битов последовательностью уровней построения постоянных на интервале
передаваемого двоичного бита.
В коде без возвращения к нулю с инверсией «1» передается
отсутствием изменения уровня существующего бита, «0» - инверсией этого
уровня, то есть «1» или «0» в одной последовательности могут быть
представлены как высоким, так и низким уровнями. Последовательность «1»
образует постоянный уровень, последовательность «0»- биполярный
периодический сигнал.
Код без возвращения
к нулю
Код без возвращения
к нулю с инверсией
Код Манчестер II
Синхросигнал
Рис. 3.3
Код Манчестер II отображает каждый бит переходом уровней: если
низкий уровень меняется высоким, то передается «0», если высокий
сменяется низким – «1». Переходы имеют место в середине временного
интервала, отведенного каждому биту. Код Манчестер II получается из кода
без возвращения к нулю, если последний подать на один вход схемы
логической равнозначности, а на второй синхросигнал в виде меандра с
периодом, равным периоду кода без возвращения к нулю и синфазный с ним.
Код Манчестер II обладает большой помехозащищенностью по
сравнению с кодом без возвращения к нулю, поскольку занимает полосу
частот от половины до полного значения тактовой частоты. Отсутствие
постоянной составляющей в коде Манчестер II позволяет использовать
простые полосовые усилители переменного тока и применять подавление НЧ
шумов. Кроме того, код Манчестер II дает возможность обнаруживать
ошибки в каждом передаваемом разряде, если помнить, что
22
информационный переход имеет место в середине интервала,
соответствующего биту. Присутствие высокого или низкого уровня в течение
всего интервала бита недопустимо, т.е. это означает появление ошибок.
Декодирование «0» («1») при передаче «1» («0») может произойти, когда
инверсия уровней будет в каждой половине бита, но вероятность этого
события невелика.
Код Манчестер II уменьшает стоимость линии так как в ней
отсутствует провод для передачи тактовых импульсов, поскольку
информационная последовательность в коде содержит одновременно и
тактовые и информационные импульсы, т.е. обладает свойством
самосинхронизации.
Лекция №4
Модуляция носителей информации
Нанесение информации на материальные носители достигается
определенным изменением некоторых параметров физических процессов.
Чаще всего это изменение параметров колебаний или импульсных
последовательностей носит название модуляции.
Обратный процесс восстановления величин, вызвавших изменение
параметров, называют демодуляцией.
Виды сигналов:
u t U m sin t
1. Гармонический носитель
содержит три
модулируемых параметра: амплитуда U m (амплитудная модуляция - АМ),
фаза – φ (фазовая модуляция – ФМ), частота –
(частотная модуляция ЧМ).
2. Последовательность импульсов представляет большие возможности.
Параметрами модуляции могут быть:
- амплитуда импульсов U m (амплитудно-импульсная М-АИМ),
- фазы импульсов φ (фазоимпульсная М-ФИМ),
- частота импульсов f (частотно-импульсная М-ЧИМ),
- длительность импульсов τ (широтно-импульсная М-ШИМ),
- число импульсов n (счетно-импульсная М-СИМ),
- комбинация импульсов и пауз, определяющая код К.
В таком случае говорят о кодоимпульсной модуляции (КИМ, ФИМ и
ШИМ) являются частными случаями время импульсной модуляции (ВИМ).
СИМ является частным случаем КИМ.
Выходные сигналы модуляторов при линейном модулирующем
напряжении представлены на рис. 4.1.
23
Модуляция и кодирование
В том случае, когда параметр модуляции является цифровой величиной
- кодом, модуляцию следует рассматривать как образование из чистых
носителей физических эквивалентов знаков, пригодных для передачи на
расстояние и дальнейшей обработки.
Кодоимпульсная
модуляция
сочетает
любой
вид
импульсной
модуляции с кодированием по какой-либо системе. Предельным является
случай, когда цифровой сигнал вырождается в аналоговый, при этом любое
значение измеряемой величины без квантования передается соразмерным
значением амплитуды, частоты, фазы или деятельности. При кодировании по
единичной системе (в СИМ) параметр модуляции имеет только одно
значение, легко отличимое от состояния отсутствия сигнала. В общем случае
количество используемых значений параметра модуляции должно быть
равно основанию кода модуляции.
Все импульсные сигналы могут иметь высокочастотное заполнение –
сигнал несущей частоты. Двойные обозначения АИМ-ЧМ, КИМ-ЧМ и т.д.
говорят о том, что второй вид модуляции ЧМ относится к сигналам несущей
частоты (рис. 4.2).
24
Рис. 4.1
25
Кодирование
Бесконечная
система
Модуляции
Десятичная
система
Двоичная
система
h 10
h 2
h
Амплитудная
Прямая (ПМ) и
амплитудно-импульсная
(АИМ)
Фазовая (ФМ)
Фазоимпульсная (ФИМ)
Частотная (ЧМ)
Частотно-импульсная
(ЧИМ)
Широтно-импульсная
(ШИМ)
Рис. 4.2
Спектры сигналов
Амплитудная модуляция
АМ – сигнал в общем виде описывается выражением:
ux t
U0
u t cos 0t 0 .
Если u t представлено одним низкочастотным синусоидальным
колебанием частоты , то
ux t U 0 1 M cos t
cos 0t 0 ,
получаем
ux t
U 0 cos
0
t
0
M
cos
2
0
t
0
Этим выявляются частотные составляющие
26
M
cos
2
0
,
0
t
0
,
0
0
.
(рис. 4.3, а).
Рис. 4.3
Частотная и фазовая модуляция
Выражение для сигнала при произвольном изменении полной фазы
можно записать в виде
t
ux t
t dt .
U 0 cos (t ) U 0 cos
0
Пусть модулирующая функция
.
Тогда угловая частота t процесса должна изменяться по закону
t
t
.
0
m cos
Подставляя t в выражение для u x t , получим
t
ux t
U 0 cos
0
m
t
Максимальное отклонение
отношение
m
cos
m
m
t
sin
от
0
t
.
0
называется девиацией частоты, а
m - индексом модуляции. Используя последнее, перепишем:
ux t
U 0 cos
0
t m sin
t
0
.
При фазовой модуляции
t
m
cos
t
фаза носителя определяется по закону
.
Следовательно, сигнал описывается выражением
t
0
m
cos
t
.
Таким образом, индекс модуляции при ФМ равен девиации фазы:
m
m,
ux t
U 0 cos
0
t
0
27
m
cos
t
соответственно девиация частоты: m m
.
m
Полученное выше выражение для сигнала приобретает теперь вид
ux t U 0 cos 0t m cos t
0 .
Рассмотрим графики
и m
для случаев ЧМ (рис. 4.4, а) и
m
ФМ (рис. 4.4, б). Амплитуда информационной функции предполагается
известной ( xm const ), поэтому
при ЧМ и
при ФМ
m
m
представлены горизонтальными линиями (они не зависят от частоты ).
Рис. 4.4
Спектры одиночных импульсов
Для прямоугольного импульса (рис. 4.5, а) имеем
/2
S j
U me
j t
Um j
e
j
dt
/2
/2
Um
e
j
j
/2
2U m
sin
2
.
Модуль этой функции
2U m
S j
sin
sin
2
Um
2 .
2
Характер спектров для других часто встречающихся форм импульсов треугольного, косинусоидального, экспоненциального, колокольного и
скачкообразного - изображен на рис. 4.5, б, в, г, д.
Спектры сигналов с импульсной модуляцией
Импульсный носитель описывается рядом Фурье. Для любой формы
импульсов формулу носителя можно представить в виде
uн
где
Ak
1
U0
2 k
Ak
,
U0
Ak - коэффициенты ряда Фурье,
U 0 - амплитуда импульсов.
28
Ak e jk
0t
,
При АИМ изменение амплитуды происходит по закону ux U 0
u t .
Рис. 4.5
В простейшем случае, когда модулирующая функция содержит
гармоническую составляющую
u t
U m cos t
,
получаем
uн
1
U0
2 k
Ak e jk
0t
1
Um
4
k
Ak e
j k
0
t
1
Um
4
k
Ak e
j k
0
t
.
Отсюда видно, что кроме основных линий, содержащихся в спектре
носителя (первое слагаемое), имеются дополнительные линии меньших
размеров, расположенные на частотах k 0
, т.е. по обе стороны от
основных на расстоянии ± (рис. 4.6).
29
Рис. 4.6
При более сложной модулирующей функции u t по обе стороны от
каждой основной линии располагается полоса дополнительных
составляющих, которая определяется полосой частот модулирующей
функции.
При времяимпульсной и частотно-импульсной модуляции, даже при
элементарной модулирующей функции с одной гармоникой, вокруг
каждой линии спектра носителя располагается бесконечно большое число
дополнительных гармоник, которые, однако, быстро убывают.
Лекция №5
Передача информации
Рассмотрим передачу информации в пространстве.
С этим вопросом связан ряд проблем:
1. Повышение эффективности передачи (повышение скорости
передачи информации по каналу и использования эффективного
кодирования).
2. Повышение надежности передачи путем использования
корректирующих кодов, помехоустойчивых видов модуляции,
применения методов помехоустойчивого приема.
3. Использование многоканальных систем.
4. Использование новых видов связи.
Виды каналов передачи
Механические каналы
Они используют механические усилия или давление. Различают:
а) жесткие (собственно механические, например, трос) каналы;
б) гидравлические(передающая среда – жидкость);
в) пневматические (передающая среда – воздух). Пневмоканалы
наиболее часто используются на предприятиях с взрыво- и пожароопасной
средой. Основной недостаток – длительные переходные процессы, особенно
в линиях большой длины.
Акустические каналы
Предназначаются для передачи колебаний. Среда для передачи –
любые звукопроводящие материалы и среды.
Различают каналы:
30
а) звукового диапазона (до 20 кГц);
б) ультразвукового диапазона (свыше 20 кГц).
В качестве источников и приемников (рис. 5.1) таких колебаний
используют магнитострикционные и пьезоэлектрические материалы.
В магнитострикционном или пьезоэлектрическом преобразователях
магнитное и электрические поля вызывают изменение линейных размеров
преобразователей и обратно механические усилия генерируют электрические
сигналы.
Скорости
распространения
акустических
волн
имеют
следующие значения:
- воздух-331,45 м/с;
- вода пресная – 1430 м/с;
- вода морская – 1500 м/с;
- стекло – 5400 м/с;
- сталь – 6100 м/с.
Рис. 5.1
Оптические каналы
Их различают по диапазонам длин волн:
а) каналы видимой части оптического спектра (0,3< <0,75 мкм);
б) каналы инфракрасной части спектра (0,75< <1000 мкм);
в) каналы ультрафиолетовой части спектра ( <0,3 мкм).
Устройства, работающие в инфракрасном диапазоне более
распространены:
1) из-за меньшего ослабления инфракрасного излучения в атмосфере;
2) из-за распространения инфракрасного излучения в темноте
(скрытность передачи).
31
В качестве излучающих элементов в оптических системах используют
лазерные генераторы. В качестве фотоприемников: фотосопротивления,
фотодиоды, фототранзисторы.
Использование когерентных источников реализуют огромное
количество каналов при высокой направленности излучений, что
предопределяет их широкое использование.
Электрические каналы
Наиболее распространены в виде проводных линий связи, специально
сооруженные для других целей.
Рис. 5.2
Схема замещения проводной линии связи имеет вид (рис. 5.2), где R0 –
активное сопротивление линии, зависящее от материала, сечения проводов,
температуры среды, частоты сигналов (при увеличении частоты растет из-за
наличия поверхностного эффекта), G0 – проводимость изоляции, зависящая
от вида изоляции, влажности среды и частоты сигнала, L0, C0 – зависят от
конструкции линии.
R 0, L 0, G 0, и С 0 – параметры определяют волновое сопротивление линии:
Zc
R0
G0
j L0
,
j C0
где ω – частота сигнала.
Для того чтобы вся энергия, проходящая по линии, поступала в
нагрузку ее сопротивление должно быть равно волновому сопротивлению
линии, иначе возникают отражения. Это приводит к потерям сигнала и
искажениям его формы.
Конструктивно проводные линии разделяют на кабельные и воздушные.
Часто в системах телемеханики используют «готовые» линии связи,
например, линии электропередач.
32
Радиоканалы
Радиоканалы различают по диапазонам частот.
На распространение радиоволн влияют отражающие и поглощающие
свойства земной поверхности и атмосферы (особенно ионосферы). УКВ и СВЧ
сигналы распространяются, в основном, в соответствии с законами оптики.
Разделение каналов
В многоканальных системах сигнал каждого источника должен
попадать только в свой приемник. Эта процедура называется разделением
каналов или сигналов.
Различают следующие основные методы разделения каналов:
1) пространственные,
2) частотные,
3) временные,
4) фазовые,
5) корреляционные.
Пространственное разделение
Каждому каналу отводится индивидуальная линия связи (рис.5.3),
где ЛСк - линия связи k-ого канала,
Хк - k-й датчик,
Пхк - k -й приемник.
Рис. 5.3
33
Частотное разделение
Для различных каналов выделяются непересекающиеся частотные
участки Δfk на частотной шкале (рис. 5.4).
Основное преимущество таких систем – возможность одновременной
передачи сигналов в разных каналах.
Второе преимущество – возможность передачи от рассредоточенных
объектов.
Недостаток – взаимное влияние каналов из-за перекрытия спектров
сигналов, неидеальности полосовых фильтров и появление паразитных
частотных составляющих из-за нелинейности электрических цепей
(перекрестная модуляция).
Рис. 5.4
Временное разделение
Сигналы датчиков передаются в непересекающихся отрезках времени
Δ(tk) (рис. 5.5),
где Р - распределитель – коммутатор.
Рис. 5.5
Основная проблема – синхронизация коммутаторов.
Фазовое разделение
34
Фазовое разделение для двуканальных систем представлено на рис. 5.6,
где М – модулятор, ФД – фазовый детектор, ЛС – линия связи.
Рис. 5.6
Корреляционное разделение
Оно основано на использовании ортогональных сигналов. Условие
T
ортогональности имеет вид gi t g j t dt 0 .
0
Ортогональную систему образуют, например, следующие функции:
1. бесконечное множество функций cos k t , sin k t , где k-целое
неотрицательное число, ортогонально на интервале 0<t=2π/ .
2. множество произвольных функций на непересекающихся
интервалах времени, а в остальное время равных нулю.
3. функции Хаара, Уолша, Радемахера, Лежандра, Лагера и т.д.
Многоканальную
систему
с
корреляционным
разделением
представлена на рис. 5.7.
Мк - модулятор k-го канала,
Гк - генератор функции gk(t),
Кк - коррелятор k-го канала,
Рис. 5.7
35
Хк - датчик k-го канала,
ЛС - линия связи
Корреляционный метод особенно эффективен при перекрывающихся
спектрах сигналов.
Структура каналов связи
Канал передачи состоит из линии связи, модулятора, демодулятора,
кодирующего и декодирующего, а также решающих устройств.
Варианты структур каналов изображены на рис. 5.8.
Рис. 5.8
36
Лекция №6
Пропускная способность канала и скорость передачи по каналу связи
Информационная модель канала
Для дальнейшего анализа будем использовать
информационную модель канала связи (рис. 6.1).
обобщенную
Рис. 6.1
ИИ - источник информации, П1, П2 - преобразователи информации, ИП
- источник помех, ЛС - линия связи, ПИ-приемник информации. Сигналы
источника z t будем называть сообщениями, а сигналы преобразователя П1
x t просто сигналами. В результате действия помех
сигнал на выходе
линии ЛС y t отличается от x t . Помехи имеют случайный характер и
подчиняются статистическим законам. Если канал используется для
передачи кодоимпульсных сигналов, он называется дискретным, если для
непрерывных сигналов - непрерывным.
Для организации эффективной передачи по каналу требуется:
1) определить максимально возможную скорость передачи информации,
2) разработать коды, позволяющие увеличить скорость,
3) согласовать канал с источником, чтобы обеспечить передачу
информации с минимальными потерями.
Важнейшей характеристикой канала является пропускная способность:
C max I Y , X .
C max I Y , X
- максимально возможное значение среднего
количества информации в одном символе принятого сигнала.
Количество информации
I (Y,X)=H(Y)-H(X/Y),
где Н(Y)-энтропия принятого сигнала,
Н(Х/У)-средняя условная энтропия ансамбля сигналов Y при известных
переданных сигналах Х, характеризующих среднюю остаточную
неопределенность принимаемых сигналов, если известны передаваемые.
Значение max {I(Y,X)} не зависит от источника, так как является
максимумом средней информации, которая может быть передана одним
символом при оптимальном источнике.
Пропускная способность зависит исключительно от канала.
37
Дискретный канал без помех
Уровень помех очень невелик, искажения сигнала отсутствуют
практически у=х и Н(Х/У)=0. Среднее количество информации на один
символ I(Y,X)= Н(У), а maxI(Y,X)=Hmax(Y)= Hmax(X), где Hmax(X)максимальная энтропия источника при равномерном распределении
вероятностей символов:
p x1
p x2
p xm
1
.
m
Максимальная энтропия выражается в единицах информации
на символ и равна
Hmax(X)=log2m.
Пропускная способность будет
C= Hmax(Y)=log2m.
Дискретный канал с помехами
Рассмотрим канал, по которому передаются двоичные символы.
Пусть р есть вероятность превращения принимаемого сигнала в
противоположный (вероятность ошибки), тогда (1 – р) – есть вероятность
правильного приема. Диаграмма передачи по симметричному каналу
представлена на рис. 6.2.
Рис. 6.2
Средняя условная энтропия
H(Y/X)=-plog2p-(l-p)log2(1-p) не зависит от характеристик источника
и определяется помехами в канале.
1
2
Величина Hmax(Y)=log2m=log22 (что достигается при p(x1)=p(x2)= ).
Поэтому max{I(Y,X)}= log22 + plog2p+(l-p)log2(l-p) и пропускная
способность
38
С=max{I(Y,X)}= log22 + plog2p+(l-p)log2(l-p)=1+ plog2p+(l-p)log2(l-p).
В частности, при р=0 (отсутствие шумов)
Сmax= log22=1.
При р=1 Сmax= log22, но х1 становится х2, а х2 становится х1.
При р=1/2 С=0=С min, т.е. ничего нельзя сказать о посланном сигнале и
был ли он послан вообще.
Скорость передачи информации
При исследовании вопросов передачи цифровой информации
приходится сталкиваться с двумя различными понятиями скорости
передачи: технической и информационной.
Техническая скорость характеризует быстродействие аппаратуры,
входящей в состав передающей части системы связи. Она определяется
количеством элементов дискретного сообщения, переданных в секунду. Эта
характеристика была предложена в телеграфии более 100 лет назад
французским инженером Ж. Бодо. В его честь единица технической
скорости была названа бодом.
Техническая скорость передачи определяется величиной
R
1
[бод],
0
где τо – длительность посылки, соответствующей передаче одного элемента
дискретного сообщения.
Под информационной скоростью понимают количество информации,
поступившее по линии связи от источника информации к получателю за
одну секунду. Информационная скорость измеряется числом двоичных
единиц (бит) в секунду. Она зависит от ряда факторов: технической
скорости передачи, статистических свойств источника, типа канала связи,
применяемых сигналов и помех, действующих в этом канале.
Техническую скорость передачи нельзя путать с информационной
скоростью, а термин «бод» использовать как синоним термина «бит/с».
Количественно эти скорости совпадают только для бинарных
симметричных линий связи с высокой достоверностью передачи. Только в
этом единственном случае можно принять, что 1 бод равен 1 бит/с. В общем
случае информационная скорость не совпадает с технической и может
быть как больше, так и меньше ее.
Информационная скорость передачи в симметричных двоичных
каналах с постоянными параметрами определяется выражением
R RC.
При увеличении отношения сигнал/шум в канале вероятность ошибки
р уменьшается и скорость передачи стремится к величине
39
lim R
p
0
1
R .
0
Шенноном показано, что наибольшее среднее количество информации,
содержащееся в Y относительно X, равно
I max Y , X
B
P
log 2 1
T
N
B
P
,
log 2 1
T
N
где P - среднее значение мощности передаваемых сообщений,
N - среднее значение мощности помех,
T - длительность сигнала,
F - полоса частот сигнала,
B=FT– база сигнала.
Для увеличения I max Y , X необходимо увеличивать B и
P
.
N
Если P N , остается возможность увеличения I max Y , X только за счет
расширения полосы и длительности импульса.
Максимальная скорость передачи Rmax lim
T
I max Y , X
T
F log 2 1
P
N
.
Эта формула указывает, что наибольшая скорость передачи
информации (в двоичных единицах в секунду) прямо пропорциональна
полосе частот и логарифму суммы 1
P
.
N
Повышение помехоустойчивости передачи и приема
Эта задача достигается путем:
1) увеличения мощности сигнала;
2) применения помехоустойчивого кодирования, которое связано с
введением избыточных символов в код, что позволяет обнаруживать и
исправлять ошибки, но увеличивает время передачи, либо расширяет спектр
передаваемого сигнала;
3) применения помехоустойчивых видов модуляции, что приводит
либо к увеличению времени передачи, либо к увеличению ширины
передаваемого спектра сигнала;
4) применения помехоустойчивых методов приема, что в конечном
итоге увеличивает время передачи;
5) применения каналов с обратной связью, причем по каналу обратной
связи может передаваться либо весь объем принимаемой информации, либо
информация о сомнительных символах, которые требуется повторить. В
последнем случае используется решающее устройство.
Системы первого типа называют системами с информационной
обратной связью, системы второго типа - с решающей обратной связью или
40
системами с переспросом. В данном случае усложняется оборудование (два
канала вместо одного) и увеличивается время передачи.
Лекция №7
Восприятие и обработка информации
Задачи распознавания, обнаружения и измерения
Восприятием называется процесс целенаправленного извлечения и
анализа информации о каком-либо объекте или процессе.
Простейшим видом восприятия является различение двух
противоположных состояний «да» и «нет».
Более сложным видом восприятия является измерение, т.е.
определение значений некоторых наблюдаемых величин.
Еще более сложными являются процессы распознавания, предсказания
или прогнозирования.
В различных способах восприятия есть много общих сторон:
например, единство методов обнаружения, измерения и рас познавания,
когда процедура сводится к установлению некоторых эталонов, получению,
внешней информации и сравнению этой информации с эталоном на
основании некоторого критерия.
Обнаружение и распознавание
Процесс распознания состоит в классификации явлений по имеющейся
информации и отнесении воспринимаемой совокупности или вектора
признаков X x1,..., xm к области, характеризующей одно из состояний ai
источника информации. С этой целью пространство признаков Х разбивается
по какому-либо критерию на n областей X1 , , X n (рис.7.1) соответствующих
точкам пространства состояний A a1 ,..., an . Если разбиение производится
на две области, то распознавание сводится к обнаружению некоторого
явления.
Рис. 7.1
41
Вектор X в пространстве признаков называют вектором реализации, а
области разбиения образуют множество классов.
В сферу задач теории обнаружения и распознания входит:
1) определение границ областей X i ;
2) нахождение оптимальных алгоритмов классификации.
В общем случае зависимость реализации X от состояния ai источника
носит вероятностный характер.
Три характерных случая представлены на рис. 7.2 (для простоты
использованы одномерные распределения).
Рис. 7.2
В случае (рис. 7.2, а) возможно безошибочное распознание. Для этого
области X1 , , X n в пространстве признаков должны быть выбраны так, чтобы
каждая из них включала все возможные значения только одного
соответствующего ей параметра. При этом вероятность p ai X i правильного
распознавания i-го состояния при условии X
p ai
p ai p X i ai
p ai X i
X i по формуле Байеса будет
W X ai d X
p ai
xi
p aj p Xi aj
p aj
j
j
W X ai d X
xi
W X ai d X
p ai
xi
1.
W X ai d X
xi
Так как все условные распределения W X a j
в области X i i
j
тождественно равны нулю. В случае рис. 7.2, б распознавание по вектору
реализации невозможно, так как при любом разбиении X i все p X i a j можно
заменить на p X i ai , что дает p ai X i
p ai .
42
Это означает, что отнесение вектора X к какой-либо области X i не
увеличивает вероятности распознавания, которая будет равна априорной p ai
.
Естественно случай (рис. 7.2, б) является промежуточным и
распознавание возможно с вероятностью p ai X i , которая будет в пределах
p ai
1.
p ai X i
Характеристики качества распознавания
Основными характеристиками распознавания являются ошибки
распознавания и средние потери.
Например, при X X i принимается гипотеза о наличии состояния ai .
Вероятность правильного решения при этом p ai X i , а вероятность ошибки
piош 1 p ai X i . Средняя вероятность ошибки для всех возможных реализаций
pош
p X i piош
p X i 1 p ai X i
i
1
1
i
p ai
i
p X i p ai X i
i
W X ai d X .
xi
Из этого видно, что pош зависит от выбора областей X i , т.е. от
разбиения пространства признаков.
Если ошибки распознавания отдельных состояний неравноценны и с
ними можно связать определенные потери, то для характеристики качества
распознавания могут быть приняты средние потери.
Обозначим через ij положительное число, определяющее условные
потери («штрафы») от ошибки в результате заключения состояния а, в то
время как источник информации находится в другом состоянии a j .
При попадании X в область X i потери составят
p ai X i
i
ij
,
j
а средние потери:
p Xi
i
где
i
p Xi
i
i
p ai X i
j
j
- условные риски распознавания,
- средний риск распознавания.
43
W X ai d X ,
p aj
ij
xi
Статистические критерии обнаружения
Ошибка может быть уменьшена, если суждение о состоянии ai
выносится не по одному отсчету информационного параметра х, а по серии
отсчетов x1 ,....xm , которую можно рассматривать как вектор-реализацию
X
x1 ,....xm в пространстве признаков X. Статистическая связь вектора X с
состояниями ai определяется условными плотностями распределения W X ai
.
Пространство признаков разбивается на две области X 1 и X 2 . Граница
областей носит название «решающей поверхности». В процессе
обнаружения решающее устройство определяет какой области принадлежит
вектор-реализация и делает заключение о состоянии ai источника. В памяти
решающего устройства должны храниться данные о решающей поверхности.
Поскольку эта поверхность многомерна, ее задание и хранение встречает
значительные трудности.
Однако этот многомерный случай можно привести к одномерному
путем перехода к новой переменной, функционально связанной с вектором
X.
Эта переменная носит название отношения или коэффициента
правдоподобия и задается соотношением
X
W X a2
,
W X a1
где W X ai
W x1 , x2 ..., xm ai
- многомерная плотность распределения
вероятностей.
Вместо уравнения решающей поверхности достаточно запомнить одно
число 0 , с которым сравнивается текущее значение .
X 2 и принимается гипотеза о наличии состояния a2 .
Если
0 , то имеем X
Однако полученные упрощения требуют некоторого изменения
процедуры восприятия. Уравнение границы
F X
0
определяется соотношением
W X a2
W X a1
44
0
.
Критерий минимального риска Байеса
Для его использования должны быть известны
W X a1 ,W X a2 , p a1 , p a2 и условные потери
21
,
22
,
11
0,
12
0 .
Средний риск для задачи обнаружения будет
12
p a2
W X a2 d X
21
W X a1 d X .
p a1
x1
x2
Уравнение решающей поверхности определяется выражением
F X
0.
21 p a1 W X a1
22 p a2 W X a2
Отношение правдоподобия из уравнения решающей поверхности имеет вид
W X a2
p a1
.
22 p a2
21
0
W X a1
Таким образом, в процессе обнаружения для полученного вектора
подсчитывается
W X a2
W X a1
X
,
которая сравнивается с постоянной величиной
p a1
.
22 p a2
21
0
Если
0 , то было состояние a 2 , риск распознавания будет минимален.
В одномерном случае, когда вектор X есть один отсчет параметра х,
решающая поверхность представляет точку x0 пересечения функций
и 12 p a2 W x a2 (рис. 7.3).
21 p a1 W x a1
Рис. 7.3
Критерий идеального наблюдателя (Зигерта-Котельникова)
В этом случае принимают
правдоподобия будет
0
12
p a1
.
p a2
45
21
, а значение коэффициента
Критерий максимального правдоподобия Фишера
При неизвестных априорных вероятностях p a1
p a1
p a2 , что предполагает 0 1 .
и p a2
полагают
Минимаксный критерий
Данный критерий более осторожен при неизвестных p a1 и p a2 , чем
критерий Фишера.
Для каждого фиксированного * ищется наихудшее распределение:
p* a1 , p* a2 1 p* a1 ,
при котором средний риск будет максимален:
*
*
max
, p a1
, p* a1 .
p ( ai )
И для этих распределений определяется
0
через минимизированный
риск:
0
*
min
max
*
p ( ai )
, p a1
0
Значения 0 и p0 a1 , при которых
определены из уравнений
0
0
p a1
,
12 p a2
/ a2 d
21
, p0 a1
.
, опуская их вывод, могут быть
21
0
W
12
0
W
/ a1 d .
0
Критерий наблюдателя Неймана–Пирсона
Средняя вероятность ошибки (
pош
p a1
W X a1 d X
x2
p a2
12
21
1 ), как у Зигерта-Котельникова:
W X a2 d X
p a1 p1ош
p a2 p2ош ,
x1
где p1
- вероятность ошибки первого рода (вероятность ложной тревоги,
риск заказчика),
p2
- вероятность ошибки второго рода (вероятность пропуска
сигналов, риск изготовителя).
Часто ошибки первого и второго рода могут привести к осуществлению
различных последствий, которые невозможно отделить в виде потерь,
например, когда одна из ошибок приводит к непредсказуемым
катастрофическим последствиям. Такую ошибку необходимо ограничить
ош
ош
46
некоторой очень малой величиной
0 , а вторую сделать возможно
меньшей min .
Величина 0 находится из выражения
W
/ a1 d
.
0
Лекция №8
Общие подходы к организации локальных вычислительных систем (ЛВС)
Современный период развития различных областей информатики
характеризуется повышением роли систем с распределенной обработкой
информации как в управленческой, так и в производственной деятельности
обычно с концентрацией в отдельных зданиях или группе зданий. Поэтому
имеет место потребность в создании территориально рассредоточенных
автоматизированных рабочих мест и объединения их в ЛВС.
Данная задача решается подключением персональных ЭВМ через
специальные интерфейсные средства к общему каналу связи (моноканалу)
ЛВС.
Архитектура ЛВС основана на созданной в результате
международного сотрудничества многоуровневой эталонной модели, на
каждом уровне которой выделены определяющие взаимодействия объектов.
Под объектами понимаются оборудование или программы систем,
включаемых в ЛВС. Такой подход позволяет создавать ЛВС как
многомодульную
структуру,
где
изменения
или
оптимизация
схемотехнических решений модуля с целью улучшения его техникоэксплуатационных показателей не влечет за собой переделки других
модулей, входящих в ЛВС.
В настоящее время определились две формы управления ЛВС:
1) работой управляет центральная ЭВМ, генерирующая поток
инструкций, определяющих порядок взаимодействия абонентов с ЛВС,
2) имеет место случайный характер взаимодействий абонентов ЛВС
между собой на этапе конкуренции или состязания за право захвата
моноканала.
Эталонный модуль (ЭМ) архитектуры ЛВС
ЭМ имеет семь уровней взаимодействия. Границы между уровнями
выбраны так, чтобы перестройка одного уровня не повлекла за собой
перестройку другого уровня. Это допускает совершенствование технической
базы и программного обеспечения ЭВМ. Каждый i -й уровень предоставляет
все услуги ( i 1 ) уровню. Уровни представлены в табл. 3.
47
На первом (физическом уровне) осуществляется взаимодействие
аппаратных средств приема передачи информации.
На втором (канальном уровне) осуществляется управление передачей
данных с помощью физического уровня. На этом уровне организуется
управление работой средств физического уровня, реализуется доступ
объектов к общему каналу связи. На этом уровне осуществляется селекция
информации, заключающаяся в том, что из множества информационных
блоков отбираются только те, что содержат адрес данного объекта.
Таблица 3
№
уровня
7
Наименования
уровня
Прикладной
Представительный
6
5
4
3
2
1
Сеансовый
Транспортный
Сетевой
Канальный
Физический
Основные функции уровня
Взаимодействие прикладных программ
Организация
интерфейсов
между
различными
органами
представления
информации
Организация диалога между объектами
Управление
сквозными
логическими
каналами между объектами
Маршрутизация блоков информации по
различным каналам
Взаимодействие блоков связи
Взаимодействие аппаратных средств
приема передачи информации
На третьем (сетевом) производится ретрансляция данных по
различным каналам связи, т.е. уровень управляет работой множества
каналов, прокладывая через эти каналы маршрут следования блоков
информации. Поскольку в ЛВС в основном применяют общий канал связи, то
в большинстве ЛВС этот уровень практически отсутствует.
Четвертый (транспортный) уровень обеспечивает установление,
поддержание и разъединение сквозных транспортных каналов между
объектами. Различают датаграммный и виртуальный сквозные каналы,
транспортные каналы.
В первом канале блоки информации передают без установления
соединения. В случае нарушения следования блоков информации на
конечном пункте эта последовательность восстанавливается. Часть блоков
может теряться и эти блоки должны быть повторены.
Пятый (сеансовый) уровень обеспечивает организацию и проведение
диалога между прикладными объектами пользователя. Этот уровень
расширяет возможности абонентской ЭВМ за счет ресурсов программ,
48
памяти, процессорного времени периферийных устройств других абонентских
машин.
Шестой
(представительский)
уровень
осуществляет
все
преобразования информации, связанные с различной структурой данных в
ЭВМ, подключенных к сети. Чем больше эти различия, тем сложнее шестой
уровень. На представительском уровне:
- организуется сеанс между прикладными объектами,
- осуществляется выбор способа представления данных для всех видов
оборудования,
- описываются форматы данных с речевой и телевизионной информацией,
- осуществляется сжатие и засекречивание информации,
- выдаются данные, речевая и телевизионная информация в удобной
для пользователя форме.
Седьмой (прикладной) уровень обеспечивает взаимодействие самых
разных прикладных объектов (программ, данных, моделей и т.д.). На этом
уровне выделены следующие функции:
- управления заданиями, файлами, базами данных и.т.д.,
- идентификации объектов,
- управления работой нижних уровней,
- определения качества обслуживания со стороны средств нижних
уровней.
Технические средства ЛВС
Каналы связи ЛВС
Различают:
1) эфирные каналы:
- радиоканалы,
- ультракоротковолновые,
- микроволновые,
- инфракрасные,
2) кабельные:
- электрические кабели,
- волоконно-оптические кабели.
Системы передачи данных (СПД) на базе электрических кабелей
СПД на базе коаксиальных кабелей используются более часто, чем
эфирные. Они могут использоваться для передачи речи, данных,
телевизионных изображений. Современные кабели практически не излучают
помехи на любом расстоянии.
Различают:
49
- широкополосные кабели (скорость передачи 300-550 Мбит/с,
затухание на частоте 100 МГц менее 7 дб на 100 м, погонное сопротивление
15 Ом на 1 км, амплитуды напряжения сигналов 10-20 В, долговечность 1012 лет) используются в режиме согласования;
- узкополосные кабели (скорость передачи не более 50 Мбит/с,
затухание 4 дб на частоте 10 МГц при длине 100 м, погонное сопротивление
20-30 Qм нa 1 км) работают в режимах электрически длинной
(согласованной) линии и электрически короткой (несогласованной) линии.
В этом режиме переходные характеристики зависят от емкости кабеля.
Там, где не требуется высокая скорость передачи, можно использовать
линии в виде скрученной пары проводников. Они позволяют реализовать
скорость 3-5 Мбит/с на расстоянии 1,5-2 км. Скрученная пара более
защищена от внешних наводок по сравнению с одиночным проводом, но
значительно хуже коаксиальных оптико-волоконных кабелей. Она плохо
приспособлена для передачи речи, телеизображений. Тем не менее она
наиболее доступна для пользователей. Затухание составляет 12-28 дб на 100
м для частоты 10 МГц. Скрученные пары можно использовать на площадях с
периметром 0,8-1,5 км.
Электромеханические ответвители
Электромеханический ответвитель состоит из механического и
электронного блоков. Механический блок обеспечивает электрический
контакт входа ответвителя с центральной жилой кабеля. Механический блок
вносит определенное рассогласование в кабель как вносимое сопротивление
зависит от надежности контакта. Каждое подключение в данном случае
должно сопровождаться проверкой переходных процессов (рис. 8.1).
1
2
Рис. 8.1
Кривая 1 отображает согласованный режим,
кривая 2 - рассогласование
На рис. 8.2 изображена схема электромеханического контактирующего
устройства (ЭМКУ) игольчатого типа. Трансформатор Тр обеспечивает
индуктивную развязку по постоянной составляющей напряжения сигналов в
кабеле.
50
Сигналы манчестерского кода поступают на входы Tx и T x и
усиливаются транзисторами T1 и Т2. RC-цепочки в базах транзисторов
осуществляют коррекцию входных сигналов. Ответвители не применяются
в случае, если требуется разъединить кабель для обеспечения прохождения
через приемник, переключателя канала, передатчики.
Приемник содержит ЭМКУ и усилитель сигналов релейного типа компаратор. В этом блоке представляет интерес разработка эффективных
компараторов устойчивых к температурным изменениям и колебаниям
напряжения питания.
Рис.8.2
Системы передачи данных оптического типа
Волоконно-оптические кабели
Такие кабели используются в высокоскоростных каналах ЛВС.
Простейший кабель состоит из кварцевой сердцевины диаметром 20-60 мкм,
окруженный тонкой стеклянной пленкой со значительно меньшим
коэффициентом преломления, чем сердцевина. Это позволяет преломлять
световые волны внутрь стеклянного волокна, не выпуская их наружу. С
помощью таких кабелей можно передавать все виды информации: речь,
данные, телевизионные изображения. К сожалению, волоконно-оптические
кабели критичны к механическим воздействиям, поэтому их прокладка
должна осуществляться в местах, где они недоступны для ударов, вибрации,
изгиба, провисания. Это особенно касается цехов предприятий,
подключение к станкам с программным управлением и т.д.
51
Оптоэлектронные преобразователи
В роли излучающих устройств используют микролазеры. Они
обеспечивают достаточную мощность, имеют небольшие габариты,
работают с сигналами ТТЛ. Преобразователи соединяются с волоконнооптическим кабелем. Фотоприемники изготавливаются на базе фотодиодов с
высоким коэффициентом передачи тока.
На рис. 8.3 изображена схема оптоэлектронного преобразователя, где
ФД - фотодиод, УС - усилитель, ФЦС - формирователь цифровых сигналов,
МКУ - механическое контактирующее устройство обеспечения надежного
оптического контакта фотодиода cо стеклянной оболочкой кабеля.
Рис. 8.3
Вопросы и задания для самостоятельной работы
и практических занятий
К лекции №1
1. В чем различие между дискретными и аналоговыми источниками
информации?
2. Что такое элемент сообщения и чем он характеризуется?
3. Что такое «бит» и какому сообщению соответствует 1 бит?
4. Чему равно количество информации по Хартли?
5. Какое количество информации I содержат сообщения:
а) 10010101,
б) 1101,
в) 1234567890.
52
6. Задана информационная емкость системы в виде десятичного числа
Q=1000 999:
а) определите потенциальное количество информации I в такой системе,
б) закодируйте заданное число по двоичной системе (h=2). Найдите
необходимое число разрядов N,
в) сделайте выводы.
6. Опишите сообщение, для которого количество информации
определяется энтропией.
7. Опишите свойства энтропии.
8. Что означает условие m=h?
9. Чему равна энтропия двух неравновероятных состояний одного
элемента (h=2)?
10. Чему будет равна энтропия по п. 1.10 при равной вероятности
состояний?
11. Чему будет равна энтропия по п. 1.10, если р1=0,9, р2=0,1?
12. Чему будет равна энтропия по п. 1.10, если р1=1, р2=0 или р1=0,
р2=1?
13. Нарисуйте график H(p) для случая п. 1.10.
К лекции №2
1. Какие сигналы называются детерминированными? Нарисуйте
примеры.
2. Какие сигналы называют случайными? Нарисуйте примеры.
3. Какие сигналы называют непрерывными (аналоговыми)? Нарисуйте
примеры с учетом пп. 2.1 и 2.2.
4.Какие сигналы являются дискретными? Нарисуйте примеры.
5. Как осуществляется квантование по уровню?
6. Как выглядит квантованный по времени сигнал? Нарисуйте примеры.
7. Какие задачи возникают при дискретизации непрерывных сообщений?
8. Какие принципиальные недостатки свойственны модели
непрерывных сообщений с ограниченным спектром?
9. Указать основные особенности предельной дискретизации по
Котельникову. Какие причины препятствуют её практическому применению?
10. Для x t 12 10sin t B при шаге x 2 B изобразите сигнал,
квантованный по уровню.
11. Для x t по п. 2.10 при шаге дискретизации по времени
t
T
,
12
изобразите сигнал, квантованный по времени.
12. Для x t по п. 2.10 и условий пп. 2.4 и 2.5 постройте сигнал,
квантованный по уровню и по времени (способы 1 и 2).
13. Выполните задания по пп. 2.10 - 2.12 для x t 10sin t B .
53
14. На графиках по пп. 2.12, 2.13 отразить ошибки квантования.
К лекции№3
1. Запишите десятичные числа от 0 до 15:
а) в натуральном двоичном коде,
б) в двоично-десятичном коде (8-4-2-1),
в) в двоично-десятичном коде (2-4-2-1),
г) в коде Грея.
Результат оформите в виде таблицы, представленной ниже.
Число НДК
Двоично-десятичные коды
8-4-2-1
2-4-2-1
Код Грея
2. Покажите, что комбинация в коде Грея получится, если кодовую
комбинацию в НДК сложить по модулю 2 с такой же комбинацией сдвинутой
на один разряд вправо, при этом младший разряд должен быть отброшен.
3. Нарисуйте структуры преобразователя НДК в код Грея.
4. Проверьте правило перевода кода Грея в НДК:
1) символ старшего разряда остается без изменения,
2) каждый следующий символ инвертируется, если в НДК был
получен символ 1 или остается без изменений, если в НДК получен 0.
5. Нарисуйте структуру преобразователя кода Грея в НДК.
6.
Зарисуйте
временную
диаграмму
последовательности
101110000011(начальное состояние 0):
а) в униполярном коде с пассивной паузой,
б) в биполярном коде с активной паузой,
в) в биполярном коде с инверсией,
г) в униполярном коде с расщепленной фазой,
д) в биполярном коде с расщепленной фазой (код Манчестер II).
7. Постройте эффективные коды по методике Шеннона-Фано и найдите
для них энтропию и среднее число для заданного ниже алфавита с учетом
определения первой границы деления двумя вариантами:
вариант 1
буква вероятность
Z1
0,22 1
Z2
0,2 1
код
1
0 Х
Гр аница 1’
Гр аница 1
Z3
0,16 1
0 Х
Z4
0,16 0
1
54
Z5
0,1
0 Х Х
Z6
Z7
0,1
0,04
0 Х Х Х
0 Х Х Х Х
Z8
0,02
0 Х Х Х Х
вариант 2
буква
Z1
Z2
вероятность
код
0,22
0,2
1 1
1 0
Z3
0,16
0 1
Х
Z4
0,16
0 1
Х
Z5
Z6
0,1
0,1
0 0 Х
0 Х Х Х
Z7
0,04
0 Х Х Х Х
Z8
0,02
0 Х Х Х Х
Гр аница 1
В чем состоит основной недостаток методики Шеннона-Фано?
8. Постройте эффективный код, используя методику Хаффмена:
1) две последние буквы объединяем во вспомогательную букву с
суммарной вероятностью,
2) повторяем эту процедуру с учетом полученной суммы и условия
убывания вероятностей.
Постройте кодовое дерево, запишите коды букв, найдите энтропию и
среднее число символов на букву.
буква
Z1
Z2
Z3
Z4
Z5
Z6
Z7
Z8
вероятно
сть
0,22
0,2
0,16
0,16
0,1
0,1
0,04
0,02
вспомогательные столбцы
1
2
3
4
5
6
7
0,22 0,22 0,26
0,58 1
0,2 0,2 0,22
0,42
0,16 0,16 0,2
0,16 0,16 0,16
0,1 0,16 0,16
0,1 0,1
0,06
55
Z1=0 1
Z2=0 0
Z3=х х х
Z4=х х х
Z5=х х х
Z6=х х х х
Z7=х х х х х
Z8=1 0 1 0 0
9. Определите правильность передачи информации по методу
Хэмминга для числа:
а) 1111100,
б) 0111101,
в) 1111101.
Какое число было передано?
Какой вывод можно сделать относительно числа по пункту в)?
10. Какое число информационных разрядов m может содержать код,
если количество контрольных позиций k=4, k=5?
К лекции №4
1. Последовательность отсчетов 351047 представьте через:
а) восьмипозиционный ШИМ сигнал,
б) восьмипозиционный ВИМ сигнал,
в) трехпозиционный КИМ сигнал.
2. Заданы: несущая частота АМ – сигнала uн t 100sin 2 106 t
н
В,
модулирующий сигнал U м t 50sin 2 103 t м В. Найдите амплитуды и
частоты составляющих спектра, коэффициенты модуляции и постройте
частотную и временную диаграммы.
3. Запишите аналитическое выражение ЧМ сигнала, если амплитуда
несущей 100 В, частота несущей 10 мГц, частота модулирующего сигнала
1кГц, индекс модуляции 50. Чему равна девиация частоты?
4. Найдите аналитическое выражение для модуля спектра
прямоугольного импульса амплитудой 100 В, длительностью
10 6 c .
Постройте график полученной функции. Как изменится спектр, если а)
3 10 6 c
и б)
1
10 6 c . Постройте эти графики.
3
5. Найдите составляющие спектра последовательных прямоугольных
10 6 c
импульсов с частотой f=100 кГц и длительностью импульса
(амплитуда импульсов равна 100 В).
6. Для импульсной несущей по предыдущей задаче и модулирующего
сигнала u м t 50sin 2 104 t В изобразите частотный спектр АИМ сигнала, а
также временную диаграмму заданного АИМ сигнала.
К лекции №5
1. Какие способы разделения сигналов используются на практике и при
каких условиях?
2. В чем заключается способ корреляционного разделения сигналов?
Какие он имеет преимущества?
56
3. Изучите систему ортонормирующих функций Уолша.
Система функций Уолша является полной ортонормированной
системой на интервале [0,1] и может служить базисом спектрального
представления сигналов.
1 функцию, являющуюся
Любую интегрируемую на интервале 0
математической моделью электрического сигнала, можно представить рядом
Фурье по системе функций Уолша:
f
A 0 wal 0,
A 1 wal 1,
A 2 wal 2,
... A i wal i,
с коэффициентами
1
A i
f
wal i,
d ,
0
t / T - безразмерное время, т.е. время, нормированное к произвольному
где
интервалу Т.
Система из N 2n функций Уолша можно сформировать в результате
перемножения n первых функций Радемахера (меандровых функций),
которые определяются выражением
1,
rк sign sin 2к
,0
где к - порядок функции, символ sign (сигнум – функция) обозначает функцию.
sign x
1, x 0
.
1, x 0
, r1
, r2
, r3
4. Постройте по формуле функции Радемахера r0
Нарисуйте их графики.
5. Какими техническими средствами можно реализовать эти функции?
6. Постройте N 2n функций Уолша, если n=3:
а) представьте построение в виде таблицы, приведенной ниже.
+ + + + + + + + r0
+ + + + - - - - r0 r1
+ + - - + + - - r0 r2
.
0
1
2
r0 r3
3
r0 r1r2
4
r0 r1r3
5
r0 r2 r3
6
r0 r1r2 r3
7
б) нарисуйте временные диаграммы полученных функций.
7. Проверьте аналогичное построение для n=4.
8. Попробуйте упорядочить полученные функции так, чтобы главная
диагональ содержала только плюсы. Убедитесь, что полученное построение
оказывается симметричным относительно главной диагонали.
57
9. Если « плюсы» заменить на «1» и «минусы» - на «0», то используя
операцию суммирования «по модулю 2», можно реализовать оба набора к .
Продолжите запись: W 1 r0 r1 , W 2 r0 r2 ,..., W 7 ...
10. Нарисуйте схему генератора функций Уолша для n=4 на базе
двоичного счетчика и сумматоров «по модулю 2».
11. Опишите свойства каналов передачи информации без обратной связи.
12. Опишите работу каналов с обратной связью. Сравните их
возможности по отношению к каналам передачи без обратной связи.
К лекции №6
1. Изобразите обобщенную информационную модель канала связи.
2. Дайте определение пропускной способности.
3. Чему равна пропускная способность дискретного канала без помех.
4. Нарисуйте зависимость пропускной способности от основания кода.
Сделайте выводы.
5. Каким выражением определяется пропускная способность двоичного
симметричного канала при наличии помех.
6. Нарисуйте график изменения пропускной способности от
вероятности искажения символа. Сделайте практические выводы.
7. Дайте определение технической скорости передачи сообщений?
8. Чему равна информационная скорость передачи сообщения?
9. Как связана пропускная способность с характеристиками сигналов и
помех?
10. Чем определяется максимальная скорость передачи?
11. Постройте зависимости скорости передачи информации для F=20,
40, 60 Гц и отношений
P
от 0 до 100. Сделайте практические выводы из
N
полученных результатов.
12. Учитывая, что база B FT преобразуйте выражение:
C
B log 2 1
P
, к виду C
N
B log 2 1
E
,
N0 B
где E PT - энергия сигнала,
N 0 N / F - удельная мощность шума, т.е. мощность на единицу полосы.
13. Постройте графики C C
E
N0
для
B 10,100,1000
отношения E / N 0 от 0 до 100. Сделайте выводы.
К лекции №7
1. В чем состоит процесс распознавания?
58
при изменении
2. Что определяет формула Байеса?
3. Как определить ошибки распознавания?
4. Как находятся средние потери распознавания?
5. В чем состоит процесс обнаружения?
6. В чем заключается выгода от использования серии отсчетов при
обнаружении?
7. Что такое решающая поверхность?
8. В чем состоит идея использования отношения правдоподобия?
7.9. Опишите критерий минимизации риска Байеса? Чему равно
граничное значение коэффициента правдоподобия 0 ?
10. В чем состоит суть критерия идеального наблюдателя? Найдите
выражение для средней вероятности ошибки.
11. В чем отличие критерия наблюдателя Неймана-Пирсона от
критерия наблюдателя Зигерта-Котельниковва?
12. В каких случаях используют критерий максимального
правдоподобия Фишера и минимаксный критерий? В чем заключается их
отличие?
13. Что представляет собой решающая поверхность в одномерном
случае и как находится порог принятия решения в этом случае?
14. Пусть в схеме (рис. 6.1) x t a (передача импульсами постоянного
t
тока),
шум
имеет
нормальное
распределение
W
1
2
2
2
exp
/2
, где
2
-эффективное напряжение шума. Сигнал
на входе порогового устройства y t
вероятности W y
1
Wa
2
2
x t
exp
t
2
a /2
описывается плотностью
2
.
Задания:
1. Нарисуйте плотности вероятностей W
и Wa
(для двух
различных значений a1 и a2 ).
2. Определите пороги 01 и 02 принятия решения для каждого a в
случае использования критерия идеального наблюдателя.
3. При передаче информации импульсами синусоидального тока с
t перед пороговым
амплитудой AM в канале с нормальным шумом
устройством необходим детектор огибающей сигнала. Плотность
вероятности напряжения огибающей на выходе детектора при наличии
сигнала определяется законом Релея-Райса:
Wa u
u
2
exp
u2
AM2 / 2
2
I 0 AM
u
2
,
где I0(x) - модифицированная функция Бесселя нулевого порядка.
Задания:
59
1. Получите выражение для плотности вероятности огибающей шума
на выходе детектора AM 0, I 0 1 .
2. Получите уравнение для определения порога принятия решения u 0
по критерию идеального наблюдателя из уравнения общего вида
Wa u0 W u0 .
3. Для заданного значения вероятности ложной тревоги 0 найдите
порог принятия решения u 0 , если использован критерий Неймана-Пирсона.
4. Постройте график нормированного порога
значений
0
от 1 до
10
6
u0
2
от величины
0
для
. Сделайте выводы.
К лекции №8
1. Что можно сказать о формах уровней ЛВС?
2. На чем основана архитектура построения ЛВС?
3. Какие идеи заложены в основу эталонного модуля?
4. Какие каналы связи используются в ЛВС?
5. Что можно сказать об СПД на базе электрических кабелей?
6. Что представляет собой электромеханический ответвитель?
7. В чем заключаются основные требования к разработке приемных
устройств?
8. Как устроены волоконно-оптические кабели и каковы особенности
их эксплуатации?
9. Как осуществляется передача и прием оптических сигналов?
Заключение
Рассмотренные вопросы познакомят обучающихся с основными
принципами обработки и построения систем передачи информации, позволит
более глубоко изучить и усвоить теоретические знания, а также приобрести
практические навыки, необходимые инженеру по автоматизации в
практической деятельности.
Библиографический список
1. Советов, Б.Я. Теория информации / Б.Я. Советов. – Л. : Изд-во
Ленингр. Ун-та, 1977. – 184 с.
2. Теоретические основы информационной техники : учеб. пособие /
Ф.Е. Темников [и др.]. – М. : Энергия, 1979. – 512 с.
3. Савельев, А.Я. Прикладная теория цифровых автоматов / А.Я.
Савельев. – М. : Высш. шк., 1987. – 272 с.
4. Овчинников, В.В. Техническая база интерфейсов локальных
вычислительных сетей / В.В. Овчинников, И.И. Рыбкин – М. : Радио и связь,
1989. – 271 с.
60
5. Лебедько, Е.Г. Теоретические основы передачи информации / Е.Г.
Лебедько. – СПб.: Изд-во Лань, 2011. – 352 с.
61
Оглавление
Введение.......................................................................................................
3
1. Понятие информации и меры информации......................................
4
2. Квантование информации...................................................................
8
3. Кодирование информации....................................................................
13
4. Модуляция носителей информации............................................ ........ 20
5. Передача информации........................................................................... 26
6. Пропускная способность канала и скорость передачи
информации по каналу связи................................................................ 32
7. Восприятие и обработка информации..............................................
36
8. Общие подходы к организации локальных
вычислительных систем....................................................................... 42
9. Вопросы и задания для самостоятельной работы
и практических занятий.......................................................................... 48
Библиографический список......................................................................
62
56
Учебное издание
Ю.В. Авдеев, А.В. Полуказаков
Системы передачи информации
Конспект лекций
для студентов, обучающихся по специальности
«Автоматизация технологических процессов
и производств (в строительстве)»
Редактор Черкасова Т.О.
63
Подписано в печать 27.02.2012. Формат 60×84 1/16. Уч.-изд. л. 3,5. Усл.-печ. л. 3,6.
Бумага писчая. Тираж 100 экз. Заказ № 72.
Отпечатано: отдел оперативной полиграфии
издательства учебной литературы и учебно-методических пособий
Воронежского государственного архитектурно-строительного университета
394006 Воронеж, ул. 20-летия Октября, 84
64
Документ
Категория
Без категории
Просмотров
19
Размер файла
1 344 Кб
Теги
авдеева, передача, система, 415, информация
1/--страниц
Пожаловаться на содержимое документа