close

Вход

Забыли?

вход по аккаунту

?

Тест(2)

код для вставкиСкачать
1. Объектом передачи в сети связи является: 1) Сигнал;
2) Коды;
3) Сообщения;
4
) Энергия.
2. Сообщения, поступающие через телефонную трубку, являются
:
1) Цифровыми;
2
) Дискретными;
3
) Аналоговыми;
4
) Кодовыми.
3. Физический процесс, отображающий передаваемое сообщение, называется
:
1
) Кодовой комбинацией; 2
) Сигналом; 3
) Помехой; 4
) Колебаниями. 4.
Цифровой сигнал – это сигнал, дискретизированный
:
1) По времени; 2) По времени и по уровню; 3
) По мгновенному значению; 4
) Только по уровню.
5. На рисунке №1 показаны
:
1) Аналоговый сигнал; 2) Цифровой сигнал; 3) Сигнал, дискретизированный только по времени;
4) Сигнал, дискретизированный только по уровню. 6.
На рисунке №2 модем изображен в виде: Рис. 2. Структурная схема канала ПДС.
1
) УЗО 2
) УПС 3
) УС 4
) ИПС ИС
УЗО
канал
связи
УПС
УС
ПС
УЗО
УС
УПС
Канал передачи данных
Дискретный канал
АПД
АПД
7.
На рисунке № 3 Рисунок № 3. Структурная схема канала ПДС
Устройство, повышающее правильность передачи: 1) Входит в дискретный канал; 2) Входит в канал передачи данных; 3) Входит в аппаратуру передачи данных АПД; 4
) Является устройством УС.
ИС
УЗО
канал
связи
УПС
УС
ПС
УЗО
УС
УПС
Канал передачи данных
Дискретный канал
АПД
АПД
8.
Если P (
a
/
b
) и P
(
b
/
a
) условные вероятности
появления зависимых событий «
a
» и «
b
» , то вероятность совместного появления P (
a
, b
) равна: 1) P
(
a
, b
) = P
(
a
/
b
) * P
(
b
); 2) P
(
a
, b
) = P
(
a
) * P
(
b
); 3) P
(
a
, b
) = P
(
a
) + P
(
b
); 4) P
(
a
, b
) = P
(
b
/
a
) * P
(
a
). 9.
Если события «
a
» и «b» взаимно независимые, вероятность их совместного появления P (
a
, b
) равна:
1) P (a) + P (b) 2) P (a) – P (b) 3) P (a) * P (b) 4) P (a) \ P (b)
10.
Какие значения вероятностей не могут иметь место :
1
) 0, 75 2
) 1, 5 3
) -0, 25 4
) 0
11.
Имеются 4 равновероятных символа. Сколько единиц информации содержится в каждом из них? :
1) Одна 2
) Две 3
) Три 4
) Четыре 12.
В двоичном коде вероятность появления единицы равна 0,25. Сколько бит информации приносит появление единицы
:
1) 1 2
) 2 3
) 0, 5 4)
1, 5 13. В алфавите имеются 4 символа с вероятностями появления: P (
a
) = 0, 1; P (
a
) = 0, 2; P
(
a
) = 0, 3; P (
a
) = 0, 4.
Какой из символов имеет большее количество информации? : 1) a
2) a 3) a 4) a
1
2
3
4
1
2
3
4
14.
Определить энтропию алфавита из четырёх символов --- a , a , a , a с вероятностями P (
a )=0,5 ; P (
a )=0,25 ; P
(
a ) = 0,125 ; P (
a ) = 0,125 :
1) 1, 25 2
) 1, 5 3
) 1, 75 4) 1, 85 1
2
3
4
1
2
3
4
1
5.
Имеются четыре двоичных источника – И1, И2, И3, И4,
генерирующих единичные символы с вероятностями --
-
P (1)
=
0,2
; P (1) = 0,5
; P (1
)
= 0,6
; P (1) = 0,8
. Какой из источников имеет наибольшую энтропию? : 1) И1 2
) И2 3
) И3 4
) И4
1
И
2
И
3
И
4
И
16.
Имеются четыре двоичных источника - И1, И2, И3, И4,
генерирующих единичные символы с вероятностями --- P (1)=0, 2 ; P (1) = 0,5 ; P (1) = 0,6 ; P (1) = 0,8. Укажите номера источников, имеющих равные энтропии:
1)
И1 2
) И2 3) И3 4
) И4 1
И
2
И
3
И
4
И
17. Алфавит источника имеет 32 символа с равными вероятностями появления. Какое количество бит информации несет каждый символ: 1) Два бита 2) Три бита 3) Четыре бита 4) Пять бит
18.
Выражение I(a )
=
-
log P(a ) определяет :
1) Информационную производительность символа a ; 2) Вероятность появления символа a ; 3) Энтропию алфавита, содержащего символ a ; 4) Скорость модуляции символов. i
i
i
i
i
19.
Выражение
M
{
I
(
a )}=-
P
(
a
)
loqP
(
a
) определяет : 1) Информационную производительность символа a ;
2) Вероятность появления символа a ; 3) Энтропию алфавита, содержащего символ a ; 4) Скорость модуляции символов. i
i
i
i
i
i
20.
Выражение определяет : 1
) Информационную производительность символа a ; 2
) Вероятность появления символа a ; 3) Энтропию алфавита, содержащего символ a ; 4)
Скорость модуляции символов. i
i
i
0
1
t
=
B
21.
Двоичный алфавит состоит из двух символов : единиц – «1» и нулей «0» с вероятностями появления P(1) и P(0). При каких значениях P (1) и P (0) передаваемая символами информация будет равна нулю? 1
)
P (1) = 0 2
) P (
1
)
= 1 3
) P (
0
)
= 1 4)
P (1) = 0, 5 22. Двоичный алфавит состоит из двух символов : единиц – «1» и нулей «0» с вероятностями появления P(1) и P(0). При каких значениях P (1) и P (0) будет передаваться символам наибольшее количество информации? 1) P (1) = 0, 2 2
) P (1) = 0, 3 3
) P (1) = 0, 5 4
) P (1) = 1 23. Избыточность источника:
Чему равна избыточность источника, содержащего 32 равновероятных символа, если его энтропия равна 2?
:
1)
0, 2 2
) 0, 4 3
) 0, 6
4)
0, 8 K
а
Н
и
2
log
)
(
1
-
=
c
24.
Сколько двоичных разрядов содержит код Бодо? 1) 4 б) 5
в) 7 г) 8 25.
Сколько информационных разрядов содержит код МТК-2? :
1) 5 2
) 6 3
) 7 4
) 8 26. Алфавит содержит 4 символа - a,b,c и
d с вероятностями появления P
(
a
) = 0,5 ; P
(
b
) = 0,25; P
(
c
) = 0,125 и P
(
d
) = 0,125. Какой из кодов Хаффмена соответствует символу «
c »? 1) 1 2
) 000 3
) 001 4
) 01 27.
Алфавит содержит 4 символа - a, b, c
и
d
с вероятностями появления P
(
a
) = 0,5 ; P
(
b
) = 0,25 ; P
(
c
) = 0,125 и P
(
d
) = 0,125. Какой из кодов Хаффмена соответствует символу «b»? 1)
1 2
) 000 3
) 001 4
) 01 28.
На рисунке № 4 представлена амплитудно-частотная характеристика: Рис. 4. Амплитудно-частотная характеристика. 1) Фильтра верхних частот 2) Полосового фильтра 3) Идеального фильтра 4) Фильтра нижних частот 29.
Пропускная способность двоичного канала «С» определяется следующей формулой: При каких значениях вероятности P ошибки происходит «обрыв» канала ? 1)
P
= 0 2
) P
= 1 3) P
= 0,
5 4
) P
= 0, 125 ú
ú
û
ù
ê
ê
ë
é
÷
÷
ø
ö
ç
ç
è
æ
÷
÷
ø
ö
ç
ç
è
æ
R
-
×
×
R
-
+
R
×
R
+
×
=
1
log
1
log
1
2
2
k
C
n
30.
Пропускная способность двоичного канала определяется следующей формулой: При каких значениях вероятности P ошибки пропускная способность канала имеет максимальное значение ? 1) P
= 0 2
) P
= 1 3) P
= 0, 5 4
) P
= 0, 125 ú
ú
û
ù
ê
ê
ë
é
÷
÷
ø
ö
ç
ç
è
æ
÷
÷
ø
ö
ç
ç
è
æ
R
-
×
×
R
-
+
R
×
R
+
×
=
1
log
1
log
1
2
2
k
C
n
31.
Канал называется симметричным если
:
1)
Вероятности неправильного и правильного приёма символов равны; 2) Вероятности правильного приёма больше вероятностей неправильного приёма; 3) Все вероятности неправильного приёма символов равны между собой; 4) Все вероятности правильного приема символов равны между собой. 32.
Двоичный канал называется симметричным, если
:
1) P = P ; 2
) P = P ; 3
) P = P ; 4
) P = P .
1
0
1
0
P
11
P
0
1
P
0
0
P
1
0
01
10
11
11
00
11
01
10
33.
Аддитивные помехи – это помехи, которые
:
1) Умножаются 2
) Суммируются 3
) Делятся 4
) Вычитаются 34.
При каких видах краевых искажений нельзя применять метод стробирования?
1) Преобладания 2) Случайные краевые искажения 3) Характеристические искажения 4
) Дробления. 35.
На рисунке № 5 изображена схема
:
На какую точку поступают стробирующие импульсы? : 1) На 1 2) На 2 3) На 3 4) На 4 1
ВУ
Кл
Сч
Вых
4
2
3
Рис. 5. Схема устройства регистрации методом интегрирования.
36.
Формула
определяет :
1) Число ошибочно принятых кодовых комбинаций; 2) Вероятность получения в кодовой комбинации n
ошибок;
3) Вероятность получения в кодовой комбинации t
ошибок;
4) Вероятность получения P ошибок в кодовой комбинации.
(
)
(
)
t
n
t
t
n
P
P
C
n
t
P
-
-
×
×
=
1
,
37.
Вероятность появления искаженной кодовой комбинации
определяется формулой :
1) P ( 1, n
) = 1- P (0, n
) ; 2) P ( 1, n
) = 1- P (1, n
) ; 3)
P ( 1, n
) = 1- P
(
n
, n
) ; 4
) P ( 1, n
) = 1+ P (1, n
) . (
)
n
P
,
1
³
³
³
³
³
38.
При каких значениях справедливо выражение для биноминального распределения ? :
1) При больших значениях n
; 2) При больших значениях P
; 3) При малых значениях n ; 4
) При малых значениях P
. (
)
P
n
n
P
×
»
³
,
1
39. Формула Пуртова для группирующихся ошибок имеет вид :
1)
P ( 1, n
) = n
P 2) P ( 0, n
) = n P 3) P ( 0, n
) = n
P 4
) P (α, n
) = n
P ³
³
£
a
-
1
a
-
1
a
-
1
a
-
1
0
0
0
0
40. В формуле Пуртова коэффициент группирования ошибок
:
1) Больше нуля 2) Меньше нуля 3) Больше единицы 4) Меньше единицы a
41
.
В формуле Пуртова
: 1) - вероятность ошибочной кодовой комбинации ; 2) -
вероятность ошибочного единичного элемента ; 3) - число ошибок в кодовой комбинации ; 4) - число ошибок в кодовой комбинации . (
)
ош
P
i
n
n
i
P
×
=
³
-
÷
÷
ø
ö
ç
ç
è
æ
a
1
,
ош
P
n
i
ош
P
42. В методе наложения, представленном на
рис.6
Какие условия удовлетворяются ? 1) Δ
t ≤ ; 2) Δ
t > ; 3) Δ
t + ≥
Δ
t ; 4
) Δ
t + Δ
t = .
1
2
t
K
Рис. 6. Метод наложения Δ
t
и Δ t
- краевые искажения ; - интервал времени несущей . t
t
t
K
K
K
1
1
1
1
2
2
t
K
43.
Метод скользящего импульса с подтверждением :
1) Точнее метода наложения 2) Хуже метода наложения 3) Одинаков по точности с методом наложения 4) Намного уступает по точности методу наложения 44.
На рисунке №7 изображена структурная схема устройства синхронизации с делителем частоты
:
Каким признакам классификации она удовлетворяет ? 1) С постоянной частотой задающего генератора 2) С переменной частотой задающего генератора 3) С замкнутым циклом управления 4)
С разомкнутым циклом управления Фд
ЗГ
ТИ
опережает
отстает
Рис. 7. Структурная схема устройства синхронизации с делителем частоты.
45.
Коды Хемминга удовлетворяют утверждению :
1)
Блочные, неравномерные, линейные 2) Блочные, разделимые, нелинейные 3) Блочные, разделимые, линейные 4) Непрерывные, не разделимые, линейные 46.
Коды Хаффмена удовлетворяют условию :
1
) Блочные, равномерные 2
) Непрерывные, неравномерные 3
) Блочные, неравномерные 4
) Непрерывные, равномерные 47.
Циклические коды удовлетворяют условию 1) Блочные, неравномерные, линейные ; 2) Блочные, разделимые, нелинейные ; 3
) Блочные, разделимые, линейные ; 4
) Непрерывные, не разделимые, линейные . 48.
Итеративные коды удовлетворяют условию :
1) Блочные, неравномерные, линейные ; 2) Блочные, разделимые, нелинейные ; 3) Блочные, разделимые, линейные ; 4) Непрерывные, не разделимые, линейные . 49. Сколько проверочных разрядов имеет код (7, 4) :
1) 7 ; 2) 4 ; 3) 11 ; 4) 3 . 50.
Сколько информационных разрядов имеет код (8, 7) :
1
) 8 ; 2
) 7 ; 3
) 15 ; 4)
1 . 51.
Избыточность кода определяется соотношением :
1) 2
) 3
) 4
) n
k
=
c
r
n
=
c
n
k
-
=
1
c
n
r
=
c
52.
Код с кодовым расстоянием
обнаруживает
1) 2 ошибки 2
) 4 ошибки 3
) 5 ошибок 4
) 6 ошибок 6
0
=
d
53.
Код с кодовым расстоянием исправляет
:
1) Одну ошибку 2) Две ошибки 3) Три ошибки 4
) Четыре ошибки 6
0
=
d
54.
Для исправления всех одиночных ошибок в кодовой комбинации с количеством разрядов n = 17 минимальное число проверочных разрядов должно быть равно
:
1) 3 2
) 4 3
) 5 4
) 6 55
. Дан код Хемминга. ā = (a a a a b b b ) , причем : b = a a a ; b = a a a ; b = a a a :
Чему равен код b b b проверочных разрядов для исходного кода 1101 ? 1) 100 ; 2
)
010 ; 3
)
001 ; 4
)
011 . 2
3
4
1
2
3
1
1
1
2
3
2
2
3
4
3
1
2
4
Å
Å
Å
Å
Å
Å
1
2
3
56.
Дан код Хемминга. ā = (a a a a b b b ) , причем : b = a a a ; b = a a a ; b = a a a : В каком разряде произошла одиночная ошибка , если синдром кода С = 010 ?
1
) a ; 2
) b ; 3
) b ; 4
) a . 1
1
1
1
1
2
3
3
4
3
3
2
4
3
2
2
2
4
2
Å
Å
Å
Å
Å
Å
1
4
2
1
57.
Дан код Хемминга. ā = (
а
а а а b b b ), причем : b = a a a ; b = a a a ; b = a a a . В каком разряде произошла одиночная ошибка, если синдром кода С = 101 ? 1)
a
; 2)
b ; 3)
a
; 4)
b
. 1
2
1
3
4
1
2
3
1
2
3
3
1
2
4
2
2
3
4
Å
Å
Å
Å
Å
Å
1
1
2
2
58. Сведения, являющиеся объектом передачи, распределения, хранения, преобразования
:
o
1) Электрические сигналы
o
2) Информация
o
3) Модуляция o
4) Элементы памяти
59.
Переносчиком информации в электросвязи являются:
o
1) Электрические линии
o
2) Электромагнитные колебания
o
3) Акустические волны o
4) Оптические сигналы 60.
Среднее количество информации, приходящееся на один символ:
o
1) Производительность источника
o
2) Скорость модуляции
o
3) Энтропия источника
o
4) Пропускная способность
61.
Количество единичных элементов, передаваемых в единицу времени:
o
1) Информационная производительность
o
2) Скорость модуляции
o
3) Количество информации o
4) Пропускная способность 62.
Формула
I = - loq ·P (a ) определяет:
o
1) Вероятность передачи символа «
а
»
o
2)
Скорость передачи символа «
а
»
o
3)
Информацию, содержащуюся в символе «
а
»
o
4) Число единичных элементов в символе «
а
»
2
i
i
i
i
i
63. Формула
определяет:
1) Вероятность появления символа «
а
»
2) Энтропию символа «
а
»
3) Количество символов «
а
» 4) Число единичных элементов в символе «
а
» (
)
(
)
(
)
i
i
a
n
i
a
a
R
=
R
-
=
H
×
å
2
log
1
i
i
i
i
64.
В формуле скорости модуляции означает:
o
1) Длительность кодовой комбинации
o
2) Длительность единичного элемента
o
3) Длительность одного бита информации o
4) Длительность одного кадра -
=
B
0
0
,
1
t
t
65.
На структурной схеме ПДС:
Устройство, которое обеспечивает преобразование сведений пользователя к виду, удобному для передачи:
1)
УЗО
2)
УПС
3)
ИПС 4) УС ИС
УЗО
канал
связи
УПС
УС
ПС
УЗО
УС
УПС
Канал передачи данных
Дискретный канал
АПД
АПД
66.
На структурной схеме ПДС:
устройство, выполняющее алгоритм повышения верности передачи:
1) УС
2) УЗО
3) УПС 4) ИПС ИС
УЗО
канал
связи
УПС
УС
ПС
УЗО
УС
УПС
Канал передачи данных
Дискретный канал
АПД
АПД
67.
На структурной схеме ПДС:
Устройство, обеспечивающее создание дискретного канала связи, осуществляющее модуляцию сигнала:
o
1) УЗО
o
2) УПС
o
3) ИПС o
4) УС ИС
УЗО
канал
связи
УПС
УС
ПС
УЗО
УС
УПС
Канал передачи данных
Дискретный канал
АПД
АПД
68.
Рисунок представляет график:
1) Дискретная функция дискретного аргумента
2) Непрерывная функция дискретного аргумента
3) Дискретная функция непрерывного аргумента 4) Непрерывная функция непрерывного аргумента
69.
Рисунок
представляет график:
o
1) Дискретная функция дискретного аргумента
o
2) Непрерывная функция дискретного аргумента
o
3) Дискретная функция непрерывного аргумента o
4) Непрерывная функция непрерывного аргумента 70.
Электрический сигнал, соответствующий одному разряду кодового слова называется:
o
1) Значащим моментом o
2) Значащей позицией o
3) Единичным элементом o
4) Кодовой комбинацией 71.
На каком из графиков, представленных на рисунке:
показаны краевые искажения на:
1, 2, 3, на 1 и 3 
Автор
McKey
Документ
Категория
Презентации
Просмотров
236
Размер файла
1 122 Кб
Теги
тест
1/--страниц
Пожаловаться на содержимое документа