close

Вход

Забыли?

вход по аккаунту

?

Теория информации

код для вставки
WutFace
Экзаменационные вопросы по дисц. «Теория информации»
1. Понятие информации. Структура системы передачи информации. Производительность
источника информации. Избыточность сообщения (источника). Скорость передачи
информации. Пропускная способность канала. Дискретные и непрерывные сообщения и
сигналы. Кодирование. Модуляция. Помехоустойчивость.
2. События. Достоверные. Невозможные. Случайные. Несовместимые. Единственно
возможные события и полные группы событий. Равновозможные события.
Противоположные события. Сумма и произведение событий. Элементарные исходы.
Понятие вероятности.
3. Теорема сложения вероятностей. Теорема умножения вероятностей. Понятие условной
вероятности. Независимые события. Теорема полной вероятности. Формула Байеса.
4. Формула Бернулли. Локальная теорема Лапласа. Интегральная теорема Лапласа. Формула
Пуассона.
5. Дискретные случайные величины. Биномиальное распределение. Числовые
характеристики дискретных случайных величин.
6. Многомерные дискретные случайные величины. Условное распределение. Условное
математическое ожидание. Корреляционный момент. Коэффициент корреляции.
7. Непрерывные случайные величины. Распределение и плотность распределения
непрерывной случайной величины. Поток событий. Понятия стационарности, отсутствия
последействия и ординарности. Пуассоновский поток.
8. Равномерное распределение. Нормальное распределение. Числовые характеристики
непрерывной случайной величины.
9. Многомерные непрерывные случайные величины. Функция распределения. Функция
плотности распределения. Корреляционный момент.
10. Непрерывные случайные процессы. Реализация. Статистический ансамбль. .
Математическое ожидание. Дисперсия. Корреляция.
11. Стационарный случайный процесс. Эргодический случайный процесс. Интервал
корреляции. Взаимная корреляционная функция. Стационарно связанные случайные
процессы.
12. Количество информации по Хартли. Количество информации по Шеннону. Энтропия по
Шеннону. Свойства энтропии. Избыточность, производительность и скорость источника
исходя из понятия энтропии.
13. Энтропия ансамбля. Совместная энтропия. Условная энтропия. Скорость передачи
информации. Надежность канала. Энтропия шума.
14. Пропускная способность канала. Основная теорема Шеннона.
Автор
Karpov Yasha
Документ
Категория
Инструкции
Просмотров
9
Размер файла
15 Кб
Теги
trening2019
1/--страниц
Пожаловаться на содержимое документа