close

Вход

Забыли?

вход по аккаунту

?

2354.Курс лекций по математике и информатике

код для вставкиСкачать
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
МИНИСТЕРСТВО СПОРТА, ТУРИЗМА И МОЛОДЕЖНОЙ ПОЛИТИКИ
РОССИЙСКОЙ ФЕДЕРАЦИИ
Федеральное государственное бюджетное образовательное учреждение
высшего профессионального образования
«Российский государственный университет физической культуры, спорта, молодежи
и туризма (ГЦОЛИФК)»
КУРС ЛЕКЦИЙ
ПО МАТЕМАТИКЕ И ИНФОРМАТИКЕ
Учебное пособие
МОСКВА – 2011
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
МИНИСТЕРСТВО СПОРТА, ТУРИЗМА И МОЛОДЕЖНОЙ ПОЛИТИКИ
РОССИЙСКОЙ ФЕДЕРАЦИИ
Федеральное государственное бюджетное образовательное учреждение
высшего профессионального образования
«Российский государственный университет физической культуры, спорта, молодежи
и туризма (ГЦОЛИФК)»
КУРС ЛЕКЦИЙ
ПО МАТЕМАТИКЕ И ИНФОРМАТИКЕ
Учебное пособие
МОСКВА – 2011
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
УДК 51:004(07)
Утверждено и рекомендовано
Экспертно-методическим Советом
ИТРРиФ ФГБОУ ВПО РГУФКСМиТ
Протокол №8 от 09.06.2011г.
К 93
Составители: Бажинов С. И. – кандидат технических наук, доцент кафедры
ЕНД РГУФКСМиТ;
Маркарян Н.С. – кандидат технических наук, доцент кафедры ЕНД
РГУФКСМиТ;
Яшкина Е.Н. – кандидат педагогических наук, доцент кафедры ЕНД
РГУФКСМиТ;
Рецензент: Попов Г.И. – д.п.н., профессор кафедры ЕНД РГУФКСМиТ.
Курс лекций предназначен для студентов, обучающихся по специальности
050720.65 «ФК».
В курсе лекций согласно требованиям «Государственного образовательного
стандарта» рассмотрены основные понятия математики и информатики как
взаимосвязанных естественнонаучных дисциплин. Учебное пособие предназначено
для студентов дневной и заочной форм обучения для индивидуального изучения
теоретических основ информатики при подготовке к занятиям и сдаче зачета и
экзамена.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
3
Оглавление
Раздел 1. Логика, элементы теории множеств, комбинаторика…...………………6
Тема 1.1. Логика…………………………………………………………………………...6
1.1.1. Понятие математики. Связь математики естествознания. Этапы развития
математики по Колмогорову………………………………...……………………………6
1.1.2. Дедукция и индукция. Аксиоматический метод……………...…………………10
1.1.3. Наука и числе. Системы исчисления…………………………….………………12
1.1.4. Понятие логики……………………………………………………...…………….14
1.1.5. Формальная, диалектическая и символическая логики………………………...14
1.1.6. Логические конструкции. Законы логики……………………………………….15
Тема 1.2. Множества и комбинаторикa……………………………………………….22
1.2.1. Понятие множества……………………………………………………………….22
1.2.2. Равенство множеств……………………………………………………………….23
1.2.3. Подмножества…………………………………………….……………………….24
1.2.4. Операции над множествами…………………...…………………………………25
1.2.5. Комбинаторика…………………………………………………………………….28
1.2.6. Понятие отношения……………………………………………………………….31
1.2.7. Отношение эквивалентности……………………………………………………..33
1.2.8. Отношение частичного порядка………………………………………………….34
Раздел 2. Теория вероятностей и математическая статистика…………………...36
Тема 2.1. Теория вероятностей…………………………………………………………36
2.1.1. Теория вероятностей……………………………………………………………...36
2.1.2. Случайные события……………………………………………………………….37
2.1.3. Классическое определение вероятности случайного события…………………39
2.1.4. Геометрическое определение вероятности………………………………………43
2.1.5. Статистическое определение вероятности случайного события...…………….45
2.1.6. Свойства вероятности. Теоремы сложения и умножения вероятностей
случайных событий……………………………………………………………………...47
Тема 2.2. Случайные величины…………………................……………………………..49
2.2.1. Случайные величины……………………………………..………………………49
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
4
2.2.2. Понятие дискретных и непрерывных случайных величин………..……………49
2.2.3. Равномерное распределение……………………………………………………...60
2.2.4. Биномиальное распределение……………………………………………………61
2.2.5. Нормальное распределение………………………………………………………65
2.2.6. Вероятность попадания значения нормально распределённой случайной
величины в заданный интервал…………………………………………………………67
2.2.7. Случай интервала, симметричного относительно ……………………...…….68
Тема 2.3. Математическая статистика………………………………………………69
2.3.1. Генеральная совокупность и выборка……………………………………………69
2.3.2. Статистическое оценивание параметров. Точечные оценки…………………...71
2.3.3. Статистическое оценивание параметров. Точечные оценки…………………...74
2.3.4. Определение необходимого объёма выборки……………………………..…….76
2.3.5. Обработка результатов измерений по выборочным характеристикам
распределения. Вариационные ряды…………………………………………………...77
2.3.6. Анализ выпадающих данных…………………………………………………….97
2.3.7. Проверка статистических гипотез………………………………………………..98
2.3.8. Некоторые специальные непрерывные распределения……………………….100
2.3.9. Проверка гипотез с помощью критериев, основанных на нормальном
распределении…………………………………………………………………………..103
2.3.10. Корреляционный анализ……………………………………………………….115
2.3.11. Регрессионный анализ………………………………………………………….131
Раздел 3. Архитектура и программные средства персонального компьютера.137
Тема 3.1. Аппаратная конфигурация компьютера…………………………………...137
3.1.1. История развития вычислительной техники………………………………..….137
3.1.2. Принципы Джона фон Неймана…………………...……………………………138
3.1.3. Поколения ЭВМ……………………………………………………...…………..139
3.1.4. Принцип открытой архитектуры………………………………………………..140
3.1.5. Функциональный состав персонального компьютера……………..………….142
3.1.6. Процессор – устройство обработки информации……………………………..143
3.1.7. Память – устройство хранения информации…………………………..………145
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
5
3.1.8. Единицы измерения информации…………………..…………………………..147
3.1.9. Внешние устройства компьютера………………………………………………148
Тема 3.2. Алгоритм и алгоритмические структуры…………………………………152
3.2.1. Этапы решения задач на компьютере…………………..………………………152
3.2.2. Математическая модель…………………………………………………………153
3.2.3. Алгоритм. Характеристики алгоритмов. Типы алгоритмов. Способы записи
алгоритмов………………………………………………………………………………154
3.2.4. Отладка программы…………………………………………………..………….156
3.2.5. Тестирование…………………………………………………..…………………157
3.2.6. Сопровождение программы……………………………………………………..158
Тема 3.3. Системные и прикладные программы общего назначения……………….158
3.3.1. Классификация программных средств компьютера…………………………...158
3.3.2. Основные понятия и организация файловой структуры………………………162
3.3.3. Операционная система Windows………………………………………………..167
3.3.4. Служебные программные средства…………………………..…………………168
3.3.5. Вредоносные программы………………………………………………………..172
3.3.6. Офисные приложения………………………..………………………………….183
Раздел 4. Информационные технологии в тренерской деятельности………….187
Тема 4.1. Математические модели………………………………………...………….187
4.1.1. Формализация полученных знаний…………………………………………….188
4.1.2. Классификация математических моделей……………………………………...191
4.1.3. Описание моделей с помощью теории графов…………………………….…..192
4.1.4. Физическое моделирование……………………………………………………..196
Тема 4.2. Табличное и графическое представление данных…………………………198
4.2.1. Табличная форма представления экспериментальных данных. Форматы
отображения данных…………………………………………………………………...198
4.2.2. Графическое представление статистических таблиц. Типы графических
изображений…………………………………………………………………...………..205
Список литературы…………………………………………………………………...215
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
6
Раздел 1. Логика, элементы теории множеств, комбинаторика
Тема 1.1. Логика
1.1.1. Понятие математики. Связь математики естествознания. Этапы развития
математики по Колмогорову
1.1.2. Дедукция и индукция. Аксиоматический метод
1.1.3. Наука о числе. Системы исчисления
1.1.4. Понятие логики
1.1.5. Формальная, диалектическая и символическая логики
1.1.6. Логические конструкции. Законы логики
1.1.1. Понятие математики. Связь математики естествознания. Этапы развития
математики по Колмогорову
Целью изучения математики является повышение общего кругозора, культуры
мышления, формирование научного мировоззрения.
Математика – наука о количественных отношениях и пространственных
формах действительного мира.
Представляет интерес характеристика А.Я. Хинчиным стиля математического
мышления.
Во-первых, для математика характерно доведенное до предела преобладание
логической схемы рассуждения. Эта черта позволяет следить за правильностью
течения мысли и гарантирует от ошибок; с другой стороны, она заставляет
мыслящего учитывать при анализе всю совокупность имеющихся возможностей и
обязывает его учесть каждую из них, не пропуская ни одной (такого рода пропуски
вполне возможны и часто наблюдаются при других стилях мышления).
Во-вторых,
лаконизм,
т.е.
сознательное стремление всегда находить
кратчайший ведущий к данной цели логический путь, отбрасывание всего, что не
абсолютно
необходимо
для
полноценности аргументации.
Математическое
сочинение хорошего стиля не содержит уклонений в сторону; предельная скупость,
суровая строгость мысли и ее изложения составляют обязательную черту
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
7
математического мышления. Эта черта свойственна не только математическому, но и
любому другому серьезному рассуждению. Лаконизм, стремление не допускать
ничего излишнего, помогает и самому мыслящему, и его читателю или слушателю
полностью сосредоточиться на данном ходе мыслей, не отвлекаясь и не теряя
непосредственного контакта с основной линией рассуждения.
Для математики лаконизм мысли является законом.
В-третьих, четкая расчлененность хода рассуждений. При всякого рода
разветвленных перечислениях математик должен в каждый момент отдавать себе
отчет в том, для какого родового понятия он перечисляет составляющие его видовые
понятия. В обыденном, не научном мышлении мы весьма часто наблюдаем в таких
случаях смешения и перескоки, приводящие к путанице и ошибкам в рассуждении.
Математики широко пользуются простыми внешними приемами нумерации
понятий и суждений, иногда применяемыми и в других науках.
В-четвертых,
точность
символики,
формул,
уравнений.
Каждый
математический символ имеет строго определенное значение: замена его другим
символом или перестановка на другое место, как правило, влечет за собою
искажение, а подчас и полное уничтожение смысла данного высказывания.
Выделив основные черты математического стиля мышления, А.Я. Хинчин
замечает, что математика по своей природе имеет диалектический характер, а,
следовательно, способствует развитию диалектического мышления.
В
математическом
мышлении
выражены
основные
закономерности
построения сходных по форме логических связей. С его помощью осуществляется
переход от единичного (например, от определенных математических методов) – к
особенному и общему, к обобщенным дедуктивным построениям. Единство методов
и предмета математики определяет специфику математического мышления,
позволяет говорить об особом математическом языке, в котором не только
отражается действительность.
Язык современной вычислительной математики становится все более
универсальным, способным описывать сложные системы. Вместе с тем, каким бы
совершенным ни был математический язык, усиленный электронно-вычислительной
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
8
техникой, он не порывает связей с естественным языком: разговорный язык является
базой языка искусственного.
Академик Колмогоров А.Н. выделяет четыре периода развития математики:

зарождение математики,

элементарная математика,

математика переменных величин,

современная математика.
Начало периода элементарной математики относят к VI-V веку до нашей эры.
К этому времени был накоплен достаточно большой фактический материал.
Понимание математики, как самостоятельной науки возникло впервые в Древней
Греции.
В течение этого периода математические исследования имеют дело с
достаточно
ограниченным
запасом
основных
понятий,
возникших
для
удовлетворения самых простых запросов хозяйственной жизни. Развивается
арифметика – наука о числе.
В период развития элементарной математики появляется теория чисел,
отделившаяся от арифметики. Создается алгебра, как буквенное исчисление.
Обобщается
труд
большого
числа математиков, занимающихся решением
геометрических задач в строгую систему элементарной геометрии — геометрию
Евклида, изложенную в его замечательной книге Начала (300 лет до н. э.).
В XVII веке запросы естествознания и техники привели к созданию методов,
позволяющих математически изучать движение, процессы изменения величин,
преобразование геометрических фигур. С употребления переменных величин в
аналитической геометрии и создание дифференциального и интегрального
исчисления начинается период математики переменных величин. Открытием XVII
века является введенная Ньютоном и Лейбницем понятие бесконечно малой
величины, создание основ анализа бесконечно малых (математического анализа).
На первый план выдвигается понятие функции. Она становится основным
предметом изучения. Изучение функции приводит к основным понятиям
математического анализа: пределу, производной, дифференциалу, интегралу.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
9
К этому времени относятся и появление идеи Р. Декарта о методе координат.
Создается аналитическая геометрия, которая позволяет изучать геометрические
объекты методами алгебры и анализа. С другой стороны метод координат открыл
возможность геометрической интерпретации алгебраических и аналитических
фактов.
Дальнейшее развитие математики привело в начале ХIX века к постановке
задачи изучения возможных типов количественных отношений и пространственных
форм.
Связь математики и естествознания приобретает все более сложные формы. В
результате запросов естествознания и техники и внутренней потребности
математики возникают новые теории. Примером последней является воображаемая
геометрия Н. И. Лобачевского. Развитие математики в XIX и XX веках позволяет
отнести ее к периоду современной математики. Развитие самой математики,
математизация различных областей науки, проникновение математических методов
во многие сферы практической деятельности, прогресс вычислительной техники
привели к появлению новых математических дисциплин, например, исследование
операций, теория игр, математическая экономика и других.
В основе построения математической теории лежит аксиоматический метод. В
основу научной теории кладутся некоторые исходные положения, называемые
аксиомами, а все остальные положения теории получаются, как логические
следствия аксиом.
Основными
методами
в
математических
исследованиях
являются
математические доказательства – строгие логические рассуждения. Математическое
мышление не сводится лишь к логическим рассуждениям. Для правильной
постановки задачи, для оценки выбора способа ее решения необходима
математическая интуиция.
В математике изучаются математические модели объектов. Одна и та же
математическая модель может описывать свойства далеких друг от друга реальных
явлений. Так, одно и тоже дифференциальное уравнение может описывать процессы
роста населения и распад радиоактивного вещества. Для математика важна не
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
10
природа рассматриваемых объектов, а существующие между ними отношения.
Математика играет важную роль в естественнонаучных, инженернотехнических и гуманитарных исследованиях. Причина проникновения математики в
различные отрасли знаний заключается в том, что она предлагает четкие модели для
изучения окружающей действительности в отличие от менее общих и строгих
моделей, предлагаемых другими науками. Без современной математики с ее
развитым логическими и вычислительным аппаратом был бы невозможен прогресс в
различных областях человеческой деятельности.
1.1.2. Дедукция и индукция. Аксиоматический метод
В математике используют два вида умозаключений: дедукция и индукция.
Индукция – метод исследования, в котором общий вывод строится не основе
частных посылок.
Дедукция – способ рассуждения, посредством которого от общих посылок
следует заключение частного характера.
Основной чертой дедуктивной системы изложения является простота этого
построения.
Дедуктивная система изложения сводится к:
1) перечислению основных понятий,
2) изложению определений,
3) изложению аксиом,
4) изложению теорем,
5) доказательству этих теорем.
Аксиома – утверждение, принимаемое без доказательств.
Теорема – утверждение, вытекающее из аксиом.
Доказательство – составная часть дедуктивной системы, это есть рассуждение,
которое показывает, что истинность утверждения вытекает логически из истинности
предыдущих теорем или аксиом.
Внутри дедуктивной системы не могут быть решены два вопроса: 1) о смысле
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
11
основных понятий, 2) об истинности аксиом. Но это не значит, что эти вопросы
вообще неразрешимы.
Возможность аксиоматического построения той или иной науки появляется
лишь на довольно высоком уровне развития этой науки, на базе большого
фактического материала, позволяет выявить те основные связи и соотношения,
которые существуют между объектами, изучаемыми данной наукой.
Образцом аксиоматического построения математической науки является
элементарная геометрия. Система аксиом геометрии были изложены Евклидом
(около 300 г. до н. э.) в труде «Начала». Эта система в основных чертах сохранилась
и по сей день.
Основные понятия: точка, прямая, плоскость основные образы; лежать между,
принадлежать, движение.
Элементарная геометрия имеет 13 аксиом, которые разбиты на пять групп. В
пятой группе одна аксиома о параллельных (V постулат Евклида): через точку на
плоскости можно провести только одну прямую, не пересекающую данную прямую.
Это единственная аксиома, вызывавшая потребность доказательства. Попытки
доказать пятый постулат занимали математиков более 2-х тысячелетий, вплоть до
первой половины 19 века, т.е. до того момента, когда Н. И. Лобачевский доказал в
своих трудах полную безнадежность этих попыток. В настоящее время
недоказуемость пятого постулата является строго доказанным математическим
фактом.
Аксиому о параллельных Н. И. Лобачевский заменил аксиомой: Пусть в
данной плоскости дана прямая и лежащая вне прямой точка. Через эту точку можно
провести к данной прямой, по крайней мере, две параллельные прямые.
Из новой системы аксиом Н. И. Лобачевский систему теорем, составляющих
содержание неевклидовой геометрии. Обе геометрии Евклида и Лобачевского, как
логические системы равноправны.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
12
1.1.3. Наука о числе. Системы исчисления
Интуитивное представление о числе, по-видимому, так же старо, как и само
человечество, хотя с достоверностью проследить все ранние этапы его развития в
принципе невозможно.
Особенность счета заключается в связи названий чисел с определенной схемой
счета. Например, слово «двадцать три» – не просто термин, означающий вполне
определенную (по числу элементов) группу объектов; это термин составной,
означающий «два раза по десять и три». Здесь видна роль числа десять как
коллективной единицы или основания. На очень ранних стадиях развития истории
человечества за основания системы счисления принимались числа 2, 3 или 4; иногда
для некоторых измерения или вычислений использовались основания 12 и 60.
Система счисления – очень сложное понятие.
Система счисления – это способ представления чисел и соответствующие ему
правила действий над числами. Система счисления – это знаковая система, в которой
числа записываются по определенным правилам с помощью символов некоторого
алфавита, называемых цифрами.
Известно множество способов представления чисел. В любом случае число
изображается символом или группой символов (словом) некоторого алфавита. Будем
называть такие символы цифрами. Для представления чисел используются
непозиционные и позиционные системы счисления.
В непозиционных системах каждая цифра имеет свой вес, и ее значение не
зависит от положения в числе — от позиции. Пример — римская система. Скажем,
число 76 в этой системе выглядит так:
LXXVI, где L=50, X=10, V=5, I=1.
Как видно цифрами здесь служат латинские символы.
В позиционных системах значения цифр зависят от их положения (позиции) в
числе.
Так, например, человек привык пользоваться десятичной позиционной
системой — числа записываются с помощью 10 цифр. Самая правая цифра
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
13
обозначает единицы, левее — десятки, ещё левее — сотни и т.д.
В любой позиционной системе число может быть представлено в виде
многочлена.
В качестве примера, представим число двенадцать в десятичной и двоичной
системах:
1210 = 1∙101 + 2∙100
11002 = 1∙23 + 1∙22 + 0∙21 + 0∙20
Самое главное, что нужно знать о системе счисления – ее тип: аддитивная или
мультипликативная. В первом типе каждая цифра имеет свое значение, и для
прочтения числа нужно сложить все значения использованных цифр:
XXXV = 10 + 10 + 10 + 5 = 35.
Для аддитивной («добавительной») системы нужно знать все цифры-символы
с их значениями (их бывает до 4-5 десятков), и порядок записи. Например, в
Латинской записи если меньшая цифра записана перед большей, то производится
вычитание, а если после, то сложение (IV = (5 – 1) = 4; VI = (5 + 1) = 6).
Для мультипликативной системы нужно знать изображение цифр и их
значение, а так же основание системы счисления.
Основанием системы счисления называется количество цифр и символов,
применяющихся для изображения числа. Например р = 10.
Определить основание очень легко, нужно только пересчитать количество
значащих цифр в системе. Если проще, то это число, с которого начинается второй
разряд у числа. Мы, например, используем цифры 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. Их ровно
10, поэтому основание нашей системы счисления тоже 10, и система счисления
называется «десятичная». В вышеприведенном примере используются цифры 0, 1, 2,
3, 4, 5, 6, 7, 8, 9 (вспомогательные 10, 100, 1000, 10000 и т.д. не в счет). Основных
цифр здесь тоже 10, и система счисления – десятичная.
База системы — это последовательность цифр, используемых для записи
числа. Ни в одной системе нет цифры, равной основанию системы.
Количество оснований систем исчисления равно количеству чисел. Но
используются только самые удобные основания систем счисления.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
14
1.1.4. Понятие логики
Предметом изучения логики является мышление. Однако изучает мышление
не только логика, но и психология, философия и др. науки. Но изучают они его с
разных сторон. Что касается логики, то она изучает мышление со стороны
структуры мысли, т.е. со стороны логической формы.
Логическая форма – это строение мысли, способ связи её составных частей.
Структура мыслей в формальной логике выражается в символах. Систему
символических обозначений, используемых в той или иной науке, называют «языком
символов». Этот язык существует на базе обычного языка. «Язык символов»
используется не для обмена любыми мыслями между людьми, а для специальных
научных целей. На «языке символов» можно выразить лишь то, что одинаково
значимо для всех людей, т.е. те связи и отношения действительности, которые не
зависят от взглядов, чувств людей. Поэтому данный язык является лишь
вспомогательным языковым средством.
Таким образом, можно дать определение, что логика – это наука о законах и
формах правильного мышления.
1.1.5. Формальная, диалектическая и символическая логики
Законы логики связаны с законами других специальных наук. Между ними
есть как сходство, так и различие. Сходство проявляется в том, что эти законы имеют
объективный характер, а также в том, что используется человеком в его
практической деятельности. Различие заключается в том, что законы логики имеют
очень широкую область применения, так как отражают такие простейшие стороны и
отношения между предметами, которые имеют место повсюду. Однако необходимо
отметить, что хотя область применения законов логики широкая, тем не менее, она
не безграничная. Из этого следует, что применяя правила и законы логики,
необходимо учитывать и условия, в которых эти правила и законы используются.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
15
Формальное их применение ведёт к искажению изучаемого предмета.
Говоря о формальной логике необходимо отметить, что её правила, методы и
законы применяются к мыслям о предметах как качественно определённых, т.е. мы
при рассуждении о предметах отвлекаемся от времени, от развития предметов.
Задача формальной логики – обеспечить стройность и последовательность
мышления. Она берёт сложившиеся мысли и описывает их со стороны структуры.
Тем самым формальная логика обеспечивает не весь процесс достижения истины, а
лишь определённую сторону этого процесса – его формальную правильность.
Объективную же истинность результатов познания даёт диалектическая логика.
Кроме формальной логики существует логика диалектическая, предметом
специального изучения которой являются формы и закономерности развития знания.
Средства диалектической логики применяются в тех случаях, когда от развития
знания отвлекаться нельзя. Диалектическая логика исследует такие формы развития
знания, как проблема, гипотеза и т.д., такие методы познания, как восхождение от
абстрактного к конкретному, анализ и синтез и т.д.
Термин «символическая логика» акцентирует внимание на том обстоятельстве,
что основными элементами формализованных языков, служащих «математическим
методом» изучения предмета логики, являются в данном случае не слова обычных
разговорных языков, а некоторые символы, истолковываемые определённым
образом, специфическим именно для данной логической ситуации.
1.1.6. Логические конструкции. Законы логики
Закон в научном знании представляет собой не что иное, как необходимую
связь между теми или иными явлениями. С его помощью, зная одни из них, можно
предвидеть, каковы будут другие, связанные с первыми. Логические законы
представляют собой необходимые связи между мыслями и с их помощью, установив
истинность (или ложность) исходных высказываний, можно определить истинность
или ложность других, обусловленных необходимыми связями с первыми. Или иначе:
признавая какое-то высказывание за истинное, необходимо признавать и многие
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
16
другие, вытекающие из него высказывания, а также отвергать те, которые
несовместимы с ним. Впрочем, чаще приходится решать обратную задачу: имея уже
выполненное рассуждение, проверить, в самом ли деле оно соответствует законам
логики, то есть, вытекают ли сделанные в нем выводы из тех мыслей, которые взяты
в нем за исходные. Знание законов логики и умение пользоваться ими избавляет от
ошибок в рассуждениях, исключает необоснованные выводы, предохраняет от
путаницы.
Как и во всякой иной науке, законов и правил логики очень много. Речь в
данном случае пойдет только о самых первых, тех, по отношению к которым
остальные являются производными. Три из них сформулированы Аристотелем:
закон запрета противоречия, закон тождества, закон исключенного третьего,
четвертый закон – достаточного основания – выдвинут немецким математиком и
философом семнадцатого-восемнадцатого веков Лейбницем.
Существует
определенность,
три
фундаментальных
последовательность
и
свойства
логической
обоснованность.
Они
мысли
–
являются
обязательными для мышления.
Определенность означает, что любая вещь, ставшая предметом логического
анализа, обязательно должна мыслиться в совокупности одних и тех же однажды
выделенных признаков; они задаются при определении понятий, и не могут
бесконтрольно изменяться в рамках одного и того же рассуждения.
Под последовательностью принимают то, что, приняв какое-либо положение
за истинное, необходимо принимать и все вытекающие из него следствия,
придерживаться их неукоснительно.
Обоснованность отражает факт взаимозависимости любых мыслей от многих
других; в логике можно рассматривать только такие высказывания, которые могут
быть обоснованы, выведены из других положений. Содержание обоснованности
раскрывается
законом достаточного
основания, в то время как другие
фундаментальные свойства логической мысли выражаются через комбинацию
остальных законов логики.
Закон тождества. Всякая мысль тождественна самой себе, т.е. субъект
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
17
рассуждений должен быть строго определен и неизменен до их окончания.
Нарушением этого закона является подмена понятий (часто используется в
адвокатской практике).
Закон непротиворечия. Два противоположных суждения не могут быть
одновременно истинны: по крайней мере, одно из них ложно.
Закон исключенного третьего. Истинно либо суждение, либо его отрицание
("третьего не дано").
Закон достаточных оснований. Для истинности всякой мысли должно быть
достаточно оснований, т.е. умозаключение необходимо обосновать исходя из
суждений, истинность которых уже доказана.
Объектами изучения логики являются формы мышления: понятие, суждение и
умозаключение.
Понятие – это мысль, в которой обобщаются отличительные свойства
предметов. Т.к. язык является формой выражения мысли, то в языке термину
«понятие» соответствует «слово». Но человек не мыслит отдельными понятиями.
Выражая свои мысли, он составляет слова в предложения. Предложение в языке есть
суждение в мыслях.
Суждение
(высказывание)
–
есть
мысль
(выраженная
в
форме
повествовательного предложения), в которой нечто утверждается о предмете
действительности, которая объективно является либо истинной, либо ложной.
Однако истинность суждения относительна. Говорят, что суждение может иметь
одно из двух значений истинности: «истина» или «ложь». Суждение истинно (имеет
значение истинности – истина), если оно соответствует действительности. К числу
суждений не относятся мысли, не имеющие значения истинности. Таким мыслям в
языке соответствуют вопросительные и побудительные предложения. Является ли
суждением фраза: «Иванов сдаст экзамен на отлично»? Да, ведь это не
вопросительное и не побудительное предложение. Но значение истинности его не
определено, пока не пройдет экзамен.
Суждение, значение истинности которого не однозначно, называется
гипотезой. Отношение к гипотезе среди ученых тоже было неоднозначным.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
18
И, еще одно определение: закон науки – это суждение, истинность которого
доказана.
Теорема – это предложение, истинность которого доказывается на основе
аксиом или ранее доказанных теорем. Теоремы часто формулируются в виде
импликаций (следования). Такая структура наиболее удобна для выделения условия
и заключения теоремы (того, что дано, и того, что необходимо доказать). Если
импликация А  В выражает некоторую теорему, то основание импликации А
выражает условие, а следствие В – заключение теоремы. Условие или заключение в
свою очередь может не быть элементарным высказыванием, а иметь определенную
логическую структуру, чаще всего конъюнктивную (и, обозначается &) или
дизъюнктивную (или, обозначается ). Рассмотрим примеры:
1.
Теорема «Если диагонали параллелограмма взаимно перпендикулярны или
делят его углы пополам, то этот параллелограмм – ромб» имеет структуру А 
В  C, где А – «диагонали параллелограмма взаимно перпендикулярны»; В –
«(диагонали параллелограмма) делят его углы пополам»; С – «этот
параллелограмм - ромб».
2.
Теорема о средней линии трапеции имеет структуру: А  В & С, где А –
«четырехугольник – трапеция»; В – «его средняя линия параллельна
основаниям»; С – «(его средняя линия) равна полусумме оснований».
Часто в формулировках теорем используется выражение «необходимо и
достаточно» (признак). В логике это выражение соответствует эквиваленции,
которая представима в виде конъюнкции двух импликаций. Одна из этих
импликаций выражает теорему, доказывающую необходимость признака, другая
выражает теорему, доказывающую достаточность признака. Например, признак
перпендикулярности двух плоскостей:
«Для того чтобы две плоскости были перпендикулярны, необходимо и
достаточно, чтобы одна из них проходила через прямую, перпендикулярную к
другой», может быть сформулирован и так: «Две плоскости перпендикулярны, Если
и только если одна из них проходит через прямую, перпендикулярную к другой»:
А  В или А  B & B A.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
19
Умозаключение – это мысль, в ходе которой из одного или нескольких
суждений выводится новое суждение.
При этом исходные суждения называются посылками, а полученное суждение
– заключением или следствием. Аристотель приводил такой пример умозаключения:
«Все люди смертны» и «Сократ – человек» – посылки. «Сократ смертен» –
заключение. Переход от посылок к заключению происходит по правилом вывода и
законам логики.
Правило 1: Если посылки умозаключения истинны, то истинно и заключение.
Правило 2: Если умозаключение справедливо во всех случаях, то оно
справедливо и в каждом частном случае. (это правило дедукции – переход от общего
к частному)
Правило 3: Если умозаключение справедливо в некоторых частных случаях,
то оно справедливо во всех случаях. (это правило индукции – переход от частного к
общего.)
Цепи умозаключений складываются в рассуждения и доказательства, в
которых заключение предшествующего умозаключения становится посылкой
следующего. Условием правильности доказательства является не только истинность
исходных суждений, но и истинность каждого входящего в его состав
умозаключения. Доказательства должны быть построены по законам логики.
Различают несколько типов умозаключений.
Паралогизм – умозаключение, содержащее непреднамеренную ошибку.
Софизм – умозаключение, содержащее преднамеренную ошибку с целью выдать
ложное суждение за истинное.
Попробуем, например, доказать, что 2 · 2 = 5:
4/4 = 5/5
4(1/1) = 5(1/1) – ошибка!
4 = 5.
Парадокс – это умозаключение, доказывающее как истинность, так и ложность
некоторого суждения. Например: Генерал и брадобрей. Каждый солдат может сам
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
20
себя брить или бриться у другого солдата. Генерал приказал выделить одного
специального солдата-брадобрея, у которого брились бы только те солдаты, которые
себя не бреют. Кто должен брить солдата? Кто должен брить солдата-брадобрея?
Аналогия в переводе с греческого означает сходство, подобие. Первоначально
древние математики обозначали им пропорцию, однако со временем его смысловое
значение расширилось. Помимо известных числовых соотношений аналогией стали
называть отношения подобия у предметов самой различной природы. В настоящее
время при нестрогом употреблении оно может означать всякое сходство вообще.
Всякая модель, представляя собой копию оригинала, тоже является аналогией по
отношению к нему.
В логике, однако, при проведении аналогии не ограничиваются указанием на
сходство. Оно становится основой для получения новых выводов о таких объектах,
познание которых по каким-либо причинам затруднено. В таких случаях бывает
полезно обратиться к другим, похожим в каком-либо отношении на интересующий
нас. Когда у двух явлений (пусть даже природа того и другого существенно
различна) имеется несколько подобных признаков, то тогда можно предположить,
что сходство распространяется и дальше, на другие признаки, которые есть у одного,
но пока не обнаружены у другого, однако со временем может быть все-таки
откроются. Так, свойства колебательных движений сначала были изучены физикой
только на примере волн, распространяющихся по поверхности воды. Потом, когда
стало выясняться, что звук и свет тоже представляют собой колебания, то было
естественно предположить, что у них тоже должна наблюдаться так называемая
дифракция (огибание препятствий), причем формулы для ее расчета могут быть
получены по аналогии с формулами для поверхностных волн. В дальнейшем это
предположение полностью подтвердилось.
Доказательство как логическая ступень вбирает в себя все предыдущие формы
мышления и в этом смысле оно является итоговой для всей науки о законах
правильного мышления. Доказательство есть логическое действие, которое с
помощью совокупности логических операций над понятиями, суждениями,
умозаключениями показывает истинностное значение тех или иных высказываний.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
21
Обоснование своим мыслям приходится давать каждому и ежедневно. В
повседневном обиходе мы чаще всего опираемся на непосредственные наблюдения
типа: «Ночью прошел дождь, потому что асфальт мокрый». Такое подтверждение
своих слов эмпирическими фактами и простейшими обобщениями тоже можно
считать элементарной формой доказательства. Намного сложнее оно в научном
познании.
В некотором смысле научная
деятельность
–
одно
большое
доказательство. В ней постоянно проверяются и уточняются старые и новые истины.
К общим правилам и процедурам, которые изучаются в курсах логики, добавляется
множество специфических, используемых только в конкретных отраслях знания.
Кроме того, научные истины часто идут вразрез с обыденным опытом. Так,
благодаря долгим астрономическим наблюдениям было доказано, что движение
Солнца по небу не более чем иллюзия.
В любом доказательстве имеется три компонента: тезис – положение, которое
собираются доказать, аргументы – утверждения, из которых тезис выводится по
правилам логики (их называют также основаниями), и демонстрация (или форма
доказательства) – само рассуждение, показывающее связь между аргументами и
тезисом.
Правдоподобные рассуждения
Согласно логике высказываний, можно утверждать, что
Из А следует В
А истинно
В истинно
В обратной ситуации, когда мы знаем об истинности В и его следствии из А,
однозначно утверждать, что А также истинно нельзя.
и
Из А следует В
В ложно
А ложно
В обратной ситуации, когда мы знаем об истинности В и его следствии из А,
однозначно утверждать, что А также истинно нельзя.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
22
Тема 1.2. Множества и комбинаторика
1.2.1. Понятие множества
1.2.2. Равенство множеств
1.2.3. Подмножества
1.2.4. Операции над множествами
1.2.5. Комбинаторика
1.2.6. Понятие отношения
1.2.7. Отношение эквивалентности
1.2.8. Отношение частичного порядка
1.2.1. Понятие множества
Множество относится к математическим объектам, для которых нет строгого
определения. Другим понятием неопределяемого понятия служит точка в геометрии.
Такие понятия вводятся на интуитивном уровне, тем не менее, на их основе даются
строгие определения других математических объектов. Возможно, лишь в какой-то
мере объяснить такое понятие, т.е. Дать описание основных его свойств. Ниже
приведено определение множества по Кантору.
Множество S есть любое собрание определенных и различимых между собой
объектов нашей интуиции и интеллекта, мыслимое как единое целое. Эти объекты
называются элементами множества S.
Если предмет x является элементом множества S, это обозначается с помощью
знака: x  S. Тогда говорят, что элемент x принадлежит множеству S. В противном
случае пишут x  S.
В математике обычно имеют дело с множеством математических объектов:
чисел, точек, кривых и т.д. Для числовых множеств имеются общепринятые
обозначения: Z — множество целых чисел, Q — рациональных, R —
действительных.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
23
Все множества можно разбить на две большие группы: конечные и
бесконечные. Все элементы конечного множества можно перечислить, тогда, как все
элементы бесконечного множества даже теоретически нельзя собрать в законченную
совокупность.
Запись x1, x2, …, xn  A означает, что все x1, x2, …, xn принадлежат множеству
A. Конечное множество, состоящее из элементов x1, x2, …, xn обычно обозначают {x1,
x2, …, xn}. В частности, {x} — одноэлементное множество.
Однако перечисление элементов множества слишком громоздко для задания
больших множеств и неприменимо для бесконечных. Эта проблема решается с
помощью характеристического свойства множества. С его помощью можно
описывать любые множества в удобном и компактном виде. Запись A = {x | P(x)}
означает, что a  A тогда и только тогда, когда P(a) — истинное утверждение.
Например, множество A = {x | x есть точка на плоскости и x находится на расстоянии
1 от начала координат} есть единичная окружность с центром в точке {0,0}. Это
бесконечное множество, но для любого предмета можно сказать, принадлежит он
этому множеству или нет.
Иногда бывает удобно указать, из какого класса выбираются элементы
множества. Тогда пишут {x  A | P(x)}. Например, {x  R | 0 ≤ x ≤ 2} есть
бесконечное
множество
действительных
чисел,
лежащих
между
0 и 2
(включительно).
С помощью характеристического свойства удобно задать пустое множество,
т.е. Множество, не содержащее ни одного элемента. Например, множество {x  R |
x2 < 0} не имеет элементов, т.е. пусто. Пустое множество принято обозначать знаком

1.2.2. Равенство множеств
Тот факт, что множество определяется своими элементами, можно
сформулировать в виде следующего принципа, в котором вводится понятие
равенства множеств.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
24
Два множества равны в том и только в том случае, когда они состоят из одних
и тех же элементов.
Действительно, два множества можно описать по-разному. Тем не менее, при
внимательном рассмотрении можно убедиться, что они состоят из одних и тех же
элементов. Тогда эти множества равны. Это обозначается так: X = Y. Приведем
пример. Пусть A — множество студентов-психологов 2-го курса, а B — множество
студентов-психологов, поступивших в университет в прошлом году. Эти множества
состоят из одних и тех же людей (возможный отсев учитывать не будем), т.е. A = B.
Доказательство равенства каких-либо множеств состоит из двух частей:
1.
если x  A, то x  B;
2.
если x  B, то x  A.
Приведем еще примеры равенства и неравенства множеств.
Так, {2, 4, 6} = {2, 6, 4} = {2, 4, 4, 6}, поскольку множества состоят из одних и
тех же элементов.
Множества {1, 2} и {{1, 2}} не равны: первое множество одноэлементно и его
элементом является множество; второе, двухэлементное, состоит из чисел. Таким
образом, эти множества состоят из элементов различной природы и не могут быть
равны.
1.2.3. Подмножества
Говорят, что множество A есть подмножество множества B, если каждый
элемент множества A является элементом B. В этом случае также говорят, сто
множество A включено во множество B или множество B включает множество A.
Это обозначается A  B. Для доказательства включения требуется проверить
утверждение: если x  A, то x  B.
Приведем примеры.
Множество студентов-психологов 1-го курса есть подмножество множества
студентов-психологов, которое, в свою очередь, включено во множество всех
студентов-психологов.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
25
Множество {1, 2} не является подмножеством множества {{1}, 2, 3}, так как
число 1 не принадлежит последнему.
Можно сделать ряд наблюдений о свойствах включения.
1.
Каждое множество есть подмножество самого себя: A  A.
2.
Если A  B и B  C, то A  C.
3.
Если A  B и B  A, то A = B.
4.
Пустое множество есть подмножество любого множества.
5.
Каждый элемент
A ≠ 
имеет, по крайней мере, два различных
подмножества: само A и пустое множество.
6.
Каждый элемент множества A определяет некоторое подмножество множества
A: если a  A, то {a}  A.
Говорят, что множество A строго включено в B, если A  B и A ≠ B. В этом
случае говорят также, что B строго включает A или A есть истинное подмножество
B. Это обозначается A  B.
7.
Если A  B и B  C, то A  C.
8.
Если A  B и B  C, то A  C.
9.
Если A  B и B  C, то A  C.
Множество всех подмножеств множества A называется множеством-степенью
множества A и обозначается (A) = {B | B  A}. Например, A = {1, 2, 3}. Тогда
множеством-степень
состоит
из
множества
A,
пустого
множества,
трех
одноэлементных и трех двухэлементных подмножеств множества A:
(A) = {A,{1}, {2}, {3}, {1, 2}, {2, 3}, {1, 3}, }.
Множество-степень конечного n-элементного множества состоит из 2n
элементов.
10.
Если B  A, то B  (A); если a  A, то {a}  A и a (A).
1.2.4. Операции над множествами
Любая
математическая
дисциплина
включает
не
только
исходные,
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
26
неопределяемые понятия, но и правила работы с этими объектами. Например, в
арифметике можно складывать и умножать. Аналогичные операции можно привести
и для множеств.
Объединение множеств A и B есть множество, содержащее элементы
множества A, или множества B. Объединение множеств обозначается
A  B.
Другими словами,
A  B = {x | x  A или x  B}.
Пересечение множеств A и B есть множество, состоящее из элементов, общих
для обоих множеств. Этим же, словом называют и соответствующую операцию.
Пересечение множеств обозначается A  B:
A  B = {x | x  A и x  B}.
Для всякой пары множеств A и B имеет место включение: A  B A A  B.
Два множества называются непересекающимися (или расчлененными), если A
 B = , и пересекающимися, если A  B ≠ . Система множеств называется
расчлененной, если любая пара ее элементов является непересекающейся.
Разбиением множества Х называется такая расчлененная система  непустых
подмножеств множества X, что каждый элемент X является некоторым элементом
некоторого (единственного) множества системы . Например,  = {{1, 2}, {3}, {4,
5}} есть разбиение множества X = {1, 2, 3, 4, 5}.
Следующая операция позволяет образовать новое множество из одного
существующего множества. Обычно в ходе какого-либо рассуждения можно
выделить такое множество, что все рассматриваемые предметы являются его
элементами. Под рассуждением может пониматься и научная теория, и целая книга.
Такое множество называется универсальным (для данного рассуждения). Например,
в арифметике универсальным множеством называется множество целых чисел Z.
Обычно универсальное множество обозначают U. Дополнением множества A
называется множество A , состоящее из элементов универсального множества U, не
являющихся элементами множества A = x U x  A.
Пусть, например, U — множество всех студентов университета,
A —
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
27
множество студентов факультета психологии. Тогда A есть множество студентов
всех факультетов, кроме психологического.
Для графической иллюстрации операций над подмножествами некоторого
универсального множества
U используют так называемые диаграммы Эйлера.
Универсальное множество отображается в виде прямоугольника, а его подмножества
— виде кругов. На рис. 1.1 закрашенные области отображают соответственно
множества A  B, A  B и A .
Рис. 1.1. Алгебраические свойства операций над множествами
Рассмотрим подробнее свойства операций над множествами и связи между
ними. Эти свойства во многом аналогичны свойствам обычных операций сложения
и умножения чисел.
A  B  C  =  A  B   C
A  B  C  =  A  B   C
A  B= B  A
A  B= B  A
A  B  C  =  A  B    A  C 
A  B  C  =  A  B    A  C 
A= A
A U = A
A  A =U
A A=
Если для всех A имеет место A  B = A , то B = 
Если для всех A имеет место A  B = A , то B = U
Если A  B = U и A  B =  , то B = A
A A= A
A A= A
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
28
A U = U
A= 
A  A  B = A
A  A  B = A
A B= A  B
A B= A  B
1.2.5. Комбинаторика
В тренерской практике часто приходится подсчитывать количество возможных
исходов испытаний. Комбинаторика – теория соединений – изучает некоторые
операции над конечными множествами, как упорядочение множества и разбиение
множества, интересуется расположением элементов во множестве, выясняет,
сколькими способами можно расположить элементы множества в том, или ином
порядке. Это приводит к понятиям перестановок, размещений и сочетаний.
Основными задачами комбинаторики являются: 1) определение вида соединения; 2)
подсчет числа соединений.
Рассмотрим некоторые комбинаторные задачи.
Задача о рассаживании.
Из группы в n человек требуется рассадить за столом m человек (m ≤ n).
Сколькими способами это можно сделать?
Пронумеруем m стульев. Тогда на первый стул можно усадить одного из n
человек. Пусть первое место уже занято. Тогда на второе остается n − 1 претендент.
Каждая из n возможностей занять первое место сочетается с n − 1 возможностью
для второго. Таким образом, существует n (n − 1) вариантов рассаживания на первые
два стула. После того как заняты первые два места, кандидат на третье место
выбирается из оставшихся (n − 2) желающих, причем каждый из них может
оказаться в компании с любой из n (n − 1) возможных пар, занимающих первое и
второе места. Процесс рассаживания продолжается до тех пор, пока не будут заняты
все m стульев. Число возможностей усадить человека на каждый следующий стул
уменьшается на единицу. Последний m-й стул может занять соответственно n − (m −
1) = n − m + 1 человек. Всего получается nn  1n  2n  m +1 вариантов
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
29
рассаживания. Искомое число способов рассаживания называется числом
размещений из n по m и обозначается Anm . Таким образом,
Anm = nn  1n  2 n  m + 1
В случае, когда m = n, задача о рассаживании превращается в задачу о
количестве перестановок n-элементного множества. Формула для числа размещений
при m = n превращается в равенство:
Anm = nn  1n  2 2  1
(на последний стул будет претендовать один человек). Произведение n первых
натуральных чисел называется «n-факториал» и обозначается n!. Например, 1! = 1,
2! = 1 ∙ 2 = 2, 3! = 1 ∙ 2 ∙ 3 = 6, 4! = 1 ∙ 2 ∙ 3 ∙ 4 = 24 и т.д. Принято, что 0! = 1. Можно
записать, что число размещений из n по n, или число перестановок из n, равно n!:
Anm = n! .
Число Anm также можно выразить через факториалы. Для этого умножим и
разделим правую часть на произведение n  1n  m  12 1 :
Anm =
nn  1n  m +1n  m n  m  1 2  1
.
n  mn  m  1 2 1
В итоге получаем:
Anm =
n!
.
n  m!
К примеру, A42 =
4!
= 12 , т.е. четверых человек можно рассадить по двое 12
4  2!
способами.
Задача о выборе.
Сколькими способами можно выбрать m человек из группы в n человек (m ≤
n)?
Задача похожа на предыдущую. Отличие состоит в том, что при рассаживании
был важен порядок, в котором располагались m выбранных человек, а в данной
задаче речь идёт о неупорядоченном выборе. В первой задаче каждому варианту
выбора m человек соответствует m! вариантов рассаживания (количество
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
30
перестановок m). Значит, количество способов рассаживания в m! раз больше, чем
способов выбора. Количество способов выбора называется числом сочетаний из n
m
по m и обозначается С n . Отсюда
С nm =
Anm
n!
=
m! m! m  n !
Учитывая, что 0! = 1, получаем: С n0 = 1 , С nn = 1 . Действительно, выбрать 0
человек из n (т.е. не выбрать ни одного) можно только одним способом. То же можно
сказать и о выборе n человек из n.
Можно также записать С nm = С nn m . В самом деле, способов выбрать m человек
из n ровно столько же, сколько способов оставить (n − m) человек на месте (т.е. тоже
в каком-то смысле «выбрать»).
Не так очевидно следующее свойство сочетаний:
С nm 1 = С nm 1 + C nm .
Равенство проверяется непосредственно по формуле для числа сочетаний:
С nm1 + С nm =
n!
n!
+
m  1! n  m +1! m! n  m!
Общий знаменатель этих дробей есть m! (n − m + 1)!. Чтобы привести к
общему знаменателю, числитель первой дроби умножаем на m, а числитель второй
дроби — на (n − m + 1). Получаем:
С nm 1 + С nm =
n +1n! = n +1! = C m .
m  n!+n  m + 1n!
=
n+1
m! n  m + 1!
m! n  m + 1! m! n  m + 1!
Равенство доказано.
m
Последнее свойство позволяет находить C n с помощью «треугольника
Паскаля»
1
1
1
1
1
∙
2
3
4
∙
1
1
3
6
1
4
1
∙
∙
∙
∙
Строки треугольника нумеруются, начиная с нуля. В строке с номером n
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
31
расположены числа C nm , m = 0, 1, …, n. При этом каждое число в следующей (n + 1)й строке вычисляется как сумма двух верхних соседей в n-й строке, т.е. по формуле
С nm 1 = С nm 1 + C nm .
Числа C nm применяются в формуле бинома Ньютона, предназначенной для
вычисления степени от суммы двух чисел:
a + bn = Cn0 a n + Cn1 a n1b ++ Cnm a mb nm ++ Cnn1abn1 + Cnnb n
Бином Ньютона позволяет вычислить любую степень суммы. В связи с тем,
что
числа
C nm
используются
в
этой известной формуле, их называют
биномиальными коэффициентами. Из бинома Ньютона следует важное свойство
биномиальных коэффициентов.
C n0 + C n1 +  + C nn 1 + C nn = 2 n
Это равенство непосредственно выводится из формулы бинома при a = b = 1:
слева будет 2n, а справа — сумма биномиальных коэффициентов, так как все степени
a и b равны единице. Свойство означает, что сумма чисел в n-й строке треугольника
Паскаля равна соответствующей степени двойки. В этом можно убедиться: в
нулевой строке стоит одна единица (20), сумма двух единиц в первой строке есть 21,
во второй строке единица, двойка и единица дают в сумме 4, т.е. 2 2. Сумма чисел в
следующих строках равна 8, 16 и т.д.
1.2.6. Понятие отношения
В математике для отношения какой-либо связи между предметами или
понятиями часто пользуются понятием «отношение». Например, отношением
является предложение: «x меньше, чем y».
Отношение используется для пар объектов, рассматриваемых в определенном
порядке. Пусть, например, x = 1, y = 2. Тогда пара (x, y) находится в отношении
«меньше, чем», а пара (y, x) — нет.
Упорядоченной парой (x, y) называется двухэлементное множество {x, y}, в
котором элемент x находится на первом месте, а y — на втором. Элемент x называют
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
32
первой координатой упорядоченной пары, а элемент y — второй координатой. Две
упорядоченные пары равны, когда совпадают их координаты:
(x, y) = (u, v) тогда и только тогда, когда x = u и y = v.
В этом состоит основное отличие упорядоченной пары от двухэлементного
множества. Например, множества {1, 2} и {2, 1} равны, т.к. Состоят из одинаковых
элементов, а упорядоченные пары (1, 2) и (2, 1) не равны, т.к. их координаты не
совпадают.
О любой упорядоченной паре можно сказать, находится она в данном
отношении или нет. Чтобы определить отношение, достаточно перечислить все
пары, которые находятся в данном отношении.
Пусть заданы множества X и Y. Тогда отношение ρ из X в Y есть некоторое
множество упорядоченных пар (x, y), где x  X, y  Y. Поскольку отношение
связывает два объекта, его называют бинарным. Если (x, y)  ρ, где ρ — некоторое
множество упорядоченных пар, говорят, что элемент x находится в отношении ρ с
элементом y. Также это обозначают xρy.
Множество всевозможных упорядоченных пар (x, y), таких, что x  X, y  Y,
называется декартовым произведением множеств
X и Y и обозначается X × Y.
Отношение есть подмножество декартова произведения: ρ  X × Y. Если X = Y, то ρ
 X × X, говорят, что отношение ρ есть отношение на множестве X.
Ниже приведены основные свойства отношений.
Отношение
ρ называется рефлексивным, если каждый элемент x  X
находится в отношении сам с собой: xρx для всех x  X.
Примеры.
Отношение ≤ рефлексивно, так как x ≤ x для любого числа x.
Отношение < не является рефлексивным.
Отношение ρ называется симметричным, если из того, что xρy, следует, что
yρx для всех x  X.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
33
Примеры.
1.
Отношение подобия треугольников симметрично: если треугольник x подобен
треугольнику y, то треугольник y подобен треугольнику x.
2.
Отношение делимости не является симметричным: из того, что x делится на y,
не следует, что y делится на x.
Отношение ρ называется транзитивным, если из того, что xρy и yρz следует,
что xρz.
Примеры.
1.
Отношение ≤ транзитивно: если x ≤ y и y ≤ z, то x ≤ z.
2.
Отношение «быть отцом» не является транзитивным: если x — отец y и y —
отец z, то x — не отец z, а дед.
Отношение ρ называется антисимметричным, если из того, что xρy и yρx
следует, что x = y.
Примеры.
1.
Отношение делимости антисимметрично на множестве натуральных чисел:
если x делится на y и y делится на x, то x = y.
2.
Отношение перпендикулярности прямых не антисимметрично: если прямая x
перпендикулярна y и y перпендикулярна x, то это не значит, что прямые
совпадают.
1.2.7. Отношение эквивалентности
Отношение
на
некотором
множестве
X
называется
отношением
эквивалентности, если оно рефлексивно, симметрично и транзитивно.
Примеры.
1.
Отношение подобия на множестве всех треугольников на плоскости.
2.
Отношение «проживание в одном доме» на множестве жителей России.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
34
Пусть ρ — отношение эквивалентности в X. Классом эквивалентности (ρ —
классом эквивалентности), порожденным элементом x  X, называется множество
всех элементов y, для которых xρy. Это множество обозначают [x].
Пример.
Пусть X = {1, 2, 3, 4, 5, 6, 7}, xρy тогда и только тогда, когда x − y делится на 3
(такое отношение называется отношением сравнимости по модулю 3).
Проверим, что ρ — отношение эквивалентности. Класс эквивалентности,
порожденный единицей, состоит из чисел 1, 4, 7: 1 − 1 = 0, 1 − 4 = −3, 1 − 7 = −6, и
все эти разности делятся на 3. Тот же класс порождается четверкой и семеркой: [1] =
[4] = [7] = {1, 4, 7}.
Кроме того, [2] = [5] = {2, 5}; [3] = [6] = {3, 6}.
Числа из каждого класса эквивалентности при делении на 3 дают одинаковый
остаток. В этом случае говорят, что они сравнимы по модулю 3. Числа из разных
классов не сравнимы между собой.
Из
приведенного
примера
видны
два основных свойства классов
эквивалентности:
1)
каждый элемент множества X попадает один из классов эквивалентности;
2)
классы не пересекаются между собой.
Эти свойства формулируются теоремой.
Пусть ρ — отношение эквивалентности на X. Тогда система
ρ-классов
эквивалентности есть разбиение множества X.
1.2.8. Отношение частичного порядка
Отношение на некотором множестве X называется отношением частичного
порядка, если оно рефлексивно, антисимметрично и транзитивно.
Примеры.
1.
Отношение делимости «x нацело на y» на множестве натуральных чисел.
2.
Отношение ≤ на числовых множествах.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
35
Отношение частичного
порядка упорядочивает элементы множества,
позволяет расположить их «по возрастанию». Поэтому произвольное отношение
частичного порядка также принято обозначать ≤. Множество X с заданным
отношением частичного порядка называют частично упорядоченным множеством.
Отношение ≤ порождает отношение <: x < y, если x ≤ y и x ≠ y.
В этом случае говорят, что элемент x предшествует элементу y ( x меньше y, y
больше x). Элемент y покрывает элемент x, если x < y и не существует такого
элемента u, что x < u < y.
Например, на множестве целых чисел X = {1, 2, 3} задано обычное отношение
≤. В этом случае отношение < есть также обычное числовое отношение «меньше».
Тогда двойку а покрывает единицу, а тройка — нет, так как 1 < 2 < 3. Если же
отношение ≤ задано на множестве действительных чисел X = [1, 3], то элемента,
покрывающего единицу (или любое другое число) нет, так как между двумя
действительными числами всегда существует число, не равное им.
Конечное частично упорядоченное множество удобно изображать в виде
диаграммы:

элементы множества изображаются точками;

точка y ставится выше точки x, если x < y;

если y покрывает x, то точки соединяются отрезком.
Такая диаграмма наглядно показывает, как упорядочено множество, и
отображает иерархию его элементов — кто кому «подчиняется», кто над кем
«начальник».
Примеры.
1.
Отношение ≤ на X = {1, 2, 3, 4, 5, 6, 7} (рис. 1.2).
2.
Отношение делимости на том же множестве (рис. 1.3).
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
36
Рис. 1.2
Рис. 1.3.
Раздел 2. Теория вероятностей и математическая статистика
Тема 2.1. Теория вероятностей
2.1.1. Теория вероятностей
2.1.2. Случайные события
2.1.3. Классическое определение вероятности случайного события
2.1.4. Геометрическое определение вероятности
2.1.5. Статистическое определение вероятности случайного события
2.1.6. Свойства вероятности
теоремы сложения и умножения вероятностей случайных событий
2.1.1. Теория вероятностей
Теория вероятностей изучает закономерности, проявляющиеся при изучении
результатов таких экспериментов, конкретный результат которых до их проведения
невозможно с определённостью предсказать. Например, при бросании монеты
нельзя предсказать, какой стороной она упадёт: для этого необходимо учесть
слишком много различных факторов: работу мышц руки, участвующей в бросании,
малейшие отклонения в распределении массы монеты, движение воздуха и т. д.
Результат бросания монеты случаен. Но оказывается, при достаточно большом числе
бросаний монеты существует определённая закономерность (герб и цифра выпадут
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
37
приблизительно поровну). Этот пример показывает, что, несмотря на случайный
характер результата каждого эксперимента, могут существовать некоторые
закономерности для результатов множества аналогичных экспериментов.
Таким образом, закономерности, которым подчиняются случайные события,
изучаются в теории вероятностей и математической статистике. Методы теории
вероятностей и математической статистики широко применяются в области
физической культуры и спорта.
2.1.2. Случайные события
Опыт, эксперимент, наблюдение явления называют испытанием.
Испытаниями, например, являются бросание монеты, выстрел из винтовки,
бросание игральной кости (кубика с нанесённым на каждую грань числом очков – от
одного до шести). Результат, исход испытания называется событием. Событиями
являются выпадение герба или цифры, попадание в цель или промах, появление того
или иного числа очков на брошенной игральной кости. Событие называется
случайным, если оно объективно может наступить или не наступить в данном
испытании. Случайные события принято обозначать большими буквами латинского
алфавита: А, В, С и т.д.
2.1.2.1. Некоторые виды случайных событий
Определение. Два события называются совместными, если появление одного
из них не исключает появление другого в одном и том же испытании. Например,
испытание: однократное бросание игральной кости. Событие А – появление четырёх
очков, событие В – появление чётного числа очков. События А и В совместные.
Определение. Два события называются несовместными, если появление
одного из них исключает появление другого в одном и том же испытании. Например,
испытание: однократное бросание монеты. Событие А – выпадение герба, событие
В – выпадение цифры. Эти события несовместны, так как появление одного из них
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
38
исключает появление другого. Несовместность более чем двух событий в данном
испытании означает их попарную несовместность.
Определение. Два события А и В называются противоположными, если в
данном испытании они несовместны и одно из них обязательно происходит.
Событие, противоположное событию А, обозначают А . Например,
однократное бросание монеты. Событие А – выпадение герба, событие В –
выпадение цифры. Эти события противоположны, так как исходами бросания, могут
быть, лишь они и появление одного из них исключает появление другого, т. е. А= В
или А =В.
Определение. Событие называется достоверным, если в данном испытании
оно является единственно возможным его исходом, и невозможным, если в данном
испытании оно заведомо не может произойти. Например, испытание: извлечение
шара из урны, в которой все шары белые. Событие А – вынут белый шар –
достоверное событие; событие В – вынут чёрный шар – невозможное событие.
Заметим, что достоверное и невозможное события в данном испытании
являются противоположными.
2.1.2.2. Свойства событий
Определение. Суммой событий А и В называется событие С = А + В,
состоящее в наступлении по крайней мере одного из событий А или В.
Пример. Испытание: стрельба двух стрелков (каждый делает по одному
выстрелу). Событие А – попадание в мишень первым стрелком, событие В –
попадание в мишень вторым стрелком. Суммой событий А и В будет событие С = А
+ В, состоящее в попадании в мишень по крайней мере одним стрелком.
Аналогично суммой конечного числа событий А1, А2, …, Аk называется
событие А = А1 + А2 + …+ Аk, состоящее в наступлении хотя бы одного из событий Аi
(I = 1, …, k).
Из определения следует, что А + В = В + А. Справедливо также и сочетательное
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
39
свойство. Однако А + А = А (а не 2А, как в алгебре).
Определение. Произведением событий А и В называется событие С = АВ,
состоящее в том, что в результате испытания произошли и событие А, и событие В.
Аналогично произведением конечного числа событий А1, А2, …, Аk называется
событие А = А1, А2 … Аk, состоящее в том, что в результате испытания произошли
все указанные события.
В условиях предыдущего примера произведением событий А и В будет
событие С = АВ, состоящее в попадании в мишень двумя стрелками.
Из определения следует, что А В = В А.
Справедливы также сочетательный и дистрибутивный законы. Однако АА = А
(а не А2).
2.1.3. Классическое определение вероятности случайного события
Всякое испытание влечёт за собой некоторую совокупность исходов –
результатов испытания, т. е. событий. Во многих случаях, возможно, перечислить
все события, которые могут быть исходами данного испытания.
Определение. Совокупность событий образует полную группу событий для
данного испытания, если его результатом обязательно становится хотя бы одно из
них. Например, полные группы событий – выпадение герба и выпадение цифры при
одном бросании монеты; попадание в цель и промах при одном выстреле; выпадение
одного, двух, трёх, четырёх, пяти и шести очков при одном бросании игральной
кости.
Определение. События U1, U2 , …, Un, образующие полную группу попарно
несовместных и равновозможных событий, называют элементарными событиями.
Например, пусть Ui – событие, состоящее в том, что при подбрасывании
игральная кость выпала гранью с цифрой i. События U1, U2 , …, Un образуют
полную группу попарно несовместных событий. Так как кость предполагается
однородной и симметричной, то события U1, U2 , …, Un являются и
равновозможными, т. е. элементарными.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
40
Определение. Событие А называется благоприятствующим событию В, если
наступление события А влечёт за собой наступление события В. Например, пусть
при бросании игральной кости события U2, U4 и U6 – появление соответственно
двух, четырёх и шести очков, а А – событие, состоящее в появлении чётного числа
очков; события U2, U4 и U6 благоприятствуют событию А.
Определение. Вероятностью Р(А) случайного события А называется
отношение m/n числа элементарных событий m = m(A), благоприятствующих
событию А, к числу всех элементарных событий n = n(U), т.е.
Р(А) = m/n.
Это определение называется классическим определением вероятности
случайного события.
Пример. Найти вероятность того, что при извлечении наугад одного шара из
корзины, в которой находятся два белых, три зелёных и пять красных шаров,
извлечённый шар окажется зелёным.
Общее количество элементарных событий (исходов) для данного испытания
образует полную группу из n = 10 равновозможных событий (по общему числу
шаров в корзине). При этом только m = 3 элементарных события (по количеству
зелёных шаров) являются благоприятствующими для интересующего нас события А.
Тогда вероятность этого события: Р(А) = 3/10.
2.1.3.1. Основные свойства вероятности случайного события
Из приведённого классического определения вероятности вытекают
следующие его свойства:
1.
Вероятность достоверного события равна единице.
В самом деле, достоверному событию должны благоприятствовать все n
элементарных событий, т.е. m = n и, следовательно,
Р(А) = m/n = n /n = 1.
2.
Вероятность невозможного события равна нулю.
Действительно, невозможному событию не может благоприятствовать ни одно из
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
41
элементарных событий, т. е. m = 0, откуда
Р(А) = m/n = 0 /n = 0.
3.
Вероятность случайного события есть положительное число, заключённое
между нулём и единицей.
В самом деле, случайному событию благоприятствует лишь часть из общего
числа элементарных событий. Поэтому в этом случае 0 < m < n и, значит, 0 < m/n < 1.
Следовательно, 0 < Р(А) <1.
Таким образом, вероятность любого события удовлетворяет двойному
неравенству
0 ≤ Р(А) ≤ 1.
Из определения вероятности следует, что элементарные события являются
равновероятными, т. е. обладают одной и той же вероятностью.
2.1.3.2. Задачи на классическую вероятность
Во многих задачах теории вероятности числа m(A) и n(U) найти не так просто,
как в приведенном выше примере. Например, рассматриваются n различных
предметов, которые можно пронумеровать как {1, 2, …, n}. Задача может состоять в
нахождении вероятности события A как случайного последовательного выбора
каких-либо m предметов, имеющих номера {1, 2, …, m}, появляющихся в любом
порядке, где m  n.
1.
В группе студентов (n = 24), включающей 14 юношей и 10 девушек,
случайным образом выбирают 6 человек. Какова вероятность того, что а)
выбраны, будут только девушки; б) выбраны будут только юноши; в) выбраны
будут 2 девушки и 4 юноши?
6 ; а)
Решение: число всевозможных выборов 6 человек из 24 n(U) = C24
m(A)= C106 , P(A) = m(A)/n(U)=10!6!18!/24!6!4! = =5 678910/192021222324 =
0,00156,
б) m(A)= C146 , P(A) = m(A)/n(U)=14!6!18!/24!6!8! =
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
42
=91011121314/192021222324 = 0,0223,
в) m(A)= C102  C144 , P(A) = m(A)/n(U)= 10!14!6!18!/24!2!8!4!10! = 0,3347.
2.
В ящике лежат 5 белых шаров и 7 черных. Случайным образом вынимают 2
шара. Какова вероятность того, что а) все шары белые; б) все шары черные; в)
шары разных цветов?
Решение: число всевозможных выборов 2 шаров из 12 n(U) = C122 = 66:
а) m(A)= C52 = 10, P(A) = m(A)/n(U)=10/66 = 5/33;
б) m(A)= C 72 = 21, P(A) = m(A)/n(U)=21/66 = 7/22;
в) m(A)= C51  C71 = 35, P(A) = m(A)/n(U)= 35/66;
проверка: (10+21+35)/66 = 1.
Отметим, что сумма вероятностей трех независимых событий,
исчерпывающих все возможные исходы испытаний, равна 1.
3.
Из целых чисел от 1 до 100 наугад выбирают два числа. Какова вероятность
того, что а) разность между ними равна 40; б) их произведение делится на 5?
2
Решение: число всевозможных выборов 2 чисел из 100 n(U) = C100
= 10099/2
= 4950.
A)
Пусть 1-е выбранное число меньше 2-го. Если 1-е из выбранных чисел k1  60,
то 2-е число k2 определится как k2 = k1 + 40  100. При k1 > 60 превышающее 1е число на 40 число k2 = k1 + 40 > 100. Поэтому m(A)= 60. Откуда P(A) =
m(A)/n(U) = 60/4950 = 12/990 = 2/165  0,0121.
B)
Если 1-е выбранное число делится на 5 (таких чисел 20), то событие А
происходит при любом выборе 2-го числа. Таких вариантов будет ровно 2099
= 1980. Если 1-е выбранное число не делится на 5 (таких чисел 80), то 2-е
выбранное число должно делиться на 5. Таких вариантов будет ровно 2080 =
1600. Поэтому m(A) = 1980 + 1600 = 3580.
Откуда P(A) = m(A)/n(U) = 3580/4950  0,723.
4.
В лотерее M из N (5 из 36; 6 из 49 и т.п.), где M < N, найти вероятность
отгадать ровно k номеров (3  k  M).
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
43
Решение: число всевозможных выборов М «счастливых» номеров из всех N
номеров n(U) = C NM .
При выборе наугад М любых номеров из N среди них выбрать k «счастливых»
номеров можно CМk способами, а остальные М – k «несчастливых» номеров можно
k
Mk
k
выбрать C NM
М независимыми способами. Поэтому m(Ak ) = C М  C N М . Откуда P(Ak )
k
M
= m(Ak )/n(U) = CМk  C NM
М / C N .
0
М
M
М
M
M
В частности, при k = M: P(AM) = CММ  C NM
М / C N = C М  C N  М / C N =1/ C N .
2.1.4. Геометрическое определение вероятности
Во многих задачах теории вероятностей рассматривается случайное попадание
точки в какую-либо геометрическую фигуру  (отрезок, плоская фигура,
пространственная область), которую можно характеризовать соответствующей
геометрической мерой mes(). Пусть А – подобласть внутри  (А  ), а ее
геометрическая мера – mes(А). Тогда вероятность попадания точки в подобласть А
области  называется геометрической вероятностью и определяется как
Р(А) = mes(А)/mes().
Примеры:
1.
Задача о встрече. Два студента договорились встретиться в течение перерыва
между занятиями в читальном зале. Длительность перерыва Т = 20 мин. Также
договорились ожидать друг друга не дольше времени Т = 8 мин. Если один
приходит, а второго нет в течение времени Т, то первый студент уходит.
Какова вероятность встречи студентов?
Решение. Пусть время прихода 1-го студента – t1, а время прихода второго –
t2. Поскольку любой из двух студентов может прийти в любой момент времени от 0
до Т, то t1, t2  (0; Т) и поэтому  = (0; Т)(0; Т) – квадрат со стороной Т. Его
площадь: mes() = Т2 = 400.
Условие встречи определяется условием, что разность между t1 и t2 не
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
44
превышает по абсолютной величине времени Т: |t1  t2|  Т (рис. 2.1).
По определению абсолютной величины
t1  t 2 , t1  t 2
t 2  t1 , t1  t 2
|t1  t2| = 
Неравенство |t1  t2|  Т распадается на два неравенства: t1  t2  Т и t2  t1 
Т, что можно представить как t 2  t1  Т и t 2  t1 + Т.
20
18

А
16
t2, мин
14
t2 = t1 + 8
12
10
8
t2 = t1  8
6
4
2
0
0
2
4
6
8
10
12
14
16
18
20
t1, мин
Рис. 2.1. Области событий раздельных приходов  = {(t1, t2): t1, t2 (0;20)}
студентов и их встречи A
Эта пара неравенств определяет заключенную внутри  область А времени
встречи студентов, которая расположена над прямой t = t1  Т и под прямой t = t1
+ Т (Рис. 2.1). Площадь области А:
mes(А) = Т2 – (Т  Т)2 = 400 – 144 = 256.
Откуда вероятность встречи:
Р(А) = mes(А)/mes() = 256/400 = 16/25 = 0,8.
2.
Из интервала (0; 1) случайным образом выбирают два числа х и у. Какова
вероятность того, что ху > 1/3?
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
45
Решение: Областью элементарных событий  является единичный квадрат 
= (0; 1)(0; 1) = {(x; y): x, y  (0; 1)}. Его площадь: mes() = 1.
Областью А, в которой выполняется неравенство ху > 1/3, является
А = {(x; y): у > 1/3х; x, y  (0; 1)}, площадь, которой можно вычислить с помощью
интеграла
1
1
1/ 3
1/ 3
mes(À)   (1  1 / 3х)dx  (2  ln x | ) / 3  (2  ln 3) / 3 .
Откуда Р(А) = mes(А)/mes()  ( 2  ln 3) / 3 .
2.1.5. Статистическое определение вероятности случайного соб ытия
Рассмотренное выше классическое определение вероятности случайного
события применимо только к испытаниям с конечным числом исходов. Однако на
практике часто рассматриваются испытания, не удовлетворяющие этим условиям.
Например, какие равновероятные события можно рассматривать для определения
вероятности попадания в «десятку» при стрельбе спортсмена в цель?
В связи с этим в тех случаях, когда классическое определение вероятности
случайного события неприменимо, используют так называемое статистическое
определение вероятности.
Предположим, что имеется возможность (по крайней мере, теоретическая)
проведения (в одних и тех же условиях) неограниченного числа испытаний, в
результате каждого из которых осуществляется или не осуществляется некоторое
случайное событие А. Пусть проведена серия из n* таких испытаний (величину n*
называют объёмом серии испытаний), в которых событие А произошло m* раз.
Определение. Отношение числа испытаний m*, в которых наступило
случайное событие А, к общему объёму n* серии проведённых испытаний
называется относительной частотой наступления данного события в этой серии
испытаний и обозначается р*(А)
р*(А) = m*/ n*.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
46
Например, пусть проведены 5 серий по 100 выстрелов в цель, осуществлённых
одним и тем же спортсменом в одинаковых условиях.
Таблица 2.1
Результаты выстрелов в цель
Количество
Количество попаданий
Относительная частота
выстрелов
в цель
попаданий в цель
100
98
0,98
100
99
0,99
100
97
0,97
100
99
0,99
100
97
0,97
Как видно из табл. 2.1, относительная частота попаданий в цель не является
величиной постоянной, а изменяется от серии к серии. Причём относительная
частота варьирует относительно среднего значения, равного 0,98.
В случае произвольного случайного события А при проведении достаточно
больших серий испытаний относительная частота наступления этого события от
серии к серии также изменяется, сохраняя вместе с тем определённую устойчивость:
значения относительной частоты, вычисленные по результатам различных серий,
группируются около некоторого фиксированного значения.
Определение. Число Рст(А), около которого группируются значения
относительной частоты р*(А) наступления случайного события А при
неограниченном возрастании количества испытаний, называется вероятностью
события А в статистическом смысле.
Из этого определения следует, что:
1.
В отличие от классического подхода к определению вероятности случайного
события, в соответствии с которым для нахождения вероятности случайного
события нет необходимости проводить реальные испытания, а достаточно
теоретически изучить особенности условий их проведения, при
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
47
статистическом подходе требуется проведение таких испытаний.
2.
Вероятность случайного события в статистическом смысле (иногда эту
вероятность называют статистической вероятностью события) нельзя точно
определить на основании результатов конечного числа испытаний, каким бы
большим оно не было. Однако статистическую вероятность можно
приближённо оценить по величине соответствующей относительной частоты
Рст(А)≈ р *(А).
Причём это приближённое равенство тем ближе к точному, чем больше объём
серии испытаний, по результатам которой найдена соответствующая относ ительная
частота р*(А).
В частности, на основании приведённого примера относительно
результативности стрельбы спортсмена в цель можно сделать вывод о том, что
статистическая вероятность попадания стрелка в цель приближённо равна 0,98. Для
оценки статистической вероятности с большей точностью необходимо увеличить
количество выстрелов в каждой серии.
2.1.6. Свойства вероятности
теоремы сложения и умножения вероятностей случайных событий
Теорема (сложения вероятностей несовместных событий). Вероятность суммы
двух несовместных событий А и В равна сумме вероятностей этих событий
Р(А + В) = Р(А) + Р(В).
(1)
Следствие 1. Если события А1, А2, … Аn образуют полную группу попарно
несовместных событий, то сумма их вероятностей равна единице
Р(А1) + Р(А2) + … + Р(Аn) = 1.
Следствие 2. Сумма вероятностей противоположных событий А и А равна
единице
Р(А) + Р( А ) = 1.
Это следствие – частный случай следствия 1.
Определение. Два события А и В называют независимыми, если вероятность
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
48
появления каждого из них не зависит от того, появилось другое событие или нет. В
противном случае события А и В называют зависимыми.
Определение. Пусть А и В – зависимые события. Условной вероятностью
РА(В) события В называют вероятность события В, найденную в предположении, что
событие А уже наступило.
Теорема (умножения вероятностей). Вероятность произведения двух
зависимых событий А и В равна произведению вероятности одного из них на
условную вероятность другого, найденную в предположении, что первое событие
уже наступило:
Р(АВ)=Р(А)РА(В).
Теорема (умножения вероятностей). Вероятность произведения двух
независимых событий А и В равна произведению вероятностей этих событий
Р(АВ) = Р(А)Р(В).
Теорема (сложения вероятностей совместных событий). Вероятность
суммы двух совместных событий А и В равна сумме вероятностей этих событий
минус вероятность их произведения
Р(А+В) = Р(А) + Р(В) – Р(АВ).
(2)
При использовании этой формулы следует иметь в виду, что события А и В
могут быть как независимыми, так и зависимыми.
Для независимых событий
Р(А + В) = Р(А) + Р(В) – Р(АВ),
для зависимых событий
Р(А + В) = Р(А) + Р(В) – Р(А)РА(В).
Если события А и В несовместны, то их произведение АВ есть невозможное событие
и, следовательно, Р(АВ) = 0, т. е. формула (1) является частным случаем формулы
(2).
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
49
Тема 2.2. Случайные величины
2.2.1. Случайные величины
2.2.2. Понятие дискретных и непрерывных случайных величин
2.2.3. Равномерное распределение
2.2.4. Биномиальное распределение
2.2.5. Нормальное распределение
2.2.6. Вероятность попадания значения нормально распределённой случайной
величины в заданный интервал
2.2.7. Случай интервала, симметричного относительно 
2.2.1. Случайные величины
Определение. Случайной величиной называется переменная величина,
которая в зависимости от исхода испытания случайно принимает одно значение из
множества возможных значений.
Например:
1.
Число очков, выпавших при однократном бросании игральной кости, есть
случайная величина, она может принять одно из значений: 1, 2, 3, 4, 5, 6.
2.
Расстояние, которое пролетит снаряд при выстреле из орудия, есть случайная
величина, возможные значения которой принадлежат некоторому промежутку.
Случайные величины обычно обозначают прописными буквами X, Y, Z, а
возможные значения – соответствующими строчными буквами x, y, z. Например,
если случайная величина X имеет три возможных значения, то они будут обозначены
так: x1, x2, x3.
2.2.2. Понятие дискретных и непрерывных случайных величин
Определение. Случайная величина, принимающая различные значения,
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
50
которые можно записать в виде конечной или бесконечной последовательности,
называется дискретной случайной величиной. Например, число очков, число
попаданий, количество баллов, число подтягиваний, число отжиманий и т. д.
Определение. Случайная величина, которая может принимать все значения из
некоторого числового промежутка, называется непрерывной случайной величиной.
Например, дальность полёта снаряда, время прохождения дистанции, скорость
движения и т. д.
Случайные величины из примера 1 являются дискретными, а из примера 2 –
непрерывными.
2.2.2.1. Дискретные случайные величины
Наиболее полную информацию о дискретной случайной величине даёт закон
распределения этой величины.
Определение. Законом распределения дискретной случайной величины
называется соответствие между всеми возможными значениями этой случайной
величины и соответствующими им вероятностями.
Рассмотрим дискретную случайную величину X с конечным множеством
возможных значений. Величина X считается заданной, если перечислены все её
возможные значения, а также вероятности, с которыми величина X может принимать
эти значения. Указанный перечень всех её возможных значений и их вероятностей и
называется законом распределения дискретной случайной величины, который может
быть задан с помощью табл. 2.2:
Таблица 2.2
Закон распределения дискретной случайной величины
Х
х1
х2
…
хn
Р
р1
р2
…
рn
В верхней строке выписываются все возможные значения х1 , х2, …, хn величины
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
51
Х, в нижней строке выписываются вероятности р1, р2 , …, рn значений х1, х2, …, хn.
Так как события Х = хi (i=1, 2, …, n) образуют полную группу несовместных
событий, то
р1 + р2 + …+р n = 1.
Закон распределения дискретной случайной величины может быть задан также
с помощью формулы, позволяющей для каждого возможного значения этой
величины определить соответствующую вероятность.
Пример:
Биномиальная случайная величина X  Bi(n, p). Эта случайная величина
принимает дискретные целые значения от 0 до n (табл. 2.3), каждое из которых
может появиться при реализации процесса Бернулли с вероятностью, определяемой
локальной теоремой Бернулли:
P(X = k) = Pn(k, p) = Сnk p k (1  p) nk .
Таблица 2.3
Закон распределения биномиальной случайной величины
X(k)
0
1
…
k
…
n
P(Xk )
(1  p) n
np(1 p) n
…
Сnk p k (1  p) nk
…
pn
n
Сумма вероятностей  Сnk p k (1  p) nk  ( p  1  p) n  1n  1 .
k 0
2.2.2.2. Основные числовые характеристики дискретной
случайной величины
Закон распределения дискретной случайной величины позволяет получить
исчерпывающую информацию об этой величине.
Однако закон распределения изучаемой величины часто неизвестен, но даже когда
он известен, для описания определённых особенностей этой величины удобнее
пользоваться некоторыми количественными показателями, которые давали бы в
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
52
сжатой форме достаточную информацию о случайной величине. Такие показатели
называются числовыми характеристиками случайной величины. Основными из
них являются математическое ожидание, мода, медиана, дисперсия, среднее
квадратическое (стандартное) отклонение, моменты различных порядков.
Причём математическое ожидание, мода и медиана относятся к характеристикам
положения случайной величины. А дисперсия и среднее квадратическое
(стандартное) отклонение относятся к характеристикам рассеяния случайной
величины.
Математическое ожидание характеризует положение случайной величины на
числовой оси, определяя собой некоторое среднее значение, около которого
сосредоточены все возможные значения случайной величины. Поэтому
математическое ожидание иногда называют просто средним значением случайной
величины.
Определение. Математическим ожиданием М(Х) (часто используется также
обозначение «μ») дискретной случайной величины Х называется сумма произведений
всех возможных значений величины Х на соответствующие вероятности
n
М(Х) = μ=  хi pi  x1 p1  x2 p2  ...  xn pn .
i 1
Теорема. Математическое ожидание дискретной случайной величины Х
приближённо равно среднему арифметическому всех её значений (при достаточно
большом числе испытаний).
При проведении серий испытаний средние арифметические
наблюдаемых значений случайной величины, вычисленные для каждой серии,
колеблются около математического ожидания этой случайной величины. При этом
колебание становится меньше с увеличением числа испытаний в серии, и все
вычисленные средние приближаются к постоянной величине – математическому
ожиданию. Это свойство называется свойством устойчивости средних.
Некоторые свойства математического ожидания:
1.
Математическое ожидание постоянной величины равно этой постоянной
величине
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
53
М(С) = С.
2.
Математическое ожидание произведения постоянного множителя на
дискретную случайную величину равно произведению этого постоянного
множителя на математическое ожидание данной случайной величины
М(kX) = k∙ М(X).
3.
Математическое ожидание суммы двух случайных величин равно сумме
математических ожиданий этих величин
M(X+Y) = M(X) + M(Y).
4.
Математическое ожидание отклонения случайной величины от её
математического ожидания равно нулю
M(X- M(X)) = 0.
Пример. Математическое ожидание биномиальной Х  Bi(n, p) случайной
n
величины М(Х) =  kCnk p k (1  p) nk = np.
k 0
К характеристикам положения относятся также мода и медиана.
Определение. Модой Мо дискретной случайной величины называется
наиболее вероятное её значение.
Геометрически моду можно интерпретировать как абсциссу точки
максимума кривой распределения. Бывают двухмодальные и многомодальные
распределения. Встречаются распределения, которые имеют минимум, но не имеют
максимума. Такие распределения называются антимодальными.
Определение. Медианой Ме случайной величины называется такое её
значение, для которой справедливо равенство
Р (Х < Ме) = Р (Х > Ме),
то есть равновероятно, что случайная величина окажется меньше или больше
медианы. С геометрической точки зрения медиана – это абсцисса точки, в которой
площадь, ограниченная кривой распределения, делится пополам. Так как вся
площадь, ограниченная кривой распределения и осью абсцисс, равна единице, то
функция распределения в точке, соответствующей медиане, равна 0,5:
F (Ме) = Р (Х < Ме) = 0,5.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
54
Отметим, что если распределение одномодальное и симметричное, то
математическое ожидание, мода и медиана совпадают.
Для характеристики степени разброса возможных значений дискретной
случайной величины относительно её математического ожидания используют
характеристики рассеяния случайной величины.
Из четвёртого свойства математического ожидания, очевидно, что выбор в
качестве меры рассеивания математического ожидания отклонения случайной
величины от её математического ожидания не даёт результата. Поэтому в качестве
меры рассеивания случайной величины берут математическое ожидание квадрата
отклонения случайной величины от её математического ожидания, которое
называют дисперсией случайной величины Х.
Определение. Дисперсией D(X) (часто используется также обозначение «σ2»)
дискретной случайной величины называется математическое ожидание квадрата
отклонения этой величины от её математического ожидания
D( X )   2  M (( X   ) 2 ) = M(X2 – 2X + 2) =
= M(X2) – 2M(X)  + M( 2) = M(X2) – 2 2 +  2 = M(X2) –  2 .
На практике дисперсию часто удобнее вычислять по формуле
D( X )   2  M ( X 2 )   2 .
Некоторые свойства дисперсии:
1.
Дисперсия постоянной величины равна 0
D(C) = 0.
2.
Дисперсия произведения постоянного множителя k на дискретную случайную
величину равна произведению квадрата этого постоянного множителя на
дисперсию данной случайной величины
D(kХ) = k2∙ D(Х).
Пример. Дисперсия биномиальной случайной Х  Bi(n, p) величины равна
D(Х)= np(1-p).
Из определения дисперсии дискретной случайной величины следует, что её
размерность равна квадрату размерности самой случайной величины и её нельзя
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
55
геометрически интерпретировать.
В связи с этим наряду с дисперсией в качестве числовой характеристики
степени разброса возможных значений дискретной случайной величины
относительно её математического ожидания часто используют её среднее
квадратическое отклонение (иногда называемое стандартным отклонением, или
стандартом), размерность которого совпадает с размерностью случайной
величины.
Определение. Средним квадратическим отклонением дискретной
случайной величины называется квадратный корень из её дисперсии
 ( Х )  D( X ) .
2.2.2.3. Непрерывные случайные величины
Определение. Интегральной функцией распределения (или кратко функцией
распределения) непрерывной случайной величины Х называется функция F(x),
равная вероятности того, что Х приняла значение, меньшее х:
F(x) = P(X < x).
Функция распределения совершенно так же определяется для дискретных
случайных величин.
Некоторые свойства функции распределения (интегральной функции
распределения):
1.
Функция распределения удовлетворяет неравенству
0≤ F(x) ≤ 1.
2.
Функция распределения является неубывающей функцией, т. е. из неравенства
х2 > х1 следует неравенство F(x2) ≥ F(x1).
3.
Функция распределения стремится к 0 при неограниченном убывании
(стремлении к -∞) её аргумента и стремится к 1 при его неограниченном
возрастании (стремлении к +∞).
Из этих свойств вытекает, что график функции распределения случайной
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
56
величины расположен в бесконечной полосе, ограниченной прямыми линиями у = 0
и у = 1. В общем случае он имеет вид, показанный на рис. 2.2.
Рис. 2.2. Функция распределения
Из определения функции распределения вытекают два важных следствия:
1.
Вероятность того, что непрерывная случайная величина в результате
испытания примет значение, принадлежащее интервалу (x1, x2), равна
приращению функции распределения на этом интервале:
P(x1<X<x2) = F(x2) - F(x1).
2.
Вероятность того, что непрерывная случайная величина в результате
испытания примет определённое значение С, равна нулю
P(X = С) = 0.
Определение. Дифференциальной функцией распределения непрерывной
случайной величины Х (или её плотностью распределения вероятностей)
называется функция f(x), равная производной интегральной функции (функции
распределения):
f ( x)  F ( x) .
Таким образом, функция распределения F(x) является первообразной для
плотности вероятности f(x). Вид плотности распределения вероятностей показан на
рис. 2.3.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
57
Рис. 2.3. Плотность распределения вероятностей
Основные свойства плотности распределения вероятностей
(дифференциальной функции распределения).
1.
Плотность вероятности является неотрицательной функцией
f(x) ≥ 0.
Действительно, поскольку производная неубывающей функции
неотрицательна, а функция распределения F(x) непрерывной случайной величины
является именно неубывающей функцией, то плотность распределения вероятностей
f(x) неотрицательна.
2.
Вероятность того, что в результате испытания непрерывная случайная
величина примет какое-либо значение из интервала (x1, x2), равна
определённому интегралу (в пределах от x1 до x2) от плотности вероятности
этой случайной величины
х2
P(x1<X<x2) =  f  x dx .
х1
3.
Определённый интеграл в пределах от -∞ до +∞ от плотности вероятности
непрерывной случайной величины равен единице

 f x dx  1.

4.
Определённый интеграл в пределах от -∞ до х от плотности вероятности
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
58
непрерывной случайной величины равен функции распределения этой
величины
х
 f x dx  F x  .

2.2.2.4. Основные числовые характеристики непрерывной
случайной величины
Как и в случае дискретной случайной величины, под основными числовыми
характеристиками непрерывной случайной величины понимаются математическое
ожидание, мода, медиана, дисперсия, среднее квадратическое (стандартное)
отклонение, моменты различных порядков.
Как и для дискретной случайной величины, математическое ожидание
представляет собой среднее значение этой величины, а дисперсия и среднее
квадратическое отклонение являются усреднёнными характеристиками степени
разброса возможных значений этой величины относительно её математического
ожидания.
Однако формулы, определяющие математическое ожидание М(Х) = μ и
дисперсию D( X )   2 непрерывной случайной величины, отличаются от
соответствующих формул для дискретной величины и в общем случае имеют вид:

М(Х) = μ =  xf ( x)dx ;


D( X )   2   ( x   ) 2 f ( x)dx .

Среднее квадратическое отклонение, как и для дискретной случайной
величины, определяется формулой
 ( Х )  D( X ) .
Модой Мо непрерывной случайной величины называется такое её значение,
при котором плотность распределения имеет максимум.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
59
Обобщением основных числовых характеристик случайной величины
является понятие моментов случайных величин.
Сформулируем определение начальных и центральных моментов.
Определение. Начальным моментом k-го порядка случайной величины
называют математическое ожидание величины Х k
 k  M  X k .
Начальный момент дискретной случайной величины
n
 k   xik pi ;
i 1
начальный момент непрерывной случайной величины

 k   x k f ( x)dx .

Определение. Центральным моментом k-го порядка случайной величины
называют математическое ожидание величины (X - M(x))k
k  M ( (X - M(x))k ).
Центральный момент дискретной случайной величины
k
k   xi  M x  pi ;
n
i 1
центральный момент непрерывной случайной величины

k
 k   x  M ( x)  f ( x)dx .

Начальный момент первого порядка представляет собой математическое
ожидание, а центральный момент второго порядка – дисперсию случайной
величины.
Нормированный центральный момент третьего порядка служит
характеристикой скошенности или асимметрии распределения (коэффициент
асимметрии)
A
3
.
3
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
60
Нормированный центральный момент четвёртого порядка служит
характеристикой островершинности или плосковершинности распределения
(эксцесс):
Е
4
 3.
4
Введём понятие центрированной и нормированной случайной величины.
Определение. Отклонение случайной величины Х от её математического
ожидания М(Х), т. е. Х  Х  М  Х  называется центрированной случайной
о
величиной.
Математическое ожидание центрированной случайной величины М  Х 
о


равно нулю, а дисперсия  2  Х  равна дисперсии случайной величины Х.
 
о
Центрирование случайной величины геометрически равносильно переносу
начала координат в точку, абсцисса которой равна математическому ожиданию.
Определение. Нормированной случайной величиной (Т) называется
центрированная случайная величина, выраженная в долях среднего квадратического
отклонения:
о
Т
Х
х

Х  М Х 
х
.
Математическое ожидание нормированной случайной величины М(Т) равно
нулю, а дисперсия  2 Т  равна единице.
2.2.3. Равномерное распределение
Определение. Непрерывная случайная величина Х имеет равномерное
распределение на интервале (a; b), если на этом интервале плотность распределения
случайной величины постоянна, а вне его равна нулю.
Плотность вероятностей равномерного распределения на интервале (a; b)
дается системой условий:
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
61
0, x  a

 1
f ( x)  
, x (a; b) ,
b

a

0, x  b

тогда
x
x2 b b2  a2 a  b
М(Х)= μ=  xf ( x)dx = 
dx 
|

2(b  a) a 2(b  a)
2
aba


b
( x   )2
( x   ) 3 b (b   ) 3  (a   ) 3

dx 
|

3(b  a) a
3(b  a )
a ba
b

D( X )   2   ( x   ) 2 f ( x)dx =
(b  a) 3 / 8  (a  b) 3 / 8 (b  a) 3
(b  a) 2



3(b  a )
12(b  a )
12

2.2.4. Биномиальное распределение
Пусть производятся испытания, в каждом из которых может появиться
событие А. Если вероятность события А в одном испытании не зависит от появления
его в любом другом, то испытания называют независимыми относительно события
А. Будем считать, что испытания происходят в одинаковых условиях и вероятность
появления события А в каждом испытании одна и та же; обозначим эту вероятность
через р, а через q – вероятность появления события А , противоположного событию
А (q=1- р).
Вероятность того, что в серии из n независимых испытаний событие А
появится ровно k раз (и не появится n - k раз), выражается формулой Бернулли:
Pk , n  Cnk p k q n  k ,
где
Cnk 
n(n  1)...(n  (k  1))
,
k!
или
Cnk 
n!
,
k!(n  k )!
р – вероятность события А в каждом испытании, q – вероятность события А (q=1- р).
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
62
Закон распределения дискретной случайной величины, определяемый
формулой Бернулли, называется биномиальным.
Биномиальный закон распределения дискретной случайной величины
можно представить в виде схемы:
Х
0
1
…
k
…
n
\Р
qn
nqn-1p
…
Cnk p k q nk
…
pn
Для случайной величины, распределённой по биномиальному закону с
параметрами n и р:
М(Х)= nр, D(Х)= nрq,  ( X )  npq .
2.2.5. Нормальное распределение
Большинство экспериментальных исследований не только в области
физической культуры и спорта, но и в биологии, медицине и др., связано с
измерениями, результаты которых могут принимать любые значения в заданном
интервале и описываются моделью непрерывных случайных величин. Поэтому
далее будем рассматривать в основном непрерывные случайные величины и
связанные с ними непрерывные распределения.
Среди всех непрерывных законов распределения вероятностей особое место
занимает нормальное распределение, или распределение Гаусса, как наиболее часто
встречающийся вид распределения.
Поскольку
нормальному
закону
распределения
подчиняются
только
непрерывные случайные величины, следовательно, распределение нормальной
совокупности может быть задано в виде плотности распределения

f ( x) 
1
 2
e
(x  )2
2 2
.
Таким образом, это распределение называется нормальным распределением,
или распределением Гаусса, с параметрами  и  . О случайной величине X с
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
63
указанным законом распределения вероятностей говорят, что о на распределена
нормально с параметрами  ,  , и кратко называют нормальной. Параметр  математическое ожидание нормальной случайной величины X,  - среднее
квадратическое отклонение этой величины. График плотности вероятности
нормального закона распределения приведён на рис. 2.4.
График функции f(x) называют нормальной кривой, или кривой Гаусса. Как
видно из рисунка, этот график представляет собой колоколообразную фигуру,
симметричную относительно вертикальной прямой x   , и асимптотически
приближающуюся к оси абсцисс при x   .
Обозначение. Если непрерывная случайная величина Х распределена по
нормальному закону с параметрами  и , то этот факт имеет специальное
обозначение: X  N(, ). В частности, если случайная величина Х распределена по
стандартному нормальному закону, то это обозначается как X  N(0, 1).
Рис. 2.4. Плотность вероятностей нормального распределения
Главная особенность нормального закона состоит в том, что он является
предельным законом, к которому приближаются другие законы распределения. При
достаточно многочисленной совокупности нормальное распределение проявляется и
в эмпирическом распределении.
Определение. Совокупность всех возможных значений случайной величины и
соответствующих им вероятностей образует так называемое теоретическое
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
64
распределение.
Определение. Совокупность фактических значений случайной величины,
полученных в результате наблюдений, с соответствующими частотами (или
частостями) образуют эмпирическое распределение.
Рассмотрим некоторые свойства нормального распределения.
1.
Функция плотности нормального распределения определена на всей оси ОХ, т.
е. каждому значению х соответствует вполне определённое значение функции.
2.
При всех значениях х (как положительных, так и отрицательных) функция
плотности распределения
принимает положительные значения,
т.
е.
нормальная кривая расположена над осью ОХ.
3.
Предел функции плотности при неограниченном возрастании х равен нулю
lim
f x   0 .
x  
Поскольку функция стремится к 0 при x   , то ось абсцисс является
асимптотой графика этой функции.
4.
Функция плотности нормального распределения в точке x max   имеет
максимум, равный:
ymax 
1
.
 2
В этом можно убедиться, найдя первую производную функции:
x     x2 
f  x    3
e
.
 2
2
2
Так как первая производная при переходе через точку, в которой она
обращается в ноль, меняет знак от «+» к «-», то имеет в точке х = μ максимум
функции f(x).
5.
График функции плотности
f(x) симметричен относительно прямой,
проходящей через точку х = μ.
Отсюда следует равенство для нормально распределённой величины моды,
медианы и математического ожидания.
6.
Кривая распределения имеет две точки перегиба с координатами
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
65
1 
1 


 ;
 и  ;
.
 2е 
 2е 


Координаты этих точек определяются через вторую производную.
7.
Нечётные центральные моменты нормального распределения равны нулю.
Можно вывести формулу центральных моментов любого порядка для
нормально распределённой случайной величины, из которой получается простое
рекуррентное соотношение, выражающее моменты высших порядков через моменты
низших порядков:
k  k  1   2 k 2 .
Как следует из формулы, центральные моменты нечётных порядков равны
нулю, поскольку 1  0 . Пользуясь этой формулой можно получить выражения для
центральных моментов чётного порядка:
2   2 ; 4  3 4 .
8.
Коэффициенты асимметрии и эксцесса нормального распределения равны 0:
A
Е
3
= 0;
3
4
 3 = 0.
4
Отсюда следует важность вычисления этих коэффициентов для эмпирических
рядов распределения, т. к. они характеризуют скошенность и крутость данного ряда
по сравнению с нормальным.
9.
Изменение значений параметра  (при неизменном  ) не влияет на форму
нормальной кривой; кривая сдвигается вдоль оси Ox вправо, если 
возрастает, и влево, если  убывает.
С изменением же значений параметра 
форма нормальной кривой
изменяется. Максимальная ордината графика функции убывает с возрастанием
значения  (кривая «сжимается» к оси Ox) и возрастает с убыванием значения 
(кривая «растягивается» в положительном направлении оси Oy).
На рис. 2.5 изображены три нормальные кривые при одном и том же значении
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
66
 и различных значениях  .
Рис. 2.5. Нормальные кривые при равных  и разных 
В случае, когда  = 0,  = 1, функция принимает наиболее простой вид
x2

1
 ( x) 
e 2 .
2
Распределение вероятностей непрерывной случайной величины, определяемое
последней функцией, называется нормированным (в отличие от общего нормального
распределения, определяемого предыдущей функцией), или стандартным. График
функции (х) называется нормированной кривой.
На практике часто необходимо вычислять вероятность того, что нормально
распределённая случайная величина находится в определённых границах. Расчёт
легко провести с помощью значений специальной функции (так называемой
функции Лапласа, или интеграла вероятностей).
u
Ф(u ) 
где переменная t 
x

.
1
e
2 0

t2
2
du ,
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
67
Эти значения табулированы, и их можно найти в специальной литературе.
Функция Лапласа – нечётная функция, т. е. Ф ( u )   Ф (u ) .
2.2.6. Вероятность попадания значения нормально распределённой случайной
величины в заданный интервал
Подставив выражение для плотности вероятности нормально распределённой
случайной величины в формулу, получим вероятность того, что в р езультате
испытания нормально распределённая случайная величина примет значение из
некоторого интервала (х1, х2):
P( x1  X  x2 ) 
Сделаем
эквивалентные
Х2
1
 e
 2 Х1
преобразования

( x   )2
2 2
dx .
неравенств,
определяющих
вероятность P( Х1  X  Х 2 ) :
 x   X   x2   
P ( Х 1  X  Х 2 )  P 1




 
 
,


k





k





 P
U 





где U 
X 

 стандартная нормальная случайная величина; U  N(0, 1).
Рассмотрим функцию (интеграл Лапласа)
1 u t 2 / 2
Ф0 (u ) 
dt
e
2 0
Тогда вероятность P ( x1  X  x2 ) , где Х  N( ,), определяется через функцию
Ф0 (u) следующим образом:
а) P ( x1  X  x2 ) = Ф0(u2) – Ф0(u1), если 0 < u1 < u2;
б) P ( x1  X  x2 ) = Ф0(u2) + Ф0(|u1|), если u1 < 0 < u2;
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
68
в) P ( x1  X  x2 ) = Ф0(|u1|)  Ф0(|u2|), если u1 < u2 < 0,
где u1 = (x1  )/, а u2 = (x2  )/.
Эти соотношения следуют из свойств определенного интеграла.
Пример. Пусть Х  N(3,2), х1 = 1, х2 = 4, тогда u1 = (1  3)/2 = 1, а u2 = (4 
2)/2 = 0,5. Откуда по варианту (б) получим
P(1  X  0,5) = Ф0(0,5) + Ф0(|-1|) = 0,191462 + 0,341345 =0,542807.
2.2.7. Случай интервала, симметричного относительно 
Для нормально распределенной случайной величины Х  N( ,)
рассматривается интервал ( x1  X  x2 ) , где х1 =   k, х2 =  + k, a
k > 0.
Тогда вероятность P ( x1  X  x2 ) имеет вид (случай (б)):
  k   
   k  
P( x1  X  x2 )  P
U 
  P(k  U  k )  2  Ф0 (k ) где




U  N(0, 1).
Тогда для k =1, 2, 3 получим
 2  Ф0 (1) 2  0,34134 0,6827



P(k  U  k )  2  Ф(k )  2  Ф0 (2)  2  0,47725  0,9545
2  Ф (3) 2  0,49865 0,9973
0



Из последнего равенства следует, что для нормально распределенной
случайной величины Х N(,) вероятность выхода за интервал (  3;  + 3)
очень мала, а именно равна 0,0027, т. е. это событие может произойти лишь в 0,27 %
случаев. Такие события можно считать практически невозможными. На основании
этого формулируется правило трёх сигм: если случайная величина имеет
нормальное распределение, то отклонение этой величины от математического
ожидания по абсолютной величине не превосходит утроенного среднего
квадратического отклонения.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
69
Тема 2.3. Математическая статистика
2.3.1. Генеральная совокупность и выборка
2.3.2. Статистическое оценивание параметров. Точечные оценки
2.3.3. Статистическое оценивание параметров. Точечные оценки
2.3.4. Определение необходимого объёма выборки
2.3.5. Обработка результатов измерений по выборочным
характеристикам распределения. Вариационные ряды
2.3.6. Анализ выпадающих данных
2.3.7. Проверка статистических гипотез
2.3.8. Некоторые специальные непрерывные распределения
2.3.9. Проверка гипотез с помощью критериев, основанных
на нормальном распределении.
2.3.10. Корреляционный анализ
2.3.11. Регрессионный анализ
2.3.1. Генеральная совокупность и выборка
Математическая статистика занимается разработкой методов сбора,
описания и обработки опытных данных, т. е. результатов наблюдений с целью
получения научных и практических выводов.
Статистической совокупностью называется множество однородных
объектов, объединенных по некоторому общему отличительному признаку.
Если требуется изучить некоторый признак статистической совокупности,
можно провести сплошное обследование, т. е. обследование, проведенное на всей
генеральной совокупности. Генеральной совокупностью называется совокупность
всех однородных объектов, подлежащих изучению. Но если число объектов
достаточно велико, то осуществить указанное обследование невозможно. В таком
случае для изучения интересующего признака применяется выборочный метод.
Сущность этого метода заключается в том, что обследованию подвергаются не все
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
70
объекты совокупности, а только некоторая их часть, случайно выбранная из данной
совокупности; выводы, полученные при изучении этой части, распространяются на
всю совокупность объектов. Таким образом, выборочной совокупностью, или
выборкой, называется совокупность объектов, случайно отобранных из генеральной
совокупности.
Число N объектов генеральной совокупности и число n объектов выборочной
совокупности называются объёмами генеральной или выборочной совокупностей
соответственно, при этом N значительно больше, чем n.
Если выборку отбирают по одному объекту, который обследуют и снова
возвращают в генеральную совокупность, то выборка называется повторной. Если
объекты выборки уже не возвращаются в генеральную совокупность, то выборка
называется бесповторной. На практике чаще используется бесповторная выборка.
Если
объём
выборки
составляет
небольшую
долю
объёма генеральной
совокупности, то разница между повторной и бесповторной выборками
незначительна.
Как отмечалось выше, о свойствах генеральной совокупности (случайной
величины Х) можно судить по данным наблюдений над отобранными объектами, т. е.
по выборке. Для того чтобы по выборке можно было достаточно уверенно судить о
случайной
величине,
выборка
должна
быть
репрезентативной
(представительной). Репрезентативность выборки означает, что объекты выборки
достаточно хорошо представляют генеральную совокупность. Репрезентативность
выборки обеспечивается случайностью отбора. Это означает, что любой объект
выборки отобран случайно, при этом все объекты имеют одинаковую вероятность
попасть в выборку.
При проведении выборочных исследований предполагается, что выборка
является однородной, т. е. она получена из одной генеральной совокупности, где
отсутствуют объекты, резко выделяющиеся по значениям изучаемого признака.
Обычно полученные выборочные данные представляют собой результаты измерений
для спортсменов одного возраста, квалификации, спортивной специализации и т. п.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
71
2.3.2. Статистическое оценивание параметров. Точечные оценки
Статистическое оценивание параметров – это совокупность методов,
позволяющих делать научно обоснованные выводы о числовых параметрах
распределения генеральной совокупности по случайной выборке из неё.
Выбор оценки, позволяющей получить хорошее приближение оцениваемого
параметра, - основная задача теории оценивания. Так, например, если известно, что
изучаемая случайная величина распределена в генеральной совокупности по
нормальному закону, то необходимо оценить по выборкам математическое ожидание
и среднее квадратическое отклонение, так как именно эти два параметра полностью
определяют нормальное распределение.
Оценки подразделяются на точечные и интервальные.
Определение. Оценка характеристики распределения называется точечной,
если она определяется одним числом, которому приближённо равна оцениваемая
характеристика.
Определение. Интервальной оценкой числовой характеристики называется
оценка, определяемая двумя числами, а именно границами интервала, содержащего
оцениваемую характеристику.
Рассмотрим точечные оценки, причём обозначим через

оценку
произвольного параметра генеральной совокупности (среднего, дисперсии и т. д.).
~
Оценивая параметр  по выборке, находим такую величину  , которую принимаем
за точечную оценку параметра  . При этом стремимся, чтобы оценка была
наилучшей, иначе говоря, оценка должна обладать определёнными сво йствами.
Основными свойствами оценок являются
свойства несмещённости,
эффективности и состоятельности.
~
Состоятельность. Оценка  параметра  называется состоятельной, если
она подчиняется закону больших чисел, т. е. выполняется неравенство
~
lim
P

    1 .
n 

 
Состоятельность оценки означает, что чем больше объём выборки, тем больше
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
72
вероятность того, что ошибка оценки не превысит сколь угодно малого
положительного числа ε.
В математической статистике состоятельной оценкой генерального среднего μ
является выборочное среднее арифметическое x , а состоятельной оценкой
генеральной дисперсии  г2 является выборочная дисперсия  2 . Методы вычисления
этих выборочных характеристик будут рассмотрены позже.
~
Несмещённость. Оценка  параметра  называется несмещённой, если её
математическое ожидание равно оцениваемому параметру  , т. е.
~
М   .
~
Если это равенство не выполняется, то оценка  может либо завышать
 
значение  , либо занижать его. В обоих случаях это приводит к систематическим
ошибкам в оценке параметра  .
Выборочное среднее арифметическое x является несмещённой оценкой
генерального среднего μ.
Несмещённой оценкой генеральной дисперсии  г2 является выборочная
дисперсия  2 .
~
Эффективность. Несмещённая оценка  , которая имеет наименьшую
дисперсию среди всех возможных несмещённых оценок параметра  , вычисленных
по выборкам одного и того же объёма, называется эффективной оценкой.
Это следует понимать так: полученные по выборке оценки x и  2 - случайные
величины, так как случайны сами выборочные значения. Поэтому можно говорить о
математическом ожидании и дисперсии оценок x и  2 . Эффективность этих оценок
означает, что их дисперсии D( x ) и D( 2 ) меньше дисперсий любых других
несмещённых оценок среднего значения и дисперсии генеральной совокупности.
Итак, наилучшими оценками генерального среднего значения и генеральной
дисперсии являются их выборочные характеристики
n
n

x
x
i 1
n
i
;
 ( xi  x)
2 = i 1
n 1
2
.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
73
Следует отметить, что если брать повторные выборки из одной и той же
генеральной совокупности, то окажется, что значения оценок x и  2 для разных
выборок не совпадают, хотя они и взяты из одной генеральной совокупности.
Отклонения оценок генеральных параметров от истинных значений этих
параметров
называются
статистическими
оценками,
или
ошибками
репрезентативности. Они возникают потому, что не все объекты генеральной
совокупности представлены в выборке.
В качестве оценки стандартного отклонения выборочного среднего
используется
величина,
называемая
стандартной
ошибкой
среднего
арифметического:
mx 

n
.
(1)
Величина mx показывает, какая ошибка в среднем допускается, если
использовать вместо генерального среднего μ его выборочную оценку x . Поэтому
вычисленное среднее арифметическое часто указывают в виде x  mx , чтобы
оценить точность оценки x .
Из формулы (1) видно, что с увеличением объёма выборки n стандартная
ошибка (ошибка средней) mx уменьшается пропорционально корню квадратному из
объёма выборки.
Как видно из вышеизложенного, при ограниченном объёме выборки истинное
значение генерального среднего не может быть определено до статочно точно,
поэтому при вычислении x не имеет смысла оставлять большое количество
значащих цифр. Согласно существующему эмпирическому правилу, в окончательном
результате положение последней значащей цифры должно соответствовать
положению первой значащей цифры в величине mx /3. Во избежание накопления
ошибок, связанных с округлением, промежуточные результаты вычисляются с
точностью на один порядок больше, чем точность окончательных результатов.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
74
2.3.3. Статистическое оценивание параметров. Точечные оценки
По известной величине выборочной характеристики можно определить
интервал, в котором с той или иной вероятностью определяется значение параметра
генеральной совокупности, оцениваемого по этой выборочной характеристике.
В статистике используют так называемые доверительные интервалы,
соответствующие заданной доверительной вероятности.
Определение. Вероятности, признанные достаточными для того, чтобы
уверенно
судить
о
генеральных
параметрах
на
основании
выборочных
характеристик, называются доверительными вероятностями.
Определение. Интервал, в котором с заданной доверительной вероятностью
находится оцениваемый генеральный параметр, называется доверительным
интервалом.
Очевидно,
соответствующая
что,
чем
шире
доверительная
доверительный
вероятность,
и
интервал,
наоборот,
тем
чем
выше
большую
доверительную вероятность оценки числовой характеристики мы хотим обеспечить,
тем большим окажется соответствующий доверительный интервал.
Обычно в качестве доверительных вероятностей выбирают значения 0,95; 0,99
или 0,999 (их принято выражать в процентах 95, 99 и 99,9 %). При решении
статистических задач в области физической культуры и спорта считается
достаточной доверительная вероятность 0,95 (95 %). В некоторых случаях, когда
уточняются результаты предыдущих исследований или получаемые выводы связаны
с большой ответственностью, применяются доверительные вероятности 0,99 или
0,999 (99 или 99,9 %).
Рассмотрим метод нахождения доверительного интервала для заданной
доверительной вероятности при оценке генеральной средней по результатам
выборочных наблюдений в предположении нормального распределения изучаемого
признака в генеральной совокупности. Этот метод основан на использовании
распределения Стьюдента для случайной величины
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
75
t
x
,
mx
где μ – среднее значение генеральной совокупности (оцениваемый параметр); mx стандартная ошибка выборочного среднего арифметического (или исправленное
среднее квадратическое отклонение средней выборочной), определяемое формулой
mx 

n
.
(1)
Для определения доверительного интервала задаёмся значением уровня
значимости α (например, 0,05), показывающим вероятность того, что оцениваемый
генеральный
параметр
выходит
за
границы
доверительного
интервала.
Доверительная вероятность будет соответствовать площади под кривой tраспределения Стьюдента, заключённой между точками - tα и tα (рис. 2.6). Тогда
доверительный интервал запишется
 t 
x
 t ,
mx
(2)
где tα – коэффициент Стьюдента, определяемый по таблицам для стандартных
значений уровня значимости α (0,05; 0,01 и 0,001) и различных значений числа
степеней свободы ν = n – 1.
Рис. 2.6. Кривая t-распределения Стьюдента для определения
доверительного интервала
Преобразуем выражение (2) к виду
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
76
x  t mx    x  t mx ,
а с учётом формулы (1) получим
x  t

n
   x  t

n
.
(3)
Таким образом, интервальная оценка генеральной средней μ представляется
доверительным интервалом

 

; x  t
 x  t
,
n
n

в котором с вероятностью (1-α) находится генеральная средняя.
Следует заметить, что для выборок больших объёмов границы доверительного
интервала определяются с помощью таблиц нормированного нормального
распределения, т. к. при n ≥ 30 t-распределения Стьюдента переходит в нормальное
(см. рис. 2.4). Тогда выражение (3) записывается в виде
x  u

n
   x  u

n
,
где uα – процентные точки нормированного нормального распределения.
2.3.4. Определение необходимого объёма выборки
После того
как для оценки интересующего параметра генеральной
совокупности обоснованно выбран способ образования выборки, приступают к
расчёту необходимого объёма выборки, задавшись желаемой степенью точности
оценки и доверительной вероятностью.
Если предполагается, что генеральная совокупность подчиняется нормальному
закону распределения и известна её дисперсия  г2 , то доверительный интервал для
среднего значения μ (математического ожидания) выражается следующим образом:
x  u
г
n
   x  u
г
n
.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
77
Допустим, выборочное среднее x должно отличаться от генерального μ не
более чем на заданную величину d. Тогда половина ширины доверительного
интервала должна быть равна d, т. е. половине от разности

  
 

 x  u г    x  u г  = 2u г
n
n 
n

равняется d:
u
г
n
d.
Тогда требуемый объём выборки определится
u2 г2
n 2 .
d
Обычно истинное значение дисперсии  г2 генеральной совокупности
неизвестно, тогда при больших объёмах (n ≥ 20) выборки можно использовать её
выборочную оценку  2
u2 2
n 2 .
d
(1)
Если же объём выборки небольшой (n ≤ 20), то предварительно берут
небольшую пробную выборку и по её данным делают приближённую оценку
параметра  г2 , тогда формула (1) принимает вид
N
t2 ,n 2
d2
,
где σ2- выборочная дисперсия пробной выборки; t ,n - число, взятое из таблицы tраспределения Стьюдента, соответствующее уровню значимости α и числу
наблюдений n.
2.3.5. Обработка результатов измерений по выборочным
характеристикам распределения. Вариационные ряды
Обычно полученные наблюдаемые данные представляют собой множество
расположенных в беспорядке чисел. Просматривая это множество чисел, з ачастую
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
78
бывает трудно выявить какую-либо закономерность их варьирования (изменения).
Для изучения закономерностей варьирования значений случайной величины
опытные данные подвергаются обработке. При систематизации выборочных данных
используются дискретные и интервальные ряды распределений.
Определение.
Расположение результатов наблюдений над случайной
величиной в порядке возрастания или убывания называется ранжированием.
После ранжирования опытные данные объединяются в группы, т. е.
группируются. Каждое значение случайной величины, входящее в отдельную
группу сгруппированного ряда, называется вариантом, а изменение этого значения –
варьированием. Для каждой группы сгруппированного ряда данных можно
подсчитать численность вариант, т. е. определить число, показывающее, сколько раз
встречается соответствующий вариант в ряде наблюдений, это число называется
частотой варианта, обозначается ni. Сумма частот вариант равна объёму выборки
n. Отношение частоты варианта к объёму выборки называется относительной
частотой, или частостью, обозначается рi*:
рi*=
ni
.
n
Отметим, что сумма относительных частот равна единице
р1*+ р2*+…+рi*=
Теперь
нетрудно
заметить,
n n
n1 n2
  ...  i   1 .
n n
n n
что
частость
является
статистической
вероятностью появления варианта хi (см. п. 4.1.7.). Естественно считать частость рi*
выборочным аналогом (вычисленной по выборочным данным) вероятности рi
появления значения хi случайной величины Х, т. к. частость (статистическая
вероятность) рi* обладает свойством устойчивости, т. е. при выполнении
определённых условий стремится по вероятности к вероятности рi.
Подсчитав частоты и частости, наблюдаемые данные представляются в виде
таблицы, где в первой строке расположены номера вариант, во второй – варианты хi,
в третьей – соответствующие частоты ni, в четвёртой – соответствующие частости
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
79
рi*.
Определение. Дискретным вариационным рядом распределения называется
ранжированная совокупность вариантов хi с соответствующими им частотами ni или
частостями рi*.
Если изучаемая случайная величина является непрерывной, то ранжирование
и группировка наблюдаемых значений не позволяют выявить характерные черты
варьирования её значений. Нецелесообразно также построение дискретного ряда для
дискретной случайной величины, число возможных значений которой велико. В
этом случае следует построить интервальный вариационный ряд распределения. Для
его построения весь интервал варьирования наблюдаемых значений случайной
величины разбивается на ряд частичных интервалов и подсчитывается частота
попадания значений величины в каждый частичный интервал.
Определение.
Интервальным
вариационным
рядом
называется
упорядоченная совокупность интервалов варьирования случайной величины с
соответствующими частотами или частостями попаданий в каждый из них значений
величины.
Построение интервального вариационного ряда рассмотрим на пр имере.
Пример. 14 пловцов проплыли дистанцию 200 м для выполнения норматива
кандидата в мастера спорта России. Результаты приведены в таблице исходных
данных 2.4.
Таблица 2.4
Результаты времени проплывания
№
X i (с
)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15 158, 157, 16 155, 158, 155, 158, 159, 162, 15
16 157, 16
6
3
8
2
1
4
8
1
3
3
5
4
6
0
Ранж 15 155, 155, 15 157, 157, 158, 158, 158, 159, 16
16 162, 16
иров 4
1
анна
я
1
4
6
2
6
3
8
8
3
0
5
3
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
80
Третья
строка
таблицы
представляет
собой
ранжированную
или
упорядоченную выборку.
Вся упорядоченная выборка разбивается на интервалы. Причём, число
интервалов определяется либо по табл. 2.5, приведённой ниже, либо рассчитывается
по формуле Стерджеса (Sturges, 1926 г.)
K  1  3,32  lg n
Таблица 2.5
Рекомендуемое число интервалов для выборок разного объёма
Объём выборки n
Число интервалов k
10-30
30-60
60-100
100-300
300-400
4-5
5-6
7
8
9
Определим число интервалов по формуле Стерджеса
К  1  3,32  lg N  1  3,32  lg 14  1  3,32  1,15  4,82  5 .
Затем определяется шаг или ширина интервала по формуле
h
X max  X min
K
,
где X max - максимальное значение измеряемого показателя в упорядоченной
(ранжированной) выборке; X min - минимальное значение показателя.
Определим шаг или ширину интервала
h
X max  X
К
min  163  154  9  1,8  2
.
5
5
Границу интервала обычно округляют в большую сторону до размерности
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
81
измеряемого показателя. Нижняя граница первого интервала выбирается чуть
меньше или равной минимальному значению выборки. Обычно это значение равно
X
min
h
 . В приведенном примере за нижнюю границу принимается следующее
2
значение: 154 
2
 153 . После этого заполняется таблица (см. табл. 2.6) по
2
результатам выборки, которые распределены в интервалы, т. е. результаты
измерений представляются в виде вариационного ряда.
В первый столбец таблицы вписывается номер интервала.
Во второй столбец – границы интервала. Причем верхняя граница первого
интервала определяется прибавлением шага интервала к его нижней границе. Этот
результат является также и нижней границей для следующего интервала.
Максимальное число верхней границы последнего интервала должно быть больше
или равно максимальному значению показателя в выборке.
Третий столбец – частота (ni), т. е. количество значений, попавших в
заданный интервал. Если
граничный результат был учтен в интервале, то в
последующем интервале учитываются значения выше граничного результата.
Четвертый столбец – накопленная частота, которая рассчитывается
суммированием частот предыдущих интервалов. Причем в последней строке этого
столбца обязательно должно быть число, равное объему выборки (n).
Пятый столбец – частость (рi*), т. е. отношение частоты к объёму выборки.
Шестой столбец – накопленная частость, получаемая суммированием
частостей предыдущих интервалов.
Представим результаты измерений в виде вариационного ряда (табл. 2.6).
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
82
Таблица 2.6
Результаты измерений, представленные в виде вариационного ряда
№
Границы
интервала интервалов
Частота Накопленная Частость Накопленная
частота
ni
рi*
частость
1
2
3
4
5
6
1
153-155
1
1
0,072
0,072
2
155-157
3
4(1+3)
0,214
0,286
3
157-159
5
9(4+5)
0,357
0,643
4
159-161
3
12(9+3)
0,214
0,857
5
161-163
2
14(12+2)
0,143
1
Столбец 2: к нижней границе первого интервала прибавляется шаг интервала
(153+2=155). Это число берется за верхнюю границу первого интервала. Этот
результат является также и нижней границей для следующего интервала
(155+2=157) и т. д. Максимальное число верхней границы последнего интервала
больше максимального значения показателя в выборке.
Столбец 3: частота (ni), т. е. количество значений, попавших в заданный
интервал. Если результат был учтен в интервале, то в последующем интервале
учитываются значения выше граничного результата. Например, если результат 161с
был занесен в четвертый интервал, то в пятом интервале суммируется количество
показателей, имеющих значения больше, чем 161с, т. е. без учета 161с.
Столбец 4: накопленная частота рассчитывается суммированием частот
предыдущих интервалов. В последней строке столбца 4 получилось число, равное
объему выборки (14).
Столбец 5: частость (рi*) рассчитывается делением частоты на объём выборки.
Столбец 6: накопленная частость получается суммированием частостей
предыдущих интервалов. В последней строке столбца 6 получилась единица.
Распределение измерений, представленное в столбцах 2 и 3 или 2 и 5,
называется вариационным рядом.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
83
2.3.5.1. Графическое представление вариационного ряда
Графическое представление результатов измерений выражается в построении
трех графиков: полигона частот (см. рис. 2.7), гистограммы (рис. 4.10) и полигона
накопленных частот (кривой сумм или кумуляты) (рис. 4.11). Полигон частот и
гистограмма
показывают
распределение
измеряемых
показателей
и
их
сгруппированность вокруг среднего значения.
Для построения полигона частот в декартовых координатах по оси абсцисс
откладываются
срединные
значения
интервалов,
а
по
оси
ординат
–
соответствующие им частоты (или частости). Для приведённого примера полигон
распределения изображён на рис. 4.10.
Частота
5
3
2
1
154 156 158 160 162
Середина интервала
время, с
Рис. 2.7. Полигон частот результатов
Для построения гистограммы по оси абсцисс откладываются границы
интервалов и на них восстанавливаются прямоугольники до уровня частот,
соответствующих интервалам, отложенных по оси ординат (рис. 2.8).
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
84
Частота
5
4
3
2
1
153 155 157 159 161 163
Границы интервала
время, с
Рис. 2.8. Гистограмма распределения результатов
Если нанести на гистограмму пунктирной линией полигон распределения
частот, то мы получим первоначальное представление о дифференциальной функции
распределения.
Таким образом, теоретическим аналогом гистограммы является плотность
распределения вероятностей, или дифференциальная функция распределения
(см. 2.2.2.3). Иначе говоря, гистограмма является экспериментальным аналогом
плотности распределения вероятностей.
Площадь гистограммы равна сумме всех частот, т. е. объёму выборки, или
сумме частостей, т. е. единице.
Полигон накопленных частот показывает прирост показателей от интервала
к интервалу, поэтому ее ещё называют кривой сумм или кумулятой. Для
построения полигона накопленных частот по оси ординат откладываются верхние
границы интервалов, а по оси абсцисс – соответствующие им накопленные частоты
(или накопленные частости) (рис. 2.9).
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
85
Накопленная
частота
частота
14
12
9
4
1
155 157 159 161 163
Верхняя граница
интервала
время,
с
Рис. 2.9. Полигон накопленных частот результатов
Теоретическим аналогом полигона накопленных частот результатов
является функция распределения, или интегральная функция распределения.
Иначе говоря, полигон накопленных частот результатов является
экспериментальным аналогом функции распределения.
Таким образом, графическое представление результатов измерений выявляет
закономерности их распределения и позволяет правильно выбрать последующие
статистические
характеристики
для
дальнейшего
анализа
полученных
экспериментальных данных.
2.3.5.2Аналитический анализ. Основные статистические характеристики ряда
измерений
К
основным
(вариационного
статистическим
ряда)
относятся
характеристикам
характеристики
ряда
положения
измерений
(средние
характеристики, или центральная тенденция выборки); характеристики
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
86
рассеяния (вариации, или колеблемости) и характеристики формы распределения.
К характеристикам положения относятся среднее арифметическое значение
(среднее значение), мода и медиана.
К характеристикам рассеяния (вариации, или колеблемости) относятся:
размах вариации, дисперсия, среднее квадратическое (стандартное) отклонение,
ошибка средней арифметической (ошибка средней), коэффициент вариации и др.
К характеристикам формы относятся коэффициент асимметрии, мера
скошенности и эксцесс.
1.
Среднее арифметическое значение
Среднее арифметическое значение – одна из основных характеристик
выборки. Она, как и другие числовые характеристики выборки, может вычисляться
как по необработанным первичным данным, так и по результатам группировки этих
данных. Точность вычисления по необработанным данным выше, но процесс
вычисления оказывается трудоёмким при большом объёме выборки.
Для несгруппированных данных среднее арифметическое определяется по
формуле
n
xi
x1  x2    xn 
i 1
,
X

n
n

где n- объем выборки, х1, х2, ... хn - результаты измерений.
Для сгруппированных данных
k

X
n x
i 1
i
n
i
,
где n- объем выборки, k – число интервалов группировки, ni – частоты интервалов, xi
– срединные значения интервалов.
2.
Мода
Определение. Мода - наиболее часто встречающаяся величина в данных
выборки. Обозначается Мо и определяется по формуле
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
87
Mo  xMoH  h
где
xMoH -
nMo  nMо 1
nMo  nMo1   nMo  nMo1  ,
нижняя граница модального интервала,
группировки,
nMo -
частота модального интервала,
предшествующего модальному,
nMo1 -
h - ширина интервала
nMo1 -
частота интервала,
частота интервала, последующего за
модальным.
Определение. Модальным интервалом называется интервал группировки с
наибольшей частотой.
3.
Медиана
Определение. Медиана - результат измерения, который находится в середине
ранжированного ряда, иначе говоря, медианой называется значение признака Х,
когда одна половина значений экспериментальных данных меньше её, а вторая
половина – больше, обозначается Ме.
Когда объем выборки n - четное число, т. е. результатов измерений четное
количество, то для определения медианы рассчитывается среднее значение двух
показателей выборки, находящихся в середине ранжированного ряда.
Для данных, сгруппированных в интервалы, медиану определяют по формуле:
Me  xMeН  h
0,5n  nxMe1
,
nMe
где xMeН - нижняя граница медианного интервала; h ширина интервала группировки,
0,5n – половина объёма выборки,
nMе -
частота медианного интервала,
nMе 1 -
накопленная частота интервала, предшествующего медианному.
Определение. Медианным интервалом называется тот интервал, в котором
накопленная частота впервые окажется больше половины объёма выборки (n/2) или
накопленная частость окажется больше 0,5.
Численные значения среднего, моды и медианы отличаются, когда имеет место
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
88
несимметричная форма эмпирического распределения.
Для математико-статистического анализа результатов выборки знать только
характеристики положения недостаточно. Одна и та же величина среднего значения
может характеризовать совершенно различные выборки.
Поэтому кроме них в статистике рассматривают также характеристики
рассеяния (вариации, или колеблемости) результатов.
1.
Размах вариации
Определение. Размахом вариации называется разница между наибольшим и
наименьшим результатами выборки, обозначается R и определяется
R=Xmax - Xmin .
Информативность этого показателя невелика, хотя при малых объёмах
выборки по размаху легко оценить разницу между лучшим и худшим результатами
спортсменов.
2.
Дисперсия
Определение. Дисперсией называется средний квадрат отклонения значений
признака от среднего арифметического.
Для несгруппированных данных дисперсия определяется по формуле
n
2 =
 ( хi  х)
( х1  х)  ( х2  х)  ( хn  х)
 i 1
n 1
n 1
2
2
2
2
,
(1)
где Хi – значение признака, Х - среднее арифметическое.
Для данных, сгруппированных в интервалы, дисперсия определяется по
формуле
k
 n ( хi  х)
 2  i 1
2
i
n 1
,
где хi – среднее значение i интервала группировки, ni – частоты интервалов.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
89
Для упрощения расчётов и во избежание погрешностей вычисления при
округлении результатов (особенно при увеличении объёма выборки) используются
также другие формулы для определения дисперсии. Если среднее арифметическое
уже вычислено, то для несгруппированных данных используются следующая
формула:
n
 х  nх
2 = i 1
2
2
i
,
n 1
для сгруппированных данных
k
 n х  nх
 2  i 1
2
i
2
i
.
n 1
Эти формулы получаются из предыдущих раскрытием квадрата разности под
знаком суммы.
В тех случаях, когда среднее арифметическое и дисперсия вычисляются
одновременно, используются формулы:
для несгруппированных данных
2
 n x  / n
x



i
i
2


i 1
i 1
 =
,
n 1
n
2
для сгруппированных данных
2
 k n x  / n
n
x



i i
i i
2


i 1
i 1
.
 
n 1
k
3.
2
Среднее квадратическое (стандартное) отклонение
Определение.
Среднее квадратическое
(стандартное) отклонение
характеризует степень отклонения результатов от среднего значения в абсолютных
единицах, т. к. в отличие от дисперсии имеет те же единицы измерения, что и
результаты измерения. Иначе говоря, стандартное отклонение показывает плотность
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
90
распределения результатов в группе около среднего значения, или однородность
группы.
Для несгруппированных данных стандартное отклонение можно определить
по формулам
n
=
n
2
 хi2  n х
i 1
=
 ( xi  x)
( х1  х)  ( х2  х)  ( хn  х)
 i 1
n 1
n 1
2
2
,
2
 n 
2 
 xi    xi  / n
i 1
 i 1 
=
.
n 1
n
2
или
n 1
2
Для данных, сгруппированных в интервалы, стандартное отклонение
определяется по формулам
k
 n ( xi  x)
  i 1
 n х  nх
4.
n 1
,
i
2
i
n 1
2
 k

2 
n
x

n
x
 i i   i i  / n
 i 1

  i 1
.
n 1
k
k
  i 1
2
i
2
или
Ошибка средней арифметической (ошибка средней)
Ошибка средней арифметической характеризует колеблемость средней и
вычисляется по формуле:
mx 

n
.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
91
Как видно из формулы, с увеличением объёма выборки ошибка средней
уменьшается пропорционально корню квадратному из объёма выборки.
5.
Коэффициент вариации
Коэффициент вариации определяется как отношение среднего
квадратического отклонения к среднему арифметическому, выраженное в процентах:
V

100% .
x
Считается, что если коэффициент вариации не превышает 10 %, то выборку
можно считать однородной, то есть полученной из одной генеральной совокупности.
Кривая эмпирического распределения не всегда идеально колоколообразна
(нормальна) и симметрична. Отсюда и следует важность вычисления коэффициентов
асимметрии и эксцесса для эмпирических рядов распределения, т. к. они
характеризуют скошенность и крутость данного ряда по сравнению с нормальным.
Таким образом, для многих распределений характерен сдвиг кривой влево или
вправо. В связи с этим различают левостороннюю (положительную) и
правостороннюю (отрицательную) асимметрию. Она зависит от знака формулы
для определения коэффициента асимметрии (нормированного центрального
момента третьего порядка, см. 2.2.2.4), который служит характеристикой
скошенности или асимметрии распределения, определяемой по формулам:

для несгруппированных данных
n
A
 ( xi  x)3
3 i 1

n 3
3
,
где 3 - центральный момент третьего порядка,  - среднее квадратическое
отклонение, хi – значение признака, x - среднее арифметическое, n – объём выборки;

для данных, сгруппированных в интервалы:
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
92
k
 ni ( xi  x)3
A  i 1
n 3
,
где ni – частоты интервалов группировки, xi – срединное значение i интервала
группировки, k – число интервалов.
При этом, если знак этого выражения отрицательный (-), то асимметрия
правосторонняя, или отрицательная, если же знак положительный (+), то
асимметрия левосторонняя (рис. 2.10), или положительная (рис. 2.11).
Рис. 2.10. Левосторонняя (положительная) асимметрия
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
93
Рис. 2.11. Правосторонняя (отрицательная) асимметрия
Наиболее простой показатель асимметрии – это мера скошенности:
Sk 
x  Mo

.
В основу её положено отклонение средней арифметической от моды, а по
знаку выражения определяется левосторонняя (положительная) или правосторонняя
(отрицательная асимметрия).
Кроме асимметричности кривые распределения имеют характеристики
плосковершинности и островершинности. Их характеристикой служит величина
эксцесса (нормированного центрального момента четвёртого порядка, 2.2.2.4),
которая рассчитывается по формулам:

для несгруппированных данных
n
 ( xi  x)4
Еx 
где хi - значение признака;
4
 i 1

3
n 4
4
3,
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
94

для сгруппированных данных
k
 ni ( xi  x) 4
E x  i 1
n 4
3,
где ni - частоты интервалов группировки;
х i - срединное значение интервала группировки;
σ - среднеквадратическое отклонение.
Если
знак
эксцесса
отрицательный
(-),
то
имеется
тенденция
к
плосковершинности.
Если же знак положительный (+), то имеется тенденция к островершинности
(рис. 2.12).
Рис. 2.12. Островершинная и плосковершинная кривые распределения
Пример: рассчитаем основные статистические характеристики ряда
измерений для приведённого выше примера (см. 2.3.5).
Характеристики положения:

среднее арифметическое значение (среднее значение)
n
xi 2217
x1  x2    xn 
i 1
х


 158,4 с.
n
n
14

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
95

Мода
Mo  xMoH  h

nMo  nMо 1
53
 157  2
 158 с.
nMo  nMo1   nMo  nMo1 
5  3  5  3
Медиана
Me  xMeН  h
0,5n  nxMe1
0,5 14  4
 157  2
 158,2 с.
nMe
5
Характеристики рассеяния результатов измерений:

Размах
R = Xmax - Xmin = 163 – 154 = 9 с.

Дисперсия.
Во избежание погрешностей расчёта воспользуемся формулой (1) для расчёта
дисперсии
n
2 =
 ( xi  x)
2
( x1  x)  ( x2  x)  ( xn  x)
 i 1
n 1
n 1
2
2
2
.
Поскольку в числитель формулы входит сумма значений
xi  x  ,
2
для
упрощения расчёта вычисления дисперсии составим табл. 2.7, где последняя строка


2
последнего столбца представляет собой сумму значений xi  x .
Таблица 2.7
Вспомогательная таблица для расчета дисперсии
xi  x 
№ п/п
x (с)
i
1
156
156 – 158,4 = – 2,4
5,76
2
158,8
158,8 – 158,4 = 0,4
0,16
3
157,2
157,2 – 158,4 = – 1,2
1,44
4
161
161 – 158,4 = 2,6
6,76
5
155,4
155,4 – 158,4 = – 3
9
xx
2
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
6
158,8
96
158,8 – 158,4 = 0,4
7
155,1
155,1 – 158,4 = – 3,3
10,89
8
158,3
158,3 – 158,4 = – 0,1
0,01
9
159,3
159,3 – 158,4 = 0,9
0,81
10
162,5
162,5 – 158,4 = 4,1
16,81
11
154
154 – 158,4 = – 4,4
19,36
12
163
163 – 158,4 = 4,6
21,16
13
157,6
157,6 – 158,4 = – 0,8
0,64
14
160
160 – 158,4 = 1,6
2,56
0,16

x  158,4
∑= 95,52
В числитель формулы подставим полученное число
2 =

95,52
 7,35 .
13
Среднеквадратическое отклонение (стандартное отклонение)
n
 ( xi  x)
 = i 1

2
n 1
 7,35  2,7 .
Ошибка средней арифметической (ошибка средней)
mx 
2,7
14
 0,72 .
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
97

Коэффициент вариации
V
2,7
100 %  1,7% .
158 ,4
Вывод: так как коэффициент вариации не превышает 10 % (V<10 %), то
выборка считается однородной.
Характеристики формы распределения:

Мера скошенности
Sk 
x  Mo


158,3571 158
 0,1 .
2,7
Следовательно, имеет место левосторонняя асимметрия кривой распределения.
Действительно, как видно из предыдущих расчётов Мо < Ме < X .

Эксцесс
n
Еx 
 ( x  x)
i 1
i
n 4
4
 3 = -0,67.
Знак эксцесса отрицательный, следовательно, наблюдается тенденция к
плосковершинности кривой.
2.3.6. Анализ выпадающих данных
Как
отмечалось
выше,
при
проведении
выборочных
исследований
предполагается, что выборка является однородной, т. е. она получена из одной
генеральной совокупности, где отсутствуют объекты, резко выделяющиеся по
значениям изучаемого признака.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
98
Однако на практике бывают случаи, когда при анализе данных выборки
возникают так называемые «выбросы», или выпадающие значения. Это крайние
значения признаков, не характерные для данной выборки, т. е. слишком большие или
слишком малые значения. Они могут искажать распределение исходных данных и
оказывать непропорционально большой эффект на результаты всех типов
статистического анализа.
Причинами возникновения выпадающих значений могут быть следующие:

ошибка при получении данных (артефакт);

ошибка при подготовке данных (опечатка);

аномальное значение признака.
Первые две ситуации могут быть обнаружены на этапе получения
описательных статистик (например, при вычислении минимальных и максимальных
значений признака). В последнем же случае от исследователя требуется особое
внимание.
Известно, что при нормальном распределении признака 99,7 % наблюдений
(объектов исследования) располагаются внутри интервала с границами μ±3σ (μ - это
среднее арифметическое, σ - среднее квадратическое отклонение, оцененное по
выборке). Считается, что на основании "правила трех сигм" (см. 4.1.13) можно
исключать из анализа наблюдение (объект исследования), если значение признака не
укладывается в интервал μ ±3σ (причем μ и σ рассчитываются без учета резко
отклоняющегося значения признака), и в дальнейшем анализировать данные без
него.
2.3.7. Проверка статистических гипотез
Проверка статистических гипотез тесно связана с теорией оценивания
параметров. Часто для выяснения того или иного случайного факта прибегают к
высказыванию гипотез, которые можно проверить статистически, т. е. по
результатам наблюдений в случайной выборке.
Под статистическими гипотезами подразумеваются такие гипотезы, которые
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
99
относятся к виду функции распределения или к отдельным параметрам
распределения случайной величины. Например, гипотеза о достоверности различий
средних арифметических. Статистической будет также гипотеза о распределении
генеральной совокупности по нормальному закону.
Различают нулевую гипотезу, которую обозначают Н0, и противоположную
(альтернативную, конкурирующую, или единичную) гипотезу, которую обозначают
Н1. Причём первоначально выдвинутая гипотеза Н0 нуждается в проверке
относительно альтернативной гипотезы Н1. Эта проверка проводится на основании
случайной выборки и называется статистической.
Для проверки статистической гипотезы подбирают критерий, множество всех
значений которого можно разделить на два непересекающихся подмножества (А и В)
таких, что проверяемая гипотеза Н0 отвергается, если критерий попадает в
подмножество В, называемое критической областью, и принимается, если он
принадлежит подмножеству А, называемому областью допустимых значений, или
областью принятия гипотезы.
При выборе критической области следует иметь в виду, что принимая или
отклоняя гипотезу Н0, можно допустить ошибку двух видов:
ошибка первого рода состоит в том, что нулевая гипотеза Н0 отвергается, хотя она
всё же верна, т. е. не принята правильная гипотеза;
ошибка второго рода состоит в том, что гипотеза Н0 принимается, в то время, как
верна альтернативная гипотеза Н1, т. е. принята неправильная гипотеза.
Причём вероятность ошибки первого рода обозначают α и называют уровнем
значимости, а вероятность ошибки второго рода обозначают через β.
В табл. 2.8 приведены значения вероятности события при различных
значениях ошибки предположения.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
100
Таблица 2.8
Уровень значимости и вероятность события
Уровень значимости
Вероятность события
Доверительная вероятность
α
р, %
q =1- α
Полная уверенность
100 %
1
0,05 (5 %)
95 %
0,95
0,01 (1 %)
99 %
0,99
0,001 (0,1 %)
99,9 %
0,999
Уровень значимости 0,01 означает, что ошибочное значение может встретиться
в одном наблюдении из 100. В спортивных исследованиях, как правило, выбирается
уровень значимости α = 0,05.
2.3.8. Некоторые специальные непрерывные распределения
Рассмотрим три распределения, которые имеют очень важное значение при
обработке результатов, связанных со случайной выборкой объёма n, и составляют
основу применения критериев значимости и проверки статистических гипотез.
2.3.8.1. Распределение  (хи-квадрат)
2
Пусть U1, U2, … Uν - независимые случайные величины, распределённые по
нормальному закону с нулевым средним арифметическим и единичным средним
квадратичным отклонением, тогда сумма квадратов этих величин определится

имеет

2
2
= U12 + U22 +…+ Uν 2
(хи-квадрат)-распределение. Плотность вероятностей этого
распределения зависит только от числа степеней свободы ν и представлена на рис.
2.13.
Определение. Под числом степеней свободы ν понимают разность между
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
101
числом измеряемых (наблюдаемых) значений и числом линейных отношений
(связей), возникающих между ними.
Кривая хи-квадрат-распределения имеет положительную (левостороннюю)
асимметрию. С ростом числа степеней свободы ν она становится всё б олее
симметричной и при ν ≥ 30 переходит в нормальное распределение.
Рис. 2.13.

2
(хи-квадрат)-распределение
2.3.8.2. t-распределение Стьюдента
Пусть
случайная
величина
U
имеет
нормированное
нормальное
распределение, а случайная величина V распределена по закону хи-квадрат с ν
степенями свободы, причём U и V независимы.
Распределение случайной величины
T
U
V /
называется t-распределением, или распределением Стьюдента с ν степенями
свободы.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
102
Таким образом, функция t-распределения определяется одним параметром ν.
График плотности вероятности t-распределения для различных степеней свободы ν
изображён на рис. 2.14. При ν ≥ 30 график плотности вероятности переходит в
нормальную кривую распределения с параметрами μ = 0 и  

 2
.
Рис. 2.14. t-распределение Стьюдента
2.3.8.3. F-распределение (распределение Фишера-Снедекора)
Пусть случайные величины U и V независимы и каждая из них распределена
по закону хи-квадрат с ν 1 и ν2 степенями свободы соответственно. Тогда говорят, что
величина
F
U / 1
V / 2
имеет распределение Фишера-Снедекора со степенями свободы ν 1 и ν2. Это
распределение называется также F-распределением и зависит от двух параметров ν1
и ν2.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
103
2.3.9. Проверка гипотез с помощью критериев, основанных
на нормальном распределении.
2.3.9.1. Проверка гипотезы о законе распределения. Критерий согласия

2
В последующих подразделах будут рассмотрены гипотезы, относящиеся к
отдельным параметрам распределения случайной величины, причём закон её
распределения предполагался известным. Однако во многих практических задачах
точный закон распределения исследуемой случайной величины неизвестен, т. е.
является гипотезой, которая требует статистической проверки.
Обозначим через Х исследуемую случайную величину. Пусть требуется
проверить гипотезу о том, что эта случайная величина подчиняется определённому
закону распределения F (x). Для проверки гипотезы произведём выборку, состоящую
из п независимых наблюдений над случайной величиной Х. По выборке можно
построить эмпирическое распределение F*(x) исследуемой случайной величины.
Сравнение эмпирического F*(x) и теоретического распределений производится с
помощью специально подобранной случайной величины – критерия согласия.
Существует несколько критериев согласия:

2
Пирсона, Колмогорова, Смирнова и
др.
Критерий согласия

2
Пирсона наиболее часто употребляемый критерий для
проверки гипотезы о законе распределения.
Рассмотрим этот критерий. Разобьём всю область изменения Х на l интервалов
Δ1, Δ2, …, Δl и подсчитаем количество элементов пi, попавших в каждый из
интервалов Δi. Предполагая известным теоретический закон распределения F (x),
всегда можно определить рi (вероятность попадания случайной величины Х в
интервал Δi), тогда теоретическое число значений случайной величины Х, попавших
в интервал Δi, можно рассчитать по формуле прi. Результаты проведённых расчётов
объединим в табл. 2.9.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
104
Таблица 2.9
Эмпирические и теоретические частоты
Интервалы Δi
Δ1
Δ2
Эмпирические частоты (ni)
n1
n2
Теоретические частоты (прi)
пр1
пр2
Здесь п1+п2+…+ni…+nl=п;
…
Δi
…
ni
…
Δl
nl
прi
…
п
р1+р2+…+рl=1.
Если эмпирические частоты сильно отличаются от теоретических, то
проверяемая
гипотеза
Но
(исследуемая
случайная
величина
подчиняется
нормальному закону распределения) отклоняется, в противоположном случае –
принимается.
В качестве меры расхождения между эмпирическими ni и теоретическими прi
частотами для i = 1, …, l используют критерий
l
 
2
n
i 1
Правило применения критерия

2
 npi 
npi
2
i
(1)
сводится к следующему. Рассчитав значение

2
и выбрав уровень значимости критерия α = 0,05 и число степеней свободы ν = k – 3
(где k – количество интервалов), по таблице
Если

2

2
- распределения определяется 2; .
> 2; , то нулевая гипотеза Но отвергается, если
 ≤
2
2
 ;
, то гипотеза
принимается. Заметим, что статистика
l
 
2
i 1
имеет

2
n
i
 npi 
npi
2
- распределение лишь при п→∞, поэтому необходимым условием
применения критерия

2
Пирсона является наличие в каждом из интервалов по
меньшей мере 5 - 10 наблюдений. Если количество наблюдений в отдельных
интервалах очень мало (порядка 1 - 2), то имеет смысл объединить некоторые
разряды. Проиллюстрируем применение критерия

2
на примере, когда ставится
гипотеза о том, что исследуемая случайная величина подчиняется нормальному
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
105
закону распределения. Если в формуле (1) заменить теоретические частоты буквой
ni', формула примет вид
k
 
2
n
i
i 1
2
 ni 
,
ni
(2)
где ni – эмпирические частоты; ni' – теоретические (ожидаемые) частоты;
k – число интервалов группировки после объединения.
Пример. Группа пловцов II разряда (п = 50) выполняет контрольное
проплывание на дистанцию 50 м на время. Результаты времени проплывания
дистанции приведены в табл. 2.10.
Таблица 2.10
Результаты времени проплывания дистанции
№
1
X i, с
№
№
13
3
36
14
36,8 34,3 33,7
23
X i, с
24
25
34,5 34,2 36,1
№
34
35
36
X i, с
36
35
36,4
№
45
46
47
X i, с
1.
35,3 36,2
12
X i, с
2
36,4 36,2 35,8
Формулируем
4
5
6
7
8
9
10
35,4 34,2 37,8 36,1 36,2 35,3 34,7
15
16
17
18
19
20
21
36,6 35,5 35,8 34,6 35,9 35,5 33,6
26
27
28
29
34,8 35,6 34,8 32,8
37
38
39
40
30
35
41
31
32
35,5 36,1
42
43
36,2 34,2 35,6 35,8 35,2 35,8 36,9
48
49
50
35
35,6
35
гипотезу
Но:
плотность
распределения
11
35,3
22
35,4
33
34,2
44
34,2
генеральной
совокупности, из которой взята выборка, соответствует нормальному
распределению; выбираем уровень значимости α = 0,05.
2.
Для выборки объёма п=50 строим интервальный вариационный ряд с числом
интервалов k=7 (табл. 2.11).
3.
Рассчитываем выборочные характеристики по приведённым данным:
X = 35,4 с;  = 0,946 с ≈ 0,95 с.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
4.
106
Вычисляем значения теоретических частот. Для этого нужно вероятность
попадания в интервал (2 из ТВ) умножить на объём выборки
  x  x
 x  x 
  Фo  нi
 ,
ni  n  Фo  вi





 
где Фо(u) – функции Лапласа; хвi и хнi – верхняя и нижняя границы интервала
группировки. Предварительно нормируем границы интервалов группиро вки:
uвi 
Нормированные
границы
xвi  x

;
uнi 
занесены
xнi  x
в

.
4-й столбец,
а вычисленные
теоретические частоты в 5-й столбец табл. 2.11.
Так как в 1, 2 и 7-м интервалах теоретические частоты оказались меньше 5, то
объединяем 1 и 2-й интервалы с 3-м, а 7-й интервал с 6-й, при этом суммируем
эмпирические частоты объединённых интервалов, после чего получаем 4 интервала.
Продемонстрируем вычисления на примере первого интервала:

определим нормированные границы интервала
u в1 
u н1 

xв 1  x

33,2  35,4
 2,33 ;
0,946
x н1  x

32,4  35,4
 3,17
0,946


вычислим значение теоретической частоты
  x  x
 x  x 
  Фo  н1
  50   0,4901  0,4993  0,46 .
n1  n  Фo  в1





 
Выбираем значения функции Лапласа и записываем их с учётом нечётности
функции Лапласа
Фо(-2,33) = -0,4901; Фо(-3,17) = -0,4993,
затем подставляем их в формулу для вычисления теоретической частоты.
Так же вычисляются теоретические частоты остальных интервалов;
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
107

после объединения теоретических частот первых трёх интервалов, как было
сказано выше, вычисляем;
ni- ni' = 12-13,1825 = -1,1825.

затем определяем;
n
i
 1,1825  0,106 .
 ni 
=
13,1825
ni
2
2
Таблица 2.11
Таблица для расчёта критерия
№
Границы
Частоты

2
Нормиро-
Теоретические
Расчёт
Расчёт
п/ интервалов интерва-
ванные
частоты
разнос-

п
границы
лов
ти
n
i
 ni 
ni
2
хнi - хвi
ni
uвi ; uнi
ni'
ni- ni'
1
2
3
4
5
6
7
1
32,4 - 33,2
1
2
33,2 - 34
2
-1,1825
0,106
3
34 - 34,8
4
-3,17; -2,33
0,46
-2,33; -1,48
2,73
9
-1,48; -0,63
9,9925
34,8 - 35,6
15
-0,63; 0,21
15,94
-0,94
0,055
5
35,6 - 36,4
17
0,21; 1,06
13,615
3,385
0,842
6
36,4 - 37,2
5
1,06; 1,9
5,7925
7
37,2 - 38
1
1,9; 2,75
1,285
-1,0775
0,164
Сумма
5.
2
12
6
50
Значение критерия
13,1825
7,0775
49,815

2
1,167
, определяемое как сумма значений 7-го столбца, исходя
из формулы (2), равно:
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
108

6.
2
= 1,167.
Находим для уровня значимости α = 0,05 и числа степеней свободы ν = k – 3 =
4 -3 = 1 критическое значение 2;

2
- критерия
 02, 05 = 2,84.
7.
Вывод: так как

2
<  02, 05 , считаем, что эмпирическое распределение
соответствует нормальному распределению на уровне значимости 0,05.
2.3.9.2. Сравнение двух выборочных средних арифметических
независимых (несвязанных) выборок
В спорте часто проводятся измерения на одних и тех же спортсменах ч ерез
некоторое время (до и после тренировочного занятия). При этом стараются
определить, изменилось ли состояние спортсменов. В таких случаях выборки всегда
равны по числу измерений, все измерения могут быть объединены в пары. Каждая
пара – результат измерения на одном человеке – в начале и конце эксперимента.
Подобные
выборки
называются
зависимыми
(связанными,
или
коррелированными), остальные выборки называются независимыми (несвязанными,
или некоррелированными).
При сравнении двух выборочных средних арифметических независимых
выборок обычно проверяется предположение, что и первая, и вторая выборки
принадлежат одной генеральной совокупности и, следовательно, значимо не
отличаются друг от друга. В этом случае известны следующие статистические
характеристики:
X , 1 , n1 ;
Y , 2 , n2 ,
где X , Y - средние арифметические первой и второй выборок соответственно;
 1 , 2 - стандартные отклонения первой и второй выборок соответственно;
n1 ,n2 - объём первой и второй выборок соответственно.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
109
1.
Записывается нулевая гипотеза Н0: X  Y .
2.
Вычисляется значение критерия Стьюдента ( t расч ) для трёх случаев:

в случае равных объёмов выборок и неравных дисперсий
n  n1  n2 ;
1   2 :
X Y
t расч 

 n,
 12   22
в случае неравных объёмов выборок и неравных дисперсий
n1  n2 ;
1   2 :
t расч 
X Y
 12
n1


 22
,
n2
в случае неравных объёмов выборок и равных дисперсий
n1  n2 ;
1   2   :
t расч 
3.
X Y
1 1


n1 n2
.
Находится критическое значение коэффициента Стьюдента t крит при заданном
уровне значимости (α) и числе степеней свободы (  n1  n2  2 );
4.
Сравнивается t расч и t крит :

если t расч < t крит (α,ν), то гипотеза Н0: X  Y принимается с вероятностью q=1
– α;
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
110

если t расч ≥ t крит (α,ν), то гипотеза Н0: X  Y отвергается с вероятностью q=1
– α.
Пример 1:
Сравнить результаты времени прохождения дистанции 15 км двух групп
лыжников традиционным ходом Xi и коньковым ходом Yi (табл. 2.12).
Таблица 2.12
Результаты времени прохождения дистанции
1.
№ п/п
Xi, мин
Yi, мин
1
37,02
35,81
2
36,74
35,61
3
38,12
35,02
4
36,91
35,53
5
37,28
35,84
6
38,21
35,12
7
37,51
26,12
8
37,56
36,49
9
38,03
35,62
10
37,82
36,28
X = 37,52
Y = 34,74
 х = 0,52
 y = 3,06
Предполагаем, что средние результаты не отличаются Н0: X = Y .
t расч 
X Y
 n
37,52  34,74
 10  2,84 .
0,522  3,062
2.
Вычисляем
3.
Выбираем уровень значимости α = 0,05, число степеней свободы
 12   22
  n1  n2  2 =10+10-2=18.
Находим
критическое
Стьюдента для α = 0,05 и   18 t крит = 2,1.
значение
критерия
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
111
4.
t расч > t крит (2,84 > 2,1), гипотеза о равенстве средних арифметических (Н0: X =
Y ) отклоняется с вероятностью q=1 – 0,05=0,95.
Вывод: результаты времени прохождения дистанции 15 км двух групп
лыжников традиционным ходом и коньковым ходом различаются. Результат времени
прохождения коньковым ходом лучше, чем традиционным в среднем на 2,78 мин.
Пример 2:
Сравнить силу кисти правой руки у двух групп спортсменов ( n1  22;
n2  24 ), получены следующие статистические характеристики:
1.
X =58 с
Y  62 с
 х = 7,8
 y = 8,4
пх=22
пy=24
Предполагаем, что средние результаты не отличаются
Н0: X = Y .
2.
Вычисляем
t расч 
X Y
 12
n1
3.

 22
n2

58  62
7,82 8,4 2

22
24
 1,7 .
Выбираем уровень значимости α = 0,05, число степеней свободы
  n1  n2  2 = 22+24-2 = 44. Находим критическое значение критерия
Стьюдента для α = 0,05 и   44 t крит = 2,015.
4.
t расч < t крит (1,7 < 2,015), гипотеза о равенстве средних арифметических (Н0: X
= Y ) принимается с вероятностью q=1 – 0,05 = 0,95.
Вывод: показатели силы кисти правой руки двух данных групп спортсменов
не отличаются в 95 % случаев.
2.3.9.3. Сравнение двух выборочных средних арифметических
зависимых (связанных) выборок
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
112
При оценке достоверности различий средних арифметических значений
связанных выборок объёмы выборок должны быть одинаковыми
n1 = n2 = n.
1.
Для каждого испытуемого определяется разность (сдвиг) между результатами
первого и второго измерений (испытаний) - di.
2.
Рассчитывается среднее арифметическое разностей, т. е. складываются все
разности и делятся на число испытуемых
n
Xd 
3.
d
i 1
n
i
.
Рассчитывается среднеквадратическое (стандартное) отклонение разностей
 d  X
n
d 
4.
2
d
n 1
.
Рассчитывается значение коэффициента Стьюдента
t расч 
5.
i
i 1

Xd
d
 n.
Находится критическое (табличное) значение коэффициента Стьюдента для
уровня значимости (α) и числа степеней свободы (  n  1, здесь n – число
пар).
6.
Сравнивается t расч и t крит :

если t расч < t крит (α,ν), то гипотеза принимается с вероятностью q=1 – α
(различие статистически незначимо);

если t расч ≥ t крит (α,ν), то гипотеза Н0 отвергается с вероятностью q=1 – α
(наблюдаемое различие статистически значимо).
Пример:
У группы спринтеров измеряли результаты в тройном прыжке до начала
тренировочных занятий Xi и через 1 месяц после тренировок Yi, (табл. 2.13).
Определить, изменился ли этот показатель под влиянием интенсивных тренировок.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
113
Таблица 2.13
Вспомогательная таблица для сравнения выборочных средних
арифметических связанных выборок
№ п/п
Xi, м
Yi , м
di= Yi - Xi
di - X d
(di - X d )2
1
12,4
15,3
2,9
0,7
0,49
2
12,9
15
2,1
-0,1
0,01
3
12,6
15,6
3
-0,8
0,64
4
13,1
15,4
2,3
0,1
0,01
5
12,5
14,7
2,2
0
0
6
13,5
15,7
2,2
0
0
7
12,7
14,8
2,1
-0,1
0,01
8
13,4
15,5
2,1
-0,1
0,01
9
12,8
14,6
1,8
-0,4
0,16
10
13,6
14,9
1,3
-0,9
0,81
∑=22
∑=2,14
X d =2,2
0,49
n
Xd 
d
i 1
n
i

22
 2.2 ;
10
 d  X
n
d 

i 1
i
n 1

2
d

2,14
 0,49 .
9
предполагаем, что отсутствует прирост результатов в тройном прыжке у
спринтеров после месяца тренировок Н0: X d = 0;
Xd
определяем t расч 

выбираем уровень значимости α = 0,05, число степеней свободы   n  1 = 9.
d
 n
2.2
 10  14,2 ;
0,49

Для α = 0,05 и   9 t крит = 2,26;
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
114

так как
t расч > t крит , то нулевая гипотеза (Н0: X d = 0) отвергается с
вероятностью 0,95 (95 %).
Вывод: под влиянием тренировочных занятий у спринтеров наблюдается
достоверный прирост результатов в тройном прыжке.
2.3.9.4. Сравнение двух выборочных характеристик вариации
и проверка гипотезы о равенстве дисперсий двух нормальных
генеральных совокупностей
Рассмотрим две случайные величины X и Y, каждая из которых подчиняется
нормальному закону распределения с дисперсиями σx2 и σy2. Для оценки
вариативности
(колеблемости) выборочных исследований,
когда требуется
определить, различаются ли по исследуемому показателю группы, т. е. относятся ли
они к одной генеральной совокупности или нет, применяется критерий ФишераСнедекора.
1.
Записывается нулевая гипотеза Н0: σx2 = σy2.
2.
Вычисляется коэффициент Фишера-Снедекора
2
F расч 
 большая
> 1.
2
 меньшая
Значение этой дроби всегда больше единицы, поскольку в числителе дроби
стоит дисперсия той выборки, величина которой больше, а в знаменателе –
меньшая величина.
3.
Определяется критическое значение теоретического распределения Фишера
(Fкрит.) для выбранного уровня значимости α и числа степеней свободы ν 1=n1-1
(числитель) и ν 2= n2-1 (знаменатель).
4.
Если Fрасч. < Fкрит., то нулевая гипотеза о равенстве дисперсий (Н0: σx2 = σy2)
принимается; если Fрасч. > Fкрит., то нулевая гипотеза отклоняется с
вероятностью q=1- α.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
115
Пример:
Две группы пловцов II разряда (пх=31; пy=25) выполняют контрольное
проплывание на дистанцию 50 м на время. Получены следующие статистические
характеристики:
X =35,4 с
Y  34 с
 х2 = 0,96
 y2 = 0,86
пх=31
пy=25
Определить, однородны ли группы между собой.
Решение:


предполагаем, что группы однородны между собой Н0:  х2 =  y2 ;
Fрасч
 х2 0,96
 2 
 1,12 (т.к. первая выборка имеет большую дисперсию, то её
 у 0,86
значение подставляем в числитель);

из таблицы Fкрит  2,58 для уровня значимости α = 0,01, числа степеней
свободы  1  n х  1  31  1  30 (бóльшая дисперсия),
 2  n у  1  25  1  24 (меньшая дисперсия);

так как Fрасч < Fкрит (1,12<2,58), то нулевая гипотеза принимается с
вероятностью q=1- α=1-0,01 = 0,99.
Вывод: две группы пловцов однородны между собой, они не различаются по
показателю «проплывание дистанции», следовательно, относятся к одной
генеральной совокупности.
2.3.10. Корреляционный анализ
2.3.10.1. Корреляционная зависимость
Связи между различными явлениями сложны и многообразны, однако их
можно определённым образом классифицировать. В технике и естествознании часто
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
116
речь идёт о функциональной зависимости между переменными x и y, когда каждому
возможному значению x поставлено в однозначное соответствие определённое
значение y. Это может быть, например, зависимость между давлением и объёмом
газа (закон Бойля - Мариотта).
Однако многие явления происходят в обстановке действия многочисленных
факторов. В этом случае связь теряет свою строгую функциональность и имеет
место так называемая стохастическая связь. Стохастическая связь состоит в том, что
одна случайная переменная реагирует на изменение другой изменением своего
закона
распределения.
В
практике
статистических
исследований
часто
рассматривается частный случай такой связи, называемый статистической связью.
Изучение статистических зависимостей основывается на исследовании таких
связей между случайными переменными, при которых значение одной случайной
переменной в среднем изменяется в зависимости от того, какие значения принимает
другая случайная переменная.
Знание статистической зависимости между случайными переменными имеет
большое практическое значение: с её помощью можно прогнозировать значение
зависимой случайной переменной в предположении, что независимая переменная
примет определённое значение. Однако поскольку понятие статистической
зависимости относится к осреднённым условиям, прогнозы не могут быть
безошибочными. Применяя некоторые вероятностные методы, можно вычислить
вероятность того, что ошибка прогноза не выйдет за определённые границы.
Зависимость между одной случайной переменной и условным средним
значением
другой
случайной
переменной
называется
корреляционной
зависимостью.
В спортивных исследованиях между изучаемыми признаками (показателями)
чаще всего наблюдаются корреляционные (статистические) связи, при которых
численному значению одной переменной соответствует несколько значений другой.
Например, между массой тела и ростом спортсмена существует статистическая
зависимость, так как один спортсмен с ростом 178 см может иметь массу тела 69 кг,
а другой с тем же ростом - массу 71 кг. Связь между результатами в прыжке в длину
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
117
и бегом на 100 м у спортсменов также статистическая (корреляционная).
Корреляционную связь в отличие от функциональной нельзя выразить
математической формулой в виде уравнения.
Корреляция или корреляционная связь представляет собой статистич ескую
связь между любыми случайными показателями.
Основные задачи корреляционного анализа:

определение формы связи (линейная, нелинейная);

определение направления связи (положительная связь или отрицательная);

определение степени или тесноты взаимосвязи (слабая, средняя, сильная).
При оценке корреляционной связи (взаимосвязи) объем выборок должен быть
одинаковым n1 = n2 = n. Анализ взаимосвязи начинают с построения
корреляционного поля (диаграммы рассеяния) - графического представления
результатов измерений в прямоугольной системе координат. По корреляционному
полю делается предварительный вывод относительно формы связи, направления
связи и степени связи между исследуемыми признаками. Для окончательного вывода
рассчитывается коэффициент корреляции.
Значение коэффициента
корреляции заключено в пределах от -1 до +1.
Причём знак коэффициента корреляции показывает направление связи между
исследуемыми показателями, а числовое значение – степень связи.
Существует несколько видов коэффициентов корреляции: парный линейный
коэффициент корреляции Бравэ - Пирсона r, ранговый коэффициент корреляции
Спирмэна , тетрахорический коэффициент сопряженности Т, коэффициент
множественной корреляции rxyz , коэффициент частной корреляции rxyz .
Как было сказано выше, прежде чем вычислять коэффициент корреляции
необходимо построить корреляционное поле и убедиться, какая форма связи
наблюдается между исследуемыми признаками.
2.3.10.2. Построение корреляционного поля
Пару случайных чисел Х и У, представляющих собой результаты измерений,
можно изобразить графически в прямоугольной системе координат в виде точек с
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
118
координатами Х;У. Множество этих точек образуют графическую зависимость,
называемую корреляционным полем, или диаграммой рассеяния.
Визуальный анализ графика (рис. 2.15) позволяет выявить форму зависимости
между исследуемыми признаками:
если множество точек корреляционного поля заключено в геометрич ескую фигуру
эллипс, то такая правильная форма называется линейной зависимостью, или
линейной формой взаимосвязи;
если множество точек имеет иную форму, то имеет место нелинейная форма
взаимосвязи, или нелинейная зависимость;
Линейная зависимость
Отсутствие зависимости
Нелинейная зависимость
Рис. 2.15. Форма связи
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
119
если же корреляционное поле представляет собой множество точек, заключённых в
окружность,
это
означает
отсутствие взаимосвязи
между исследуемыми
признаками.
Кроме формы взаимосвязи, корреляционное поле позволяет определить
направление взаимосвязи (рис. 2.16):
если между исследуемыми признаками наблюдается прямо пропорциональная
зависимость, т. е. с увеличением одного показателя увеличивается и другой, то
взаимосвязь положительная;
если же зависимость обратно пропорциональная, т. е. с увеличением одного
показателя другой уменьшается, то имеет место отрицательная взаимосвязь.
В первом случае при расчёте коэффициент корреляции получается со знаком
«+», а во втором случае – со знаком «-».
Y
Y
X
Положительная зависимость
X
Отрицательная зависимость
Рис. 2.16. Направление связи
Анализ корреляционного поля позволяет определить не только форму и
направление взаимосвязи, но и степень зависимости, или тесноту (силу) связи. Ниже
приводятся графики при различной степени связи с соответствующими им
коэффициентами корреляции при положительной зависимости (рис. 2.17, а) и при
отрицательной зависимости (рис. 2.17, б). Как видно из рисунка, чем ближе
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
120
корреляционное поле к прямой, тем больше по модулю коэффициент корреляции,
значит, тем сильнее зависимость между исследуемыми результатами; а чем ближе
форма корреляционного поля к окружности, тем меньше по модулю коэффициент
корреляции и тем слабее зависимость между исследуемыми результатами. По
приведённым графикам видно, что в случае, когда коэффициент корреляции равен
+1 или -1, то наблюдается функциональная взаимосвязь, т. к. значению одного
показателя соответствует только одно значение другого и поэтому никакой вариации
на корреляционном поле не наблюдается. Причём, если в первом ряду представлены
виды прямо пропорциональной зависимости корреляционного поля, когда
увеличение одного показателя связано с увеличением другого; то во втором ряду
представлены виды обратно пропорциональной зависимости корреляционного поля,
когда увеличение одного показателя связано с уменьшением другого (в среднем).
Таким образом, по виду корреляционного поля можно судить о степени
взаимосвязи между исследуемыми показателями и сделать предварительный вывод,
который затем подтверждается расчётом коэффициента корреляции, приведённым
ниже.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
121
а)
б)
Рис. 2.17. Степень связи
2.3.10.3. Условное математическое ожидание. Функция регрессии
Таким образом,
корреляционная зависимость является более сложной
зависимостью, чем функциональная.
Две случайные величины Х и Y находятся в корреляционной зависимости, если
каждому
значению
любой
из
этих величин
соответствует определённое
распределение вероятностей другой величины.
Чтобы изучить корреляционную зависимость, нужно знать условное
математическое ожидание случайной переменной. Условным математическим
ожиданием дискретной случайной величины Х при Y = у (у – определённое
возможное значение Y) называется сумма произведений возможных значений
величины Х на их условные вероятности
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
122
n
M y  X    xi pxi / y ,
i 1
где
p ( xi / y ) - условная вероятность равенства Х = хi при условии, что Y = у.
Для непрерывных величин
M y X  

 x x / y dx,

где  x / y 
- плотность вероятности случайной непрерывной величины Х при
условии Y =у.
Условное
математическое
ожидание
M y X 
есть
функция
от
у:
M y  X   f  y  , которую называют функцией регрессии величины Х на величину Y.
Аналогично определяют условное математическое ожидание случайной
величины Y и функцию регрессии Y на Х
M x Y   g x.
Функция регрессии (линейная, квадратная, показательная и т. д.) позволяет
охарактеризовать форму связи, т. е. выявить механизм получения зависимой
случайной переменной.
Уравнения x  f ( y ) и y  g (x ) называются уравнениями регрессии Х на Y и
Y на Х соответственно, а линии на плоскости, соответствующие этим уравнениям,
называются линиями регрессии.
Линия регрессии Y на Х показывает, как в среднем зависит Y от Х, а линия
регрессии Х на Y показывает, как в среднем зависит Х от Y.
2.3.10.4. Корреляционный момент. Парный линейный коэффициент корреляции
Бравэ-Пирсона r
Для характеристики корреляционной зависимости между двумя случайными
величинами используют корреляционный момент и коэффициент корреляции.
Корреляционным
моментом
случайных
величин
Х
и
У
называют
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
123
математическое ожидание произведения отклонений этих величин
 xy  M  X  M  X Y  M Y .
Для вычисления корреляционного момента дискретных величин используется
выражение
 xy     xi  M  X  y j  M Y  p xi , y j  ,
n m
i 1 j 1
а для непрерывных – выражение
 
 xy    x  M  X  y  M Y  f x, y dxdy.
 
Корреляционный момент двух независимых случайных величин Х и У равен
нулю.
Из определения корреляционного момента следует, что он имеет размерность,
равную произведению размерностей величин Х и У, т. е. его величина зависит от
единиц измерения случайных величин. Поэтому для одних и тех же двух величин
величина корреляционного момента может иметь различные значения в зависимости
от того, в каких единицах были измерены величины. Для устранения этого
недостатка условились за меру связи (зависимости) двух случайных величин Х и У
принять безразмерную величину
rxy 
 xy
  X  Y  ,
называемую коэффициентом корреляции.
Выборочным корреляционным моментом, или ковариацией называется
число, определяемое формулой (корреляционным моментом называют среднее
арифметическое произведение отклонений вариант от их средних):
K xy



1 n
  X i  X Yi  Y .
n i 1
Тогда выборочный коэффициент корреляции определится по формуле
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
124
r
K xy
 x y
,
Подставив значение К ху , получим:
 X  X Y  Y 
n
r
i
i 1
i
n x y
или
 X  X Y  Y 
n
r
i
i 1
i
 X  X   Y  Y 
n
i 1
2
i
n
i 1
2
i
.
Таким образом, выборочным коэффициентом корреляции называется
отношение выборочного корреляционного момента к произведению выборочных
средних квадратичных отклонений этих величин.
Если Х и У независимые случайные величины, то коэффициент корреляции
равен 0. Заметим, что обратное утверждение неверно. Если r = 0, то между
изучаемыми признаками нет линейной корреляционной зависимости, но это условие
не исключает существования какого-либо другого вида корреляционной зависимости
(параболической, показательной и др.)
Абсолютная величина коэффициента корреляции не превосходит единицы: r
< 1.
Коэффициент корреляции характеризует степень зависимости, или тесноту
(силу) зависимости между Х и У, чем больше r , т. е. чем ближе он к 1, тем сильнее
(теснее) связь между изучаемыми признаками, а чем ближе он к 0, тем слабее.
Принято считать, если:

коэффициент корреляции равен 1, то между исследуемыми признаками
наблюдается функциональная связь;
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
125

изменяется от 0,9 до  0,7 - сильная статистическая связь;

изменяется от 0,69 до 0,5 - средняя статистическая связь;

изменяется от  0,49 до 0,2 - слабая статистическая связь;

равен нулю - то между изучаемыми признаками нет линейной корреляционной
зависимости.
Таким образом, коэффициент корреляции Бравэ - Пирсона r используется
только при наличии линейной взаимосвязи между исследуемыми признаками.
В некоторых случаях тесноту связи случайных величин характеризуют
коэффициентом детерминации D, равным
D  r 2 100% .
Остальная часть (100 - D)% объясняется влиянием других неучтённых
факторов.
2.3.10.5. Достоверность коэффициента корреляции
Полученный любым из способов коэффициент корреляции является
выборочным, потому что он определен для ограниченной совокупности, которая
является выборкой из генеральной совокупности. Поэтому существует ошибка при
расчете
коэффициента
корреляции.
Эта
ошибка
-
расхождение
между
коэффициентом корреляции для генеральной совокупности и коэффициентом для
выборки. Эта ошибка определяется следующим образом:
1 r2
S
, если n  30,
n2
1 r2
S
n
если n  30
.
В приведенные выше формулы вместо r можно подставить  или Т4. Для
определения достоверности коэффициента корреляции используется критерий
Стьюдента.
Основные этапы проверки гипотезы о достоверности коэффициента
корреляции.
1.
Формулировка гипотезы, которую в дальнейшем необходимо принять или
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
126
отклонить. Но: r = 0.
2.
Определить расчетное значение t - критерия Стьюдента
t расч 
3.
r  n2
1 r
2
.
Определить табличное критическое значение tтабл. Для этого необходимо знать
 = n-2 - число степеней свободы и α - уровень значимости.
4.
Сравнить значения расчетного коэффициента с табличным
tpacч. tтабл.
5.
Сделать вывод. Статистическая гипотеза принимается или отвергается:

если tpacчет  tтабл (α, ), то полученный коэффициент корреляции достоверен, и
между исследуемыми показателями существует статистическая связь с
вероятностью q =1- α;

если tpacчет< tтабл, то полученный коэффициент корреляции недостоверен, и
между исследуемыми показателями не существует взаимосвязи.
Пример. У группы спортсменов определяли результаты в беге на 100 м с
барьерами Xi (с) и прыжках в длину Yi (см) (табл. 2.14) Проверить, существует ли
корреляционная
связь
между
исследуемыми
признаками
и
определить
достоверность коэффициента корреляции.
Результаты приведены в таблице исходных данных.
Таблица 2.14.
Результаты бега и прыжка
№ п/п
1
2
3
4
5
6
7
8
9
Xi, с
13,68
13,34
13,75
13,51
13,53
13,7
13,45
13,72
13,61
Yi, см
630
683
625
638
642
635
675
606
622
№ п/п
10
11
12
13
14
15
16
17
18
Xi, с
13,84
13,91
13,45
13,5
13,6
13,35
13,42
13,8
13,5
Yi, см
612
602
650
665
655
675
660
600
655
Решение:
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
127
1.
Построим
корреляционное
предварительный
вывод
поле
(диаграмму
относительно
связи
рассеяния)
между
и
сделаем
исследуемыми
признаками.
Рис. 2.18. Корреляционное поле
Предварительный вывод: cвязь между показателями результатов в беге на 100
м с барьерами Xi (с) и прыжками в длину Yi (см):

линейная;

отрицательная;

сильная.
2.
Рассчитаем парный линейный коэффициент корреляции Бравэ – Пирсона,
предварительно рассчитав основные статистические показатели двух выборок.
Для их расчёта составим табл. 2.15.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
128
Таблица 2.15
Вспомогательная таблица для расчета коэффициента
корреляции Бравэ – Пирсона
№
Xi, с
Yi, см
Xi  X
Yi  Y
X
i

 X Yi  Y
 X
i
X
 Y  Y 
2
2
i
1
13,68
630
0,09
-10,56
-1
0,0081
111,5
2
13,34
683
-0,25
42,44
-11
0,0625
1801
№
Xi, с
Yi, см
Xi  X
Yi  Y
X
i

 X Yi  Y
 X
i
X
 Y  Y 
2
2
i
3
13,75
625
0,16
-15,56
-3
0,0256
242
4
13,51
638
-0,08
-2,56
0,2
0,0064
6,55
5
13,53
642
-0,06
1,44
-0,1
0,0036
2,07
6
13,7
635
0,11
-5,56
-0,6
0,0121
30,91
7
13,45
675
-0,14
34,44
-5
0,0196
1186
8
13,72
606
0,13
-34,56
-5
0,0169
1194,4
9
13,61
622
0,02
-18,56
-0,4
0,0004
344,5
10
13,84
612
0,25
-28,56
-7,14
0,0625
815,67
11
13,91
602
0,32
-38,56
-12,4
0,1024
1487
12
13,45
650
-0,14
9,44
-1,32
0,0196
89
13
13,5
665
-0,09
24,44
-2,2
0,0081
597,3
14
13,6
655
0,01
14,44
0,1444
0,0001
208,5
15
13,35
675
-0,24
34,44
-8,3
0,0576
1186
16
13,42
660
-0,17
19,44
-3,3
0,0289
377,9
17
13,8
600
0,21
-40,56
-9
0,0441
1645
18
13,5
655
-0,09
14,44
-1,3
0,0081
208,5
n=18
Х 
13,59
Y
-71
0,4866
11534
640,56
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
129
n
 ( xi  x)
x = i 1
2
n 1
n
 ( yi  y)
y = i 1

0,4866
 0,17 ,
17

11534
 26 ,
17
2
n 1
 X  X Y  Y 
n
r
i 1
i
i
n x y

 71
 0,9 .
18  0,17  26
Полученное значение коэффициента корреляции позволяет подтвердить
предварительный вывод и сделать окончательное заключение – связь между
исследуемыми признаками:
 линейная;
 отрицательная;
 сильная.
3.
Вычислим коэффициент детерминации:
D  r 2 100%  0,81100%  81% .
Следовательно, только 81% взаимосвязи результатов в беге на 100 м с барьерами и в
прыжке в длину объясняется их взаимовлиянием, а остальная часть, т. е. 19 %
объясняется влиянием других неучтённых факторов.
4.
Определим достоверность коэффициента корреляции.

Предположим, что связь между результатом в беге на 100 м и прыжком в
длину отсутствует (Но: r=0).
r  n2

Находим t табл = 2,12 для α = 0,05 и  = n - 2 = 16.
1   0,9 
2

0,9  4
 8,18 .
0,44
t расч 
1 r2

0,9  18  2

Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
130

tрасчет > tтабл (8,18 > 2,12).
Вывод: существует сильная, отрицательная статистически достоверная
(р=0,95) связь между бегом с препятствиями на дистанцию 100 м и прыжком в
длину. Это означает, что с улучшением результата в прыжке в длину уменьшается
время пробега дистанции 100 м.
2.3.10.6. Корреляционное отношение η
Как было отмечено выше, степень связи оценивается по формуле Бравэ Пирсона только при линейной форме зависимости. Если связь нелинейная, то
коэффициент корреляции Бравэ - Пирсона нельзя использовать. При нелинейной
форме зависимости для оценки степени связи рассчитывают корреляционное
отношение. Причём, при линейной взаимосвязи значение корреляционного
отношения по абсолютной величине совпадает с коэффициентом корреляции.
Обычно для одной зависимости вычисляют два значения корреляционного
отношения
 X / Y и Y / X .
Только в случае сильной линейной взаимосвязи они равны между собой и
равны коэффициенту корреляции r.
При небольшом числе измерений используют формулы
X /Y
(x  X )  (x  X )
(x  X )
 
 1 
 (x  X )
 (x  X )
Y / X
(y Y )  (y Y )
(y Y )
 
 1 
(y Y )
(y Y )
2
2
Y
2
2
2
2
X
2
2
y
X
2
,
2
,
где X Y и Y X - групповые средние арифметические показателей X и Y .
Корреляционное отношение может принимать значения от 0 до 1, т. е.
0    1.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
131
2.3.11. Регрессионный анализ
При изучении корреляционной связи было отмечено, что коэффициент корреляции
показывает степень связи, направление связи, форму связи между двумя
исследуемыми выборками, но он не дает возможности определить, как
количественно меняется одна величина по мере изменения другой.
Регрессия - это зависимость среднего значения случайной величины У от величины
Х и, наоборот, зависимость среднего значения случайной величины Х от величины У,
описанная
уравнением,
полученная
путем
построения
эмпирической или
теоретической линии регрессии и с помощью вычисления коэффициентов
регрессии. Существует линейная и нелинейная взаимосвязь между исследуемыми
показателями, следовательно, можно составить уравнение линейной или нелинейной
регрессии.
Существует зависимость между двумя показателями и несколькими. И уравнения
регрессии могут быть множественными.
В
выборе
регрессионной
модели
помогает
графическое
представление
экспериментальных данных в виде диаграммы рассеяния или корреляционного поля.
По выборочным данным составляется корреляционное поле, на которое наносятся
также средние значения У в каждом интервале изменения Х. Эти точки соединяются
между собой ломаной линией, по виду которой можно судить, как в среднем
меняется У в зависимости от изменения Х. Такая ломаная линия называется
эмпирической линией регрессии. Затем ломаную линию аппроксимируют прямой.
При линейной зависимости можно сделать проще: заменить корреляционный эллипс
прямой линией.
2.3.11.1. Линейная регрессия
Линейная регрессия, или линейная форма связи между случайными
переменными занимает особое место в теории корреляции. При такой форме связи У
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
132
есть линейная функция от Х, т. е.
У = а + bХ,
где а и b – коэффициенты регрессии, Х – независимая случайная переменная.
Линейная
регрессия
обусловливается
двумерным
нормальным
законом
распределения пары случайных величин (Х, У).
Параметры
в
уравнении регрессии,
т.
е.
коэффициенты регрессии,
определяются по способу наименьших квадратов. Суть его заключается в том, чтобы
сумма квадратов отклонений измеренных величин от истинного значения была бы
минимальной.
В случае линейной регрессии за теоретическое значение принимается
значение У, получаемое по известной формуле, т. е. ищется такая прямая линия,
сумма квадратов отклонений измеренных Уi от которой была бы минимальной.
Значения коэффициентов регрессии определяются решением системы
нормальных уравнений.
2.3.11.2. Расчёт коэффициентов уравнений линейной регрессии
Как уже было сказано выше, в случае линейной зависимости уравнение
регрессии является уравнением прямой линии.
Различают
У = а у/х +bу/хХ - прямое уравнение регрессии;
Х = а х/у+bх/у Y - обратное уравнение регрессии.
Здесь а и b – коэффициенты, или параметры, которые определяются по
формулам. Значение коэффициента b вычисляется
by / x  r 
y
;
x
bx / y  r 
x
.
y
Из формул видно, что коэффициенты регрессии bу/х и bх/у имеют тот же знак,
что и коэффициент корреляции, размерность, равную отношению размерностей
изучаемых показателей Х и У, и связаны соотношением:
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
133
by / x  bx / y  r 2 .
Для вычисления коэффициента а достаточно подставить в уравнения
регрессии средние значения коррелируемых переменных
a y / x  Y  by / x  X ;
a x / y  X  bx / y  Y .
График теоретических линий регрессии (рис. 2.19) имеет вид:
Регрессия
X на Y
(обратное уравнение)
Y
Регрессия
Y на X
(прямое уравнение)
Y
α
β
X
0
X
Рис. 2.20. Теоретические линии регрессии
Из приведённых выше формул легко доказать, что угловые коэффициенты
прямых регрессии равны соответственно
tg  r
y
;
x
tg 
1y
.
r x
Так как r  1 , то tg  tg . Это означает, что прямая регрессии Y на Х
имеет меньший наклон к оси абсцисс, чем прямая регрессии Х на Y.
Чем ближе r к единице, тем меньше угол между прямыми регрессии. Эти
прямые сливаются только тогда, когда r  1 .
При r  0 прямые регрессии описываются уравнениями Y  Y , X  X .
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
134
Таким образом, уравнения регрессии позволяют:

определить, насколько изменяется одна величина относительно другой;

прогнозировать результаты.
Пример:
Рассчитать коэффициенты уравнения регрессии для зависимости между бегом
с препятствиями на дистанцию 100 м и прыжком в длину, построить линии
регрессии.
Воспользуемся результатами расчёта, приведёнными выше:
x = 0,17 ; y = 0,26 ; r  0,9 ; Х  13,59; Y  6,41,
by / x  r 
y
0,26
 0,9 
 1,4 ,
x
0,17
a y / x  Y  by / x  X  6  1,4 13,6  25 ,
Y=ау/х +bу/хХ;
Y=25 -1,4Х
bx / y  r 
- прямое уравнение регрессии;
x
0,17
 0,9 
 0,6 ,
y
0,26
ax / y  X  bx / y  Y  13,6  0,6  6  10 ,
Х=а х/у+bх/у Y; Х=10+0,6Y - обратное уравнение регрессии.
Для проверки правильности расчётов достаточно подставить в прямое
уравнение среднее значение Х и определить значение Y. Полученное значение Y
должно быть близким или равным среднему значению Y . При подстановке в
обратное уравнение регрессии среднего значения Y , полученное значение Х должно
быть близким или равным среднему значению Х . Для графического построения
теоретических линий регрессии необходимо иметь две точки из диапазона значений
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
135
Х и Y. Координаты точки пересечения прямого и обратного уравнений регрессии
( Х ; Y ).
Вывод: зная результат бега с препятствиями на дистанцию 100 м, по прямому
уравнению регрессии, можно теоретически определить результат прыжка в длину; и
наоборот, зная результат прыжка в длину по обратному уравнению регрессии,
можно определить результат бега с препятствиями.
2.3.11.3. Способ расчёта средней квадратической ошибки
регрессионной зависимости и её роль в оценке надёжности
уравнения регрессии
При изучении конкретных статистических зависимостей одни признаки
выступают в качестве факторов, обусловливающих изменение других признаков.
Признаки
этой
первой
группы
иногда
называют
признаками-факторами
(факторными признаками), а признаки, которые являются результатом влияния этих
факторов, называют результативными.
При изучении статистических связей посредством уравнения регрессии может
оказаться, что не все фактические значения результативного признака лежат на
линии регрессии. Иногда рассеяние точек корреляционного поля настолько велико,
что для принятия решения о существенности влияния одной случайной величины на
другую нет смысла пользоваться уравнением регрессии, так как погрешность в
оценке анализируемого показателя будет чрезвычайно велика. В таких случаях для
всей совокупности наблюдаемых значений рассчитывается средняя квадратическая
ошибка уравнения регрессии S, которая представляет собой среднее квадратическое
отклонение фактических значений уi относительно значений, рассчитанных по
уравнению регрессии ŷi:
  y  yˆ 
n
S
i 1
2
i
nm
i
,
где S - средняя квадратическая ошибка уравнения регрессии;
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
136
уi - фактические значения результативного признака, полученные по данным
наблюдения;
ŷi
-
значения
результативного
признака,
рассчитанные
по
уравнению
корреляционной связи и полученные путем подстановки значений факторного
признака х в уравнение регрессии ŷ = а+bх;
m - число параметров в уравнении регрессии. Заметим, что в данной формуле сумма
квадратов отклонений у от ŷ делится на число степеней свободы (п— т), поскольку
мы связали себя т степенями свободы в оценке теоретических значений
результативного признака по уравнению регрессии c m параметрами. В случае
линейного уравнения регрессии т = 2.
Для того чтобы выяснить, велика или мала полученная величина S,
необходимо сравнить величину S co средним квадратическим отклонением
результативного признака σ. Если при этом окажется S < σ, то использование уравнения
регрессии является целесообразным.
Чем меньше рассеяние эмпирических точек вокруг регрессионной прямой, тем
меньше средняя квадратическая ошибка уравнения. Таким образом, величина S
служит показателем значимости и полезности прямой, выражающей соотношение
между двумя признаками.
2.3.11.4. Множественная регрессия
Часто одна случайная величина зависит от ряда других переменных. Пусть,
например, случайная величина У зависит от х1, х2, …, хп. В этом случае для изучения
связи между переменными используют видоизменённый метод, применяемый для
двух случайных величин, и уравнение связи составляют между зависимой
случайной величиной У и п переменными х. Условно будем считать, что связь эта
линейна и форма её определяется следующим уравнением регрессии:
yx   a  b1 x1  b2 x 2 ...  bn xn ,
где х1, х2, …, хп – переменные; а, b1, ..., bп - неизвестные параметры, называемые
коэффициентами регрессии.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
Метод,
позволяющий
по
137
выборке,
которая
содержит
отдельные
наблюдавшиеся значения переменных у и х1, х2,…, хп, оценить значение неизвестных
параметров а, b1,…, bп, называется множественной регрессии. Приведенное
выражение
называется
уравнением
множественной
линейной
регрессии.
Коэффициенты уравнения регрессии так же, как и в случае двух признаков,
определяют исходя из принципа наименьших квадратов.
Частным случаем множественной регрессии является полиномиальная
регрессия, выражаемая полиномом n-й степени:
yx   a  b1 x  b2 x 2  ...  an x n .
Раздел 3. Архитектура и программные средства
персонального компьютера
Тема 3.1. Аппаратная конфигурация компьютера
3.1.1. История развития вычислительной техники
3.1.2. Принципы Джона фон Неймана
3.1.3. Поколения ЭВМ
3.1.4. Принцип открытой архитектуры
3.1.5. Функциональный состав персонального компьютера
3.1.6. Процессор – устройство обработки информации
3.1.7. Память – устройство хранения информации
3.1.8. Единицы измерения информации
3.1.9. Внешние устройства компьютера
3.1.1. История развития вычислительной техники
1642 г. – французский философ, физик Блез Паскаль изобрел механическое
устройство, выполняющее сложение чисел (1645 г. - "Паскалево колесо").
1673 г. – Готфлид Лейбниц разработал устройство для выполнения
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
138
арифметических действий.
1823 г. - Чарлз Бэбидж разработал проект вычислительной машины из трех
частей (программно-управляемая машина): склад (хранение чисел), фабрика
(выполнение операций над числами), устройство управления с помощью перфокарт.
Но из-за низкого уровня развития техники в то время ему не удалось реализовать
свой проект.
1943 г. – Говард Эйкен построил машину «Марк-1» на фирме IBM.
1945
г.
–
математик
Джон
Фон
Нейман
разработал
принципы
функционирования вычислительных машин, используемые и при создании
современных компьютеров.
3.1.2. Принципы Джона фон Неймана
1.
Арифметическо-логическое
устройство
выполняет
арифметические
и
логические операции.
2.
Устройство управления руководит процессом, координирует работу всех
устройств.
3.
Оперативная память хранит данные, программы, промежуточные результаты.
4.
Устройства ввода-вывода – клавиатура, мышь, монитор, принтер и др. вводят
данные в вычислительную машину и выводят из нее.
5.
1949 г. – английский исследователь Морис Уилкс создал первый компьютер на
основе этих принципов.
1951 г. - изобретена в СССР МЭСМ.
1952-1953 гг. - изобретена в СССР БЭСМ.
1953 г. – разработаны и изготовлены ЭВМ «Урал», «Минск», «Киев».
1971 г. – выпущен первый микропроцессор (США).
1981 г. - первый ПК фирмы IBM.
1981-1987 гг. – компьютеры IBM PC XT, PC AT.
1993 г. - первый процессор класса Pentium.
Персональные компьютеры появились в начале 80-х годов в США. В эти годы
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
139
производилось большое количество типов ЭВМ – от суперЭВМ до мини-ЭВМ.
Первая модель ПЭВМ фирмы IBM появилась в 1981 г. и называлась IBM PC
(16-разрядный процессор Intel 8086), затем появились IBM PC XT, IBM PC AT
(1984г., с процессором 80286) и т.д.
С 1982 г. производством ПК стали заниматься различные фирмы во многих
странах мира.
3.1.3. Поколения ЭВМ
Покол
Период
ение
времени
I
Элементная база
начало 50-х гг. электронные
лампы
Характеристики
низкая надежность, большие
габариты, высокое
энергопотребление,
программирование в кодах
II
конец 50-х -
полупроводники
начало 60-х гг.
повысилась надежность,
уменьшилось
энергопотребление, первые
алгоритмические языки
III
60-е гг.-начало интегральные
резкое уменьшение габаритов,
70-х гг.
повышение надежности и
схемы
быстродействия
IV
конец 70-х -
большие
начало 80-х гг. интегральные
V
наши дни
уменьшение габаритов,
повышение надежности и
микросхемы
быстродействия
сверхбольшие
новое поколение
интегральные
интеллектуальных систем,
микросхемы
концепция сетевых вычислений
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
140
3.1.4. Принцип открытой архитектуры
Под архитектурой компьютера принято понимать его логическую структуру и
ресурсы, которые могут быть доступны пользователю. В настоящее время
подавляющее большинство компьютеров в нашей стране, да и не только, являются
так называемыми IBM-совместимыми компьютерами. Согласно проводимой фирмой
идеологии, компьютер не является единым неразъемным устройством, а собирается
из независимо изготовленных комплектующих. IBM-совместимые компьютеры
построены на принципе открытой архитектуры, позволяющей достаточно легко
подключать любые периферийные устройства. Первый компьютер, построенный на
этом принципе, был создан фирмой DEC (Digital Equipment Corporation) в начале
семидесятых годов прошлого века.
В соответствии с принципом открытой архитектуры все устройства
компьютера, независимо от своего предназначения, подключаются к общей шине
передачи информации. Для подключения разнообразных устройств используется
единый стандарт шины, описание которого является доступным и свободно
распространяемым документом. Руководствуясь им, любые фирмы могут заниматься
разработкой и производством периферийного оборудования и устройств для их
подключения к шинам. Схема компьютера открытой архитектуры с одной общей
системной шиной приведена на рис. 3.1.
центральный
процессор
запоминающее
устройство
устройство
системная шина
монитор
клавиатура
мышь
др.
устройство
Рис. 3.1. Архитектура компьютера с одной общей шиной
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
141
Управление всем компьютером осуществляется центральным процессором. Он
управляет и системной шиной, предоставляя всем другим устройствам время для
обмена данными. Запоминающее устройство, предназначенное для
хранения
выполняемых команд и обрабатываемых данных, по уровню своих сигналов
согласовано с уровнем сигналов системной шины. Все периферийные устройства
(дисководы, клавиатуры, манипуляторы типа мыши, принтеры и т.д.) подключаются
к шине не непосредственно, а через специальные устройства – контроллеры,
поскольку уровни их сигналов отличаются от уровней сигналов шины. Функции
контроллера заключаются в согласовании сигналов периферийного устройства с
сигналами шины и управлении устройством по командам, поступающим от
центрального процессора. Подключение контроллеров к шине осуществляется с
помощью специальных устройств, называемых портами ввода-вывода, каждому из
которых присвоен уникальный номер. Обращение центрального процессора к порту
производится по номеру порта, аналогично обращению к ячейке памяти.
Определение, к какому объекту обращается процессор - к порту ввода-вывода
контроллера внешнего устройства или же к ячейке памяти, осуществляется с
помощью передачи сигналов по специальным линиям управления.
Существенный недостаток архитектуры с одной общей шиной связан с разной
скоростью и объемами обмена данных у различных устройств. Все они подключены
к общей шине, поэтому устройства с малой скоростью обмена задерживают работу
быстродействующих.
Этот
недостаток
проявился
при
повышении
производительности внешних устройств и возрастании потоков обмена данными
между ними. В целях увеличения производительности компьютера для подключения
быстродействующих устройств была введена дополнительная локальная шина.
Контроллеры стандартных устройств конструктивно находятся на одной плате
с центральным процессором и запоминающим устройством, называемой системной,
или материнской. В случае, если устройство не является стандартным, его
контроллер располагается на отдельной плате, вставляемой в специальные разъемы
на материнской плате, называемые слотами расширения.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
142
3.1.5. Функциональный состав персонального компьютера
С первым появлением персональные компьютеры приобрели огромную
популярность, которая объясняется следующими достоинствами: относительно
невысокая стоимость, принцип открытой архитектуры, высокая надежность.
Основные устройства, необходимые для работы компьютера, определяются
теми операциями, выполнение которых эти устройства должны обеспечивать.
Функциональный состав персонального компьютера
Операции с
Устройства ПК
информацией
ввод информации
клавиатура, мышь, сканер
хранение
оперативная, постоянная и дисковая память
обработка
процессор
вывод
дисплей, принтер
В минимальный состав аппаратуры, необходимый для работы персонального
компьютера, входит: системный блок, монитор и клавиатура.
Системный блок содержит следующие устройства:

блок питания;

системную (материнскую плату);

дисковод гибких магнитных дисков НГМД;

дисковод жестких магнитных дисков НЖМД;

CD-дисковод для компакт-дисков;

адаптеры (контроллеры, платы, карты) для подключения различных устройств
компьютера;

устройство охлаждения;
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
143

соединительные шлейфы.
На системной плате размещаются:

микропроцессор;

чипсет – набор микросхем, обеспечивающий взаимодействие компонент
компьютера;

оперативная (ОЗУ, RAM) память;

постоянная (ПЗУ, ROM) память;

разъемы для подключения контроллеров устройств компьютера.
К системной плате подключаются:

видеокарта (графический ускоритель, графический адаптер) предназнач ена
для отображения информации на экране монитора;

звуковая карта (аудиокарта) позволяет прослушивать и записывать различные
звуки. Для прослушивания надо подключить к аудиокарте акустические
системы или наушники. Для записи звука в память ПК можно подключить к
звуковой плате микрофон;

сетевая карта (сетевой адаптер) предназначена для связи двух и более
компьютеров. Следует отметить, что видеокарта, аудиокарта и сетевая карта
могут быть выполнены в виде самостоятельных плат или же быть
встроенными в материнскую плату;

TV/FM – тюнер позволяет использовать монитор компьютера в качестве
телевизора и просматривать
на нем телевизионные передачи либо
видеоматериалы, воспроизводимые с помощью видеомагнитофона или
видеокамеры. Некоторые из этих устройств могут принимать передачи в FM –
диапазоне. TV/FM – тюнер может быть как внутренним, так и внешним.
3.1.6. Процессор – устройство обработки информации
Микропроцессор - это центральный блок компьютера, осуществляющий
управление работой всех блоков машины и выполнение программ.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
144
Назначение процессора: выполняет математические и логические операции
над информацией и команды управления устройствами компьютера.
Основные характеристики процессора:

тип (модель);

тактовая частота – это количество операций, выполняемых процессором за
одну секунду. Тактовая частота влияет на скорость вычислений, измеряется в
МГц;

разрядность – это количество бит (двоичных разрядов), обрабатываемых
процессором за один такт;

размер КЭШа.
КЭШ (cache) – быстрая сверхоперативная память процессора, в которой
хранятся наиболее часто используемые участки оперативной памяти.
Процессоры выпускают фирмы Intel и AMD.
Типы процессоров и соответствующие им тактовые частоты представлены в
таблице.
Основные типы процессоров и их характеристики
Тип процессора
Тактовая частота, МГц
80386
16,20,25,33
80486
25,33,50
Pentium
60,66,90,100,120,133,166
Pentium MMX
60,66,…,133,166,200,233
Pentium PRO
166,200
Celeron
333,366,400,500…1000
Pentium II
233,266,300,400
Pentium III
450,500,550,600
Pentium IV
более 2000
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
145
В состав микропроцессора входят:

устройство управления формирует и подает во все блоки ПК сигналы
управления;

арифметико-логическое
устройство
предназначено
для
выполнения
арифметических и логических операций над числовой и символьной
информацией;

микропроцессорная память предназначена для кратковременного хранения
записи и выдачи информации непосредственно в ближайшие такты работы
машины, используемой в вычислениях. Используется для обеспечения
высокого быстродействия машины, т.к. ОП не всегда обеспечивает скорость
записи, поиска и считывания информации, необходимую для эффективной
работы быстродействующего микропроцессора;

интерфейсная система микропроцессора предназначена для сопр яжения с
другими устройствами ПК. Интерфейс – это совокупность средств сопряжения
и связи устройств ПК, обеспечивающая эффективное взаимодействие;

генератор тактовых импульсов генерирует последовательность электрических
импульсов; частота генерируемых импульсов определяет тактовую частоту
компьютера. Промежуток времени между соседними импульсами определяет
время одного такта работы машины или просто такт работы машины.
3.1.7. Память – устройство хранения информации
Классификация устройств хранения информации:
1)
по способу хранения информации – магнитоэлектрические, оптические,
магнитооптические и др.;
2)
по виду носителя информации – накопители на гибких и жестких магнитных
дисках,
оптических
и
магнитооптических дисках,
твердотельные элементы памяти;
магнитной ленте,
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
3)
146
по способу организации доступа к информации – накопители прямого,
последовательного и блочного доступа;
4)
по размеру используемого носителя информации;
5)
по типу устройства хранения информации бывают встраиваемые (внутренние),
внешние, автономные, мобильные (носимые) и др.
Накопитель информации – устройство записи, хранения и воспроизведения
информации; носитель информации – устройство, на которое производится запись
информации (диск, лента, твердотельный носитель).
Память подразделяется на оперативную, постоянную и дисковую.
Оперативная (ОП, ОЗУ, RAM) память предназначена для оперативной записи,
кратковременного хранения и считывания информации во время работы
компьютера. В оперативной памяти находятся обрабатываемые данные и
программы, выполняемые в данный момент.
Основные характеристики ОП: высокое быстродействие и небольшая емкость.
Чем больше объем оперативной памяти, тем выше скорость обработки информации,
т.к. меньше обращений к дисковой памяти.
Постоянная (ПЗУ, ROM) память предназначена для хранения неизменяемой
программной и справочной информации и позволяет ее только считывать.
К дисковой памяти относятся гибкие магнитные диски, жесткий магнитный
диск и компакт-диски. Запись информации на диски и чтение с них обеспечивают
соответствующие дисководы.
Дисковод гибких магнитных дисков НГМД предназначен для записи и чтения
данных на гибкие магнитные диски. Дисковод представляет собой карман для
дискет, двигатель для вращения дискет и головки записи-чтения информации.
Гибкие
магнитные
диски
(дискеты)
предназначены
для
записи,
чтения,
долговременного хранения информации вне компьютера, перемещения информации
между компьютерами. На такие магнитные диски магнитный слой наносится на
гибкую основу. Дискеты имеют формат (размер) 3,5 дюйма и емкость 1,44 Мбайта.
Дисковод жестких магнитных дисков НЖМД предназначен для записи и
чтения данных на жесткий магнитный диск. Жесткий магнитный диск (винчестер,
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
147
hard disk) находится в системном блоке и предназначен для долговременного
хранения информации. Винчестер представляет собой дисковод с пакетом дисков,
покрытых слоем магнитного материала, и блок считывающих головок. Винчестер
обладает значительно большей емкостью и высокой скоростью записи-чтения
информации.
CD-дисковод для компакт-дисков предназначен для записи и чтения данных на
компакт-дисках. Компакт-диски бывают: CD-R - компакт-диск с возможностью
однократной записи; CD-RW - компакт-диск с возможностью многократной записи.
Компакт-диски обладают достаточно большой скоростью работы, высокой емкостью
(650, 700 Мбайт) и надежностью хранения данных.
3.1.8. Единицы измерения информации
Рассмотренное ранее свойство полноты информации подразумевает, что
информацию можно измерять количественно. Для того чтобы понять, как
определить количество информации в данном конкретном сообщении, рассмотрим
связь понятий информация, неопределенность и возможность выбора. Решение
разнообразных задач, выбор и принятие решений происходит в процессе
постепенного устранения неопределенностей, содержащихся в исходных условиях,
на основе получения и использования информации об окружающем мире.
Получение человеком информации приводит к уменьшению неопределенности,
снижая тем самым число возможных вариантов выбора, а наличие полной
информации позволяет однозначно решить поставленную задачу, не оставляя
вариантов выбора. Однако одно и то же сообщение несет для разных людей разное
количество информации, поскольку уровень новизны и ценности полученной
информации оказывается для них различным. Например, если передаваемые
сведения не относятся к рассматриваемому вопросу, или же были уже известны
человеку, то после их получения неопределенность остается прежней, и,
следовательно, информация не была получена – ее количество равно нулю. Если же
после получения сообщения неопределенность снята и достигнута полная ясность в
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
148
рассматриваемом вопросе, то полученная информация является исчерпывающей и ее
количество равно исходной неопределенности. Исходя из сказанного, можно
определить количество информации как числовую характеристику информации,
отражающую ту степень неопределенности, которая пропадает в результате
получения сообщения.
Базовая единица измерения информации получила название бит (bit) –
аббревиатура английских слов binary digit, переводящихся как двоичная цифра. За
один бит, принято количество информации, содержащееся в сообщении о событии,
имеющем два равновозможных исхода. Иными словами, бит, равен количеству
информации в ответе на вопрос, допускающий лишь односложный ответ - «да» или
«нет». При получении количества информации в один бит число вариантов выбора
или, иными словами, неопределенность, уменьшается в два раза.
При практическом применении оказывается, что бит, является слишком
маленькой единицей измерения количества информации. Поэтому в информатике
часто используется единица измерения, получившая название байт (byte), которая
равна 8 битам. Использование одного бита позволяет выбрать один вариант из двух
возможных, а байт - 1 из 256 (28). Помимо этого, для измерения количества
информации используются более крупные единицы:
1 Кбайт (один килобайт) = 2 10 байт = 1024 байта;
1 Мбайт (один мегабайт) = 2 10 Кбайт = 1024 Кбайта;
1 Гбайт (один гигабайт) = 2 10 Мбайт = 1024 Мбайта.
Использование битовой (двоичной) единицы информации, а не какой-либо
другой связано с аппаратным устройством компьютеров. Основные элементы его
памяти базируются на двоичном принципе: оперативная память – есть заряд на
обкладках конденсатора или нет, дисковая – намагничена данная область или нет.
3.1.9. Внешние устройства компьютера
К внешним устройствам ввода-вывода данных относятся монитор, клавиатура,
мышь, принтер, сканер, стример, графопостроитель и др.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
149
Монитор предназначен для вывода информации на
экран. Изображение
состоит из точек (пикселей).
Основные характеристики монитора:

размер диагонали монитора; чем больше, тем лучше. Стандартные размеры 14, 15, 17, 19, 21 дюйм;

разрешающая способность - количество пикселей по горизонтали и вертикали
на экране (чем больше, тем лучше);

величина зерна - размер точки на экране; чем меньше, тем качественнее
изображение;

частота обновления кадров - влияет на утомляемость человека.
Типы мониторов:
1.
Мониторы на базе электронно-лучевой трубки. Принцип действия мало
отличается от принципа действия обычного телевизора и заключается в том,
что испускаемый катодом (электронной пушкой) пучок электронов, попадая на
экран, покрытый люминофором, вызывает его свечение. Любое изображение
на экране монитора ПК состоит из множества дискретных точек люминофора,
представляющих собой минимальный элемент изображения (растра) и
называемых «пикселями». Такие мониторы называют растровыми.
2.
ЖК-дисплеи. Экран состоит из двух стеклянных пластин, между которыми
находится масса, содержащая жидкие кристаллы, которые могут изменять
свою оптическую структуру и свойства в зависимости от приложенного к ним
электрического разряда. Это означает, что кристалл под действием
электронного поля изменяет свою ориентацию, тем самым кристаллы по разному отражают свет и делают возможным отображение информации.
Недостатки: быстрые изменения картинок почти невозможны (плохо для игр),
изображение и резкость очень сильно зависят от угла наблюдения экрана
пользователем, оптимальное качество достигается только при фронтальном
размещении такого дисплея.
3.
Газоплазменные дисплеи. Они имеют стеклянные пластины, между которыми
находятся не кристаллы, а газовая смесь, которая высвечивается в
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
соответствующих
местах
150
под действием
электрических
импульсов.
Недостатком таких мониторов является невозможность их использования в
переносных компьютерах с аккумуляторным и батарейным питанием из-за
большого потребления тока.
Управляют работой монитора, и выводит информацию на экран видеокарты
(видеоадаптеры). Они располагаются внутри системного блока в специальном
разъеме и обеспечивают связь компьютера и монитора.
Клавиатура предназначена для ввода данных и команд в компьютер.
Выделяют три зоны клавиш на клавиатуре:

буквенно-цифровые
клавиши,
функциональные
клавиши
(F1-F12),
управляющие клавиши (Enter, Esc, Alt, Shift, Ctrl, Tab, CapsLock, BackSpace и
др.);

клавиши управления курсором, Insert, Delete, Pause и др.;

цифровая клавиатура (справа).
Манипулятор мышь – устройство ввода команд и создания графических
изображений. Бывает: с шариком, беспроводная (сигналы передаются с помощью
миниатюрного радиопередатчика), оптическая использует луч света вместо шарика.
Принтеры используются для вывода информации на бумагу. Принтеры
бывают:

матричные – изображение формируется механическим способом при помощи
печатающей головки с иголочками, которые ударяют через красящую ленту.
Качество и скорость печати низкие, шумные, простота обслуживания,
нетребовательны к качеству бумаги;

струйные – изображение формируется при помощи чернил, выдуваемых через
сопла печатающей головки. Бывают цветные и черно-белые. Высокое качество
печати, скорость печати средняя, приспособлены для многоцветной печати,
низкая стоимость, требуют бумагу и чернила высокого качества;

лазерные – изображение формируется при помощи лазерного луча, красящего
порошка и светочувствительного барабана. Бывают цветные и черно-белые.
Высокое качество, скорость печати и стоимость.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
151
Сканеры используют для считывания графической и текстовой информации в
память компьютера. Сканеры бывают:

планшетные напоминают настольные ксероксы, только ксерокс выдает копию
на бумагу, а сканер записывает ее в память ПК;

ручные по внешнему виду напоминают гигантскую мышь, для сканирования
надо перемещать устройство по поверхности бумаги;

роликовые протаскивают бумагу с информацией через систему валиков;

слайд-сканеры – специализированные устройства для ввода изображений с
фотопленки;

портативные. Информация вводится построчно.
Сканер вводит изображение в ПК как множество точек, указав для каждой
координаты и номер цвета. По этим данным выводится на монитор изображение.
Если же с помощью сканера считывать и вводить текст, то потребуются специальные
программы, которые преобразуют множество точек изображения, представляющего
текст, в последовательность символов. Наиболее популярная программа по переводу
сканированных изображений в текст – Finereader. Она выдает символьное
представление текста, позволяет исправить ошибки ввода, а затем включает текст в
редактор Word.
Стример предназначен для резервной записи информации на магнитную ленту.
Графопостроитель (плоттер) предназначен для вывода чертежей на бумагу.
Модем используется для сопряжения ПК с телефонной линией, он
воспринимает сигналы от ПК и преобразует их в пригодную для телефо нной сети
форму и наоборот. Бывают внешние (отдельные устройства, подключаемые к
системному блоку) и внутренние (специальная плата в системном блоке). Основная
характеристика модема – скорость передачи, которая выражается количеством бит
информации, передаваемых им за 1 с (бит/с).
Трекбол – разновидность мыши, перемещение указателя осуществляется
вращением специального шарика.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
152
Тема 3.2. Алгоритм и алгоритмические структуры
3.2.1. Этапы решения задач на компьютере
3.2.2. Математическая модель
3.2.3. Алгоритм. Характеристики алгоритмов. Типы алгоритмов. Способы записи
алгоритмов
3.2.4. Отладка программы
3.2.5. Тестирование
3.2.6. Сопровождение программы
3.2.1. Этапы решения задач на компьютере
Пользователь использует возможности компьютера для решения самых
разнообразных задач. В настоящее время программное обеспечение настолько
развито, что в распоряжении пользователя имеются различные программы, с
помощью которых решаются любые информационные задачи.
Процесс
решения
прикладных
задач
на
компьютере
состоит
последовательности определенных этапов.
Этапы решения задач на компьютере:
1.
2.
Постановка задачи и ее содержательный анализ:

сбор информации о задаче;

формулировка условия задачи;

определение конечных целей решения задачи;

определение формы выдачи результатов;

описание данных (их типов, диапазонов величин, структуры и т.д.).
Анализ и исследование задачи, модели:

анализ существующих аналогов задачи;

анализ технических и программных средств;

разработка математической модели;

разработка структур данных.
из
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
3.
4.
5.
6.
153
Разработка алгоритма на основе выбранного метода:

выбор метода проектирования алгоритма;

выбор формы записи алгоритма (блок-схемы и др.);

выбор тестов и метода тестирования;

проектирование алгоритма.
Программирование:

выбор языка программирования;

уточнение способа организации данных;

запись алгоритма на выбранном языке программирования.
Тестирование и отладка программы:

синтаксическая отладка;

отладка семантики и логической структуры;

тестовые расчеты и анализ результатов тестирования;

совершенствование программы.
Анализ результатов решения задачи и уточнение, в случае необходимости,
математической модели с повторным выполнением этапов 2-5.
7.
Сопровождение программы:

доработка программы для решения конкретных задач;

составление документации к решенной задаче, к математической
модели, к алгоритму, к программе, к набору тестов, к использованию
программы.
3.2.2. Математическая модель
Математическая модель – это система математических соотношений – формул,
уравнений, неравенств и т.д., отражающих существенные свойства объекта или
явления. Чтобы описать явление, необходимо выявить самые существенные его
свойства, закономерности, внутренние связи, роль отдельных его характеристик.
Выделив наиболее важные факторы, можно пренебречь менее существенными.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
154
Наиболее эффективную математическую модель можно реализовать на
компьютере в виде алгоритмической модели – так называемого вычислительного
эксперимента.
Создавая математическую модель для решения задачи, нужно:

выделить предположения, на которых будет основываться математическая
модель;

определить, что считать исходными данными и результатами;

записать математические соотношения, связывающие результаты с исходными
данными.
3.2.3. Алгоритм. Характеристики алгоритмов. Типы алгоритмов. Способы
записи алгоритмов
Алгоритм – это точно определенная последовательность действий, которые
необходимо выполнить над исходной информацией для решения задачи.
Характеристики алгоритмов:

понятность;

правильность (адекватность);

дискретность. Выполнение алгоритма разбивается на последовательность
законченных действий (шагов);

определенность. Компьютер должен быть в состоянии выполнить каждую
команду алгоритма в строгом соответствии с ее назначением;

результативность (конечность). Исполнение алгоритма сводится к выполнению
конечного числа действий и всегда приводит к некоторому р езультату. В
качестве результата может быть факт, что задача решений не имеет;

массовость (универсальность). Алгоритм решения задачи разрабатывается в
общем виде, так чтобы его можно было применить для целого класса задач,
различающихся лишь наборами исходных данных. В свойстве массовости
заключена основная практическая ценность алгоритма.
Типы алгоритмов:
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
155

линейный – алгоритм, в котором действия выполняются однократно
последовательно без проверки каких-либо условий при любых наборах
исходных данных;

разветвляющийся – алгоритм, в котором предусматриваются различные
варианты обработки информации в зависимости от изменения условий.
Предполагает однократное выполнение последовательности шагов, которая
определяется результатами проверки некоторого условия, т.е. з ависит от
обрабатываемой информации. Содержит одно или несколько условий и имеет
несколько ветвей обработки;

циклический – алгоритм, в котором отдельные операции или группы операций
выполняются несколько раз. Содержит один или несколько вложенных циклов,
обеспечивает многократное выполнение одной и той же последовательности
шагов тела цикла с изменяемыми данными.
Способы записи алгоритмов: словесный, формульный, графический (блок-
схема), табличный, программа.
Выполнение алгоритма всегда начинается с блока начала и заканчивается
блоком конца. В блоках ввода-вывода перечисляются переменные, значения которых
должны быть введены или выведены. В блоке условия (логическом блоке)
записывается условие, в результате проверки которого выбирается одна из двух
ветвей алгоритма, определяющая направление дальнейших вычислений. В блоке
вычисления (арифметическом блоке) содержится описание тех действий, которые
должны быть выполнены над объектами (вычисления и присвоения новых значений
переменным).
Обозначение основных графических элементов блок-схемы представлены на
рис. 3.2:
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
156
начало-конец
ввод-вывод
условие
вычисления
Рис. 3.2. Элементы блок-схемы
Процесс разработки программы состоит из этапов создания пр ограммы, ее
проверки и исправления. Практически невозможно составить программу без
ошибок. Даже, если программы была выполнена и выдала результаты, это не
означает, что программа правильно работает, в нем может быть большое количество
логических ошибок.
Проверка текста программы может происходить с помощью просмотра,
проверки и прокрутки с заданием некоторых исходных данных.
Отладка программы – это процесс поиска и устранения ошибок в программе,
производимый по результатам ее прогона на компьютере.
Тестирование – это испытание, проверка правильности работы программы.
3.2.4. Отладка программы
При отладке происходит локализация и устранение синтаксических ошибок и
явных
ошибок
кодирования.
В
процессе
тестирования
проверяется
работоспособность программы, не содержащей явных ошибок. Тестирование
устанавливает факт наличия ошибок, а отладка выясняет причину неправильной
работы программы.
В современных программных системах отладка часто осуществляется с
использованием специальных программных средств, называемых отладчиками. Эти
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
157
средства позволяют исследовать внутреннее поведение программы.
Программа-отладчик обеспечивает следующие возможности:

пошаговое выполнение программы с остановкой после каждой команды;

просмотр текущего значения любой переменной или нахождение значения
любого выражения, установку при необходимости нового значения переменной;

установку в программе «контрольных точек», т.е. точек, в которых
программа временно прекращает свое выполнение, так что можно оценить
промежуточные результаты.
3.2.5. Тестирование
Решающим этапом, устанавливающим пригодность программы для работы,
является контроль программы посредством ее выполнения на системе тестов.
Программу условно можно считать правильной, если при ее прогоне на выбранной
системе тестовых данных во всех случаях выдаются правильные результаты. Для
реализации метода тестов должны быть изготовлены или заранее известны
эталонные результаты тестов. Вычислять эталонные результаты нужно обязательно
до, а не после получения результатов выполнения программы на компьютере.
Тестовые данные должны обеспечивать проверку всех возможных условий
возникновения ошибок.
Процесс тестирования можно разделить на три этапа:

проверка в нормальных условиях (в реальных условиях функционирования
программы);

проверка в экстремальных условиях (в качестве тестовых данных используют
граничных значения множества исходных данных);

проверка в исключительных ситуациях (условия, на работу в которых
программа не рассчитана).
Программа должна отвергать любые данные, которые она не в с остоянии
обрабатывать правильно.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
158
3.2.6. Сопровождение программы
Сопровождение программы – это работы, связанные с обслуживанием
программы
в
процессе
ее
эксплуатации.
Многократное
использование
разработанной программы для решения различных задач заданного класса требует
проведения дополнительных работ, связанных с доработкой программы для решения
конкретных задач, проведением дополнительных тестовых просчетов и т.п.
Программа, предназначенная для длительной эксплуатации, должна иметь
соответствующую документацию и инструкцию по ее использованию.
Тема 3.3. Системные и прикладные программы общего назначения
3.3.1. Классификация программных средств компьютера
3.3.2. Основные понятия и организация файловой структуры
3.3.3. Операционная система Windows
3.3.4. Служебные программные средства
3.3.5. Вредоносные программы
3.3.6. Офисные приложения
3.3.1. Классификация программных средств компьютера
Программа – это инструкция, указывающая, какие операции, над какими
данными, и в каком порядке компьютер должен выполнить. Компьютер - это
устройство для обработки информации, он ничего не умеет и не обладает никакими
знаниями. Все операции, которые может осуществить компьютер, он выполняет по
соответствующим программам. Чтобы компьютер мог выполнить определенные
операции, необходимо создать программу, содержащую инструкции по обработке
информации. При отсутствии программы невозможно произвести соответствующую
обработку.
Программное обеспечение – совокупность программ, выполняющихся на
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
159
компьютере.
Все компьютерные программы условно можно разделить на три группы:
системные, инструментальные и прикладные программы. В настоящее время
некоторые программы могут входить в состав нескольких групп.
Системное программное обеспечение предназначено для эксплуатации и
технического
обслуживания
компьютера,
управления
и
организации
вычислительного процесса при решении конкретных задач. К системным
программам относятся: операционные системы, оболочки опер ационных систем,
программы-утилиты,
архиваторы,
антивирусные
программы,
программы
технического обслуживания и диагностические программы.
Операционная система (ОС) является совокупностью специальных программ,
предназначенных для организации диалога пользователя и компьютера и
обеспечения взаимодействия всех программных и аппаратных частей компьютера
между собой.
Назначение операционной системы:

производит диалог с пользователем;

распределяет аппаратные ресурсы компьютера;

организует хранение информации в компьютере;

запускает программы на выполнение, загружает их в оперативную память и
управляет их работой;

обеспечивает доступ программ к внешним устройствам компьютера.
Операционная система является обязательной частью программного
обеспечения и загружается автоматически при включении компьютера. Работа на
компьютере без операционной системы невозможна.
Основными компонентами операционной системы являются модуль,
управляющий файловой системой, процессор командного языка, драйверы внешних
устройств и модуль, поддерживающий интерфейс.
Файловая система предназначена для организации и управления размещением
информации на дисках.
Любая ОС имеет свой командный язык, с помощью которого задаются
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
160
команды для выполнения каких-либо действий, таким образом, обеспечивается
доступ пользователей к системным функциям. Анализ и исполнение команд
осуществляется командным процессором ОС. Команды могут поступать от
пользователя, запущенных на выполнение программ, или самой операционной
системы.
ОС должна обеспечивать поддержку работы широкого набора внешних
устройств. Корректную работу внешних устройств обеспечивают драйверы.
Драйверы – это специальные программы, предназначенные для связи ОС с
конкретными устройствами. Каждый тип внешнего устройства имеет свою
программу-драйвер. Драйверы стандартных устройств образуют базовую систему
ввода-вывода (BIOS), которая записана в постоянной памяти.
Процесс взаимодействия с компьютером должен быть удобным для
пользователя, поэтому в состав ОС обязательно входят модули, обеспечивающие
интерфейс.
В процессе развития вычислительной техники был разработан ряд
операционных систем. К наиболее известным следует отнести MS-DOS, Windows,
UNIX, Linux. В качестве ОС для IBM - совместимых компьютеров наиболее
широкое применение нашли операционные системы MS-DOS и Windows компании
Microsoft.
MS-DOS – старая операционная система, которая использовалась до Windows.
Работать в этой ОС было достаточно сложно: необходимо было помнить команды
ОС, вводить их с клавиатуры без ошибок, иначе команды не выполнялись.
Для облегчения работы в ОС были разработаны программные оболочки типа
Norton Commander. Существуют аналогичные оболочки, которые используют
функциональные клавиши. Это Far Manager, Windows Commander и др. Это
прикладные программы, которые загружаются в ОС и обеспечивают удобный доступ
к возможностям ОС, реализуя командный язык.
Программы-утилиты – это служебные программы, выполняющие различные
полезные для пользователя операции.
Инструментальные средства (системы программирования) обеспечивают
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
161
разработку нового программного обеспечения. Эти средства используются в ходе
разработки, корректировки или расширения других программ и включают в свой
состав средства написания программ, преобразования программ к виду, пригодному
для выполнения на ПК (компиляторы, интерпретаторы, загрузчики и редакторы
связей), контроля и отладки программ. Написание программы является важным
этапом решения задачи на компьютере. При программировании используются
различные системы программирования. Системами программирования называют
комплексы программ и прочих средств, предназначенных для разработки и
эксплуатации программ на конкретном языке программирования. Система
программирования обычно включает некоторую версию языка программирования,
транслятор программ, представленных на этом языке, и т.д.
Язык программирования – это инструмент для создания компьютерных
программ. Наиболее распространенные языки программирования:

Си (современная версия Visual C), используется в первую очередь для
разработки системных программ;

Паскаль
(современная
версия
Delphi),
используется
для
разработки
прикладных программ;

Бейсик
(Visual
Basic
–
система
программирования
в
графической
операционной среде Windows) – для профессиональных разработок,
позволяющих создавать мощные программные комплексы.
Языки программирования делятся на языки низкого уровня (Ассемблер) и
высокого уровня (Basic, Pascal, C Delphi и др.). Низкий уровень подразумевает
уровень детализации инструкций. Языки низкого уровня называют машинноориентированными. Программирование на языках низкого уровня достаточно
сложно.
Языки программирования высокого уровня позволяют писать программы
текстом, похожим на английский язык. Одна и та же программа может быть
использована с любыми входными данными. Программы, написанные на языках
высокого уровня, более компактны, легче для понимания, а вероятность появления
ошибок меньше.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
162
Прикладные программы обеспечивают выполнение работ, необходимых
пользователям. Прикладные программы подразделяются на:

текстовые редакторы (Microsoft Word);

электронные таблицы (Microsoft Excel);

системы управления базами данных (Microsoft Access);

графические редакторы (Paint, PhotoShop, CorelDraw);

интегрированные системы;

инженерные программы;

информационно-справочные системы (Консультант+);

бухгалтерские программы (1С);

обучающие, тестирующие, учебные и игровые программы.
В настоящее время широко применяются программы обработки больших
массивов данных. Основные задачи этих программ: выбор из множества данных тех
данных, которые в данный момент интересуют пользователя, и представить их в
виде законченного документа. Для решения таких задач разработаны системы
управления базами данных. СУБД включает обычно язык программирования,
обеспечивающий составление программ для работы с БД, а также транслятор
программ с этого языка и среду программирования. СУБД позволяет также быстро и
точно на основе имеющихся данных создавать сводные документы или ведомости.
База данных – это файл или группа файлов, представляющих собой
упорядоченный набор записей, имеющих единообразную структуру и организацию.
Основные операции с базами данных: создание; поиск, отбор, сортировка
информации; добавление новых записей; модификация существующих записей;
удаление записей; вывод на печать.
3.3.2. Основные понятия и организация файловой структуры
Одной из главных задача ОС является организация и управление размещением
данных. Все данные хранятся в дисковой памяти компьютера. К дискам
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
163
пользователь обращается по имени дисковода:

а: - дисковод гибких магнитных дисков;

с:, d: - жесткий магнитный диск (жесткий диск может быть разбит на
несколько логических дисков);

е: - CD-дисковод.
Любые данные хранятся в компьютере в виде файлов, поэтому файл является
основной единицей хранения данных. Файлом называется именованный набор
данных, хранящийся на диске или ином носителе информации. Это может быть
текстовый документ, фотография, программа и т.д. Система, предназначенная для
управления данными, размещенными в файлах, называется файловой системой.
Основными задачами файловой системы является обеспечение хранения данных на
машинных носителях и доступа к ним. Каждая ОС имеет свои особенности
файловой системы.
ОС Windows XP поддерживает четыре файловые системы. Две из них - FAT
(File Alocation Table – таблица расположения файлов) и NTFS (New Technology File
System) предназначены для работы с магнитными дисками. Файловая система CDFS
обеспечивает доступ и хранение данных на CD-RОМ. CDFS соответствует стандарту
ISO 9660 и поддерживает длинные имена файлов. Файловая система UDF (Universal
Disk Format) предназначена для обмена данными с накопителями СD-RОМ и DVD.
Она соответствует стандарту ISO 13346.
Для человека наиболее просто оперировать с наборами данных, назначая им
имена. Исходя из этого, обращение к файлу производится по имени. Имя файла
состоит из двух частей: собственно имени и расширения (типа). Расширение не
является обязательной частью, его может и не быть. Имя и расширение отделяются
точкой. Правила задания имени файла определяются операционной системой и
используемой файловой системой. Так, например, в ОС UNIX расширение файла
является соглашением, и пользователь не обязан строго ему следовать.
В операционных системах MS-DOS и Windows 3.х использовались так
называемые короткие имена файлов, соответствующие формату 8.3. В этом формате
длина собственно имени ограничивается восемью символами, а расширение – тремя.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
164
В MS-DOS строчные и прописные буквы не различаются, поэтому имена ivan.txt и
IVAN.txt будут считаться одинаковыми. В имени допустимо использовать только
одну точку, отделяющую собственно имя от расширения. Помимо этого, существуют
ограничения на использование некоторых символов и их сочетаний.
Современные ОС семейства Windows поддерживают длинные имена файлов.
Длина имени, включая расширение, может составлять до 255 символов. Допустимо
использовать несколько точек. В этом случае в качестве расширения будет
приниматься часть имени, располагающаяся правее самой правой точки. В Windows
строчные и прописные различаются, следовательно, имена файлов ivan.txt и IVAN.txt
будут различаться. Как и в случае MS-DOS на имена файлов накладывается ряд
ограничений. Так, при их составлении нельзя использовать наклонную черту,
обратную наклонную черту, двоеточие, звездочку, знак вопроса, кавычки, угловые
скобки, вертикальную черту (/ \ : * ? “ < > |). Русские версии Windows предоставляют
возможность давать русскоязычные названия файлам, однако следует помнить, что
если хотя бы на одном из компьютеров не установлена кириллица, то при чтении
имен файлов, содержащих русские буквы, могут возникнуть осложнения. По
аналогичным причинам не рекомендуется использовать русские буквы для
именования файлов, предназначенных для передачи по сети Интернет.
Для корректной работы программ, написанных в различное время, необходимо
обеспечить совместимость длинных имен файлов с короткими. Действительно, с
длинными именами могут работать только программы, разработанные специально
для Windows. Программы же прежнего поколения, рассчитанные на DOS,
воспринимают только имена файлов, записанные в формате 8.3. Для достижения
совместимости при создании файла в Windows автоматически формируется короткое
имя в формате 8.3. Оно составляется из первых шести символов длинного имени и
порядкового номера после знака тильда «~» в случае, когда первые шесть символов
повторяются. Например, имена университет.doc и университетский.doc запишутся
в формате 8.3 следующим образом универ~1.doc и универ~2.doc. Программы, не
имеющие возможность работать с длинными именами, оперируют с созданными
таким образом короткими именами файлов.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
165
Расширение файла указывает на тип хранимой информации и программу, с
помощью которой создан этот файл. Оно используется для автоматической
обработки файлов.
Расширение задается
пользователем или программой-
приложением, создающей файл.
Расширения имен файлов
Расширение
Содержимое файла
Программа
имени файла
txt
текстовый файл
текстовый редактор Блокнот
doc
текстовый файл
текстовый редактор MS Word
xls
электронная
электронная таблица MS Excel
таблица
html
веб-страница
html-редактор
mdb
база данных
программа создания баз данных MS
Access
exe, com
программа
rar
архивный файл
программа-архиватор WinRAR
zip
архивный файл
программа-архиватор WinZIP
bmp
точечный рисунок
графический редактор Paint
cdr
векторный рисунок
графический редактор CorelDRAW
Файлы, как и все объекты, окружающего нас мира, имеют свойства. Основные
свойства файла определяются при его создании: это имя с расширением, размер,
дата и время создания. Для отображения общих свойств файла следует:

щелчок правой кнопкой мыши на значке этого файла, в появившемся
контекстном меню выбрать команду Свойства, вкладка Общие;

выделить значок файла, меню Файл-Свойства, вкладка Общие.
Общие свойства файла:

Тип файла — тип файла;

Приложение — имя приложения, использующегося для открытия файла по
умолчанию. С помощью кнопки Изменить
в конце этой строки можно
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
166
открыть вспомогательное окно и назначить иное приложение для откр ытия
файла по умолчанию;

Размещение — папка, в которой размещается файла;

Размер — точный размер файла;

На диске — реальный размер занимаемого файлом места на диске. Сравнив
два последних свойства (Размер и На диске), пользователь может оценить
потери дискового пространства, связанные с разбиением файла по кластерам.
В случае, когда файл сжат, приводится размер сжатого файла;

Создан — дата создания файла;

Изменен — дата последнего редактирования файла;

Открыт — дата последнего открытия файла.
Атрибуты являются свойствами, которые определяют особенности обработки
файла: возможности по его использованию, архивированию и скрытию. Значения
атрибутов пользователь может установить по своему усмотрению. Для файлов
файловой системы FAT доступны следующие атрибуты:

Только чтение — используется для предотвращения случайного изменения или
удаления файла. Данные, содержащиеся в файле с таким атрибутом, можно
только читать, просматривать или печатать. Такой файл нельзя удалить с
помощью обычных команд MS-DOS — Del и Erase. При удалении файлов с
атрибутом «Только чтение» ОС выдает дополнительный запрос для
подтверждения удаления файла;

Архивный — устанавливается после создания или редактирования файла и
указывает на необходимость его архивации;

Скрытый — назначается, как правило, для системных файлов, которые не
подлежат изменению и при определенных настройках не отображаются на
экране монитора.
В некоторых ситуациях, когда приходится обращаться к группе файлов,
используются шаблоны имен файлов. Примерами таких случаев являются поиск
файлов, удаление, копирование или переименование группы файлов. Существуют
следующие шаблоны имен:
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
167

"*" - шаблон замены нескольких символов. При наличии символа "*" в имени
файла
может
присутствовать
любое допустимое количество
любых
допустимых символов;

"?" - шаблон замены одного символа. При наличии символа "?" в имени файла
может присутствовать один допустимый символ или отсутствие символа.
Например, *.* - все файлы; а?.* - файлы с именами из двух символов, первый
символ - "а", второй - любой и любые расширения. При поиске файлов по запросу
uni*.doc будет произведен поиск всех файлов, имена которых начинаются с
символов uni и имеют расширение doc, а по запросу ?den?.* - всех файлов, имена
которых состоят из пяти символов, содержат символы den во второй, третьей и
четвертой позициях и имеют произвольное расширение.
Файлы можно объединять по какому-либо критерию в группы, называемые
папками (директориями, каталогами). Папка является элементом структуры
организации расположения файлов на диске, в котором содержатся данные о файлах
(имя, размер, дата и время создания и т.д.). На самом деле папка – это файл,
хранящий записи о файлах. Имя папки задается пользователем по тем же правилам,
что и имя файла, расширение не используется. На любом диске имеется одна (после
форматирования) корневая папка (корневой каталог) с именем этого диска (а:\, с:\).
Любая папка может содержать внутри себя другие папки и файлы. Так образуется
древовидная, иерархическая файловая система. Расположение файлов и папок на
диске представляется в виде дерева.
3.3.3. Операционная система Windows
Первый вариант операционной системы Windows, получивший название
Windows 1.0, был выпущен фирмой Microsoft в 1985 году. Ни эта версия ОС, ни
последующие (Windows 2.0, Windows 3.x) не были полнофункциональными
операционными системами, а являлись графическим интерфейсом, дополнявшим
MS-DOC. В дальнейшем были разработаны две линейки операционных систем Windows 9.x (Windows 95, Windows 99, Windows МЕ) и Windows NT (3.1, 4.0, 2000).
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
168
Последней версией ОС компании Microsoft является операционная система Windows
XP и ее серверный вариант Windows 2003, получившие широкое распространение в
нашей стране. Эти операционные системы завершили процесс интеграции Windows
2000 (NT) и Windows 9.x, предназначенных для корпоративных и домашних
пользователей соответственно.
Основные отличия Windows от MS-DOS:

Windows является многозадачной ОС. Она ориентирована на одновременное
обслуживание нескольких задач;

Windows имеет графический интерфейс;

упростился процесс установки нового оборудования благодаря технологии
Plug and Play;

появилась возможность обмена данными между приложениями Windows с
использованием технологии внедрения и связывания объектов.
3.3.4. Служебные программные средства
Форматирование диска.
Форматирование магнитного диска необходимо перед первым его
использованием, это подготовка диска к работе. Повторные операции
форматирования позволяют очистить диск от данных, обнаружить дефектные
участки на диске. При форматировании вся информация на диске уничтожается, об
этом необходимо всегда помнить.
Процесс форматирования состоит из:

форматирования низкого уровня (физическое), при котором диск разбивается
на дорожки и секторы;

форматирование высокого уровня (логическое), при котором формируется
системная область диска (загрузочный сектор, таблица FAT и ко рневой
каталог) и область данных.
Запуск форматирования: выделить значок диска, меню Файл-Форматировать
или щелчок правой по значку диска, команда Форматировать.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
169
Проверка диска.
При работе с дисковыми накопителями могут возникать затруднения при
обращении к диску (записи, чтении информации, запуске приложения), поэтому
достаточно важно содержать их в порядке.
В состав Windows входит специальная программа, которая следит за
состоянием дисков – это программа ScanDisk.
Назначение программы проверки диска:

проверка поверхности диска (поиск физических ошибок – повреждений
магнитного слоя диска);

проверка файловой структуры диска (поиск логических ошибок).
Логические ошибки – это ошибки в таблицах размещения файлов FAT. Это
могут быть:

потерянные кластеры – это кластеры, которые не заняты ни одним файлом и не
помечены как свободные;

файлы с общими кластерами – это файлы, содержащие участки, которые были
выделены более чем одному файлу.
Логические ошибки могут возникать при сбое питания, работе вируса,
неправильном выходе из программ (необходимо корректное завершение работы
Windows).
Программа ScanDisk обнаруживает и устраняет проблемы с диском. При
обнаружении повреждения магнитного слоя программа не восстанавливает
физическую поверхность диска, но она может перенести данные из сбойных
участков в нормальные.
Эта программа имеет два типа проверки:

стандартная – проверка, при которой анализируется только логическая
структура диска без проверки поверхности, выполняется быстрее;

полная проверка – это физическая и логическая проверки.
Рекомендации по использованию программы: затруднения при доступе к диску
или запуске приложения.
Запуск программы проверки диска: щелчок правой кнопкой по значку диска,
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
170
команда Свойства, вкладка Сервис, кнопка Выполнить проверку.
Дефрагментация диска.
После форматирования файлы на диск записываются последовательно в
смежные кластеры. В дальнейшем при активной работе с диском (удалении,
изменении, копировании, перемещении файлов) эта структура нарушается:
возникают свободные кластеры между занятыми и файлы, записанные фрагментами
в разных местах диска. Запись файла происходит следующим образом: находится
первый свободный кластер, в который начинает записываться файл; если файл
большой, то продолжение его размещается в следующем свободном кластере.
Поэтому расположение файлов на диске может быть: непрерывным блоком или
фрагментами.
В результате фрагментации дискового пространства снижается
быстродействие, так как поиск фрагментов файла занимает больше времени.
В состав Windows входит специальная программа дефрагментации диска,
которая устраняет фрагментацию файлов и диска.
Назначение программы дефрагментации:

устранение фрагментации файлов – сбор всех фрагментов файла в один
непрерывный блок;

устранение фрагментации диска – сбор всех файлов к началу и свободного
пространства к концу диска.
В результате дефрагментации:

увеличивается скорость работы;

легче восстанавливать удаленные файлы;

возможность записи новых файлов в свободные смежные кластеры диска.
Рекомендации по использованию этой программы:

регулярно;

перед установкой новых программ и копированием больших файлов;

после внесения изменений в большое количество файлов.
Запуск дефрагментации: щелчок правой кнопкой по значку диска, команда
Свойства, вкладка Сервис, кнопка Выполнить дефрагментацию.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
171
Архивация информации.
При накоплении большого объема информации и создании архивных копий
возникает необходимость в уменьшении объема хранимой информации, тем самым
освобождая место на диске. Существуют программные средства, которые позволяют
архивировать (сжать, упаковать) информацию.
Сжатие информации в файлах происходит за счет устранения избыточности,
например, за счет устранения повторов символов в файлах. Степень сжатия зависит
от используемой программы, метода сжатия, типа и содержимого исходного файла.
Архивация (упаковка) – помещение исходных файлов в архивный файл в
сжатом виде.
Разархивация (распаковка) – процесс восстановления файлов из архива в
первоначальном виде.
Большие по объему архивные файлы могут быть размещены на нескольких
дисках (томах). Такие архивы называются многотомными.
Программы, предназначенные для создания архивных копий файлов,
называются архиваторами. Эти программы позволяют записать несколько файлов в
один архивный файл в сжатом виде. При необходимости можно просмотреть
оглавление архива и извлечь файлы из архива все или выборочно в первоначальном
виде.
Существует множество программ-архиваторов: ARJ, RAR, ICE, ZIP, LHA,
WINRAR. Имена создаваемых архивных файлов имеют соответствующие
расширения: arj, rar, ice, zip, lzh.
Программы-архиваторы позволяют создавать и такие архивы, для извлечения
из которых содержащихся в них файлов не требуется самой программы, т.к.
архивные файлы содержат и программу распаковки. Такие архивные файлы
называются самораспаковывающимися. Самораспаковывающийся архивный файл –
это загрузочный, исполняемый модуль (ехе-файл), который способен к
самостоятельной разархивации находящихся в нем файлов без программыархиватора. Самораспаковывающийся архив получил название SFX-архив.
Заархивировав одни и те же файлы, можно создать обычный архивный файл с
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
172
расширениями rar и самораспаковывающийся архивный ехе-файл. Архивный файл с
расширением rar будет иметь меньший размер по сравнению с архивным ехефайлом, так как exe-файл будет содержать не только исходные файлы, но и саму
программу для извлечения файлов из архива. Файлы извлекаются из архива-rar с
помощью программы. Для извлечения файлов из архива-exe надо только запустить
этот exe-архивный файл.
3.3.5. Вредоносные программы
История развития вредоносных программ.
Начало 1970-х годов - обнаружен вирус Creeper в военной компьютерной сети
APRAnet. Он попадал в сеть через модем и передавал свою копию удаленной
системе. На зараженных системах вирус обнаруживал себя сообщением: "I'M THE
CREEPER: CATCH ME IF YOU CAN". Для удаления этого безобидного вируса была
создана программа Reaper, она распространялась по вычислительной сети и в случае
обнаружения тела вируса Creeper уничтожала его.
1974 год - вирус "кролик" (Rabbit) с большой скоростью размножался и
распространялся по носителям информации. Эта программа клонировала себя,
занимала системные ресурсы и соответственно снижала производительность
системы, вызывала сбой в работе.
В начале 80-х годов - появление большого количества программ, авторами
которых являются частные лица. Появление и стремительное развитие Интернеттехнологий способствовало быстрому распространению вредоносных программ.
1981 год - широкое распространение компьютеров марки Apple II и первая в
истории массовая эпидемия загрузочного вируса. Компьютерное общество не могло
поверить происходящим событиям и относило их к фантастике.
1983 год - появился термин "вирус" в применении к саморазмножающимся
компьютерным программам.
1986 год - зарегистрирована первая глобальная эпидемия вируса для IBMсовместимых компьютеров. Вирус Brain заражал загрузочные сектора дискет, в
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
173
течение нескольких месяцев распространился практически по всему миру. Вирус
Brain был написан в Пакистане 19-летним программистом Баситом Фарук Алви
(Basit Farooq Alvi) и его братом Амжадом (Amjad), оставившими в вирусе текстовое
сообщение, содержащее их имена, адрес и телефонный номер. Как утверждали
авторы вируса, работавшие в компании по продаже программных продуктов, они
решили выяснить уровень компьютерного пиратства у себя в стране. Помимо
заражения загрузочных секторов и изменения меток (label) дискет на фразу '(c)
Brain' вирус ничего не делал: он не оказывал никакого побочного воздействия и не
портил информацию. К сожалению, эксперимент быстро вышел из-под контроля и
выплеснулся за границы Пакистана. Вирус Brain являлся первым вирусомневидимкой. При обнаружении попытки чтения зараженного сектора диска вирус
незаметно "подставлял" его незараженный оригинал.
1987 год - появление нескольких вирусов: знаменитый Лехайский вирус
(Lehigh), названный в честь университета г. Бетлехэм, штат Пенсильвания, США;
семейство вирусов Suriv; ряд загрузочных вирусов (Yale в США, Stoned в Новой
Зеландии,
Ping-pong
в
Италии)
и
первый
в
истории
компьютеров
самошифрующийся файловый вирус Cascade.
Lehigh был первым особо опасным вирусом, уничтожавшим информацию на
дисках. Он заражал системные файлы COMMAND.COM, после заражения четырех
файлов вирус уничтожал информацию на текущем диске и самого себя.
Пользователи начали понимать, что первый признак заражения компьютера увеличение размера COMMAND.COM, надо следить за этим файлом.
Семейство резидентных файловых вирусов Suriv (попробуйте прочитать это
слово справа налево) – произведение неизвестного программиста из Израиля. Эти
вирусы заражали COM-файлы и EXE-файлы.
Вирус Cascade получил такое название из-за эффекта "осыпающихся букв":
после активизации вируса все символы текущего экрана "ссыпались" на нижнюю
строку.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
174
1987 год - первая известная повальная эпидемия сетевого вируса "Christmas
Tree". Вирус выводил на экран изображение новогодней елочки и рассылал свои
копии пользователям сети.
1988 год - глобальная эпидемия вируса Jerusalem (Suriv-3). Он обнаружил себя
в пятницу, 13-го (13 мая), уничтожая запускаемые на зараженном компьютере
файлы.
В этом году стали появляться первые компании-разработчики антивирусного
программного обеспечения. Но пользователи достаточно долго не могли поверить в
существование компьютерных вирусов. Известный программист Питер Нортон
высказался резко против существования вирусов и официально объявил их
несуществующим мифом.
Одной из первых компания Symantec через некоторое время начала
собственный антивирусный проект - Norton AntiVirus.
1988 год - эпидемия сетевого вируса, получившего название червь Морриса.
1988 год - появление известной антивирусной программы - Dr. Solomon's AntiVirus Toolkit, созданной английским программистом Аланом Соломоном (Alan
Solomon).
1989 год - появление новых вирусов Datacrime, FuManchu (модификация
вируса Jerusalem) и целые семейства - Vacsina и Yankee.
Вирус Datacrime с 13 октября по 31 декабря инициировал низкоуровневое
форматирование нулевого цилиндра жесткого диска, что приводило к уничтожению
таблицы размещения файлов (FAT) и безвозвратной потере данных.
Фирма IBM разработала антивирусную программу IBM Virscan для MS-DOS
(1989 год).
1989 год – появление первой версии антивируса «-V», который позже был
переименован в AVP - AntiViral Toolkit Pro.
1990 год - появление нового поколения полиморфных вирусов. Современные
антивирусные программы были малоэффективными.
В течение нескольких последующих лет было обнаружено огромное
количество новых вирусов, которые имели болгарское происхождение.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
175
1990 год - английский компьютерный журнал PC Today распространялся с
флоппи-диском, который оказался зараженным вирусом DiskKiller. Было пр одано
более 50.000 копий журнала.
1990 год – появление вирусов-невидимок и первые известные отечественные
вирусы "Peterburg", "Voronezh" и ростовский "LoveChild".
В этом же году в Гамбурге был создан Европейский институт компьютерных
антивирусных исследований, который является одной из наиболее уважаемых
международных
организаций,
объединяющей
практически
все
крупные
антивирусные компании.
1991 год - эпидемия вируса Dir_II, использовавшего принципиально новый
способ заражения файлов - link-технологию.
1992 год - распространение файловых, загрузочных и файлово-загрузочных
вирусов для MS-DOS, появляются первые вирусы класса анти-антивирус, которые
удаляли базу данных ревизора изменений.
1992 год - первый вирус для Windows (Win.Vir_1_4), заражающий
исполняемые файлы операционной системы.
1993 год
- выпуск антивируса Microsoft AntiVirus (MSAV), который
включался в стандартную поставку операционных систем MS-DOS и Windows.
1994 год – повальное распространение вирусов на компакт-дисках. Вирус
попадал на мастер-диск при подготовке партии компакт-дисков, на рынок были
выпущены большие тиражи зараженных дисков. Появляются вирусы, заражающие
объектные модули (OBJ-файлы), исходные тексты программ (C и Pascal); эпидемии
опасного и сложного полиморфного вируса OneHalf, файлово-загрузочного
вируса"3APA3A".
1995 год – выпуск демонстрационной версии операционной системы Windows
95 с загрузочным вирусом "Form", появление первого макро-вируса для текстового
процессора Microsoft Word ("Concept").
1996 год - появление вируса Boza для операционной системы Windows 95;
полиморфного вируса Zhengxi, написанного российским программистом из СанктПетербурга Денисом Петровым; первая эпидемия вируса для Windows 3.x.;
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
176
появление первого макро-вируса для Microsoft Excel, первого резидентного вируса
для Windows 95.
1997
год
-
обнаружение
первого
сетевого
вируса-червя
"Homer",
использующего для своего распространения протокол передачи данных File Transfer
Protocol (FTP), первого самошифрующегося вируса российского происхождения
"Win95.Mad" для Windows 95, нового типа компьютерных червей, использующих
каналы IRC (Internet Relay Chat).
1997 год – образование независимой компании "Лаборатория Касперского",
возглавляемого Евгением Касперским.
1998 год – продолжение вирусной атаки на MS Windows, MS Office и сетевые
приложения, появляются более сложные вирусы, многочисленные троянские
программы,
ворующие
пароли
доступа
в
Интернет,
утилиты
скрытого
администрирования.
1998 год - эпидемия вируса Win95.CIH, поражение вирусом приложения
PowerPoint.
1999 год - эпидемия интернет-червя Happy99; вируса "Melissa" (31-летний
программист из Нью Джерси (США) Дэвид Л. Смит (David L. Smith), автор вируса,
был признан виновным, осужден на 10 лет тюремного заключения и штрафу в
размере 400 000 долларов США. В Тайване был найден автор вируса CIH (он же
"Чернобыль"), которым оказался студентом Тайваньского технологического
института Чен Инг-Хао (CIH - его инициалы).
2000 год - эпидемия скрипт-вируса LoveLetter, попавшая в Книгу Рекордов
Гиннесса; появление первого «сотового» вируса "Timofonica", поражавшего
мобильные телефоны. Появляется новый антивирусный проект "Антивирус
Касперского" (Kaspersky Anti-Virus).
2001
год
-
появление
бестелесных
червей,
способных
активно
распространяться и работать на зараженных компьютерах без использования
файлов, находясь в системной памяти, и передаваться на другие компьютеры в виде
пакетов данных.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
177
Начало нового века ознаменовалось стремительным ростом так называемых
коммерческих,
вредоносных
программ,
которые
преследуют
конкретные
коммерческие цели и похищают конфиденциальные данные, финансовые средства,
пароли доступа в Интернет, производят другие действия, наносящие какой-либо
материальный ущерб пользователям.
Несмотря на принятые во многих странах меры по борьбе с компьютерными
преступлениями и разработку специальных программных средств защиты,
постоянно появляются новые оригинальные вредоносные программы.
Типы вредоносных программ.
Вредоносные программы подразделяются на классические компьютерные
вирусы, троянские программы, хакерские утилиты и др.
Классические компьютерные вирусы – это программы, распространяющие
свои копии по ресурсам локального компьютера с целью:

последующего запуска своего кода при каких-либо действиях пользователя;

дальнейшего внедрения в другие ресурсы компьютера.
Причины распространения вирусов:

популярность ОС и других программ;

наличие разнообразной документации и описания по использованию системы;

незащищенность системы, т.е. существование уязвимостей в системе
безопасности;

неподготовленность
пользователей
к
появлению
вирусов,
которая
определялась неверием в существование вирусов;

отсутствие, незнание и соответственно несоблюдение правил антивирусной
безопасности;

отсутствие антивирусных программ.
Классификация компьютерных вирусов:
1.
По среде обитания:

загрузочные заражают загрузочный сектор диска (boot-сектор) или
сектор, содержащий системный загрузчик жесткого диска (Master Boot
Record);
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
178

файловые вирусы заражают исполняемые файлы;

файлово-загрузочные внедряются в исполняемые файлы и загрузочные
секторы;

макровирусы являются программами на макроязыках;

скриптовые написаны на различных скрипт-языках;

сетевые черви распространяют свои копии по компьютерным сетям в
виде файлов (почтовые черви) или сетевых пакетов (бесфайловые,
пакетные).
2.
По способу заражения:

перезаписывающие (overwriting), вирус записывает свой код вместо кода
заражаемого файла, уничтожая его содержимое;

полиморфные изменяют свой код, трудно обнаружить и обезвредить;

паразитические
(parasitic)
изменяют
содержимое
файлов,
легко
обнаруживаются и уничтожаются;

вирусы-компаньоны (companion) не изменяют заражаемый файл;

вирусы-ссылки (link) не изменяют содержимого файлов, но при запуске
зараженного файла «заставляют» ОС выполнить свой код;

вирусы,
заражающие
объектные
модули
(OBJ),
библиотеки
компиляторов (LIB) и исходные тексты программ;

загрузочный вирус на диске записывает свой код вместо кода bootсектора, а оригинальный boot-сектор (или MBR) переносит в другой
сектор диска;

вирусы-невидимки
используют
сложные
алгоритмы
сокрытия
присутствия в системе;

макровирусы заражают файлы документов;

скрипт-вирусы заражают скрипт-программы или являются частями
многокомпонентных вирусов.
3.
По времени действия:
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
179
 резидентные вирусы при заражении загружаются в память компьютера и
остаются там до выключения или перезагрузки;
 нерезидентные не заражают память компьютера и являются активными
ограниченное время.
Троянские программы - это программы, не способные к размножению, но
осуществляющие различные несанкционированные пользователем действия:

сбор информации и передача ее злоумышленнику;

разрушение или злонамеренная модификация информации;

нарушение работоспособности компьютера;

использование ресурсов компьютера в злоумышленных целях.
Создателями вредоносных программ могут быть:

студенты и школьники, которые изучали программирование, таким образом,
удовлетворяли свое любопытство и самоутверждались;

малоопытные программисты, которые проявляют себя в компьютерном
хулиганстве, создавая примитивные вирусы с ошибками;

профессиональные программисты, которые создают «профессиональные»
вирусы;

программисты-«исследователи»,
которые
занимаются
изобретением
принципиально новых методов заражения, скрытия, противодействия
антивирусам и т. д.
Признаки заражения компьютера:

вывод на экран посторонних сообщений или изображений;

появление посторонних звуковых сигналов;

неожиданное открытие и закрытие лотка CD-ROM-устройства;

произвольный запуск программ на компьютере;

наличие неопознанных сообщений в почтовом ящике;

зависание и сбой в работе компьютера;

замедление работы компьютера при запуске программ;

невозможность загрузки операционной системы;
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
180

исчезновение файлов и искажение их содержимого;

частое обращение к жесткому диску.
Действия при наличии признаков заражения:
1.
Отключить компьютер от Интернета.
2.
Отключить компьютер от локальной сети, если он к ней был подключен.
3.
Если компьютер не загружается обычным образом, попробовать загрузиться в
режиме защиты от сбоев или с диска аварийной загрузки Windows.
4.
Сохранить результаты работы на внешний носитель.
5.
Запустить антивирусную программу на компьютере.
Антивирусные программы.
Антивирусными называются программы, предназначенные для обнаружения и
нейтрализации компьютерных вирусов и защиты данных.
Все множество антивирусных программ можно условно разделить на пять
типов – фильтры, ревизоры, детекторы, доктора и иммунизаторы.
1.
Программы-фильтры (сторожа) представляют собой резидентные программы,
контролирующие действия, происходящие при работе пользователя на
компьютере, характерные для вирусных программ.
К достоинствам программ-фильтров следует отнести постоянный контроль
над выполнением «опасных» операций, что позволяет выявить наличие вирусов на
ранней стадии их появления. Однако, с точки зрения работы пользователя, это
является и недостатком. Даже при правильной настройке программы-фильтры
постоянно посылают предупреждения о потенциальной опасности, требующие
ответов, что приводит к отвлечению внимания пользователя от основной
деятельности.
2.
Программы-ревизоры – это программы, запоминающие исходные состояния
системных областей, каталогов и программ и периодически сравнивающие их
текущие состояния с исходными, принятыми за эталонные. Сравнение
состояний осуществляется, как правило, сразу после загрузки операционной
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
181
системы. Для сравнения анализируется ряд параметров - контрольная сумма
файла, его длина, дата и время изменения и др.
Действие программ-ревизоров основано на том, что в результате действий
вирусов происходит изменение содержания жесткого диска - изменяются системные
области диска, дописывается код в заражаемые файлы и т.д. Ревизоры не ищут
какие-либо конкретные вирусы, а обнаруживают как известные, так и новые,
неизвестные вирусы с помощью анализа изменения информации об объектах
дисков.
При обнаружении изменения сведений о размещенных на дисках наборов
данных информация о модифицированном объекте предоставляется пользователю.
Пользователь самостоятельно должен принять решение о дальнейшем действии над
подозрительным объектом - проигнорировать сообщение, если файл был изменен им
самим, проверить файл на вирус, если это исполняемый файл, удалить его и т.д.
Достоинством программ-ревизоров является возможность обнаружения с их
помощью вирусов таких типов, как «стелс»-вирусы и «полиморфные» вирусы.
Некоторые из них способны даже восстановить исходную версию проверяемого
объекта, удаляя внесенные вирусом изменения.
3.
Программы-детекторы предназначены для поиска и обнаружения вирусов в
оперативной памяти компьютера и на машинных носителях информации. При
обнаружении подозрительного объекта выдается соответствующее сообщение.
Для нейтрализации обнаруженного вируса необходимо воспользоваться какойлибо другой антивирусной программой или же попытаться удалить
подозрительный объект.
4.
Программами-докторами (полифагами) являются антивирусные программы,
предназначенные для обнаружения и обезвреживания вирусов. Часть
программ-докторов, позволяющих обнаруживать и обезвреживать большое
количество компьютерных вирусов, принято называть полифагами. В процессе
нейтрализации вирусов, заражённые ими объекты, могут восстанавливаться
или не восстанавливаться.
При эксплуатации программ-детекторов и программ-докторов необходимо
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
182
регулярное обновление баз данных, использующихся для распознавания вирусов,
поскольку постоянно появляются новые вирусы и антивирусные базы быстро
устаревают.
Примерами
программ-докторов
являются
получившие
широкое
распространение программы Aidstest, Doctor Web и Norton AntiVirus.
Как программы-детекторы, так и программы-доктора можно разделить на
сканеры и мониторы, исходя из типа доступа к файлам. Мониторы являются
резидентными программами, которые отслеживают доступ к файлам и проводят
проверку в момент доступа. Сканеры же осуществляют проверку лишь по
требованию пользователя.
5.
Программы-иммунизаторы (вакцины) предназначены для предотвращения
заражения файлов каким-либо одним, конкретным вирусом, или же рядом
известных вирусов
путем их вакцинации. Идея метода вакцинации
заключается в модификации защищаемого объекта таким образом, чтобы это
не отражалось на его нормальном функционировании, и в то же время вирусы
воспринимали его как уже зараженный и поэтому не пытались инфицировать
заново.
Программы-иммунизаторы
свойство компьютерных вирусов
используют
при
своем
функционировании
не заражать повторно уже инфицированный
объект. Инфицируя объект, вирусы определенным образом отмечают его - создают
метку, которая позволяет отличать уже зараженные объекты от незараженных.
Программа-иммунизатор создает метку конкретного вируса у защищаемого объекта,
не изменяя его исполняемого кода, и вирус, идентифицируя такую метку, не
пытается заразить защищаемый объект.
Применение рассматриваемого метода защиты целесообразно в случае, когда
отсутствуют программы, обезвреживающие данный вирус. Вакцинация эффективна
только от известного и изученного вируса, который можно идентифицировать, но по
какой-либо причине проблематично нейтрализовать.
Главным недостатком программ-иммунизаторов является ограниченность их
возможностей по предотвращению заражения от большого числа разнообразных
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
183
вирусов. В настоящее время известно огромное число компьютерных вирусов,
каждый из которых имеет собственную метку, поэтому защититься с помощью
вакцинации от всех существующих вирусов невозможно в принципе.
3.3.6. Офисные приложения
Программные средства создания текстовой документации.
Наиболее популярной программой для обработки текстовой инфо рмации
является программа Microsoft Word, которая входит в состав пакета Microsoft Office.
Microsoft
Word
–
это
программа
для
создания,
редактирования,
форматирования, сохранения и организации печати текстовых документов.
Технология работы с документами в различных версиях текстового процесс ора Word
практически одинакова.
Текстовые процессоры позволяют использовать различные шрифты символов,
проверять правописание, вставлять рисунки в текст, создавать таблицы, диаграммы
и т.д. Разбиение текста на страницы выполняется автоматически по мере ввода
текста. Редактор позволяет вставить номера страниц в верхней или нижней строке, в
центре или по краям строки; начать нумерацию с любого номера; обозначить
страницы буквами, римскими цифрами и т.д. Номера страниц видны на экране лишь
в режиме «Разметка страницы».
Этапы подготовки текстового документа:

ввод текста;

редактирование текста;

форматирование;

сохранение документа;

печать документа.
Правила ввода текста:

текст набирается с клавиатуры;

слова разделяются пробелами;

пробелы ставят после знаков препинания;

переход на новую строку происходит автоматически;
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
184

в конце абзаца нажимается клавиша Enter.
Программные средства обработки числовой информации.
Наиболее популярной программой для обработки числовой инфо рмации
является программа электронные таблицы Microsoft Excel, которая входит в состав
пакета Microsoft Office.
Электронные таблицы – это программы для создания и обработки таблиц,
представленных в электронной форме.
Главное преимущество использования электронных таблиц — возможность
мгновенного автоматического пересчета всех данных, связанных формульными
зависимостями, при изменении любого значения в таблице. Электронные таблицы
позволяют
получать
результаты
без
проведения
расчетов
вручную или
программирования.
Microsoft Excel – это программа для структурирования данных, автоматизации
расчетов по заданным формулам, создания графиков и диаграмм, формирования и
печати отчетов.
Эта программа позволяет:

при
формировании
таблицы
выполнять
ввод,
редактирование
и
форматирование текстовых, числовых данных и формул;

автоматически производить итоговые вычисления;

обрабатывать результаты экспериментов;

осуществлять поиск оптимальных значений параметров;

подготавливать табличные документы;

строить диаграммы и графики по данным;

использовать электронную таблицу как базу данных.
Структурные единицы электронной таблицы:

Рабочая книга – документ Excel для хранения и обработки данных, состоящий
из одного или нескольких Рабочих листов, количество которых можно
изменить;

Рабочий лист – это одна электронная таблица, состоящая из строк и столбцов,
которые, пересекаясь, образуют ячейки данных;
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
185

ячейка – это минимальная единица хранения информации и выполнения
расчетов в электронной таблице;

адрес ячейки задает ее расположение и состоит из имени столбца и номера
строки, активная (текущая) ячейка выделена рамкой;

диапазон (блок, интервал) ячеек – прямоугольная область смежных ячеек;

обозначение диапазона ячеек – адреса верхней левой и нижней правой ячеек
этого диапазона, разделенных двоеточием.
В ячейках может содержаться информация трех типов: числовая константа,
текст и формула. Вычисления в таблицах производятся с помощью формул. Формула
начинается со знака равенства и состоит из констант, адресов ячеек, содержащих
данные, и действий, которые надо с этими данными выполнить. Результат
помещается в ячейку, в которой находится формула.
Вычисления в электронной таблице представляются в виде формул. Формулы
- это арифметические и логические выражения. Формулы можно вводит в любые
ячейки. Формулы всегда начинаются со знака равенства (=).
Формула может быть арифметическим выражением, состоящим из чисел,
обозначений ячеек и диапазонов, знаков арифметических операций, функций.
Порядок выполнения арифметических операций в формуле тот же, что принят в
математике. Формула может быть и текстовым выражением, состоящим из текстов,
обозначений ячеек, знака сцепления текстов (& или +), текстовых функций.
Внедрение и связывание объектов.
Операционная система Windows позволяет создавать комплексные документы,
содержащие данные, подготовленные в разных приложениях. Эта возможность
обеспечивается одновременной работой нескольких приложений и перемещением
(копированием) объектов между приложениями. Так, например, в текстовый
документ можно ставить таблицу и графики, подготовленные в электронных
таблицах. Такой обмен данными между приложениями Windows происходит
согласно технологиям внедрения и связывания объектов. В процедуре обмена
данными присутствуют как минимум два участника: документ-источник, откуда
берутся данные, и документ-приемник, куда вставляются данные. Внедрение
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
186
объекта подразумевает создание комплексного документа, содержащего несколько
автономных объектов.
Два способа внедрения:

объект вставляется в документ-приемник из файла (документ-источник),
в котором этот объект хранится (меню Вставка-Объект);

объект выделяется в документе-источнике, копируется в буфер обмена
(меню Правка-Копировать), а затем вставляется в документ-приемник (меню
Правка-Специальная Вставка).
При связывании сам объект не вставляется в документ, а вместо него
вставляется указатель на местоположение объекта. Процедура связывания
происходит аналогично процедуре внедрения, только в окне Вставка объекта
включается флажок Связь. При просмотре документа с таким указателем программа
обращается по адресу, имеющемуся в указателе, и отображает объект в данном
документе.
Сравнение методов внедрения и связывания объектов:

которыми
обе эти операции позволяют вставлять в документы такие данные, с
программы,
обрабатывающие
документ,
не
могут
работать
непосредственно;

при внедрении документ-источник может отсутствовать;

при связывании составной документ получается меньше, чем при
внедрении, так как в нем находится не сам объект, а указатель на него;

при связывании изменение исходных данных отражается в документе-
приемнике.
Программные средства создания презентаций.
Презентация – это набор слайдов, содержащий информацию на определенную
тему и сопровождаемый необходимыми комментариями в устной или печатной
форме.
В пакет Microsoft Office входит программа для создания презентаций Power
Point. Эта программа позволяет подготовить доклад для представления результатов
работы перед аудиторией.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
187
Запуск программы:

Пуск, Все Программы, Power Point;

файл запуска – powerpnt.exe.
Элементы презентации:

слайды – изображения, демонстрируемые на экране компьютера или с
помощью проектора, управляемого компьютером;

заметки – прилагаемые к каждому слайду страницы заметок, на которых
находится уменьшенная копия слайда и отведено место для заметок
докладчика;

выдачи – краткое содержание презентации по несколько слайдов на одной
странице, которое помогает следить за ходом презентации.
Этапы подготовки презентации:
1.
Непосредственная разработка презентации, т.е. оформление каждого слайда:

сформулировать тему презентации;

определить примерное количество слайдов и их структуру (не более 1520 слайдов);

продумать варианты оформления слайдов.
2.
Подготовка раздаточного материала для слушателей.
3.
Демонстрация презентации, т.е. процесс показа готовых слайдов, который
сопровождается пояснениями лектора.
Раздел 4. Информационные технологии в тренерской деятельности
Тема 4.1. Математические модели
4.1.1. Формализация полученных знаний
4.1.2. Классификация математических моделей
4.1.3. Описание моделей с помощью теории графов
4.1.4. Физическое моделирование
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
188
4.1.1. Формализация полученных знаний
Математическая модель — приближенное описание объекта моделирования,
выраженное с помощью математической символики.
Математические модели появились вместе с математикой много веков назад.
Огромный толчок развитию математического моделирования придало появление
ЭВМ. Применение вычислительных машин позволило проанализировать и
применить на практике многие математические модели, которые раньше не
поддавались аналитическому исследованию. Реализованная на компьютере
математическая модель называется компьютерной математической моделью, а
проведение целенаправленных расчетов с помощью компьютерной модели
называется вычислительным экспериментом.
Перечислим этапы математического моделирования.
Первый этап — определение целей моделирования. Эти цели могут быть
различными:
1)
модель нужна для того, чтобы понять, как устроен конкретный объект, какова
его структура, основные свойства, законы развития и взаимодействия с
окружающим миром (понимание);
2)
модель нужна для того, чтобы научиться управлять объектом (или процессом)
и определить наилучшие способы управления при заданных целях и
критериях (управление);
3)
модель нужна для того, чтобы прогнозировать прямые и косвенные
последствия реализации заданных способов и форм воздействия на объект
(прогнозирование).
Поясним на примерах. Пусть объект исследования — взаимодействие потока
жидкости или газа с телом, являющимся для этого потока препятствием. Опыт
показывает, что сила сопротивления потоку со стороны тела растет с ростом
скорости потока, но при некоторой достаточно высокой скорости эта сила скачком
уменьшается с тем, чтобы с дальнейшим увеличением скорости снова возрасти. Что
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
189
же вызвало уменьшение силы сопротивления? Математическое моделирование
позволяет получить четкий ответ: в момент скачкообразного уменьшения
сопротивления вихри, образующиеся в потоке жидкости или газа позади
обтекаемого тела, начинают отрываться от него и уноситься потоком.
Пример совсем из другой области: мирно сосуществовавшие со стабильными
численностями популяции двух видов особей, имеющих общую кормовую базу,
«вдруг» начинают резко менять численность. И здесь математическое
моделирование позволяет (с известной долей достоверности) установить причину
(или, по крайней мере, опровергнуть определенную гипотезу).
Выработка концепции управления объектом — другая возможная цель
моделирования. Какой составить график тренировки спортсмена для достижения к
определенному сроку наилучшей физической формы?
Наконец, прогнозирование последствий тех или иных воздействий на объект
может быть как относительно простым делом в несложных физических системах,
так и чрезвычайно сложным — на грани выполнимости — в системах биологоэкономических, социальных. Если ответить на вопрос об изменении режима
распространения тепла в тонком стержне при изменениях в составляющем его
сплаве относительно легко, то проследить (предсказать) социальные последствия
изменений государственного законодательства несравненно труднее. Возможно, и
здесь методы математического моделирования будут оказывать в будущем более
значительную помощь.
Второй этап: определение входных и выходных параметров модели;
разделение входных параметров по степени важности влияния их изменений на
выходные. Такой процесс называется ранжированием, или разделением по рангам.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
190
Третий этап: построение математической модели. На этом этапе происходит
переход от абстрактной формулировки модели к формулировке, имеющей
конкретное математическое представление. Математическая модель — это
уравнения, системы уравнений, системы неравенств, дифференциальные уравнения
или системы таких уравнений и пр.
Четвертый этап: выбор метода исследования математической модели. Чаще
всего здесь используются численные методы, которые хорошо поддаются
программированию. Как правило, для решения одной и той же задачи подходит
несколько методов, различающихся точностью, устойчивостью и т.д. От верного
выбора метода часто зависит успех всего процесса моделирования.
Пятый этап: разработка алгоритма, составление и отладка программы для
ЭВМ — трудно формализуемый процесс. Из языков программирования многие
профессионалы для математического моделирования предпочитают FORTRAN: как
в силу традиций, так и в силу высокой эффективности компиляторов (для расчетных
работ) и наличия написанных на нем огромных, тщательно отлаженных и
оптимизированных библиотек стандартных программ математических методов. В
ходу и такие языки, как PASCAL, BASIC, C, — в зависимости от характера задачи и
склонностей программиста.
Шестой этап: тестирование программы. Работа программы проверяется на
тестовой задаче с заранее известным ответом. Это — лишь начало процедуры
тестирования, которую сложно описать формально исчерпывающим образом.
Обычно тестирование заканчивается тогда, когда пользователь по своим
профессиональным признакам сочтет программу верной.
Седьмой этап: собственно вычислительный эксперимент, в процессе которого
выясняется, соответствует ли модель реальному объекту (процессу). Модель
достаточно адекватна реальному процессу, если некоторые характеристики
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
191
процесса, полученные на ЭВМ, совпадают с экспериментально полученными
характеристиками с заданной степенью точности. В случае несоответствия модели
реальному процессу возвращаемся к одному из предыдущих этапов.
4.1.2. Классификация математических моделей
В основу классификации математических моделей можно положить
различные принципы. Можно классифицировать модели по отраслям наук
(математические модели в физике, биологии, социологии и т.д.). Можно
классифицировать по применяемому математическому аппарату (модели,
основанные на применении обыкновенных дифференциальных уравнений,
дифференциальных уравнений в частных производных, стохастических методов,
дискретных алгебраических преобразований и т.д.). Наконец, если исходить из
общих задач моделирования в разных науках безотносительно к математическому
аппарату, наиболее естественна такая классификация:

дескриптивные (описательные) модели;

оптимизационные модели;

многокритериальные модели;

игровые модели.
Поясним это на примерах.
Дескриптивные (описательные) модели. Например, моделирование движения
кометы, вторгшейся в Солнечную систему, производится с целью предсказания
траектории ее полета, расстояния, на котором она пройдет от Земли, и т.д. В этом
случае цели моделирования носят описательный характер, поскольку нет никаких
возможностей повлиять на движение кометы, что-то в нем изменить.
Оптимизационные модели используются для описания процессов, на
которые можно воздействовать, пытаясь добиться достижения заданной цели. В
этом случае в модель входит один или несколько параметров, доступных влиянию.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
192
Например, меняя тепловой режим в зернохранилище, можно задаться целью,
подобрать такой режим, чтобы достичь максимальной сохранности зерна, т.е.
оптимизировать процесс хранения.
Многокритериальные модели. Нередко приходится оптимизировать процесс
по нескольким параметрам одновременно, причем цели могут быть весьма
противоречивыми. Например, зная цены на продукты и потребность человека в
пище, нужно организовать питание больших групп людей физиологически
правильно и, одновременно с этим, как можно дешевле. Ясно, что эти цели совсем
не совпадают, т.е. при моделировании будет использоваться несколько критериев,
между которыми нужно искать баланс.
Игровые модели могут иметь отношение не только к компьютерным играм,
но и к весьма серьезным вещам. Например, полководец перед сражением при
наличии неполной информации о противостоящей армии должен разработать план:
в каком порядке вводить в бой те или иные части и т.д., учитывая и возможную
реакцию противника. Есть специальный раздел современной математики — теория
игр, — изучающий методы принятия решений в условиях неполной информации.
4.1.3. Описание моделей с помощью теории графов
Наглядным средством отображения состава и структуры систем являются
графы.
Рассмотрим пример. Имеется словесное описание некоторой местности: «Наш
район состоит из пяти поселков (условно обозначим их буквами): Д, Б, Р, К и М.
Автомобильные дороги проложены между: Д и Б, Д и К, Б и М, Б и К, К и Р. По
такому описанию довольно трудно представить себе эту местность. Гораздо легче та
же информация воспринимается с помощью схемы (рис. 4.1). Это не карта
местности. Здесь не выдержаны направления по сторонам света, не соблюден
масштаб. На этой схеме отражен лишь факт существования пяти поселков и
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
193
дорожной связи между ними. Такая схема, отображающая элементный состав
системы и структуру связей, называется графом.
Рис. 4.1. Граф дорожной сети
Составными частями графа являются вершины и ребра. На рисунке вершины
изображены кружками — это элементы системы, а ребра изображены линиями —
это связи (отношения) между элементами. Глядя на этот граф, легко понять
структуру дорожной системы в данной местности.
Построенный граф позволяет, например, ответить на вопрос: через какие
поселки надо проехать, чтобы добраться из Р в М? Видно, что есть два возможных
пути: 1) Р К Б М и) Р К Д Б М. Можно ли отсюда сделать вывод, что 1-й путь короче
2-го? Нет, нельзя. Данный граф не содержит количественных характеристик. Это не
карта, где соблюдается масштаб и есть возможность измерить расстояние.
Рис. 4.2. Взвешенный граф
Граф, приведенный на рис. 4.2, содержит количественные характеристики.
Числа около ребер обозначают длины дорог в километрах. Это пример взвешенного
графа. Взвешенный граф может содержать количественные характеристики не
только связей, но и вершин. Например, в вершинах может быть указано население
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
194
каждого поселка. Согласно данным взвешенного графа, оказывается, что первый
путь длиннее второго.
Подобные графы еще называют сетью. Для сети характерна возможность
множества различных путей перемещения по ребрам между некоторыми парами
вершин. Для сетей также характерно наличие замкнутых путей, которые называются
циклами. В данном случае имеется цикл: К Д Б К.
На рассмотренных схемах каждое ребро обозначает наличие дорожной связи
между двумя пунктами. Но дорожная связь действует одинаково в обе стороны:
если по дороге можно проехать от Б к М, то по ней же можно проехать и от М к Б
(предполагаем, что действует двустороннее движение). Такие графы являются
неориентированными, а их связи называют симметричными.
Качественно иной пример графа изображен на следующем рис. 4.3.
Рис. 4.3. Граф совместимости групп крови
Этот пример относится к медицине. Известно, что у разных людей кровь
отличается по группе. Существуют четыре группы крови. Оказывается, что при
переливании крови от одного человека к другому не все группы совместимы. Граф
показывает возможные варианты переливания крови. Группы крови — это вершины
графа с соответствующими номерами, а стрелки указывают на возможность
переливания одной группы крови человеку с другой группой крови. Например, из
этого графа видно, что кровь I группы можно переливать любому человеку, а
человек с I группой крови воспринимает только кровь своей группы. Видно также,
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
195
что человеку с IV группой крови можно переливать любую, но его собственную
кровь можно переливать только в ту же группу.
Связи между вершинами данного графа несимметричны и поэтому
изображаются направленными линиями со стрелками. Такие линии принято
называть дугами (в отличие от ребер неориентированных графов). Граф с такими
свойствами называется ориентированным. Линия, выходящая и входящая в одну и
ту же вершину, называется петлей. В данном примере присутствуют четыре петли.
Нетрудно понять преимущества изображения модели системы переливания
крови в виде графа по сравнению со словесным описанием тех же самых правил.
Граф легко воспринимается и запоминается.
Рис. 4.4. Дерево административной структуры РФ
Весьма распространенным типом систем являются системы с иерархической
структурой. Иерархическая структура естественным образом возникает, когда
объекты или некоторые их свойства находятся в отношении соподчинения
(вложения, наследования). Как правило, иерархическую структуру имеют системы
административного управления, между элементами которых установлены
отношения подчиненности. Например: директор завода — начальники цехов —
начальники участков — бригадиры — рабочие. Иерархическую структуру имеют
также системы, между элементами которых существуют отношения вхождения
одних в другие.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
196
Граф иерархической структуры называется деревом. Основным свойством
дерева является то, что между любыми двумя его вершинами существует
единственный путь. Деревья не содержат циклов и петель.
В качестве примера приведем граф, отражающий иерархическую
административную структуру нашего государства: Российская Федерация делится
на административные округа; округа делятся на регионы (области и национальные
республики), в состав которых входят города и другие населенные пункты. Такой
граф называется деревом.
У дерева существует одна главная вершина, которая называется корнем
дерева. Эта вершина изображается вверху; от нее идут ветви дерева. От корня
начинается отсчет уровней дерева. Вершины, непосредственно связанные с корнем,
образуют первый уровень. От них идут связи к вершинам второго уровня и т.д.
Каждая вершина дерева (кроме корня) имеет одну исходную вершину на
предыдущем уровне и может иметь множество порожденных вершин на следующем
уровне. Такой принцип связи называется «один ко многим». Вершины, которые не
имеют порожденных, называются листьями (на нашем графе это вершины,
обозначающие города).
4.1.4. Физическое моделирование
Физическое моделирование — метод экспериментального изучения различных
физических явлений, основанный на их физическом подобии.
Метод применяется при следующих условиях:
1.
Исчерпывающе точного математического описания явления на данном уровне
развития науки не существует, или такое описание слишком громоздко и
требует для расчётов большого объёма исходных данных, получение которых
затруднительно.
2.
Воспроизведение исследуемого физического явления в целях эксперимента в
реальных масштабах невозможно, нежелательно, или слишком дорогостояще
(например, цунами).
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
3.
197
Метод состоит в создании лабораторной физической модели явления в
уменьшенных масштабах, и проведении экспериментов на этой модели.
Выводы и данные, полученные в этих экспериментах, распространяются затем
на явление в реальных масштабах.
Метод может дать надёжные результаты, лишь в случае соблюдения
физического подобия реального явления и модели. Подобие достигается за счёт
равенства для модели и реального явления значений критериев подобия —
безразмерных чисел, зависящих от физических (в том числе геометрических)
параметров, характеризующих явление. Экспериментальные данные, полученные
методом физического моделирования распространяются на реальное явление также
с учётом критериев подобия.
В широком смысле, любой лабораторный физический эксперимент является
моделированием, поскольку в эксперименте наблюдается конкретный случай
явления в частных условиях, а требуется получить общие закономерности для всего
класса подобных явлений в широком диапазоне условий. Искусство
экспериментатора заключается в достижении физического подобия между явлением,
наблюдаемым в лабораторных условиях и всем классом изучаемых явлений.
Некоторые примеры применения метода физического моделирования:
1.
Исследование течений газов и обтекания летательных аппаратов,
автомобилей, и т. п. в аэродинамических трубах.
2.
Гидродинамические исследования на уменьшенных моделях кораблей,
самолетов и т. п.
3.
Исследование сейсмоустойчивости зданий и сооружений на этапе
проектирования.
4.
Изучение устойчивости сложных конструкций, под воздействием сложных
силовых нагрузок.
5.
Измерение тепловых потоков и рассеивания тепла в устройствах и системах,
работающих в условиях больших тепловых нагрузок.
6.
Изучение стихийных явлений и их последствий.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
198
Тема 2. Табличное и графическое представление данных
4.2.1. Табличная форма представления экспериментальных данных. Форматы
отображения данных
Виды статистических таблиц весьма многообразны, что объясняется
многообразием массовых явлений и процессов, которые изучает статистика.
Таблицы различаются по построению подлежащего, разработке сказуемого и
по целям исследования.
В зависимости от построения подлежащего статистические таблицы
подразделяются на три вида: простые, групповые, и комбинированные.
Простыми называются такие статистические таблицы, в подлежащих которых
имеется только перечень показателей, раскрывающих содержание подлежащего и
нет группировок их. Иногда такие таблицы называются перечневыми, или простыми
В перечневых простых таблицах в подлежащем дается перечень единиц,
составляющих объект изучения (протокол соревнований).
1 JAN
SWE 24.88
816
NED 24.92
812
GER 25.08
797
RUS
794
1977
2
4
4
SCHREUDER
Hinkelien
1 JAN
1984
3
5
3
BRANDT
Dorothea
1 JAN
1984
4
5
5
FEDULOVA
Svetlana
17
25.11
очков
Дата
Therese
Количество
Имя
ALSHAMMAR
дистанции
Фамилия
4
проплывания
Дорожка
5
Время
Заплыв
1
Страна
Место
рождения
Таблица 4.1. Пример перечневой таблицы
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
199
MAR
1984
5
4
5
SVENSSON
Emma
1 JAN
SWE 25.35
771
1992
6
4
6
LOVTSOVA
Natalia
4 APR RUS
25.38
769
DEN 25.39
768
UKR 25.46
762
RUS
25.53
755
UKR 25.68
742
RUS
25.77
734
RUS
25.91
723
UKR 26.05
711
1988
7
3
4
OTTESEN
Jeanette
1 JAN
1987
8
3
5
STEPANYUK
Darya
1 JAN
1990
9
4
3
AKSENOVA
Anastasia
5
MAR
1990
10
5
6
SERIKOVA
Oxana
1 JAN
1985
11
4
2
KISELEVA
Polina
20
OCT
1991
12
4
7
SHEPEL
Tatiana
3
NOV
1992
13
3
6
KOBA
Nadiya
1 JAN
1995
13
5
7
MISELIMYAN
Natalia
1 FEB RUS
26.05
711
SWE 26.08
709
RUS
707
1990
15
3
2
COLEMAN
Michelle
1 JAN
1993
16
5
8
BOROVIKOVA Ekaterina
13
MAR
26.10
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
200
1991
17
3
3
SHI
Yuwen
1 JAN
CHN 26.28
692
SVK 26.36
686
1993
18
3
8
SYLLABOVA
Miroslava 1 JAN
1990
Если в подлежащем таблицы дан перечень территорий (стран, областей и т.п.),
то такая таблица называется территориальной простой.
Хронологически простыми таблицами называются такие таблицы, в
подлежащем которых приводятся периоды времени (года, кварталы, месяцы и т.д.)
или даты, а в сказуемом - ряд показателей, характеризующих развитие или
состояние объекта изучения в те периоды времени. Например, таблицы,
характеризующие по годам спортивные результаты.
Таблица 4.2. Пример хронологической таблицы
Год
Место по результатам
этапов Кубка мира
1998
34
1999
21
2000
10
2001
2
2002
2
2003
4
2005
1
2006
5
2007
4
2008
10
2009
14
2010
18
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
201
Если периоды времени приведены в сказуемом, то таблица уже не называется
простой хронологической. Например, в подлежащем дан перечень единиц
совокупности, а в сказуемом – по отдельным периодам, характеристика единиц, то
таблица будет перечневой хронологической. Если в подлежащем указаны страны
или перечень территорий, а в сказуемом – те или иные показатели по годам, то
таблица будет территориальной хронологической.
Групповыми называются такие статистические таблицы, в которых изучаемый
объект разделен в подлежащем на группы по тому или иному признаку.
Групповые таблицы, как правило, возникают в результате применения метода
группировок при сводке статистического материала.
Таблица 4.3. Пример групповой таблицы.
Состав сборной команды России на летней Олимпиаде 1996 г.
Чел.
в % к итогу
408
100,0
Мужчины
241
59,1
Женщины
167
40,9
Всего
В том числе:
Очень часто в сказуемом групповых таблиц показатели располагают по
периодам времени, т.к. в изменении соотношения групп во времени часто
проявляются те или иные зависимости.
Комбинационной таблицей называется такая таблица, в которой в
подлежащем дана группировка единиц совокупности по двум и более признакам,
взятым в комбинации (изучаемый объект разбит на группы), а внутри групп на
подгруппы. Например, численность студентов ВУЗа по отделениям, в зависимости
от пола и возраста).
Простые таблицы имеют относительный характер, групповые и
комбинационные позволяют передать глубокий анализ изучаемой совокупности.
Групповые таблицы дают возможность изучить влияние одного признака на
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
202
изменение другого признака, а комбинационные на влияние определенного фактора
на признаки сказуемого.
Сказуемое таблиц так же может быть разработано по-разному. Если сказуемое
представлено простым перечнем ряда показателей, то его разработка является
простой, а если множеством показателей, в комбинации дополняющих друг друга,
то сложной.
Таблица 4.4. Пример комбинированной таблицы с простым сказуемым
Отделения
Численность
студентов,
чел.
В том числе
по полу
в возрасте, лет
мужчины
женщины
до
20
20–
23
23 и более
А
1
2
3
4
5
6
Дневное
1200
400
800
860
120
220
Вечернее
800
300
500
320
180
300
Всего
2000
700
1300
1180 300
Пример 4.5. Пример комбинированной таблицы со сложным сказуемым
Отделения
Численность
студентов, чел.
В том числе
мужчины
женщины
Всего
Всего
из них в возрасте,
лет
до
20
20–
23
23 и
более
из них в возрасте, лет
до
20
20–
23
23 и
более
А
1
2
3
4
5
6
7
8
9
Дневное
1200
400
260
50
90
800
600
70
130
Вечернее
800
300
110
80
110
500
210
100
190
Всего
2000
700
370
130
200
1300
Рассматривая разновидности статистических таблиц по виду сказуемого
нужно иметь в виду следующее.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
203
Безусловно, сложное сказуемое делает таблицу более содержательной, однако
такое сказуемое не выражает множественных зависимостей, т.е. совместное влияние
на изучение явления несколькими факторами. Поэтому, такую статистическую
таблицу нельзя назвать ни групповой, ни комбинационной. Например, отрасли
промышленности будем характеризовать количеством предприятий, численностью
работников в подразделении по категориям, по уровню образования. Слишком
сложная разработка сказуемого сказывается на компактности, наглядности и
удобства анализа таблиц.
Вид таблицы всецело определяется в зависимости о построения подлежащего
(простое, групповое, комбинационное). Учет разработки сказуемого (простое,
групповое) позволяет более точнее характеризовать вид таблицы. Например,
простая статистическая таблица с простой (или сложной) разработкой сказуемого.
Цели статистического исследования предполагают построение подлежащего и
разработку сказуемого. Применение этого признака к классификации таблиц
позволяет уточнить вид статистической таблицы с учетом построения как
подлежащего, так и сказуемого в каждом конкретном случае статистических
исследований.
В условиях широкого использования автоматизированных систем обработки
информации, оправдан поиск новых способов изложения изучаемого
статистического материала с представлением алгоритмов обработки статистических
данных на языке линейной алгебры. Например, если от верха таблицы отрезать
заголовки (предварительно привязав их к строкам и столбца таблицы, используя их
номера), то таблица становится похожей на матрицу. Если теперь алгоритм
обработки данных таблицы увязать с операциями, подчиняющимися правилам
матричного исчисления, то статистический материал можно представить в виде
определенных матриц. В этом случае устанавливают некоторый стандарт на запись
таблиц.
Вопросы использования матричного исчисления в качестве способа
статистического наблюдения и обработки громоздкого исходного материала
(массива данных) рассматривается в курсе современной математической статистики.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
204
В качестве других разновидностей статистических таблиц можно указать
балансовые таблицы (материальные балансы, балансы трудовых резервов и т.п.),
шахматные или косые таблицы.
В процессе собирания фактов об изученном массовом явлении
(статистическом наблюдении), а затем и на следующих стадиях статистического
исследования (в процессе группировки, сводки, анализа) встает вопрос о способе
представления и записи результирующих данных. Изложить в форме текста
большой цифровой материал, с которым имеет дело любое статистическое
исследование, трудно.
Статистические данные на всех стадиях исследования массовых явлений, как
правило, представляются в рациональной форме – табличной. Таблицы получаются
записи в одну строку или графу (столбец) фактов (данных, сведений) относится к
одному и тому же признаку. Затем объединением в одном разделе (блоке таблицы)
данных, относящихся к одному и тому же группировочному признаку (группе,
группировочной позиции) и имеющей общие элементы в своем обозначении
(например, относящихся к одному и тому же времени, объекту наблюдения и т.п.).
При этом общие для всех фактов по строке (столбцу), по разделу, по всем разделам
(группам) выносится в заголовок строки (столбца), раздела или всей страницы.
Статистическая таблица – это форма систематизированного рационального и
наглядного изложения статистического цифрового материала, характеризующего
изучаемые явления или процессы.
Статистическая таблица представляет собой ряд взаимопересекающихся
горизонтальных или вертикальных линий, образующих по горизонтали строки, а по
вертикали графы (столбцы, колонки), Внутри таблицы в образующихся от
пересечения линий клеточках записывают цифры. Каждая строка и графа имеют
общее заглавие (название), определяющее ее содержание, назначение, место и
время.
В заголовках таблицы, ее строк и граф различают заголовки, указывающие
совокупность, объект наблюдения; ее части, элементы совокупности и заголовки,
которые указывают на содержание показателя, его статистический характер, время и
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
205
т.п. Первые называются статистическим подлежащим, а вторые статистическим
сказуемым.
В общем случае подлежащим статистической таблицы называется объект
изучения (массовое явление, единицы статистической совокупности, их группы,
статистические показатели).
Сказуемыми статистической таблицы называются перечень числовых, а так же
показателей (названий граф) которыми характеризуется объект изучения.
Обычно наименования единиц или групп, образующих подлежащее, даются в
левой части таблицы в заголовках строк, а наименования показателей, которыми
они характеризуются – в заголовках граф (в верхней части таблицы).
Если подлежащее содержит (считая и итоговые) «n» позиций, а каждая
позиция характеризуется «m» показателями, то в таблице данных должно быть
место для «m×n» статистических данных.
4.2.2. Графическое представление статистических таблиц. Типы графических
изображений.
Любое явление, изучаемое статистикой, можно представить в графической
форме.
Графические способы изображения могут быть сгруппированы по различным
признакам: по форме графического образа, по типу шкалы, поля, задачам
изображения и т.д.
По виду поля графика различают диаграммы и статистические карты.
По форме графического образа различают линейные, плоскостные, объемные,
точечные, фоновые, изобразительные диаграммы и карты.
По типу шкалы: линейные равномерные (арифметические), линейные
неравномерные (функциональные, логарифмические), криволинейные и др.
По задачам изображения можно выделить:
1)
графики статистического и динамического сравнения;
2)
графики структуры и структурных сдвигов или структурно-динамические;
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
3)
206
графики динамики или динамические;
4)
графики контроля выполнения плана;
5)
графики пространственного (территориального) размещения и
пространственной распространенности;
6)
графики вариационных рядов;
7)
графики зависимости варьирующих признаков и взаимосвязи и др.
Каждый из основных видов графических изображений в статистической
практике строится с учетом определенных правил.
В статистических исследованиях для выяснения характерных черт и
особенностей массовых явлений, познания типичного в этих явлениях и решения
других задач широко используется сравнение одних абсолютных, средних и
относительных статистических величин с другими. Анализ – это, прежде всего
сравнение и сопоставление статистических данных. Нередко возникает
необходимость сопоставления результатов статистического исследования
конкретного явления с величинами типичного (идеального) явления аналогичной
природы. Поэтому наглядное представление (графическое изображение) сравнения
статистических показателей относится к наиболее распространенным графикам в
статистике. Для этих целей применяются диаграммы.
Диаграмма – это графическое изображение, наглядно показывающее
соотношение между сравниваемыми величинами. Диаграмма представляет собой
чертеж, на котором статистические данные условно изображаются геометрическими
линиями, фигурами и телами различных размеров.
Различают следующие основные виды графиков (диаграмм) сравнения:
столбиковые, полосовые, квадратные, круговые, фигурные.
Наиболее простым и наглядным графиком для сравнения величин
статистических показателей являются столбиковые диаграммы.
При построении столбиковых диаграмм необходимо начертить систему
прямоугольных координат. Основания столбиков одинакового размера размещаются
на оси абсцисс, а вершина столбика будет соответствовать величине показателя,
нанесенного в соответствующем масштабе на ось ординат. Каждый отдельный
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
207
столбик соответствует отдельному объекту (показателю). Общее число столбиков
равно числу сравниваемых величин. Расстояние между столбиками берется
одинаковое, а иногда столбики располагаются вплотную друг к другу.
Вертикальная шкала всегда начинается с нуля и охватывает весь диапазон
изображаемых данных. Для целей наглядности допускается разрыв по шкале данных
(обычно начальных).
С помощью столбиковых диаграмм легко изобразить также структуру или
процесс развития явления во времени.
Полосовые диаграммы особенно наглядны при сравнении величин, связанных
между собой элементов целого. В этом случае столбики размещаются не по
вертикали, а по горизонтали, т.е. основание полос (объекты, данные) располагаются
на оси ординат, а масштаб – на оси абсцисс.
Ширина полос также (как столбцов в столбиковой диаграмме) должна быть
одинаковой. Расстояние между ними берется одинаковым (обычно ½ или ¼ ширины
полос) или полосы строятся вплотную.
Шкала горизонтальной полосовой диаграммы должна начинаться также с
нуля, ее разрыв обычно не допускается. В столбиковой диаграмме точка разрыва
может допускаться.
В квадратных и круговых диаграммах сравниваемые статистические данные
изображают в виде квадратов или кругов. Величина изображаемого явления
выражается в этом случае размером площади фигуры (квадрата или круга).
Чтобы изобразить квадратную диаграмму, необходимо из сравниваемых
статистических данных извлечь квадратные корни, а затем построить квадраты со
сторонами, пропорциональными полученным результатам (с учетом выбранного
масштаба).
В круговых диаграммах также извлекаются квадратные корни из
сравниваемых статистических величин, предварительно разделенных на π=3,14.
Устанавливается масштаб и строится круг с радиусом, пропорциональным (с учетом
масштаба) вычисленной величине.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
208
Как и в столбиковых (полосовых) диаграммах, геометрические фигуры
(квадраты, круги) строят на одинаковом друг от друга расстоянии.
В отличие от столбиковых диаграмм масштаб измерения здесь можно не
приводить, но в каждой геометрической фигуре следует указать то числовое
значение, которое она изображает.
Наглядное сравнение квадратных и круговых диаграмм затруднено тем, что
приходится сравнивать площади, а не высоты (или ширины). Кроме того и
построение их сложнее.
На таких графиках величины изображаются при помощи фигур (или разных
размеров, или разной численности фигур одинакового размера). В первом случае
сначала определяется, что соответствует изображаемым числам: линейный размер
фигуры (ее высота, длина) или ее площадь.
В качестве фигур учитывается содержание рассматриваемого явления.
Например, численность населения можно изобразить фигурой человека,
численность тракторного парка – количеством фигур трактора или размерами
трактора.
Во втором случае построения фигурной диаграммы каждая фигура
приравнивается к определенному числу (масштабу, части изображаемой
статистической величины), а число одинаковых фигурок приравнивается
статистической величине. При этом допускается дробление знака (фигурки) до
половины и даже четверти фигурки.
Фигурные диаграммы, если они грамотно и хорошо выполнены, фиксируют на
себе внимание, очень понятны и доходчивы. Они часто используются как
агитационный плакат.
Полученный в результате статистического исследования материал нередко
изображается с помощью точек, геометрических линий и фигур или географических
картосхем, т.е. графиков.
В статистике графиком называют наглядное изображение статистических
величин и их соотношений при помощи геометрических точек, линий, фигур или
географических картосхем.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
209
Графики придают изложению статистических данных большую наглядность,
чем таблицы, выразительность, облегчают их восприятие и анализ. Статистический
график позволяет зрительно оценить характер изучаемого явления, присущие ему
закономерности, тенденции развития, взаимосвязи с другими показателями,
географическое разрешение изучаемых явлений. Еще в древности китайцы
говорили, что одно изображение заменяет тысячу слов. Графики делают
статистический материал более понятным, доступным и неспециалистам,
привлекают внимание широкой аудитории к статистическим данным,
популяризируют статистику и статистическую информацию.
При любой возможности анализ статистических данных рекомендуется всегда
начинать с их графического изображения. График позволяет сразу получить общее
представление обо всей совокупности статистических показателей. Графический
метод анализа выступает как логическое продолжение табличного метода и служит
целям получения обобщающих статистических характеристик процессов,
свойственных массовым явлениям.
При помощи графического изображения статистических данных решаются
многие задачи статистического исследования:
1)
наглядное представление величины показателей (явлений) в сравнении друг с
другом;
2)
характеристика структуры какого-либо явления;
3)
изменение явления во времени;
4)
ход выполнения плана;
5)
зависимость изменения одного явления от изменения другого;
6)
распространенность или размещение каких-либо величин по территории.
Другими словами, в статистических исследованиях применяются самые
разнообразные графики.
В каждом графике выделяют (различают) следующие основные элементы:
1)
пространственные ориентиры (систему координат);
2)
графический образ;
3)
поле графика;
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
210
4)
масштабные ориентиры;
5)
экспликация графика;
6)
наименование графика.
Иногда п.5 и п.6 объединяют в один элемент.
Пространственные ориентиры задаются в виде системы координатных сеток.
В статистических графиках чаще всего применяется система прямоугольных
координат. Иногда используется принцип полярных (угловых) координат (круговые
графики). В картограммах средствами пространственной ориентации являются
границы государств, границы административных его частей, географические
ориентиры (контуры рек, береговых линий морей и океанов).
На осях системы координат или на карте в определенном порядке
располагаются характеристики статистических признаков изображаемых явлений
или процессов. Признаки, располагаемые на осях координат, могут быть
качественными или количественными.
Графический образ статистических данных представляет собой совокупность
линий, фигур, точек, образующих геометрические фигуры разной формы
(окружность, квадраты, прямоугольники и т.п.) с различной штриховкой, окраской,
густотой нанесения точек.
Характер и закономерности развития массового явления в пространстве и во
времени складываются под влиянием множества существенных и несущественных,
объективных и субъективных, реальных и случайных движущих сил, причин (т.е.
факторов). В каждой конкретной единице статистической совокупности действие
факторов проявляется по-разному. Поскольку зависимость между значениями
признаков и единицами совокупности обнаруживаются, в общем, и среднем на
основе закона больших чисел, то важной задачей изучения рядов распределения
является изучение характера распределения единиц совокупности по исследуемым
признакам.
Важным приемом изучения рядов распределения является их графическое
изображение.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
211
Способы построения графиков различны для интервальных и дискретных
рядов.
Графически дискретный вариационный ряд можно изобразить, используя
прямоугольную систему координат и строя точки с координатами (х1, f1,), (x2, f2), …
(xn, fn). Если затем соединить последовательно полученные точки отрезками прямой,
а из первой и последней точек опустить перпендикуляр на ось Х, получим фигуру,
которая называется полигоном и графически представляет распределение единиц
совокупности по признаку Х.
График дискретного ряда распределения можно так же построить следующим
образом. На оси абсцисс в одинаковом масштабе откладываются слева направо в
порядке возрастания значения вариант данного ряда. По оси ординат наносится
шкала для значений величин частот. Из точек на оси Х абсцисс, соответствующих
значению исходной варианты, восстанавливаются перпендикуляры (ординаты),
причем длина ординаты (высота перпендикуляра) измеряется в единицах масштаба
оси ординат. Вершины этих перпендикуляров соединяются в последовательном
порядке отрезками прямой. К полученной ломаной линии присоединяются два
крайних перпендикуляра.
Полученный график (полигон) четко отражает характер рассматриваемого
распределения.
Сумма частот (частостей), заключенных в полигоне, равна объему
совокупности. График интервального ряда, так же как и дискретного ряда, позволяет
выявить характер (структуру) распределения изучаемого явления.
При построении графика интервального ряда на оси абсцисс откладываются
интервалы ряда. Незакрытые интервалы принимаются равными величине или
следующего (для открытого первого), или предыдущего (для открытого последнего
интервала). Такой прием применяется, если действительные нижняя или верхняя
границы этих интервалов неизвестны даже предположительно. Нередко для перво го
интервала началом принимают «0».
Приняв интервалы за основание, строим на них прямоугольники, равные по
высоте частоте данного интервала. Полученное графическое представление
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
212
интервального вариационного ряда называется гистограммой. Площадь
гистограммы, как и полигона, равна объему совокупности.
При построении гистограммы для интервальных рядов с неравными
интервалами используются величины плотностей распределения, а не частоты
данного ряда. В этом случае частоты зависят не только от величины вариант, но и от
размеров интервалов: чем больше взят интервал, тем больше единиц совокупности
попадает в него. Если ряд с равными интервалами, то частоты (частости) дают
четкое представление о том, как заполнены интервалы единицами совокупности, и
соответственно, отражают характер распределения. Сравнивая частоты (частости)
ряда с неравными интервалами, еще нельзя судить об относительной заполненности
разных интервалов. Для этого нужно исключить влияние размера частоты (частости)
на величину интервала. Это обеспечивается расчетом особого показателя,
отражающего, сколько единиц (или сколько доле или процентов единиц)
совокупности приходится на единицу изменения варианта.
Абсолютная плотность распределения (К) представляет собой величину
частоты, приходящейся на единицу размера интервала отдельной группы ряда К=f
/h., где h- величина интервала.
Относительна плотность распределения (K’) определяется как частное от
деления частости (w) отдельной группы ряда на размер ее интервала K’=w /h
Итак, чтобы изучить характер распределения (или структуру) необходимо на
оси абсцисс в прямоугольной системе координат откладывать значения
исследуемого признака (варианты) Х, а на оси ординат – частоты (частости) или
плотность распределения, и строят полигоны для дискретных рядов, а для
интервальных – гистограммы. Вид полученного графика (полигона или
гистограммы) указывает на характер распределения. Площадь полигона или
гистограммы численно равна сумме частот или частостей единиц в совокупности.
В гистограмме если середины прямоугольников соединить отрезками прямых,
то можно получить полигон распределения. Непрерывную вариацию изучаемого
признака можно графически изобразить сразу в виде полигона, когда значения
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
213
вариант (или плотностей распределения) относят к середине интервала. При этом
необходимо обеспечить равенство площадей полигона и гистограммы.
С помощью графического изображения ряда в виде полигонов или гистограмм
можно сравнивать структуры распределения единиц совокупности по различным
признакам или по различным явлениям.
В практике нередко возникает потребность в преобразовании рядов
распределения в ряды с накопленными частотами (частостями) или в кумулятивные
ряды. Накопленная частота (частость) для данного варианта или для верхней
границы данного интервала получается суммированием частот (частостей) всех
предшествующих вариант, включая данный.
Любой вариационный ряд можно представить в виде кривой накопленных
частот (или частостей). При этом на оси абсцисс откладывают варианты или верхние
значения интервалов, а по оси ординат соответствующие накопленные частоты
(частости). Полученные точки (вершины перпендикуляров) соединяются плавной
кривой (отрезками прямой). Главная кривая (или ломаная линия) называется
кумулятой или кумулятивной кривой (ломаной).
С помощью кумулятивных кривых можно иллюстрировать процесс
концентрации.
Если на оси абсцисс отложить накопленные частоты (частости), а на оси
ординат – значения вариантов, и выполнить операции, аналогичные для построения
кумулят, то получим график, называемый огивой (график, обратный кумулят).
При построении графиков большое значение имеет выбор соотношения между
размерами оси абсцисс (горизонтальной оси) и оси ординат (вертикальной оси). При
этом целесообразно руководствоваться так называемым правилом «Золотого
сочетания». По этому правилу, чертеж должен быть выполнен в прямоугольнике, в
котором длина вертикальной оси (высота графика) должна соотноситься к длине
всей горизонтальной оси (т.е. к ширине графика) приблизительно как 5:8.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
214
Список литературы
Рекомендуемая литература (основная)
1.
Гуров В. В. Основы теории и организации ЭВМ / В. В. Гуров, В. О. Чуканов. –
М.: Бином, 2006. – 272с.
2.
Иванов В. С. Основы математической статистики: Учебное пособие для
институтов физической культуры / В. С. Иванов – М.: Физкультура и спорт,
1990. – 175 с.
3.
Новоселов М. А. Основы работы в глобальной сети Internet: учебнометодическое пособие по курсу информатики для студентов, магистрантов,
аспирантов РГАФК / М. А. Новоселов. – М.: РИО РГАФК, 1998.
4.
Соболь Б. В. Информатика: учебник / Б. В. Соболь, А. Б. Галин, Ю. В. Панов,
Е. В. Рашидова, Н.Н. Садовой. – М.: Феникс, 2009. – 448с.
5.
Статистика. Обработка спортивных данных на компьютере: Учебное пособие
для ИФК / Под ред. М. П. Шестакова и Г. И. Попова. – М.: СпортАкадемПресс,
2002. – 278 с.
6.
Яшкина Е. Н. Информатика. Работа в WINDOWS-95: учебное пособие для
студентов РГАФК / Е. Н. Яшкина. – М.: РИО РГАФК, 1998.
7.
Яшкина Е. Н. Информатика. Работа в текстовом редакторе Microsoft Word:
учебное пособие для студентов РГАФК / Е. Н. Яшкина. – М.: РИОРГАФК,
1998.
8.
Яшкина Е. Н. Информатика. Работа в электронных таблицах Microsoft Excel:
учебное пособие для студентов РГАФК / Е. Н. Яшкина. – М.: РИО РГАФК,
1998.
9.
Яшкина Е. Н. Информатика: Учебное пособие для студентов-заочников
РГУФКСМиТа / Е. Н. Яшкина. – М.: РИО РГУФКСМиТ, 2004.
10.
Яшкина Е. Н. Информатика: учебно-методическое пособие для выполнения
расчетно-графических работ студентами РГАФК / Е. Н. Яшкина. – М.: РИО
РГАФК, 1998.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
215
Рекомендуемая литература (дополнительная)
1.
Акулов О. А. Информатика. Базовый курс / О. А. Акулов, Н. В. Медведев. –
М.: Омега-Л, 2009. – 576с.
2.
Безека С. В. Создание презентаций в PowerPoint 2007 / С. В. Безека. – М.: НТПресс, 2008. – 192с.
3.
Безручко В. Т. Практикум по курсу "Информатика" / В. Т. Безручко. – М.:
Инфра-М, 2007 г. – 368с.
4.
Вашкевич Э. М. PowerPoint 2007.Эффективные презентации на компьютере /
Э. М. Вашкевич. – СПб: Питер, 2008. – 240с.
5.
Вентцель Е. С. Задачи и упражнения по теории вероятностей: Учебное
пособие для втузов / Е. С. Вентцель, Л. А. Овчаров. – М.: Высшая школа, 2006.
– 448 с.
6.
Вентцель Е. С. Теория вероятностей: Учебник для втузов / Е. С. Вентцель. –
М.: Высшая школа, 2006. – 575 с.
7.
Воронов М. В. Математика для ст-тов гуманитарных факультетов: Учебник
для напр. и спец. вузов: 030000, 050000, 520000, 630000 / М. В. Воронов, Г. П.
Мещерякова; Санкт – Петерб. гос. ун-т техн. и дизайна: Ростов н/Д: Феникс,
2002, - 384 с.
8.
Гаврилов М. В. Информатика / М. В. Гаврилов, Н. В. Cпрожецкая – М.:
Гардарики, 2006. – 432с.
9.
Гельман В. Я. Решение Математических задач средствами Excel: Практикум /
В. Я. Гельман – СПб.: Питер, 2003. – 240 с.
10.
Гмурман В. Е. Руководство к решению задач по теории вероятностей и
математической статистике: Учебное пособие / В. Е. Гмурман. – М.: Высшее
образование, 2009. – 404 с.
11.
Гмурман В. Е. Теория вероятностей и математическая статистика: Учебное
пособие / В. Е. Гмурман. – М.: Высшее образование, 2009. – 479 с.
12.
Грес П. В. Математика для гуманитариев: Учебн. пособие для ст-тов вузов / П.
В. Грес. – М.: Логос, 2003 – 120 с.
13.
Гурский Ю. А. CorelDRAW X4. Трюки и эффекты / Ю. А. Гурский, А. В.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
216
Жвалевский, И. Ю. Гурская. – СПб: Питер, 2008. – 496с.
14.
Дабижа Г. Н. Компьютерная графика и верстка: CorelDRAW, Photoshop,
PageMaker / Г. Н. Дабижа – СПб: Питер, 2007. – 272с.
15.
Джонсон С. Microsoft Word 2007 / С. Джонсон. – М.: НТ Пресс, 2008 г. – 480с.
16.
Донцов Д. А. CorelDRAW X4 / Д. А. Донцов, А.В. Жвалевский. – СПб: Питер,
2008. – 144с.
17.
Жолков С. Ю. Математика и информатика для гуманитариев: Учебник для сттов гуманит. спец. и напр. вузов / С. Ю. Жолков. – М.: Гардарики, 2002. – 531 с.
18.
Информатика. Учебник / Под редакцией Макаровой Н. В. – М.: Финансы и
статистика, 2006. – 768с.
19.
Каймин В. А. Информатика / В. А. Каймин. – М.: Инфра-М, 2007. – 288с.
20.
Кудряшов Б. Д. Теория информации / Б. Д. Кудряшов. – СПб: Питер, 2009. –
320с.
21.
Кузнецова О. С. Информатика. Краткий курс / О. С. Кузнецова – М.: Окейкнига, 2009. – 176с.
22.
Курбатова Е. А. Microsoft Office Excel 2007: самоучитель / Е. А. Курбатова. –
М.: Диалектика 2008. – 384с.
23.
Максимов Н. В. Технические средства информатизации / Н. В. Максимов, Т. Л.
Партыка, И. И. Попов. – М.: Инфра-М, 2008. – 592с.
24.
Мирюков В. Ю. Информация, информатика, компьютер, информационные
системы, сети/ В. Ю. Мирюков. – М: Феникс, 2007. – 448c.
25.
Мотов В. В. Word, Excel, PowerPoint – просто, кратко, быстро: Руководство
пользователя / В. В. Мотов. – М: Инфра-М, 2008. – 206с.
26.
Официальный учебный курс Microsoft. Microsoft Office Excel 2003. Базовый
уровень – М.: Бином, 2006. – 248с.
27.
Официальный учебный курс Microsoft. Microsoft Office Word 2003. Базовый
курс – М.: Бином 2005. – 408c.
28.
Романова Ю. Д. Информатика и информационные технологии / Ю. Д. Романов.
– М.: Эксмо, 2009. – 320с.
29.
Свиридова М. Ю. Текстовый редактор Word. Учебное пособие для вузов / М.
Copyright ОАО «ЦКБ «БИБКОМ» & ООО «Aгентство Kнига-Cервис»
217
Ю. Свиридова. – М.: Academia, 2008. – 176с.
30.
Симонович С. В. Информатика. Базовый курс / С. В. Симонович и др. – СПб:
Питер, 2000.
31.
Степанов А. Н. Информатика: учебник для ст-тов вузов / Степанов А.Н. – 5-е
изд. – СПб: Питер, 2007. – 765 с.
32.
Столяров А. М. Microsoft Excel / А. М. Столяров, Е. С. Столярова. – М.: НТ
Пресс, 2007. – 336с.
33.
Стоцкий Ю. А. Office 2007: Изучаем самостоятельно: Работа с текстом в Word;
Электронные таблицы Excel; Презентации в PowerPoint и др.: Самоучитель /
Ю. А. Стоцкий, А. А. Васильев, И. С. Телина. – СПб: Питер, 2007. – 524с.
34.
Тюрин Ю. Н. Анализ данных на компьютере / Тюрин Ю. Н., Макаров А. А. –
М.: Финансы и статистика, 1995. – 420 с.
35.
Уокенбах Дж. Excel 2003. Библия пользователя / Дж. Уокенбах. – М.:
Диалектика, 2007. – 768с.
36.
Федорова А. В. CorelDRAW для студента / А. В. Федорова. – СПб: БХВПетербург, 2007. – 576с.
37.
Цветкова А. В. Информатика и информационные технологии / А. В. Цветкова.
– М.: Эксмо, 2007. – 172с
38.
Чекмарев Ю. В. Вычислительные системы, сети и коммуникации / Ю. В.
Чекмарев. – М.: ДМК пресс, 2009. – 184с.
39.
Шевченко Н. А. Просто и доступно о работе в Microsoft Word 2003 / Н. А.
Шевченко. – М.: НТ Пресс, 2007. – 336с.
Документ
Категория
Физико-математические науки
Просмотров
201
Размер файла
2 015 Кб
Теги
лекция, информатика, 2354, математика, курс
1/--страниц
Пожаловаться на содержимое документа