close

Вход

Забыли?

вход по аккаунту

?

prezentaciya po informatike

код для вставкиСкачать
Выполнила:
ученица 8 А класса
МБОУ СШ №3
Зайцева Вероника
 Ральф Винтон Лайон Хартли
(англ. Ralph Vinton Lyon Hartley, 30 ноября
1888, Спрус, Невада — 1 мая 1970, НьюДжерси) — американский учёныйэлектронщик. Он предложил генератор
Хартли, преобразование Хартли и сделал
вклад в теорию информации, введя в
[[1928]году] логарифмическую меру
информации , которая называется
хартлиевским количеством информации.
 Он получил высшее
образование со степенью
A.B. (бакалавр искусств) в
Университете Юты в 1909.
Как стипендиат Родса, он
получил степень B.A.
(бакалавр искусств) в 1912 и
степень B.Sc. (бакалавр
наук) в 1913 в Оксфордском
университете.
Научная деятельность Хартли
 После возвращения из Англии, Хартли
присоединился к Научно-исследовательской
лаборатории Западной Электрической
Компании и принял участие в создании
радиоприёмника для трансатлантических
тестов. В течение Первой мировой войны,
Хартли решил проблемы, которые
препятствовали развитию направленных
искателей звукового типа. После войны учёный
вплотную занялся проблемой передачи
информации (в частности звуковой). В течение
этого периода он сформулировал закон: «общая
сумма информации, которая может быть
передана, пропорциональна переданному
частотному диапазону и времени передачи».
 Хартли был пионером в области Информационной
Теории. Он ввёл понятие «информации» (энтропии) как
случайной переменной и был первым, кто попытался
определить «меру информации». Хартли развивал
понятие информации, основанной на «физическом как
противопоставлено с психологическими
рассмотрениями» для использования в изучении
электронных коммуникаций. Фактически, Хартли
соответственно определяет это основное понятие.
Вместо этого он обращается к «точности ...
информации» и «количеству информации».
 Информация существует в передаче символов, с
символами, имеющими «определённые значения к
партийному сообщению». Когда кто-то получает
информацию, каждый полученный символ позволяет
получателю «устранять возможности», исключая
другие возможные символы и их связанные значения.
 Точность информации зависит от того, что другие
последовательности символа, возможно, были
выбраны; мера этих других последовательностей
обеспечивает признак количества переданной
информации. Таким образом, если бы мы получили 4
различных символа, происходящие с равной
частотой, то это представило бы 2 бита.
 Хартли награждён премиями за отличия в области
науки, этот учёный состоял в американской
Ассоциации Продвижения Науки. Хартли
принадлежат больше чем 70 патентов
(изобретений).
Цитата Хартли
 Хотя частотные отношения в электрических
связях интересны сами по себе, их обсуждение в
этой ситуации едва ли будет оправдано, если мы
не сможем вывести из них достаточно общие
практические применения к разработке систем
связи. То, что я надеюсь достичь в этом
направлении, должно установить
количественную меру, посредством которой
могут быть сравнены мощности различных
систем передачи информации»
Конец!
Спасибо за просмотр!
Автор
irisha1992-92
Документ
Категория
Презентации по информатике
Просмотров
8
Размер файла
522 Кб
Теги
informatika, prezentacia
1/--страниц
Пожаловаться на содержимое документа