Ральф Винтон Лайон Хартли | |
---|---|
англ. Ralph Vinton Lyon Hartley | |
![]() | |
Дата рождения | 30 ноября 1888 |
Место рождения | |
Дата смерти | 1 мая 1970 (81 год) |
Место смерти |
|
Страна | США |
Научная сфера | электротехника |
Альма-матер |
Университет Юты Оксфордский университет |
Награды и премии |
Медаль Почёта IEEE Стипендия Родса |
Ральф Винтон Лайон Хартли (англ. Ralph Vinton Lyon Hartley, 30 ноября 1888, Спрус, Невада — 1 мая 1970, Нью-Джерси) — американский учёный-электронщик. Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 году логарифмическую меру информации , которая называется хартлиевским количеством информации или просто мерой Хартли.
Хартли получил высшее образование со степенью A.B. (бакалавр искусств) в Университете Юты в 1909. Как стипендиат Родса, он получил степень B.A. (бакалавр искусств) в 1912 и степень B.Sc. (бакалавр наук) в 1913 в Оксфордском университете.
В этом разделе не хватает ссылок на источники информации. |
После возвращения из Англии Хартли присоединился к Научно-исследовательской лаборатории Western Electric и принял участие в создании радиоприёмника для трансатлантических тестов. В течение Первой мировой войны, Хартли решил проблемы, которые препятствовали развитию направленных искателей звукового типа. После войны учёный вплотную занялся проблемой передачи информации (в частности звуковой). В течение этого периода он сформулировал закон: «общая сумма информации, которая может быть передана, пропорциональна переданному частотному диапазону и времени передачи».
Хартли был пионером в области информационной теории. Он ввёл понятие «информации» (энтропии) как случайной переменной и был первым, кто попытался определить «меру информации». Хартли развивал понятие информации, основанной на «физическом как противопоставлено с психологическими рассмотрениями» для использования в изучении электронных коммуникаций. Фактически, Хартли соответственно определяет это основное понятие. Вместо этого он обращается к «точности ... информации» и «количеству информации».
Информация существует в передаче символов, с символами, имеющими «определённые значения к партийному сообщению». Когда кто-то получает информацию, каждый полученный символ позволяет получателю «устранять возможности», исключая другие возможные символы и их связанные значения.
Точность информации зависит от того, что другие последовательности символа, возможно, были выбраны; мера этих других последовательностей обеспечивает признак количества переданной информации. Таким образом, если бы мы получили 4 различных символа, происходящие с равной частотой, то это представило бы 2 бита.
Хартли награждён премиями за отличия в области науки, этот учёный состоял в американской Ассоциации продвижения науки. Хартли принадлежат больше чем 70 патентов (изобретений).
![]() | Хотя частотные отношения в электрических связях интересны сами по себе, их обсуждение в этой ситуации едва ли будет оправдано, если мы не сможем вывести из них достаточно общие практические применения к разработке систем связи. То, что я надеюсь достичь в этом направлении, должно установить количественную меру, посредством которой могут быть сравнены мощности различных систем передачи информации – [1, стр.535] | ![]() |
Данная страница на сайте WikiSort.ru содержит текст со страницы сайта "Википедия".
Если Вы хотите её отредактировать, то можете сделать это на странице редактирования в Википедии.
Если сделанные Вами правки не будут кем-нибудь удалены, то через несколько дней они появятся на сайте WikiSort.ru .