Хартли, Ральф

Ральф хартли биография кратко

Хартли, Ральф

Ральф Винтон Лайон Хартли (англ. Ralph Vinton Lyon Hartley, 30 ноября 1888, Спрус, Невада — 1 мая 1970, Нью-Джерси) — американский учёный-электронщик.

Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 году логарифмическую меру информации H = K log 2 ⁡ (M) {\displaystyle H=K\log _{2}(M)} , которая называется хартлиевским количеством информации или просто мерой Хартли.

Биография

Он получил высшее образование со степенью A.B. (бакалавр искусств) в Университете Юты в 1909. Как стипендиат Родса, он получил степень B.A. (бакалавр искусств) в 1912 и степень B.Sc. (бакалавр наук) в 1913 в Оксфордском университете.

Научная деятельность

После возвращения из Англии, Хартли присоединился к Научно-исследовательской лаборатории Западной Электрической Компании и принял участие в создании радиоприёмника для трансатлантических тестов.

В течение Первой мировой войны, Хартли решил проблемы, которые препятствовали развитию направленных искателей звукового типа. После войны учёный вплотную занялся проблемой передачи информации (в частности звуковой).

В течение этого периода он сформулировал закон: «общая сумма информации, которая может быть передана, пропорциональна переданному частотному диапазону и времени передачи».

Хартли был пионером в области Информационной Теории. Он ввёл понятие «информации» (энтропии) как случайной переменной и был первым, кто попытался определить «меру информации».

Хартли развивал понятие информации, основанной на «физическом как противопоставлено с психологическими рассмотрениями» для использования в изучении электронных коммуникаций. Фактически, Хартли соответственно определяет это основное понятие.

Вместо этого он обращается к «точности… информации» и «количеству информации».

Информация существует в передаче символов, с символами, имеющими «определённые значения к партийному сообщению». Когда кто-то получает информацию, каждый полученный символ позволяет получателю «устранять возможности», исключая другие возможные символы и их связанные значения.

Точность информации зависит от того, что другие последовательности символа, возможно, были выбраны; мера этих других последовательностей обеспечивает признак количества переданной информации. Таким образом, если бы мы получили 4 различных символа, происходящие с равной частотой, то это представило бы 2 бита.

Хартли награждён премиями за отличия в области науки, этот учёный состоял в американской Ассоциации Продвижения Науки. Хартли принадлежат больше чем 70 патентов (изобретений).

Публикации

  1. Hartley, R.V.L., «Transmission of Information», Bell System Technical Journal, July 1928, pp. 535–563.
  2. Hartley, R.V.L., «A Wave Mechanism of Quantum Phenomena», Physical Review, Volume 33, 89, 1929 (abstract only)
  3. Hartley, R.V.L.

    , «Oscillations in Systems with Non-Linear Reactance», The Bell System Technical Journal, Volume 15, Number 3, July 1936, pp 424 – 440

  4. Hartley, R.V.L., «A More Symmetrical Fourier Analysis Applied to Transmission Problems,» Proceedings of the IRE 30, pp. 144–150 (1942).
  5. Hartley, R.V.L.

    , «A New System of Logarithmic Units», Proceedings of the IRE, January 1955, Vol. 43, No. 1.

  6. Hartley, R.V.L., «Information Theory of The Fourier Analysis and Wave Mechanics», August 10, 1955, publication information unknown.
  7. Hartley, R.V.L.

    , «The Mechanism of Gravitation», January 11, 1956, publication information unknown.

Библиография

  1. Hartley R.V.L. Transmission of information. — Bell System Technical Journal — 7. — 1928. — С. 535-63.

РальфВинтон Лайон Хартли— американский учёный-электронщик. Онпредложил генератор Хартли, преобразованиеХартли и сделал вклад в теорию информации,введя в 1928 логарифмическую меру информации,которая называетсяхартлиевскимколичеством информации.

Клод Элвуд Шеннон

КлодЭ́лвуд Ше́ннон— американскийинженери математик,его работы являются синтезомматематических идей с конкретныманализом чрезвычайно сложных проблемих технической реализации.

Являетсяоснователем теорииинформации,нашедшей применение в современныхвысокотехнологических системах связи.Шеннон внес огромный вклад в теориювероятностных схем, теориюавтоматов итеорию системуправления -области наук, входящие в понятие«кибернетика».В 1948 году предложил использовать слово«бит»для обозначения наименьшей единицыинформации (в статье «Математическаятеория связи»).

План Введение

1 Биография

2 Научная деятельность
3 Публикации
4 Цитата
5 Библиография

Введение

Ральф Винтон Лайон Хартли (англ. Ralph Vinton Lyon Hartley, родился 30 ноября 1888 в Ели, штате Невада, умер 1 мая 1970. Американский учёный-электронщик. Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 логарифмическую меру информации H = Klog2(M), которая называется хартлиевским количеством информации.

1. Биография

Он получил высшее образование со степенью A.B. (бакалавр искусств) в Университете Юты в 1909. Как стипендиат Родса, он получил степень B.A. (бакалавр искусств) в 1912 и степень B.Sc. (бакалавр наук) в 1913 в Оксфордском университете.

2. Научная деятельность

После возвращения из Англии, Хартли присоединился к Научно-исследовательской лаборатории Западной Электрической Компании и принял участие в создании радиоприёмника для трансатлантических тестов.

В течение Первой мировой войны, Хартли решил проблемы, которые препятствовали развитию направленных искателей звукового типа. После войны учёный вплотную занялся проблемой передачи информации (в частности звуковой).

В течение этого периода он сформулировал закон, «что общая сумма информации, которая может быть передана, пропорциональна переданному частотному диапазону и времени передачи.»

Хартли был пионером в области Информационной Теории. Он ввёл понятие «информации» (энтропии) как случайной переменной и был первый, кто попытался определить «меру информации».

Хартли развивал понятие информации, основанной на «физическом как противопоставлено с психологическими рассмотрениями» для использования в изучении электронных коммуникаций. Фактически, Хартли соответственно определяет это основное понятие.

Вместо этого он обращается к «точности… информации» и «количества информации».

Информация существует в передаче символов, с символами, имеющими «определённые значения к партийному сообщению». Когда кто — то получает информацию, каждый полученный символ позволяет получателю «устранять возможности», исключая другие возможные символы и их связанные значения. «

Точность информации зависит от того, что другие последовательности символа, возможно, были выбраны; мера этих других последовательностей обеспечивает признак количества переданной информации. Таким образом, если бы мы получили 4 различных символа, происходящие с равной частотой, то это представило бы 2 бита.

Хартли награждён премиями за отличия в области науки, этот учёный состоял в американской Ассоциации Продвижения Науки. Хартли принадлежат больше чем 70 патентов (изобретений).

3. Публикации

1. Hartley, R.V.L., «Transmission of Information», Bell System Technical Journal, July 1928, pp.535–563.

2. Hartley, R.V.L., «A Wave Mechanism of Quantum Phenomena», Physical Review, Volume 33, 89, 1929 (abstract only)

3. Hartley, R.V.L., «Oscillations in Systems with Non-Linear Reactance», The Bell System Technical Journal, Volume 15, Number 3, July 1936, pp 424 — 440

4. Hartley, R.V.L., «A More Symmetrical Fourier Analysis Applied to Transmission Problems,» Proceedings of the IRE 30, pp.144–150 (1942).

5. Hartley, R.V.L., «A New System of Logarithmic Units», Proceedings of the IRE, January 1955, Vol. 43, No. 1.

6. Hartley, R.V.L., «Information Theory of The Fourier Analysis and Wave Mechanics», August 10, 1955, publication information unknown.

7. Hartley, R.V.L., «The Mechanism of Gravitation», January 11, 1956, publication information unknown.

5. Библиография

1. Hartley R.V.L. Transmission of information. — Bell System Technical Journal — 7. — 1928. — С. 535-63.

перевод:Хартли Р.В.Л. Передача информации. // Теория информации и ее приложения. — Физматгиз, 1959.

План Введение

1 Биография

2 Научная деятельность
3 Публикации
4 Цитата
5 Библиография

Введение

Ральф Винтон Лайон Хартли (англ. Ralph Vinton Lyon Hartley, родился 30 ноября 1888 в Ели, штате Невада, умер 1 мая 1970. Американский учёный-электронщик. Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 логарифмическую меру информации H = Klog2(M), которая называется хартлиевским количеством информации.

1. Биография

Он получил высшее образование со степенью A.B. (бакалавр искусств) в Университете Юты в 1909. Как стипендиат Родса, он получил степень B.A. (бакалавр искусств) в 1912 и степень B.Sc. (бакалавр наук) в 1913 в Оксфордском университете.

2. Научная деятельность

После возвращения из Англии, Хартли присоединился к Научно-исследовательской лаборатории Западной Электрической Компании и принял участие в создании радиоприёмника для трансатлантических тестов.

В течение Первой мировой войны, Хартли решил проблемы, которые препятствовали развитию направленных искателей звукового типа. После войны учёный вплотную занялся проблемой передачи информации (в частности звуковой).

В течение этого периода он сформулировал закон, «что общая сумма информации, которая может быть передана, пропорциональна переданному частотному диапазону и времени передачи.»

Хартли был пионером в области Информационной Теории. Он ввёл понятие «информации» (энтропии) как случайной переменной и был первый, кто попытался определить «меру информации».

Хартли развивал понятие информации, основанной на «физическом как противопоставлено с психологическими рассмотрениями» для использования в изучении электронных коммуникаций. Фактически, Хартли соответственно определяет это основное понятие.

Вместо этого он обращается к «точности… информации» и «количества информации».

Информация существует в передаче символов, с символами, имеющими «определённые значения к партийному сообщению». Когда кто — то получает информацию, каждый полученный символ позволяет получателю «устранять возможности», исключая другие возможные символы и их связанные значения. «

Точность информации зависит от того, что другие последовательности символа, возможно, были выбраны; мера этих других последовательностей обеспечивает признак количества переданной информации. Таким образом, если бы мы получили 4 различных символа, происходящие с равной частотой, то это представило бы 2 бита.

Хартли награждён премиями за отличия в области науки, этот учёный состоял в американской Ассоциации Продвижения Науки. Хартли принадлежат больше чем 70 патентов (изобретений).

3. Публикации

1. Hartley, R.V.L., «Transmission of Information», Bell System Technical Journal, July 1928, pp.535–563.

2. Hartley, R.V.L., «A Wave Mechanism of Quantum Phenomena», Physical Review, Volume 33, 89, 1929 (abstract only)

3. Hartley, R.V.L., «Oscillations in Systems with Non-Linear Reactance», The Bell System Technical Journal, Volume 15, Number 3, July 1936, pp 424 — 440

4. Hartley, R.V.L., «A More Symmetrical Fourier Analysis Applied to Transmission Problems,» Proceedings of the IRE 30, pp.144–150 (1942).

5. Hartley, R.V.L., «A New System of Logarithmic Units», Proceedings of the IRE, January 1955, Vol. 43, No. 1.

6. Hartley, R.V.L., «Information Theory of The Fourier Analysis and Wave Mechanics», August 10, 1955, publication information unknown.

7. Hartley, R.V.L., «The Mechanism of Gravitation», January 11, 1956, publication information unknown.

5. Библиография

1. Hartley R.V.L. Transmission of information. — Bell System Technical Journal — 7. — 1928. — С. 535-63.

перевод:Хартли Р.В.Л. Передача информации. // Теория информации и ее приложения. — Физматгиз, 1959.

ПланВведение

1 Биография

2 Научная деятельность
3 Публикации
4 Цитата
5 Библиография

Введение

Ральф Винтон Лайон Хартли (англ. Ralph Vinton Lyon Hartley, родился 30 ноября 1888 в Ели, штате Невада, умер 1 мая 1970. Американский учёный-электронщик. Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 логарифмическую меру информации H = Klog 2(M), которая называется хартлиевским количеством информации .

1. Биография

Он получил высшее образование со степенью A.B. (бакалавр искусств) в Университете Юты в 1909. Как стипендиат Родса, он получил степень B.A. (бакалавр искусств) в 1912 и степень B.Sc. (бакалавр наук) в 1913 в Оксфордском университете.

2. Научная деятельность

После возвращения из Англии, Хартли присоединился к Научно-исследовательской лаборатории Западной Электрической Компании и принял участие в создании радиоприёмника для трансатлантических тестов.

В течение Первой мировой войны, Хартли решил проблемы, которые препятствовали развитию направленных искателей звукового типа. После войны учёный вплотную занялся проблемой передачи информации (в частности звуковой).

В течение этого периода он сформулировал закон, «что общая сумма информации, которая может быть передана, пропорциональна переданному частотному диапазону и времени передачи.»

Хартли был пионером в области Информационной Теории. Он ввёл понятие «информации» (энтропии) как случайной переменной и был первый, кто попытался определить «меру информации».

Хартли развивал понятие информации, основанной на «физическом как противопоставлено с психологическими рассмотрениями» для использования в изучении электронных коммуникаций. Фактически, Хартли соответственно определяет это основное понятие.

Вместо этого он обращается к «точности… информации» и «количества информации».

Информация существует в передаче символов, с символами, имеющими «определённые значения к партийному сообщению». Когда кто — то получает информацию, каждый полученный символ позволяет получателю «устранять возможности», исключая другие возможные символы и их связанные значения. «

Точность информации зависит от того, что другие последовательности символа, возможно, были выбраны; мера этих других последовательностей обеспечивает признак количества переданной информации. Таким образом, если бы мы получили 4 различных символа, происходящие с равной частотой, то это представило бы 2 бита.

Хартли награждён премиями за отличия в области науки, этот учёный состоял в американской Ассоциации Продвижения Науки. Хартли принадлежат больше чем 70 патентов (изобретений).

3. Публикации

1. Hartley, R.V.L., «Transmission of Information», Bell System Technical Journal, July 1928, pp.535–563.

2. Hartley, R.V.L., «A Wave Mechanism of Quantum Phenomena», Physical Review, Volume 33, 89, 1929 (abstract only)

3. Hartley, R.V.L., «Oscillations in Systems with Non-Linear Reactance», The Bell System Technical Journal, Volume 15, Number 3, July 1936, pp 424 — 440

4. Hartley, R.V.L., «A More Symmetrical Fourier Analysis Applied to Transmission Problems,» Proceedings of the IRE 30, pp.144–150 (1942).

5. Hartley, R.V.L., «A New System of Logarithmic Units», Proceedings of the IRE, January 1955, Vol. 43, No. 1.

6. Hartley, R.V.L., «Information Theory of The Fourier Analysis and Wave Mechanics», August 10, 1955, publication information unknown.

7. Hartley, R.V.L., «The Mechanism of Gravitation», January 11, 1956, publication information unknown.

5. Библиография

1. Hartley R.V.L. Transmission of information. — Bell System Technical Journal — 7. — 1928. — С. 535-63.

перевод:Хартли Р.В.Л. Передача информации. // Теория информации и ее приложения. — Физматгиз, 1959.

Источник: https://gikk.ru/the-device/ralf-hartli-biografiya-kratko/

Интересные факты для учителей и любознательных учеников

Хартли, Ральф

  • Из журнала «Компьютерра»
  • Ральф Хартли
  • Клод Элвуд Шеннон

В старых энциклопедиях «Информации» не было. За «Инфлянтами Польскими» там сразу следовали «Инфралапсарии». И когда такая статья появилась в общедоступном издании, Малой Советской Энциклопедии 1929 года выпуска, смысл термина информация был очень далек от современного.

Информация (лат.), осведомление. Информационный — осведомительный. В органах периодической печати информационный отдел — та часть газеты, журнала и т.п., которая содержит телеграммы, корреспонденции, интервью, а также сведения, даваемые репортерами».

Многочисленные в те годы информаторы, снабжающие любознательные организации данными о жизни сослуживцев и соседей, в общедоступные издания по понятным причинам не попадали.

Но интересно, что хотя в технике связи, особенно в стационарных каналах, ключ Морзе был к тому времени вытеснен стартстопными аппаратами, но деятельность вышеописанных информаторов в народе описывали лаконично — «стучат».

«Компьютерре» лишь в следующем веке предстояло поведать читателям, что дятел в лесу работает как живой модем, а мудрое коллективное бессознательное уже присвоило тем многочисленным и скромным информационным работникам лапидарное — «дятел»!

Древние римляне употребляли слово informatio в смысле — истолкование, представление, — но вот современное, исключительно емкое понятие информация есть плод развития в равной мере и науки, и технологии.

Латинское in-formo (придавать форму, составлять, воображать) употреблялось еще Цицероном и связано с платоновскими первоидеями через греческое, весьма многозначное, eidos.

Но полноценный термин «информация» появился сравнительно поздно, даже позже первых электронно-вычислительных машин, и атомных котлов, и бомб.

Ввел его Клод Шеннон (Claude Shannon) в работе 1948 года «A Mathematical Theory of Communication». И вызвала его к жизни суровая практическая необходимость передавать сообщения по изобилующим шумами каналам. Точно так же, как поколениями раньше необходимость учета динамических характеристик телеграфных линий породила гениальные труды Хевисайда.

Вводится понятие информации чисто математически. Достаточно популярное, но и точное понятие дано в старой, весьма известной в СССР работе братьев Ягломов. Информация вводится как оппозиция, противостояние энтропии. Шуму, хаосу, неопределенности, «незнанию».

А энтропия в теорию коммуникаций была введена еще раньше, в 1928 году пионерскими работами американского инженера-электроника Ральфа Винтона Лайона Хартли.

Отметим, кстати, что, говоря о чисто практических задачах связи, Хартли упомянул «психологические факторы», влияющие на меру неопределенности.

Вообще же, используемым им (и позже Шенноном) математическим аппаратом была теория вероятности. Дисциплина, возникшая из любви французских аристократов к азартным играм.

И понятие энтропии в те времена даже в физике носило эмоциональный окрас, — еще бы! — ведь самым первым следствием этой ранней формулировки стало понимание невозможности создания Вечного двигателя второго рода. Устройства, которое могло бы производить работу за счет одной только рассеянной вокруг теплоты.

Проникновение этих понятий в научную среду было крайне драматичным. Прежде всего — «тепловая смерть» Вселенной. Для того чтобы представить, как эта концепция воспринималась в годы ее оформления, нужно обратиться к интеллектуальной атмосфере девятнадцатого века. Хоть и начавшийся мясорубкой, учиненной военно-бюрократической машиной Наполеона, век этот оказался временем торжества прогресса.

И тут в благолепие прогресса, сияющей дороги к усложнению и счастью, вторглось представление о неубывании хаоса, о ПРЕДСКАЗАННОЙ НАУКОЙ «тепловой смерти» Вселенной. Нет, не о Светопреставлении религий, за которым следует новая жизнь среди новых небес и на новой земле. О научной, ощутимой и безысходной всеобщей гибели, хоть и весьма отдаленной, но абсолютно неминуемой.

И осознавали это не только ученые. Обратимся к чеховской «Чайке».

Вот монолог Нины Заречной в эпизоде с вставной пьесой нарочито плохого литератора: «Люди, львы, орлы и куропатки, рогатые олени, гуси, пауки, молчаливые рыбы, обитавшие в воде, морские звезды и те, которых нельзя было видеть глазом, — словом, все жизни, все жизни, свершив свой печальный круг, угасли… Холодно, холодно, холодно. Пусто, пусто, пусто. Страшно, страшно, страшно….»

Вспомним самоубийство сына К. Э. Циолковского, вызванное, по мнению биографов, ужасом грядущей «тепловой смерти». Ведь действительно, для сторонников материализма, весьма распространенного в интеллектуальных кругах того времени, прекращение молекулярного движения из-за достижения максимума энтропии означало ВСЕОБЩУЮ гибель. Жизнь делалась бессмысленной для человека, склонного к обобщениям и к экстраполяциям.

Введение Ральфом Хартли понятия энтропии при передаче сообщений, и — Клодом Шенноном — ее антитезы — уже собственно информации, при всей своей видимой ТЕХНИЧНОСТИ были событиями колоссального мировоззренческого значения. Впервые позитивные науки, причем рука об руку с инженерным делом, тогдашним фронтиром хайтека, пришли туда, где до этого царили философия, метафизика и теология.

Забавнее всего на теорию информации и кибернетику реагировали в сталинском СССР. Казалось бы — триумф материализма. Но не тут-то было…

В большевистской стране для теории информации (как и теории относительности, квантовой механики, нестационарной Вселенной) в своде идеологических основ места не предусмотрели. Ну не успели классики марксизма об этом высказаться. Да и не могли ещё…

И была совсем юная кибернетика объявлена продажной девкой империализма. Попытки реабилитации ее в начале шестидесятых уже ничего не решали. Впрочем, это — тема для отдельного разговора.

А введенная Шенноном концепция информации, преобразовав окружающий нас мир, став основой Второй природы, все больше и больше возвращается в теоретическую физику. Израильский физик, создатель термодинамической теории черных дыр Якоб Давид Бекенштайн (Bekenstein, р.1947) предположил5,что это — общая тенденция современного естествознания.

В феномене «квантового спутывания» частиц (quantum entanglement) информация предстает в одной из своих новых одежд, а возможно, и новыми чертами своего характера. Но главное — чем больше и больше мы узнаем окружающее, тем яснее видим глубокие связи информации с объективным миром.

Из журнала «Компьютерра»         Информация forever          Ваннах Михаил          29 ноября 2007 года

назад

     Ральф. Хартли родился в Ели, Штате Невада, 30 ноября 1888. Он получил высшее образование со степенью A.B. от Университета Юты в 1909. Как Родосский Ученый, он получил степень B.A. в 1912 и степень B.Sc. в 1913 от Оксфордского университета.

После возвращения из Англии, Хартли присоединился к Научно-исследовательской лаборатории Западной Электрической Компании и принял участие в создании радиоприемника для трансатлантических тестов.

В течение Первой мировой войны, Хартли решил проблемы, которые препятствовали развитию направленных искателей звукового типа.

После войны ученый вплотную занялся проблемой передачи информации (в частности звуковой). В течение этого периода он сформулировал закон, «что общая сумма информации, которая может быть передана, пропорциональна переданному частотному диапазону и времени передачи.

» Хартли был пионером в области Информационной Теории. Он ввёл понятие «информации» как случайная переменная и был первый, кто попытался определить «меру информации» (1928: » Передача Информации», в Технологии Системы Звонка. Журнал, издание 7, стр 535-563).

Публикация в том же самом журнале как Nyquist, и все же не цитируя Nyquist (или кто — либо еще, впрочем), Хартли развивал понятие информации, основанной на «физическом как противопоставлено с психологическими рассмотрениями» для использования в изучении электронных коммуникаций.

Фактически, Хартли соответственно определяет это основное понятие. Вместо этого он обращается к «точности … информации» и «количества информации».

Информация существует в передаче символов, с символами, имеющими «определенные значения к партийному сообщению». Когда кто — то получает информацию, каждый полученный символ позволяет получателю «устранять возможности», исключая другие возможные символы и их связанные значения. «

Точность информации зависит от того, что другие последовательности символа, возможно, были выбраны»; мера этих других последовательностей обеспечивает признак количества переданной информации. Nyquist тогда предлагает, чтобы мы взяли «как наша практическая мера информации логарифм числа возможных последовательностей символа».

Таким образом, если бы мы получили 4 различных символа, происходящие с равной частотой, то это представило бы 2 бита Хартли награжден премиями за отличия в области науки, этот ученый состоял в американской Ассоциации Продвижения Науки. Хартли принадлежат больше чем 70 патентов (изобретений). Ральф В.л.

Хартли умер 1 мая 1970 в возрасте 81 года.

Информация с сайта: http://teo-inf1.narod.ru/index.html

назад

     Клод Элвуд Шеннон (Shannon) (1916 — 2001) — американский инженер и математик. Человек, которого называют отцом современных теорий информации и связи.

Осенним днем 1989 года корреспондент журнала «Scientific American» вошел в старинный дом с видом на озеро к северу от Бостона. Но встретивший его хозяин, 73-летний стройный старик с пышной седой гривой и озорной улыбкой, совсем не желал вспоминать «дела давно минувших дней» и обсуждать свои научные открытия 30-50-летней давности. Быть может, гость лучше посмотрит его игрушки?

Не дожидаясь ответа и не слушая увещеваний жены Бетти, хозяин увлек изумленного журналиста в соседнюю комнату, где с гордостью 10-летнего мальчишки продемонстрировал свои сокровища: семь шахматных машин, цирковой шест с пружиной и бензиновым двигателем, складной нож с сотней лезвий, двухместный одноколесный велосипед, жонглирующий манекен, а также компьютер, вычисляющий в римской системе счисления. И не беда, что многие из этих творений хозяина давно сломаны и порядком запылены, — он счастлив.

Кто этот старик? Неужели это он, будучи еще молодым инженером Bell Laboratories, написал в 1948 году «Великую хартию» информационной эры — «Математическую теорию связи»? Его ли труд назвали «величайшей работой в анналах технической мысли»? Его ли интуицию первооткрывателя сравнивали с гением Эйнштейна? Да, это все о нем.

И он же в тех же 40-х годах конструировал летающий диск на ракетном двигателе и катался, одновременно жонглируя, на одноколесном велосипеде по коридорам Bell Labs. Это Клод Элвуд Шеннон, отец кибернетики и теории информации, гордо заявивший: «Я всегда следовал своим интересам, не думая ни о том, во что они мне обойдутся, ни об их ценности для мира.

Я потратил уйму времени на совершенно бесполезные вещи.»

Клод Шеннон родился в 1916 году и вырос в городе Гэйлорде штата Мичиган. Еще в детские годы Клод познакомился как с детальностью технических конструкций, так и с общностью математических принципов.

Он постоянно возился с детекторными приемниками и радиоконструкторами, которые приносил ему отец, помощник судьи, и решал математические задачки и головоломки, которыми снабжала его старшая сестра Кэтрин, ставшая впоследствии профессором математики.

Клод полюбил эти два мира, столь несхожие между собой, — технику и математику.

Будучи студентом Мичиганского университета, который он окончил в 1936 году, Клод специализировался одновременно и в математике, и в электротехнике. Эта двусторонность интересов и образования определила первый крупный успех, которого Клод Шеннон достиг в свои аспирантские годы в Массачусетском технологическом институте.

В своей диссертации, защищенной в 1940 году, он доказал, что работу переключателей и реле в электрических схемах можно представить посредством алгебры, изобретенной в середине XIX века английским математиком Джорджем Булем.

«Просто случилось так, что никто другой не был знаком с этими обеими областями одновременно!» — так скромно Шеннон объяснил причину своего открытия.

В наши дни совершенно излишне объяснять читателям компьютерного издания, что значит булева алгебра для современной схемотехники. В 1941 году 25-летний Клод Шеннон поступил на работу в Bell Laboratories. В годы войны он занимался разработкой криптографических систем, и позже это помогло ему открыть методы кодирования с коррекцией ошибок.

А в свободное время он начал развивать идеи, которые потом вылились в теорию информации. Исходная цель Шеннона заключалась в улучшении передачи информации по телеграфному или телефонному каналу, находящемуся под воздействием электрических шумов.

Он быстро пришел к выводу, что наилучшее решение проблемы заключается в более эффективной упаковке информации.

Но что же такое информация? Чем измерять ее количество? Шеннону пришлось ответить на эти вопросы еще до того, как он приступил к исследованиям пропускной способности каналов связи.

В своих работах 1948-49 годов он определил количество информации через энтропию — величину, известную в термодинамике и статистической физике как мера разупорядоченности системы, а за единицу информации принял то, что впоследствии окрестили «битом», то есть выбор одного из двух равновероятных вариантов.

Позже Шеннон любил рассказывать, что использовать энтропию ему посоветовал знаменитый математик Джон фон Нейман, который мотивировал свой совет тем, что мало кто из математиков и инженеров знает об энтропии, и это обеспечит Шеннону большое преимущество в неизбежных спорах.

Шутка это или нет, но как трудно нам теперь представить, что всего полвека назад понятие «количество информации» еще нуждалось в строгом определении и что это определение могло вызвать какие-то споры.

На прочном фундаменте своего определения количества информации Клод Шеннон доказал удивительную теорему о пропускной способности зашумленных каналов связи. Во всей полноте эта теорема была опубликована в его работах 1957-61 годов и теперь носит его имя.

В чем суть теоремы Шеннона? Всякий зашумленный канал связи характеризуется своей предельной скоростью передачи информации, называемой пределом Шеннона. При скоростях передачи выше этого предела неизбежны ошибки в передаваемой информации.

Зато снизу к этому пределу можно подойти сколь угодно близко, обеспечивая соответствующим кодированием информации сколь угодно малую вероятность ошибки при любой зашумленности канала.

Эти идеи Шеннона оказались слишком провидческими и не смогли найти себе применения в годы медленной ламповой электроники. Но в наше время высокоскоростных микросхем они работают повсюду, где хранится, обрабатывается и передается информация: в компьютере и лазерном диске, в факсимильном аппарате и межпланетной станции. Мы не замечаем теорему Шеннона, как не замечаем воздух.

Кроме теории информации, неуемный Шеннон приложился во многих областях. Одним из первых он высказал мысль о том, что машины могут играть в игры и самообучаться. В 1950 году он сделал механическую мышку Тесей, дистанционно управляемую сложной электронной схемой. Эта мышка училась находить выход из лабиринта.

В честь его изобретения IEEE учредил международный конкурс «микромышь», в котором до сих пор принимают участие тысячи студентов технических вузов.

В те же 50-е годы Шеннон создал машину, которая «читала мысли» при игре в «монетку»: человек загадывал «орел» или «решку», а машина отгадывала с вероятностью выше 50%, потому что человек никак не может избежать каких-либо закономерностей, которые машина может использовать.

В 1956 году Шеннон покинул Bell Labs и со следующего года стал профессором Массачусетского технологического института, откуда ушел на пенсию в 1978 году. В числе его студентов был, в частности, Марвин Мински и другие известные ученые, работавшие в области искусственного интеллекта.

Труды Шеннона, к которым с благоговением относятся деятели науки, столь же интересны и для специалистов, решающих сугубо прикладные задачи. Шеннон заложил основание и для современного кодирования с коррекцией ошибок, без которого не обходится сейчас ни один дисковод для жестких дисков или система потокового видео, и, возможно, многие продукты, которым еще только предстоит увидеть свет.

В МТИ и на пенсии им полностью завладело его давнее увлечение жонглированием.

Шеннон построил несколько жонглирующих машин и даже создал общую теорию жонглирования, которая, впрочем, не помогла ему побить личный рекорд — жонглирование четырьмя мячиками.

Еще он испытал свои силы в поэзии, а также разработал разнообразные модели биржи акций и опробовал их (по его словам — успешно) на собственных акциях.

Но с начала 60-х годов Шеннон не сделал в теории информации практически больше ничего. Это выглядело так, как будто ему всего за 20 лет надоела созданная им же теория. Такое явление — не редкость в мире науки, и в этом случае об ученом говорят одно слово: перегорел. Как лампочка, что ли? Мне кажется, более точным было бы сравнение ученых со звездами.

Самые мощные звезды светят не долго, около ста миллионов лет, и кончают свою творческую жизнь вспышкой сверхновой, в процессе которой происходит нуклеосинтез: из водорода и гелия рождается вся таблица Менделеева. Мы с вами состоим из пепла этих звезд, и так же наша цивилизация состоит из продуктов быстрого сгорания самых мощных умов.

Есть звезды второго типа: они горят ровно и долго и миллиарды лет дарят свет и тепло населенным планетам (по крайней мере, одной). Исследователи такого типа тоже очень нужны науке и человечеству: они сообщают цивилизации энергию развития. А звезды третьего сорта — красные и коричневые карлики — светят и греют чуть-чуть, лишь себе под нос.

Таких ученых хватает, но в статье о Шенноне говорить о них просто неприлично.

В 1985 году Клод Шеннон и его жена Бетти неожиданно посетили Международный симпозиум по теории информации в английском городе Брайтоне. Почти целое поколение Шеннон не появлялся на конференциях, и поначалу его никто не узнал.

Затем участники симпозиума начали перешептываться: вон тот скромный седой джентльмен — это Клод Элвуд Шеннон, тот самый! На банкете Шеннон сказал несколько слов, немного пожонглировал тремя (увы, только тремя) мячиками, а затем подписал сотни автографов ошеломленным инженерам и ученым, выстроившимся в длиннейшую очередь.

Стоящие в очереди говорили, что испытывают такие же чувства, какие испытали бы физики, явись на их конференцию сам сэр Исаак Ньютон.

Клод Шеннон скончался в 2001 году в массачусетском доме для престарелых от болезни Альцгеймера на 84 году жизни.

По материалам статьи Сергея Серого в газете «Компьютерные Вести», №21, 1998 г.
         Адрес сайта: http://kv.minsk.by/index1998211801.htm

назад

Источник: http://www.school497.ru/download/u/02/les1/int.html

Ральф Хартли • ru.knowledgr.com

Хартли, Ральф

Ральф Винтон Лайон Хартли (30 ноября 1888 – 1 мая 1970) был исследователем электроники. Он изобрел генератор Хартли, и Хартли преобразовывают и способствовал фондам информационной теории.

См. также

  • Дискретный Хартли преобразовывает

Примечания

  • Ральф В. Л. Хартли, Наследства, Центр Истории IEEE, обновленный 7 июля 2011
  • Американские Доступные 1,356,763, Генератор Колебания, 26 октября 1920, Бюро по регистрации патентов и торговых марок США, http://www .uspto.gov/; изображения страницы могут быть загружены.
  • Американские Доступные 1,666,206, Система Модуляции, 17 апреля 1928, Бюро по регистрации патентов и торговых марок США, http://www .uspto.gov/; изображения страницы могут быть загружены.

Источник: http://ru.knowledgr.com/00132741/%D0%A0%D0%B0%D0%BB%D1%8C%D1%84%D0%A5%D0%B0%D1%80%D1%82%D0%BB%D0%B8

Питер Харт

Хартли, Ральф

   Питер Э. Харт (родился в. 1940-е годы), американский ученый и предприниматель.

   Внес значительный вклад в области информатики связанные с искусственным интеллектом. Автор известного алгоритма поиска А* —  алгоритм поиска по первому наилучшему совпадению на графе.

   Ральф Винтон Лайон Хартли (30 ноября 1888, Спрус, Невада — 1 мая 1970, Нью-Джерси) — американский учёный-электронщик. Он предложил генератор Хартли, преобразование Хартли и сделал вклад в теорию информации, введя в 1928 году логарифмическую меру информации которая называется хартлиевским количеством информации или просто мерой Хартли.

   Хартли был пионером в области Информационной Теории. Он ввёл понятие «информации» (энтропии) как случайной переменной и был первым, кто попытался определить «меру информации».

   Дрю Хьюстон — американский интернет-предприниматель, более известный как основатель и генеральный директор Dropbox. По данным журнала Forbes его состояние оценивается в 1,2 миллиарда долларов США.

   До основания Dropbox, Дрю работал над многими проектами, одни из них: Bit9, Accolade и Hubspot.

   Дэ́вид Ха́ффман (9 августа 1925, Альянс, Огайо — 7 октября 1999, Санта-Круз, Калифорния) — первопроходец в сфере теории информации.

   В 1952 году создал алгоритм префиксного кодирования с минимальной избыточностью (известный как алгоритм или код Хаффмана).   В 1999 году получил медаль Ричарда Хэмминга за исключительный вклад в теорию информации.

   Андерс Хейлсберг (род. в декабре 1960, Копенгаген) — датский инженер-программист.

   В 1980 году написал свой первый компилятор языка Паскаль, который после портирования под операционную систему MS-DOS продал фирме Borland. Эта версия легла в основу Turbo/Borland Pascal, который развивался до 1995 года.

До 1996 года Хейлсберг был главным инженером фирмы Borland, где создал новое поколение компиляторов Паскаля — язык Delphi, компилятор которого работал уже под операционной системой Windows. В 1996 году он перешёл в Microsoft, где работал над такими проектами, как J++ и Microsoft Foundation Classes.

Позже возглавил группу по созданию и проектированию языка C#. В 2000 году Андерс Хейлсберг получил награду популярного журнала Dr. Dobb's Journal за создание Turbo Pascal, Delphi и C#.

   Ма́ртин Хе́ллман (род. 2 октября 1945, штат Нью-Йорк) — американский криптограф. Получил известность благодаря разработке первой асимметричной криптосистемы в соавторстве с Уитфилдом Диффи и Ральфом Мерклем (1952г).

   Один из активных сторонников либерализации в сфере криптографии. Хеллман долгое время являлся участником конференции компьютерной конфиденциальности, в последнее время работает над анализом рисков ядерной угрозы.

   PJ Хиетт — один из основателей, совместно с Крисом Ванстрастом и Томом Престон-Вернером и авторов GitHub — самого крупного веб-сервиса для хостинга IT-проектов и их совместной разработки.

   Сервис основан на системе контроля версий Git и разработан на Ruby on Rails и Erlang компанией GitHub, Inc (ранее Logical Awesome).

   Вильям Даниэль «Дэнни» Хиллис (25 сентября 1956) американский изобретатель, ученый, инженер, предприниматель.

    Хиллис является одним из основателей Thinking Machines Corporation, компании, разработавшей Connection Machine — параллельного суперкомпьютера, создававшегося на основе исследовательских работ Денни Хиллиса в начале 1980-х годов в Массачусетском технологическом институте в области вычислительных архитектур альтернативных традиционной архитектуре фон Неймана. Изначально планировалось, что Connection Machine будут применяться в задачах связанных с искусственным интеллектом и обработке символьной информации, но поздние версии получили наибольший успех в области вычислительных наук.

   Сэр Чарльз Э́нтони Ри́чард Хо́ар (11 января 1934, Коломбо, Цейлон, Британская империя, ныне Шри Ланка) — английский учёный, специализирующийся в области информатики и вычислительной техники.

   Наиболее известен как разработчик алгоритма «быстрой сортировки» (1960), на сегодняшний день являющегося наиболее популярным алгоритмом сортировки. Другие известные результаты его работы: язык Z спецификаций и параллельная модель взаимодействия последовательных процессов (CSP, Communicating Sequential Process), разработка логики Хоара (англ. Hoare Logic).

   Джон Генри Холланд (род. 2 февраля 1929 года) — американский учёный, профессор психологии, профессор электротехники и информатики в Мичиганском университете, Энн Арбор. Он является одним из первых учёных, которые начали изучать сложные системы и нелинейную науку; известен как отец генетических алгоритмов.

   Холланд часто читает лекции в разных странах мира о своих исследованиях, текущих исследованиях и открытых вопросах в изучении сложных адаптивных систем. В 1975 году он написал книгу о генетических алгоритмах «Adaptation in Natural and Artificial Systems». Он также разработал теорему схем.

   Герман Холлерит (иногда по-русски применяется написание Голлерит; 29 февраля 1860 — 17 ноября 1929) — американский инженер и изобретатель немецкого происхождения.

   Известен как создатель электрической табулирующей системы.

   Аврам Ноам Хомский (7 декабря 1928, Филадельфия, штат Пенсильвания, США) — американский лингвист, политический публицист, философ и теоретик.

   Автор классификации формальных языков, называемой иерархией Хомского. Наиболее известная работа Хомского «Синтаксические структуры» (1957) оказала огромное влияние на развитие науки о языке во всём мире. Ввёл понятие трансформационной грамматики — основы построения современных языков программирования.

   Джон Эдвард Хопкрофт (7 октября 1939 года, Сиэтл, США) — американский учёный в области теории вычислительных систем, лауреат премии Тьюринга.

   Его исследовательская деятельность состоит из теоретических аспектов информатики, в частности анализа алгоритмов, теории автоматов и теории графов. Хопкрофт — соавтор нескольких книг о формальных языках и конечных автоматах.

Вместе с Ричардом Карпом Хопкрофт разработал в 1973 году алгоритм для нахождения максимального паросочетания в двудольных графах.

Кроме того, Роберт Тарьян и Джон Хопкрофт разработали алгоритм для нахождения ориентации рёбер в неориентированном графе с целью создания сильно связного графа. Оба алгоритма были названы в честь их изобретателей.

   Грейс Хоппер (урождённая Грейс Брюстер Мюррей; 9 декабря 1906 — 1 января 1992) — американский учёный и контр-адмирал флота США.

   Являясь первооткрывателем в своей области, она была одной из первых, кто писал программы для гарвардского компьютера Марк I.

Она разработала первый компилятор для компьютерного языка программирования, развила концепцию машинно-независимых языков программирования, что привело к созданию COBOL, одного из первых высокоуровневых языков программирования.

Ей приписывается популяризация термина debugging для устранения сбоев в работе компьютера. В её честь назван эсминец ВМФ США USS Hopper (DDG-70) и суперкомпьютер Cray XE6 «Hopper» Исследовательского вычислительного центра министерства энергетики (NERSC).

   Джон Джозеф Хопфилд (род. 15 июля 1933 года) — американский учёный в основном известный за изобретение ассоциативной нейронной сети в 1982 году. Эта сеть известна под названием сети Хопфилда.

   Р. Найджел Хорспул канадский профессор информатики британского происхождения, работает в Университете Виктории, Канада.

   Изобретатель алгоритма Бойера-Мура-Хорспула, улучшил алгоритм Бойера-Мура быстрого поиска подстроки в строке. Хорспул является одним из соавторов динамического сжатия Маркова и соредактором журнала Software: Практика и опыт.

  Маршиан Эдвард «Тед» Хофф, мл. (род. 28 октября 1937 года в Рочестере, штат Нью-Йорк) — один из изобретателей микропроцессора.

   Вместе с Федерико Фаджином и Масатоси Сима был ведущим разработчиком первого коммерчески доступного однокристального микропроцессора Intel 4004.

Тед Хофф разработал маленький и недорогой чип, который можно было использовать для множества устройств: компьютеров, калькуляторов, фотоаппаратов и пр. Первым изделием, работающим на основе этого микропроцессора, стал японский печатающий калькулятор Busicom 141-PF.

Вклад Хоффа состоит в том, что он предложил сократить число микросхем, передав основные функции центральному процессору.

   Ричард Уэсли Хэмминг (11 февраля 1915, Чикаго — 7 января 1998, Монтерей) — американский математик, работы которого в сфере теории информации оказали существенное влияние на компьютерные науки и телекоммуникации.

   Основной вклад — т. н. код Хэмминга, а также расстояние Хэмминга.

   Гай Ю́лий Це́зарь (12 или 13 июля 100 года до н. э. — 15 марта 44 года до н. э.) — древнеримский государственный и политический деятель, император, полководец, писатель.

   В информатике известен как изобретатель шифра Цезаря — также известного, как шифр сдвига, код Цезаря или сдвиг Цезаря — одного из самых простых и наиболее широко известных методов шифрования. Шифр назван в честь этого римского императора, использовавшего его для секретной переписки со своими генералами.

   Ко́нрад Цу́зе (22 июня 1910, Берлин, Германская империя — 18 декабря 1995, Хюнфельд, Германия) — немецкий инженер, пионер компьютеростроения.

   Наиболее известен как создатель первого действительно работающего программируемого компьютера Z3 (1941) и первого языка программирования высокого уровня Планкалкюль (нем. Plankalkül исчисление планов).

   Марк Э́ллиот Цукербе́рг (14 мая 1984 года, Уайт-Плейнс, штат Нью-Йорк, США) — американский программист и предприниматель в области интернет-технологий, долларовый миллиардер, один из разработчиков и основателей социальной сети .

   Руководитель компании Inc.

   Пафну́тий Льво́вич Чебышёв (4 [16] мая 1821, Окатово, Боровский уезд, Калужская губерния — 26 ноября [8 декабря] 1894, Санкт-Петербург) — русский математик и механик, основоположник петербургской математической школы, академик Петербургской академии наук.

   Автоматический арифмометр, изобретённый им и ставший первым арифмометром непрерывного действия, хранится в Парижском музее искусств и ремесел.

   Алонзо Чёрч (14 июня 1903, Вашингтон, США — 11 августа 1995, Хадсон, Огайо, США) — выдающийся американский математик и логик, внесший значительный вклад в основы информатики.

   Чёрч прославился разработкой теории лямбда-исчислений, последовавшей за его знаменитой статьёй 1936 года, в которой он показал существование т. н. «неразрешимых задач». Его система лямбда-исчислений легла в основу функциональных языков программирования, в частности семейства Лисп (например, Scheme).

Источник: https://info256.jimdofree.com/%D1%85-%D1%87/

Хартли, Ральф

Хартли, Ральф

Сохрани ссылку в одной из сетей:

Введение

Ральф Винтон ЛайонХартли (англ. Ralph Vinton Lyon Hartley, родился 30ноября 1888 в Ели, штате Невада, умер 1 мая1970. Американский учёный-электронщик.Он предложил генератор Хартли,преобразование Хартли и сделал вкладв теорию информации, введя в 1928логарифмическую меру информации H= Klog2(M), которая называетсяхартлиевским количеством информации.

1.Биография

Он получил высшееобразование со степенью A.B. (бакалаврискусств) в Университете Юты в 1909. Какстипендиат Родса, он получил степеньB.A. (бакалавр искусств) в 1912 и степеньB.Sc. (бакалавр наук) в 1913 в Оксфордскомуниверситете.

2.Научная деятельность

После возвращения изАнглии, Хартли присоединился кНаучно-исследовательской лабораторииЗападной Электрической Компании ипринял участие в создании радиоприёмникадля трансатлантических тестов.

В течениеПервой мировой войны, Хартли решилпроблемы, которые препятствовалиразвитию направленных искателейзвукового типа. После войны учёныйвплотную занялся проблемой передачиинформации (в частности звуковой).

Втечение этого периода он сформулировалзакон, «что общая сумма информации,которая может быть передана, пропорциональнапереданному частотному диапазону ивремени передачи.»

Хартли был пионеромв области Информационной Теории. Онввёл понятие «информации» (энтропии)как случайной переменной и был первый,кто попытался определить «меруинформации».

Хартли развивал понятиеинформации, основанной на «физическомкак противопоставлено с психологическимирассмотрениями» для использованияв изучении электронных коммуникаций.Фактически, Хартли соответственноопределяет это основное понятие.

Вместоэтого он обращается к «точности …информации» и «количества информации».

Информация существуетв передаче символов, с символами, имеющими»определённые значения к партийномусообщению». Когда кто — то получаетинформацию, каждый полученный символпозволяет получателю «устранятьвозможности», исключая другие возможныесимволы и их связанные значения. «

Точность информациизависит от того, что другие последовательностисимвола, возможно, были выбраны; мераэтих других последовательностейобеспечивает признак количествапереданной информации. Таким образом,если бы мы получили 4 различных символа,происходящие с равной частотой, то этопредставило бы 2 бита.

Хартли награждёнпремиями за отличия в области науки,этот учёный состоял в американскойАссоциации Продвижения Науки. Хартлипринадлежат больше чем 70 патентов(изобретений).

3.Публикации

  1. Hartley, R.V.L., «Transmission of Information», Bell System Technical Journal, July 1928, pp.535–563.

  2. Hartley, R.V.L., «A Wave Mechanism of Quantum Phenomena», Physical Review, Volume 33, 89, 1929 (abstract only)

  3. Hartley, R.V.L., «Oscillations in Systems with Non-Linear Reactance», The Bell System Technical Journal, Volume 15, Number 3, July 1936, pp 424 — 440

  4. Hartley, R.V.L., «A More Symmetrical Fourier Analysis Applied to Transmission Problems,» Proceedings of the IRE 30, pp.144–150 (1942).

  5. Hartley, R.V.L., «A New System of Logarithmic Units», Proceedings of the IRE, January 1955, Vol. 43, No. 1.

  6. Hartley, R.V.L., «Information Theory of The Fourier Analysis and Wave Mechanics», August 10, 1955, publication information unknown.

  7. Hartley, R.V.L., «The Mechanism of Gravitation», January 11, 1956, publication information unknown.

4.Цитата

Хотя частотные отношения в электрических связях интересны сами по себе, их обсуждение в этой ситуации едва ли будет оправдано, если мы не сможем вывести из них достаточно общие практические применения к разработке систем связи. То, что я надеюсь достичь в этом направлении, должно установить количественную меру, посредством которой могут быть сравнены мощности различных систем передачи информации» – [1, стр.535]

5.Библиография

  1. Hartley R.V.L. Transmission of information. — Bell System Technical Journal — 7. — 1928. — С. 535-63.

перевод:ХартлиР.В.Л. Передача информации. // Теорияинформации и ее приложения. — Физматгиз,1959.
Источник: http://ru.wikipedia.org/wiki/Хартли,_Ральф

  1. Лекция >> Математика

    … дискретное косинусное преобразование. 4.1. Преобразование Хартли Преобразование Фурье отображает последовательность вещественных … где Прямое и обратное дискретное преобразование Хартли вещественной последовательности x(n) длины N определяются соотношениями …

  2. Реферат >> Информатика

    … к измерению количества информации. Мера Хартли. Современная наука о свойствах информации … оценку. Подход Р. Хартли основан на фундаментальных теоретико … логарифмическая мера информации, предложенная Хартли, одновременно удовлетворяет условиям монотонности …

  3. Реферат >> Экономико-математическое моделирование

    … множества состояний системы задаётся формулой Р. Хартли: H=k log а N, где k — коэффициент пропорциональности (масштабирования … Шеннона совпадает с мерой Хартли. Справедливость и достаточная универсальность формул Хартли и Шеннона подтверждается и данными …

  4. Реферат >> Экономика

    … стал, в частности, Закон Тафта-Хартли 1947 г., внесший существенные поправки в … ограничительная направленность Закона Тасрта-Хартли была усилена Законом Лэндрама- … пр. Положения Закона Тафта-Хартли неоднократно подкреплялись впоследствии решениями Верховного …

  5. Лекция >> Информатика, программирование

    … Геометрическая, комбинаторная и аддитивная мера Хартли. Понятие информации Понятие информации (с … информационной емкости. Поэтому Хартли ввел аддитивную двоичную логарифмическую … десятичная единица – дит (в астрономии) или хартли, 1 дит = 3.32193 бит. В …

Хочу больше похожих работ…

Источник: https://works.doklad.ru/view/OtVXQerM3qE.html

Refy-free
Добавить комментарий