lxa85
15-05-2012, 00:47
Давно, рассматривая школьные учебники замечал странность дробности бита. Но тут
просматривая слайды на защиту к.т.н. столкнулся с этим понятием еще раз. Напомню:
Информация есть Логарифм числа N по основанию 2. $ I = \log_{2}N $ (нотация TeX) (Вопрос "Почему именно 2?" пока опустим. )
Бит (http://ru.wikipedia.org/wiki/Бит)
Информационная_энтропия (http://ru.wikipedia.org/wiki/Информационная_энтропия)
Двоичный_логарифм (http://ru.wikipedia.org/wiki/Двоичный_логарифм)
Далее идет бодрое определение, что для английского алфавита требуется 23 -> 4.7 бита.
Тут у меня большой вопрос. Откуда берется твердая уверенность, что "полтора землекопа" - это нормально?
Ведь не бывает "полтора разряда"? Или я в чем-то не прав и где то недоглядел?
Прошу, не ссылаться (в открытую по крайней мере) на Шэннона.
Приведенная ссылка будет Вашей и за нее придется отвечать вам, а не уважаемому Клоду Э́лвуду.
просматривая слайды на защиту к.т.н. столкнулся с этим понятием еще раз. Напомню:
Информация есть Логарифм числа N по основанию 2. $ I = \log_{2}N $ (нотация TeX) (Вопрос "Почему именно 2?" пока опустим. )
Бит (http://ru.wikipedia.org/wiki/Бит)
Информационная_энтропия (http://ru.wikipedia.org/wiki/Информационная_энтропия)
Двоичный_логарифм (http://ru.wikipedia.org/wiki/Двоичный_логарифм)
Далее идет бодрое определение, что для английского алфавита требуется 23 -> 4.7 бита.
Тут у меня большой вопрос. Откуда берется твердая уверенность, что "полтора землекопа" - это нормально?
Ведь не бывает "полтора разряда"? Или я в чем-то не прав и где то недоглядел?
Прошу, не ссылаться (в открытую по крайней мере) на Шэннона.
Приведенная ссылка будет Вашей и за нее придется отвечать вам, а не уважаемому Клоду Э́лвуду.