Лекции по количественной оценке информации
Категория реферата: Рефераты по информатике, программированию
Теги реферата: евгений сочинение, матершинные частушки
Добавил(а) на сайт: Jernesta.
Предыдущая страница реферата | 1 2 3 4 5 6 7 8 9 10 11 | Следующая страница реферата
где lср – средняя длина кодовых слов вторичного алфавита. Для равномерных кодов (все комбинации кода содержат одинаковое количество разрядов)
где n – длина кода (число элементарных посылок в коде). Согласно (3), объем равен количеству информации, если lср=Н, т.е. в случае максимальной информационной нагрузки на символ сообщения. Во всех остальных случаях .
Например, если кодировать в коде Бодо некоторые равновероятный алфавит, состоящий из 32 символов, то
Если закодировать в коде Бодо русский 32-буквенный алфавит, то без учета корреляции между буквами количество информации
т.е. если в коде существует избыточность и , то объем в битах всегда больше количества информации в тех же единицах.
Тема 2. Условная энтропия и энтропия объединения
Понятие условной энтропии в теории информации используется при определении взаимозависимости[3] между символами кодируемого алфавита, для определения потерь при передаче информации по каналам связи, при вычислении энтропии объединения.
Во всех случаях при вычислении условной энтропии в том или ином виде используются условные вероятности.
Если при передаче n сообщений символ А появился m раз, символ В появился l раз, а символ А вместе с символом В – к раз, то вероятность появления символа А ; вероятность появления символа В ; вероятность совместного появления символов А и В ; условная вероятность появления символа А относительно символа В и условная вероятность появления символа В относительно символа А
(7)
Если известна условная вероятность, то можно легко определить и вероятность совместного появления символов А и В, используя выражения (7)
(8)
От классического выражения (4) формула условной энтропии отличается тем, что в ней вероятности – условные:
(9)
(10)
где индекс i выбран для характеристики произвольного состояния источника сообщения А, индекс j выбран для характеристики произвольного состояния адресата В.
Различают понятия частной и общей условной энтропии. Выражение (9) и (10) представляют собой частные условные энтропии.
Общая условная энтропия сообщения В относительно сообщения А характеризует количество информации, содержащейся в любом символе алфавита, и определяется усреднением по всем символам, т. е. по всем состояниям с учетом вероятности появления каждого из состояний, и равна сумме вероятностей появления символов алфавита на неопределенность, которая остается после того, как адресат принял сигнал
(11)
Выражение (11) является общим выражением для определения количества информации на один символ сообщения для случая неравномерных и взаимонезависимых символов.
Так как представляет собой вероятность совместного появления двух событий , то формула (11) можно записать следующим образом:
(12)
Рекомендуем скачать другие рефераты по теме: реферат федерация, сочинение капитанская.
Предыдущая страница реферата | 1 2 3 4 5 6 7 8 9 10 11 | Следующая страница реферата