Рефераты | Рефераты по математике | Теория вероятности и математическая статистика | страница реферата 14 | Большая Энциклопедия Рефератов от А до Я
Большая Энциклопедия Рефератов от А до Я
  • Рефераты, курсовые, шпаргалки, сочинения, изложения
  • Дипломы, диссертации, решебники, рассказы, тезисы
  • Конспекты, отчеты, доклады, контрольные работы

  • Рефераты | Рефераты по математике | Теория вероятности и математическая статистика

    Очевидно, что неопределенность испытания до испытания в первом вероятностном пространстве выше, чем во втором. Действительно, до испытания в I нельзя ни одному из событий отдать предпочтения, а во II событие E3 происходит чаще.

    Энтропия - мера неопределенности исхода испытания (до испытания).

    Первым, кто функционально задал выражение для энтропии был Шеннон.

    Рефераты | Рефераты по математике | Теория вероятности и математическая статистика, Рефераты | Рефераты по математике | Теория вероятности и математическая статистика

    Для вероятностного пространства:

    Рефераты | Рефераты по математике | Теория вероятности и математическая статистика

    Энтропия задается выражением: Рефераты | Рефераты по математике | Теория вероятности и математическая статистика. Если P1=0, то Pi× logPi=0.

    Самим показать, что:

    Если вероятностное пространство не имеет определенности, т.е. какое-то из Pi=1, а остальные равны 0, то энтропия равна нулю.

    Если элементарный исход равновероятен, т.е. Рефераты | Рефераты по математике | Теория вероятности и математическая статистика , то энтропия принимает максимальное значение.

    0£ Pi£ 1, Рефераты | Рефераты по математике | Теория вероятности и математическая статистика

    Рефераты | Рефераты по математике | Теория вероятности и математическая статистика

    Рефераты | Рефераты по математике | Теория вероятности и математическая статистика, Рефераты | Рефераты по математике | Теория вероятности и математическая статистика

    т.о. вероятности p1, p2, ..., ps обращаются в ноль, например pi, которая равна 1. Но log1=0. Остальные числа также обращаются в 0, т.к. Рефераты | Рефераты по математике | Теория вероятности и математическая статистика.

    Докажем, что энтропия системы с конечным числом состояний достигае максимума, когда все состояния равновероятны. Для этого рассмотрим энтропию системы как функцию вероятностей p1, p2, ..., ps и найдем условный экстремум этой функции, при условии, что Рефераты | Рефераты по математике | Теория вероятности и математическая статистика .

    Пользуясь методом неопределенных множителей Лагранжа, будем искать экстремум функции: Рефераты | Рефераты по математике | Теория вероятности и математическая статистика.

    Дифференцируя по p1, p2, ..., ps и приравнивая производные нулю получим систему:

    Рефераты | Рефераты по математике | Теория вероятности и математическая статистика i=1, ..., s

    Откуда видно, что экстремум достигается при равных между собой p1.

    Т.к. Рефераты | Рефераты по математике | Теория вероятности и математическая статистика, то p1= p2=, ..., = ps= 1/s.


    Рекомендуем скачать другие рефераты по теме: изложение по русскому 6 класс, реферат анализ.



    Предыдущая страница реферата | 9  10  11  12  13  14  15  16  17  18  19 |




    Поделитесь этой записью или добавьте в закладки

       




    Категории:



    Разделы сайта




    •