Информация: понятия, виды, получение, измерение и проблема обучения
Категория реферата: Рефераты по информатике, программированию
Теги реферата: bestreferat, изложение 7 класс
Добавил(а) на сайт: Фортунат.
Предыдущая страница реферата | 1 2 3 4 5 6 7 8 | Следующая страница реферата
Пример. Имеются 192 монеты из которых одна фальшивая. Определим сколько взвешиваний нужно произвести, чтобы определить ее. Если положить на весы равное количество монет, то получим 2 возможности (мы сейчас отвлекаемся от того, что в случае фальшивой монеты таких состояний будет два - состояния независимы): а) левая чашка ниже; б) правая чашка ниже. Таким образом, каждое взвешивание дает количество информации I=log22=1 и, следовательно, для определения фальшивой монеты нужно сделать не менее k взвешиваний, где k удовлетворяет условию log22k³ log2192. Отсюда, k³ 7 или, k=7. Следовательно, нам необходимо сделать не менее 7 взвешиваний (достаточно семи).
Пример. ДНК человека можно представить себе как некоторое слово в четырехбуквенном алфавите, где каждой буквой помечается звено цепи ДНК или нуклеотид. Определим сколько информации (в битах) содержит ДНК, если в нем содержится примерно 1,5´ 1023 нуклеотидов. На один нуклеотид приходится log2(4)=2 (бит) информации. Следовательно, структуры ДНК в организме человека позволяет хранить 3´ 1023 бит информации. Это вся информация, куда входит и избыточная. Реально используемой, - структурированной в памяти человека информации, - гораздо меньше. В этой связи, заметим, что человек за среднюю продолжительность жизни использует около 5 — 6 % нейронов (нервных клеток мозга - “ячеек ОЗУ человека”). Генетический код - чрезвычайно сложная и упорядоченная система записи информации. Информация заложенная в генетическом коде (по учению Дарвина) накапливалась многие тысячелетия. Хромосомные структуры - своеобразный шифровальный код и при клеточном делении создаются копии шифра, каждая хромосома - удваивается, в каждой клетке имеется шифровальный код, при этом каждый человек получает, как правило, свой набор хромосом (код) от матери и от отца. Шифровальный код разворачивает процесс эволюции человека. Вся жизнь, как отмечал Э. Шредингер, “упорядоченное и закономерное поведение материи, основанное ... на существовании упорядоченности, которая поддерживается всё время”.
Формула Хартли отвлечена от семантических и качественных, индивидуальных свойств рассматриваемой системы (качества информации, содержащейся в системе, в проявлениях системы с помощью рассматриваемых N состояний системы). Это основная положительная сторона этой формулы. Но имеется и основная отрицательная сторона: формула не учитывает различимость и различность рассматриваемых N состояний системы.
Уменьшение (увеличение) Н может свидетельствовать об уменьшении (увеличении) разнообразия состояний N системы.
Обратное, как это следует из формулы Хартли (основание логарифма берётся больше 1!), - также верно.
Мера К. Шеннона. Формула Шеннона дает оценку информации независимо, отвлеченно от ее смысла:
n I = — å pi log2 pi . i=1
где n - число состояний системы; рi - вероятность (или относительная частота) перехода системы в i-ое состояние, причем сумма всех pi равна 1.
Если все состояния равновероятны (т.е. рi=1 /n), то I=log2n.
К. Шенноном доказана теорема о единственности меры количества информации. Для случая равномерного закона распределения плотности вероятности мера Шеннона совпадает с мерой Хартли. Справедливость и достаточная универсальность формул Хартли и Шеннона подтверждается и данными нейропсихологии.
Пример. Время t реакции испытуемого на выбор предмета из имеющихся N предметов линейно зависит от log2N: t=200+180log2N (мс). По аналогичному закону изменяется и время передачи информации в живом организме. В частности, один из опытов по определению психофизиологических реакций человека состоял в том, что перед испытуемым большое количество раз зажигалась одна из n лампочек, которую он должен указать. Оказалось, что среднее время, необходимое для правильного ответа испытуемого, пропорционально не числу n лампочек, а именно величине I определяемой по формуле Шеннона, где pi - вероятность зажечь лампочку номер i. .
Легко видеть, что в общем случае:
n I = — å pi log2 pi £ log2n. i=1Если выбор i - го варианта предопределен заранее (выбора, собственно говоря, нет, pi=1), то I=0.
Сообщение о наступлении события с меньшей вероятностью несёт в себе больше информации, чем сообщение о наступлении события с большей вероятностью. Сообщение о наступлении достоверно наступающего события несёт в себе нулевую информацию (и это вполне ясно, - событие всё равно произойдёт когда-либо).
Пример. Если положение точки в системе известно, в частности, она - в k-ой клетке, т.е. âñå рi= 0, кроме рk=1, то тогда I=log21= 0 и мы здесь новой информации не получаем.
Пример. Выясним, сколько бит информации несет каждое двузначное число со всеми значащими цифрами (отвлекаясь при этом от его конкретного числового значения). Так как таких чисел может быть всего 90 (10 - 99), то информации будет количество I=log290 или приблизительно I= 6.5. Так как в таких числах значащая первая цифра имеет 9 значений (1- 9), а вторая - 10 значений (0-9), то I=log290= log29+log210. Приблизительное значение log210 равно 3.32. Итак, сообщение в одну десятичную единицу нес ет в себе в 3.32 больше информации, чем в одну двоичную единицу (чем log22=1), а вторая цифра в, например, числе аа несёт в себе больше информации, чем первая (если цифры разряда а неизвестны; если же эти цифры а известны, то выбора нет - информация равна нулю).
Если в формуле Шеннона обозначить fi = —n log2 pi , то получим, что I можно понимать как среднеарифметическое величин fi .
Отсюда, fi можно интерпретировать как информационное содержание символа алфавита с индексом i и величиной pi вероятности появления этого символа в сообщении, передающем информацию.
Пусть сообщение состоит из n различных символов, mi - количество символов номер i=1, 2, .... n в этом сообщении, а N - длина сообщения в символах. Тогда вероятность появления i-го символа в сообщении равна pi=mi/N. Число всех различных сообщений длины n будет равно
n
p=N! / Õ mi! .
i=1
Информация в одном таком сообщении равна
n
I=log2 p=ln p / ln 2 = ln ( N! / Õ mi!)/ln 2 .
Рекомендуем скачать другие рефераты по теме: оформление доклада, курсовая работа по управлению.
Предыдущая страница реферата | 1 2 3 4 5 6 7 8 | Следующая страница реферата