Информация и способы ее представления
Категория реферата: Рефераты по информатике, программированию
Теги реферата: сочинения 4, 6 класс контрольные работы
Добавил(а) на сайт: Stanislav.
Предыдущая страница реферата | 1 2 3 4 5 | Следующая страница реферата
Наличие разных систем письменности, в том числе таких, как иероглифическое письмо, доказывает, что одна и та же информация может быть представлена на основе самых разных наборов символов и самых разных правил использования символов при построении слов, фраз, текстов.
Из этого утверждения можно сделать следующий вывод:
Разные алфавиты обладают одинаковой “изобразительной возможностью”, т.е. с помощью одного алфавита можно представить всю информацию, которую удалось представить на основе другого алфавита. Можно, например, ограничиться алфавитом из десяти цифр - 0, 1, ..., 9 и с использованием только этих символов записать текст любой книги или партитуру музыкального произведения. При этом сужение алфавита до десяти символов не привело бы к каким-либо потерям информации. Более того, можно использовать алфавит только из двух символов, например, символов 0 и 1. И его “изобразительная возможность” будет такой же.
Итак, символьная информация может представляться с использованием самых различных алфавитов (наборов символов) без искажения содержания и смысла информации: при необходимости можно изменять форму представления информации - вместо общепринятого алфавита использовать какой-либо другой, искусственный алфавит, например, двухбуквенный.
Форма представления информации, отличная от естественной, общепринятой, называется кодом. Коды широко используются в нашей жизни: почтовые индексы, телеграфный код Морзе и др. Широко применяются коды и в ЭВМ и в аппаратуре передачи данных. Так, например, широко известно понятие “программирование в кодах”.
Кроме рассмотренных существуют и другие формы представления дискретной информации. Например, чертежи и схемы содержат в себе графическую информацию.
Как измерить информацию?
Как уже говорилось в примере с номером квартиры, одни сведения могут содержать в себе мало информации, а другие - много. Разработаны различные способы оценки количества информации. В технике чаще всего используется способ оценки, предложенный в 1948 году основоположником теории информации Клодом Шенноном. Как было отмечено, информация уничтожает неопределенность. Степень неопределенности принято характеризовать с помощью понятия “вероятность”.
Вероятность - величина, которая может принимать значения в диапазоне от 0 до 1. Она может рассматриваться как мера возможности наступления какого-либо события, которое может иметь место в одних случаях и не иметь места в других.
Если событие никогда не может произойти, его вероятность считается равной 0. Так, вероятность события “Завтра будет 5 августа 1832 года” равна нулю в любой день, кроме 4 августа 1832 года. Если событие происходит всегда, его вероятность равна 1.
Чем больше вероятность события, тем выше уверенность в том, что оно произойдет, и тем меньше информации содержит сообщение об этом событии. Когда же вероятность события мала, сообщение о том, что оно случилось, очень информативно.
Количество информации I, характеризующей состояние, в котором пребывает объект, можно определить, используя формулу Шеннона:
I = -(p[1]*log(p[1])+p[2]*log(p[2])+...+p[n]*log(p[n])) ,
здесь
n - число возможных состояний;
p[1],...p[n] - вероятности отдельных состояний;
log( ) - функция логарифма при основании 2.
Знак минус перед суммой позволяет получить положительное значение для I, поскольку значение log(p[i]) всегда не положительно.
Единица информации называется битом. Термин “бит” предложен как аббревиатура от английского словосочетания “Binary digiT”, которое переводится как “двоичная цифра”.
1 бит информации - количество информации, посредством которого выделяется одно из двух равновероятных состояний объекта.
Рассмотрим пример.
Пусть имеется два объекта. С каждого из них в определенные моменты времени диспетчеру передается одно из двух сообщений: включен или выключен объект. Диспетчеру известны типы сообщений, но неизвестно, когда и какое сообщение поступит.
Пусть также, объект А работает почти без перерыва, т.е. вероятность того, что он включен, очень велика (например, р_А_вкл=0,99 и р_А_выкл=0,01, а объект Б работает иначе и для него р_Б_вкл=р_Б_выкл=0,5).
Тогда, если диспетчер получает сообщение том, что А включен, он получает очень мало информации. С объектом Б дела обстоят иначе.
Подсчитаем для этого примера среднее количество информации для указанных объектов, которое получает диспетчер:
Объект А : I = -(0,99*log(0,99)+0,01*log(0,01))=0,0808.
Рекомендуем скачать другие рефераты по теме: титульный реферата, курсовая работа на тему.
Предыдущая страница реферата | 1 2 3 4 5 | Следующая страница реферата