Здавалка
Главная | Обратная связь

Вероятностный подход к измерению дискретной и непрерывной информации



В основе теории информации лежит предложенный Шенноном способ измерения количества информации, содержащейся в одной случайной величине, относительно другой случайной величины, Этот способ приводит к выражению количества информации числом.

Для дискретных случайных величи и , заданных законами распределения , и совместным распределением , количество информации, содержащейся в относительно , равно

Для непрерывных случайных величин, и , заданных плотностями распределения вероятностей , и , аналогичная формула имеет вид

Очевидно, что

и, следовательно,

Энтропия дискретной случайной величины в теории информации определяется формулой

Свойства меры информации и энтропии:

  1. , и независимы;
  2. ;
  3. - константа;
  4. , где ;
  5. . Если , то - функция от . Если - инъективная функция1) от , то .
  1. Логарифмированием из очевидного для всех неравенства (равенство устанавливается только при ) получается неравенство или

т.е. только при для всех и , т.е. при независимости и . Если и независимы, то и, следовательно, аргументы логарифмов равны 1 и, следовательно, сами логарифмы равны 0, что означает, что ;

  1. Следует из симметричности формул относительно аргументов;
  2. Если , то все члены суммы, определяющей , должны быть нули, что возможно тогда и только тогда, когда - константа;
  3. Из четырех очевидных соотношений

получается

  1. Нужно доказать или .

но , а значит аргументы у всех логарифмов не больше 1 и, следовательно, значения логарифмов не больше 0, а это и значит, что вся сумма не больше 0.

Если , то для каждого равно либо , либо 0. Но из следует , что возможно только в случае, когда - функция от .

При независимости случайных величин, и одна из них ничем не описывает другую, что и отражается в том, что для таких случайных величин, .

Рассмотрим пример измерения количества информации при подбрасывании двух игральных костей.

Пусть заданы дискретное случайные величины , и . и - количества очков, выпавших соответственно на 1-й и 2-й игральной кости, а . Найти , , .

Законы распределения вероятностей для дискретной случайной величины и совпадают, т.к. кости одинаковые и без изъянов.

Закон распределения вероятностей для дискретной случайной величины ,

вследствие того, что , - независимы и поэтому

будет

Таблицы, определяющие :

Закон совместного распределения вероятностей дискретной случайной величины и будет

например,

В общем случае получится

Тогда

Здесь , что соответствует свойствам информации.

Подчеркнутый член в расчете соответствует информации о двух случаях из 36, когда и , которые однозначно определяют . Шесть случаев, когда , не несут никакой информации об , что соответствует подчеркнутому члену .

Расчеты можно проводить, используя 4-е свойство информации, через энтропию.

Расчет количества информации с использованием 4-го свойства, а не определения, обычно требует меньше вычислений.

Рассмотрим более простой пример. Пусть дискретная случайная величина равна количеству очков, выпавших на игральной кости, а дискретная случайная величина равна 0, если выпавшее количество очков нечетно, и 1, если выпавшее количество очков четно. Найти и .

Составим законы распределения вероятностей дискретной случайной величины и .

Таким образом, при и, соответственно, при .

Составим также закон совместного распределения вероятностей этих дискретных случайных величин

Таким образом,

Точное количество выпавших очков дает точную информацию о четности, т.е. 1бит. Из бит/сим и 3-го свойства информации следует, что информация об полностью определяет , но не наоборот, т.к. бит/сим. Действительно, функционально зависит от , а от функционально не зависит.

Расчеты через энтропию будут следующими

Упражнение 5 Найти энтропию дискретной случайной величины , заданной распределением

Упражнение 6 Значения дискретной случайной величины и определяются подбрасыванием двух идеальных монет, а дискретная случайная величина равна сумме количества "гербов", выпавших при подбрасывании этих монет. Сколько информации об содержится в ?

Упражнение 7 Сколько информации об содержится в дискретной случайной величине , где независимые дискретные случайные величины и могут с равной вероятностью принимать значение либо 0, либо 1? Найти и . Каков характер зависимости между и ?

Упражнение 8 Дискретные случайные величины , - зависимы и распределены также как и соответствующие дискретные случайные величины из предыдущей задачи. Найти , если совместное распределение вероятностей и описывается законом

Упражнение 9 Дискретные случайные величины и определяются подбрасыванием двух идеальных тетраэдров, грани которых помечены числами от 1 до 4. дискретная случайная величина равна сумме чисел, выпавших при подбрасывании этих тетраэдров, т.е. . Вычислить , и .

Упражнение 10 Подсчитать сколько информации об содержится в дискретной случайной величине , а также . Дискретные случайные величины и берутся из предыдущего упражнения.

Упражнение 11 Дискретная случайная величина может принимать три значения , 0 и 1 с равными вероятностями. Дискретная случайная величина с равными вероятностями может принимать значения 0, 1 и 2. и - независимы. . Найти , , , , .

Упражнение 12Найти энтропии дискретных случайных величин , , и количество информации, содержащейся в относительно . и - независимы и задаются распределениями







©2015 arhivinfo.ru Все права принадлежат авторам размещенных материалов.