Информационное содержание - Information content

В теория информации, то информационное содержание, самоинформация, неожиданный, или же Информация о Шеннон - базовая величина, полученная из вероятность конкретного мероприятие происходящий из случайная переменная. Его можно рассматривать как альтернативный способ выражения вероятности, как и шансы или же логарифм, но который имеет особые математические преимущества в контексте теории информации.

Информацию Шеннона можно интерпретировать как количественную оценку уровня «неожиданности» конкретного результата. Поскольку это такая базовая величина, она также появляется в нескольких других параметрах, таких как длина сообщения, необходимого для передачи события при оптимальном исходное кодирование случайной величины.

Информация Шеннона тесно связана с информационная энтропия, которое представляет собой ожидаемое значение самоинформации случайной величины, количественно определяющее, насколько удивительной является случайная величина «в среднем». Это средний объем самоинформации, которую наблюдатель ожидал бы получить о случайной величине при ее измерении.[1]

Информационное содержание может быть выражено в различных единицы информации, из которых наиболее распространенным является «бит» (иногда также называемый «шеннон»), как описано ниже.

Определение

Клод Шеннон Определение самоинформации было выбрано, чтобы соответствовать нескольким аксиомам:

  1. Событие с вероятностью 100% совершенно неудивительно и не дает никакой информации.
  2. Чем менее вероятно событие, тем оно удивительнее и тем больше информации оно дает.
  3. Если два независимых события измеряются отдельно, общий объем информации - это сумма самоинформации отдельных событий.

Подробный вывод приведен ниже, но можно показать, что существует уникальная функция вероятности, которая удовлетворяет этим трем аксиомам, с точностью до мультипликативного масштабного коэффициента. В целом с учетом мероприятие с вероятность , информационное содержание определяется следующим образом:

База журнала не указывается, что соответствует коэффициенту масштабирования, указанному выше. Различные варианты основания соответствуют разным единицам информации: если логарифмическое основание равно 2, единица называется "кусочек " или же "Шеннон"; если логарифм натуральный логарифм (соответствует базе Число Эйлера e ≈ 2,7182818284), единица называется "нац", сокращение от «естественный»; и если основание 10, единицы называются "Хартли", десятичный "цифры", или иногда "dits".

Формально, учитывая случайную величину с функция массы вероятности , самоинформация измерения в качестве исход определяется как

[2]


В Энтропия Шеннона случайной величины выше определяется как

по определению равно ожидал информативность измерения .[3]:11[4]:19–20

Использование обозначений для самооценки приведенная выше информация не универсальна. Поскольку обозначение также часто используется для соответствующего количества взаимная информация, многие авторы используют строчные буквы вместо самоэнтропии, отражая использование капитала для энтропии.

Характеристики

Монотонно убывающая функция вероятности

Для данного вероятностное пространство, измерение более редких События интуитивно более "удивительны" и содержат больше информации, чем более распространенные значения. Таким образом, самоинформация - это строго убывающая монотонная функция вероятности, или иногда называемая «антитонической» функцией.

Стандартные вероятности представлены действительными числами в интервале , самоинформация представлена ​​расширенными действительными числами в интервале . В частности, для любого выбора логарифмического основания мы имеем следующее:

  • Если конкретное событие имеет 100% вероятность наступления, то его самоинформация : его появление «совершенно не удивительно» и не дает никакой информации.
  • Если конкретное событие имеет вероятность наступления 0%, то его самоинформация : его появление «бесконечно удивительно».

Отсюда мы можем получить несколько общих свойств:

Связь с логарифмическими шансами

Информация Шеннона тесно связана с логарифм. В частности, учитывая какое-то событие , Предположим, что это вероятность происходит, и что это вероятность не происходит. Тогда у нас есть следующее определение логарифма шансов:

Это можно выразить как разность двух данных Шеннона:

Другими словами, лог-шансы можно интерпретировать как уровень неожиданности, если событие «не произойдет», за вычетом уровня неожиданности, если событие «произойдет».

Аддитивность независимых событий

Информационное наполнение двух независимые мероприятия - это сумма информационного содержания каждого события. Это свойство известно как аддитивность по математике и сигма аддитивность в частности в мера и теория вероятностей. Рассмотрим два независимые случайные величины с вероятностные массовые функции и соответственно. В совместная функция массы вероятности является

потому что и находятся независимый. Информационное наполнение исход является

Видеть § Две независимые, одинаково распределенные кости ниже для примера.

Соответствующее свойство для вероятность это то логарифмическая вероятность независимых событий - это сумма логарифмических вероятностей каждого события. Интерпретируя логарифмическую вероятность как «поддержку» или отрицательную неожиданность (степень, в которой событие поддерживает данную модель: модель поддерживается событием в той степени, в которой событие неудивительно для данной модели), это означает, что независимые события добавляют поддержка: информация, которую оба события вместе предоставляют для статистического вывода, является суммой их независимой информации.

Примечания

Эта мера также получила название неожиданный, поскольку он представляет собой "сюрприз «увидеть результат (крайне маловероятный результат очень удивителен). Этот термин (как мера логарифмической вероятности) был введен Майрон Трибус в его книге 1961 года Термостатика и термодинамика.[5][6]

Когда событие является случайной реализацией (переменной), самоинформация переменной определяется как ожидаемое значение самоинформации реализации.

Самоинформация является примером правильное правило подсчета очков.[требуется разъяснение ]

Примеры

Честный бросок монеты

Рассмотрим Бернулли суд из подбрасывать честную монету . В вероятности из События монеты приземления головами и хвосты (видеть честная монета и аверс и реверс ) находятся одна половина каждый, . На измерение переменная как головы, связанный информационный прирост

Таким образом, выигрыш в информации при честном приземлении орла равен 1 Шеннон.[2] Аналогичным образом, получение информации при измерении хвосты

Честный бросок кубика

Предположим, у нас есть честная шестигранная кость. Ценность броска костей равна дискретная однородная случайная величина с функция массы вероятности

Вероятность выпадения 4 равна , как и любой другой действительный рулон. Таким образом, информационное содержание прокатки 4 составляет
информации.

Две независимые, одинаково распределенные кости

Предположим, у нас есть два независимые, одинаково распределенные случайные величины каждый соответствует независимый честный 6-сторонний бросок кубиков. В совместное распределение из и является

Информационное наполнение случайное изменение является

как только

как объяснено в § Аддитивность независимых событий.

Информация из частоты бросков

Если мы получим информацию о стоимости кубика без знания какой кубик какое значение имел, мы можем формализовать подход с помощью так называемых подсчетных переменных

за , тогда и у графов есть полиномиальное распределение

Чтобы убедиться в этом, 6 результатов соответствуют событию и полная вероятность из 1/6. Это единственные события, которые точно сохраняются с указанием того, какие кости выпали, какой результат, потому что результаты одинаковы. Не зная, как отличить кости, бросающие другие числа, другие комбинации соответствуют тому, что один кубик выбрасывает одно число, а другой - другое число, каждая из которых имеет вероятность 1/18. В самом деле, , как требуется.

Неудивительно, что информационное содержание обучения тому, что обе кости были брошены как одно и то же конкретное число, больше, чем информационное содержание изучения того, что одна игральная кость была одним числом, а другая - другим числом. Возьмем для примера события и за . Например, и .

Информационное содержание

Позволять быть случаем, когда оба кубика бросили одинаковое значение и быть случаем, когда кости различались. потом и . Информационное содержание событий

Информация из суммы костей

Вероятностная масса или функция плотности (вместе вероятностная мера ) из сумма двух независимых случайных величин свертка каждой вероятностной меры. В случае независимых справедливых 6-сторонних бросков костей случайная величина имеет функцию массы вероятности , куда представляет дискретная свертка. В исход имеет вероятность . Следовательно, заявленная информация

Общее дискретное равномерное распределение

Обобщая § Честный бросок костей пример выше, рассмотрим общий дискретная однородная случайная величина (DURV) Для удобства определим . В после полудня является

В общем, значения DURV не обязательно целые числа, или для целей теории информации даже равномерно распределены; им нужно только быть равновероятный.[2] Информативность любого наблюдения является

Особый случай: постоянная случайная величина

Если над, вырождается к постоянная случайная величина с распределением вероятностей, детерминированно задаваемым и вероятностная мера Мера Дирака . Единственная ценность может взять это детерминированно , поэтому информативность любого измерения является

Как правило, измерение известного значения не дает никакой информации.[2]

Категориальное распределение

Обобщая все вышеперечисленные случаи, рассмотрим категоричный дискретная случайная величина с поддерживать и после полудня данный

Для целей теории информации значения даже не должно быть числа вообще; они могут просто быть взаимоисключающий События на измерить пространство из конечная мера это было нормализованный к вероятностная мера . Не теряя общий смысл, можно предположить, что категориальное распределение поддерживается на множестве ; математическая структура изоморфный с точки зрения теория вероятности и поэтому теория информации также.

Информация об исходе дано

Из этих примеров можно вычислить информацию о любом наборе независимый DRV с известными распределения к аддитивность.

Связь с энтропией

В энтропия это ожидаемое значение информационного содержания дискретная случайная величина, с ожиданием по дискретной ценности, которые он принимает. Иногда саму энтропию называют «самоинформацией» случайной величины, возможно потому, что энтропия удовлетворяет , куда это взаимная информация из с собой.[7]

Вывод

По определению, информация передается от отправляющего объекта, владеющего информацией, к принимающему объекту только в том случае, если получатель не знал информацию. априори. Если получающий объект заранее знал содержимое сообщения с уверенностью до получения сообщения, объем информации полученного сообщения равен нулю.

Например, цитируя персонажа (Хиппи Диппи Уэзермен) комика Джордж Карлин, «Прогноз погоды на сегодня: темно. Ночью продолжала тьма, а к утру широко рассеянный свет ». Предполагая, что кто-то не проживает рядом с Полюса земли или же полярные круги, объем информации, передаваемой в этом прогнозе, равен нулю, потому что до получения прогноза известно, что темнота всегда приходит с ночью.

Когда содержание сообщения известно априори с уверенностью, с вероятность из 1, в сообщении нет фактической информации. Только когда получатель знает содержание сообщения менее чем на 100%, сообщение действительно передает информацию.

Соответственно, объем собственной информации, содержащейся в сообщении, передающем контент, информирующий о возникновении мероприятие, , зависит только от вероятности этого события.

для какой-то функции будет определено ниже. Если , тогда . Если , тогда .

Далее, по определению, мера самоинформации неотрицательна и аддитивна. Если сообщение, информирующее о событии это пересечение из двух независимый События и , то информация о событии происходит это составное сообщение обоих независимых событий и происходящее. Количество информации составного сообщения ожидается, будет равно сумма объемов информации отдельных компонентных сообщений и соответственно:

.

Из-за независимости событий и , вероятность события является

.

Однако, применяя функцию приводит к

Класс функции обладающий такой собственностью, что

это логарифм функция любой базы. Единственное рабочее различие между логарифмами разных оснований - это разные константы масштабирования.

Поскольку вероятности событий всегда находятся в диапазоне от 0 до 1, а информация, связанная с этими событиями, должна быть неотрицательной, для этого требуется, чтобы .

С учетом этих свойств самоинформация связанный с исходом с вероятностью определяется как:

Чем меньше вероятность события , тем больше информации о себе связано с сообщением о том, что событие действительно произошло. Если логарифм выше по основанию 2, единица измерения является биты. Это самая распространенная практика. При использовании натуральный логарифм базы , единицей будет нац. Для логарифма по основанию 10 единицей информации является Хартли.

В качестве быстрой иллюстрации, информационное содержание, связанное с исходом 4 орла (или любым конкретным исходом) в 4 последовательных подбрасываниях монеты, будет 4 бита (вероятность 1/16), а информационное содержание, связанное с получением результата, отличного от один указанный будет ~ 0,09 бит (вероятность 15/16). См. Подробные примеры выше.

Смотрите также

Рекомендации

  1. ^ Джонс, Д.С., Элементарная теория информации, Vol., Clarendon Press, Oxford, стр. 11-15, 1979 г.
  2. ^ а б c d МакМахон, Дэвид М. (2008). Объяснение квантовых вычислений. Хобокен, Нью-Джерси: Wiley-Interscience. ISBN  9780470181386. OCLC  608622533.
  3. ^ Борда, Моника (2011). Основы теории информации и кодирования. Springer. ISBN  978-3-642-20346-6.
  4. ^ Хан, Те Сун и Кобаяши, Кинго (2002). Математика информации и кодирования. Американское математическое общество. ISBN  978-0-8218-4256-0.CS1 maint: использует параметр авторов (связь)
  5. ^ Р. Б. Бернштейн и Р. Д. Левин (1972) "Энтропия и химические изменения. I. Характеристика энергетических распределений продукта (и реагента) в реактивных молекулярных столкновениях: информационный и энтропийный дефицит", Журнал химической физики 57, 434-449 связь.
  6. ^ Майрон Трибус (1961) Термодинамика и термостатика: Введение в энергию, информацию и состояния материи с инженерными приложениями (Д. Ван Ностранд, 24 West 40 Street, New York 18, New York, USA) Tribus, Myron (1961), стр. 64-66 поручительство.
  7. ^ Томас М. Кавер, Джой А. Томас; Элементы теории информации; п. 20; 1991 г.

дальнейшее чтение

внешняя ссылка