Физическая информация - Physical information - Wikipedia

Физическая информация это форма Информация. В физика, это относится к информации физическая система. Физическая информация - важное понятие, используемое в ряде областей изучения физики. Например, в квантовая механика, форма физической информации, известная как квантовая информация используется для описания квантовых явлений, таких как запутанность и суперпозиция.[1][2][3][4][5][6] В термодинамика и статистическая механика, понятие физической информации также используется для описания явлений, связанных с термодинамическая энтропия. (Видеть Энтропия в термодинамике и теории информации для обзора этой темы). Концепция информации также важна в относительность, поскольку корреляции между событиями в пространстве-времени можно измерить с помощью физической информации.[7][8][9][10][11][12]

В общем смысле информация - это то, что устраняет неопределенность в отношении состояния физической системы в данный момент времени. Информацию также можно понимать как меру вероятности следующим образом: физическое состояние с низкой начальной вероятностью наблюдения содержит относительно большое количество физической информации, а состояние с высокой начальной вероятностью наблюдения содержит относительно небольшое количество физической информации. .

При разъяснении предмета информации следует проявлять осторожность, чтобы различать следующие конкретные случаи:[нужна цитата ]

  • Фраза экземпляр информации относится к конкретным реализация информации (личность, форма, сущность), которая связана с бытием конкретный пример вещи. (Это позволяет ссылаться на отдельные экземпляры информации, которые имеют одинаковые шаблоны.)
  • А обладатель информации - это переменный или изменяемый экземпляр, который может иметь разные формы в разное время (или в разных ситуациях).
  • А часть информации - это конкретный факт об идентичности или свойствах вещи, то есть часть ее экземпляра.
  • А образец информации (или же форма) - шаблон или содержание экземпляра или части информации. Многие отдельные фрагменты информации могут иметь одну и ту же форму. Можно сказать, что это идеально коррелирует или сказать, что они копии друг друга, как в экземплярах книги.
  • An воплощение информации это вещь, сущность которой является данным экземпляром информации.
  • А представление информации - это кодирование некоторого шаблона информации в другом шаблоне или экземпляре.
  • An интерпретация информации - это декодирование шаблона информации как представления другого конкретного шаблона или факта.
  • А предмет информации это то, что идентифицируется или описывается данным экземпляром или частью информации. (В большинстве случаев предмет, являющийся предметом информации, может быть абстрактным или конкретным; математическим или физическим.)
  • An количество информации количественная оценка на сколько большой данный экземпляр, часть или шаблон информации есть, или какая часть информационного содержания данной системы (ее экземпляр) имеет данный атрибут, например известность или неизвестность. Объемы информации наиболее естественно охарактеризованы в логарифмический единицы.

Поскольку все вышеупомянутые употребления концептуально отличаются друг от друга, перегрузка слова «информация» (само по себе) для обозначения (или коннотации) нескольких из этих концепций одновременно может привести к путанице. Соответственно, в этой статье используются более подробные фразы, например, выделенные жирным шрифтом выше, если предполагаемое значение не ясно из контекста.

Классическая информация против квантовой

Экземпляр информации, который содержится в физической системе, обычно считается "истинным". государственный. (А реалист утверждал бы, что физическая система всегда имеет какое-то истинное состояние - классическое или квантовое, - хотя во многих практических ситуациях истинное состояние системы может быть в значительной степени неизвестным.)

При обсуждении информации, содержащейся в физических системах в соответствии с современными квантовая физика, мы должны различать классическую информацию и квантовая информация. Квантовая информация определяет полное квантовое состояние вектор (или, что эквивалентно, волновая функция) системы, тогда как классическая информация, грубо говоря, выделяет определенное (чистое) квантовое состояние, только если нам уже дан заранее заданный набор различимых (ортогональный ) квантовые состояния на выбор; такой набор образует основа для векторное пространство всех возможных чистых квантовых состояний (см. чистое состояние ). Таким образом, квантовая информация может быть выражена предоставлением (1) выбора базиса, так что фактическое квантовое состояние равно одному из базисных векторов, вместе с (2) классической информацией, определяющей, какой из этих базисных векторов является фактическим. (Однако квантовая информация сама по себе не включает в себя спецификацию базиса, действительно, бесчисленное количество различных баз будет включать любой заданный вектор состояния.)

Обратите внимание, что количество классической информации в квантовой системе дает максимальный объем информации, который может быть фактически измерен и извлечен из этой квантовой системы для использования внешними классическими (декогерентными) системами, поскольку только базовые состояния функционально различимы друг от друга. Невозможность различать неортогональные состояния - фундаментальный принцип квантовой механики.[нужна цитата ] эквивалентно Гейзенберг с принцип неопределенности.[нужна цитата ] В связи с его более общей полезностью, оставшаяся часть этой статьи будет иметь дело в основном с классической информацией, хотя квантовая теория информации также имеет несколько потенциальных приложений (квантовые вычисления, квантовая криптография, квантовая телепортация ), которые в настоящее время активно исследуются как теоретиками, так и экспериментаторами.[13]

Количественная оценка классической физической информации

Количество (классической) физической информации может быть определено количественно, как в теория информации, следующее.[14] Для системы S, определенный абстрактно таким образом, что он N различимые состояния (ортогональные квантовые состояния), которые согласуются с его описанием, количество информации я(S), содержащееся в состоянии системы, можно назвать log (N). Для этого определения выбран логарифм, поскольку он имеет то преимущество, что эта мера информационного содержания является аддитивной при объединении независимых, несвязанных подсистем; например, если подсистема А имеет N различимые состояния (я(А) = журнал (N) информационное содержание) и независимую подсистему B имеет M различимые состояния (я(B) = журнал (M) информационное содержание), то объединенная система имеет НМ различимые состояния и информационное наполнение я(AB) = журнал (НМ) = журнал (N) + журнал (M) = я(А) + я(B). Мы ожидаем, что информация будет добавлена ​​из наших повседневных ассоциаций со значением слова, например, две страницы книги могут содержать вдвое больше информации, чем одна страница.

Основание логарифма, используемое в этом определении, является произвольным, поскольку оно влияет на результат только с помощью мультипликативной константы, которая определяет единицу предполагаемой информации. Если журнал берется с основанием 2, единицей информации является двоичная цифра или бит (так названо Джон Тьюки ); если вместо этого мы используем натуральный логарифм, мы можем назвать полученную единицу "нац. "По величине нат, очевидно, идентичен Постоянная Больцмана k или постоянная идеального газа р, хотя эти конкретные величины обычно резервируются для измерения физической информации, которая оказывается энтропией и выражается в физических единицах, таких как джоуль на кельвин, или килокалорий на моль-кельвин.

Физическая информация и энтропия

Простой способ понять лежащее в основе единство между физическими (как в термодинамике) энтропия а теоретико-информационная энтропия имеет вид:

Энтропия - это просто та часть (классической) физической информации, которая содержится в интересующей системе (будь то вся физическая система или просто подсистема, очерченная набором возможных сообщений), личность которой (в отличие от количества) неизвестна ( с точки зрения конкретного знающего).

Эта неформальная характеристика соответствует как формальному определению фон Неймана энтропии смешанного квантового состояния (которое является просто статистической смесью чистых состояний; см. энтропия фон Неймана ), а также Клод Шеннон определение энтропии распределение вероятностей над классическими состояниями сигналов или сообщений (см. информационная энтропия ).[14] Между прочим, заслуга формулы энтропии Шеннона (но не ее использования в теория информации контекст) действительно принадлежит Больцман, который вывел его намного раньше для использования в его H-теорема статистической механики.[15] (Сам Шеннон ссылается на Больцмана в своей монографии.[14])

Более того, даже когда состояние системы является известно, можно сказать, что информация в системе все еще эффективно энтропия, если эта информация фактически несжимаема, то есть, если нет никаких известных или реально определяемых корреляций или избыточностей между различными частями информации в системе. Обратите внимание, что это определение энтропии может даже рассматриваться как эквивалент предыдущего (неизвестная информация), если мы возьмем мета-перспективу и скажем, что для наблюдателя А "знать" состояние системы B означает просто, что существует определенная корреляция между состоянием наблюдателя А и состояние системы B; эта корреляция может, таким образом, использоваться мета-наблюдателем (то есть тем, кто обсуждает общую ситуацию, касающуюся состояния знаний А о В), чтобы сжать свое собственное описание совместной системы AB.[16]

В связи с этой связью с алгоритмическая теория информации,[17] Можно сказать, что энтропия - это та часть информационной емкости системы, которая «израсходована», то есть недоступна для хранения новой информации (даже если существующее информационное содержимое должно быть сжато). Остальную часть информационной емкости системы (помимо ее энтропии) можно было бы назвать экстропия, и он представляет собой часть информационной емкости системы, которая потенциально все еще доступна для хранения вновь полученной информации. Тот факт, что физическая энтропия - это, по сути, «использованная емкость памяти», является непосредственной проблемой при разработке вычислительных систем; например, компьютер должен сначала удалить энтропию из данной физической подсистемы (в конечном итоге вытесняя ее в окружающую среду и выделяя тепло), чтобы эта подсистема использовалась для хранения некоторой вновь вычисленной информации.[16]

Экстремальная физическая информация

В теории, разработанной Б. Рой Фриден,[18][19][20][21] «физическая информация» определяется как потеря Информация Fisher что происходит во время наблюдения физического эффекта. Таким образом, если эффект имеет уровень внутренней информации J но наблюдается на информационном уровне я, физическая информация определяется как разница яJ. Потому что я и J находятся функционалы, эта разница определяет информационный Лагранжиан. Принцип Фридена экстремальная физическая информация (EPI), который аналогичен принцип стационарного действия, утверждает, что минимизируя величину яJ дает уравнения, которые правильно описывают эволюцию данной физической системы во времени. Однако принцип EPI был встречен значительной критикой в ​​научном сообществе.[22] Принцип EPI не следует путать с более традиционным принцип максимальной энтропии используется в термодинамика максимальной энтропии.

Смотрите также

Рекомендации

  1. ^ Ведрал, Влатко. (2018). Расшифровка реальности: Вселенная как квантовая информация. Издательство Оксфордского университета. ISBN  978-0-19-881543-3. OCLC  1038430295.
  2. ^ Запутанный мир: очарование квантовой информации и вычислений. Audretsch, Jürgen, 1942-. Вайнхайм: Wiley-VCH. 2006 г. ISBN  978-3-527-61909-2. OCLC  212178399.CS1 maint: другие (связь)
  3. ^ Шумахер, Бенджамин. (2010). Квантовые процессы, системы и информация. Уэстморленд, Майкл Д. Нью-Йорк: Издательство Кембриджского университета. ISBN  978-0-511-67753-3. OCLC  663882708.
  4. ^ Хренников, Андрей (июль 2016). «Размышления об информационной интерпретации квантовой механики Цайлингера-Брукнера». Основы физики. 46 (7): 836–844. arXiv:1512.07976. Bibcode:2016ФоФ ... 46..836К. Дои:10.1007 / s10701-016-0005-z. ISSN  0015-9018. S2CID  119267791.
  5. ^ Ллойд, Сет, 1960- (2006). Программирование вселенной: ученый-квантовый компьютерщик покоряет космос (1-е изд.). Нью-Йорк: Кнопф. ISBN  1-4000-4092-2. OCLC  60515043.CS1 maint: несколько имен: список авторов (связь)
  6. ^ Сасскинд, Леонард (25 февраля 2014 г.). Квантовая механика: теоретический минимум. Фридман, ст. Нью-Йорк. ISBN  978-0-465-03667-7. OCLC  853310551.
  7. ^ Глаттфельдер, Джеймс Б. (2019), Глаттфельдер, Джеймс Б. (ред.), «Вселенная, построенная из информации», Информация - сознание - реальность: как новое понимание Вселенной может помочь ответить на вековые вопросы существования, Коллекция Frontiers, Cham: Springer International Publishing, стр. 473–514, Дои:10.1007/978-3-030-03633-1_13, ISBN  978-3-030-03633-1, получено 2020-11-01
  8. ^ Перес, Ашер; Терно, Дэниел Р. (2004-01-06). «Квантовая информация и теория относительности». Обзоры современной физики. 76 (1): 93–123. arXiv:Quant-ph / 0212023. Bibcode:2004РвМП ... 76 ... 93П. Дои:10.1103 / RevModPhys.76.93. S2CID  7481797.
  9. ^ Уиллер, Джон Арчибальд (1989), "Информация, физика, квант: поиск ссылок", Материалы III Международного симпозиума по основам квантовой механики., стр. 354–358, получено 2020-11-01
  10. ^ Московиц, Клара. "Запутанный в пространстве-времени". Scientific American. Получено 2020-11-01.
  11. ^ Коуэн, Рон (19 ноября 2015 г.). «Квантовый источник пространства-времени». Новости природы. 527 (7578): 290–293. Bibcode:2015Натура. 527..290C. Дои:10.1038 / 527290a. PMID  26581274. S2CID  4447880.
  12. ^ "ShieldSquare Captcha". iopscience.iop.org. Получено 2020-11-01.
  13. ^ Майкл А. Нильсен и Исаак Л. Чуанг, Квантовые вычисления и квантовая информация, Издательство Кембриджского университета, 2000.
  14. ^ а б c Клод Э. Шеннон и Уоррен Уивер, Математическая теория коммуникации, University of Illinois Press, 1963.
  15. ^ Карло Черчиньяни, Людвиг Больцманн: человек, доверявший атомам, Oxford University Press, 1998.
  16. ^ а б Майкл П. Франк, "Физические пределы вычислений", Вычислительная техника в науке и технике, 4(3): 16-25, май / июнь 2002 г. http://www.cise.ufl.edu/research/revcomp/physlim/plpaper.html
  17. ^ W. H. Zurek, «Алгоритмическая случайность, физическая энтропия, измерения и демон выбора», в (Hey, 1999), стр. 393-410, и перепечатано в (Leff & Rex 2003), стр. 264-281.
  18. ^ Фриден, Б. Рой; Гейтенби, Роберт А. (1 сентября 2005 г.). «Степенные законы сложных систем из экстремальной физической информации». Физический обзор E. 72 (3): 036101. arXiv:q-bio / 0507011. Bibcode:2005PhRvE..72c6101F. Дои:10.1103 / Physreve.72.036101. ISSN  1539-3755. PMID  16241509. S2CID  17987848.
  19. ^ Фриден, Б. Рой; Соффер, Бернард Х. (16 ноября 2006 г.). «Теоретико-информационное значение распределения Вигнера». Физический обзор A. 74 (5): 052108. arXiv:Quant-ph / 0609157. Bibcode:2006PhRvA..74e2108F. Дои:10.1103 / Physreva.74.052108. ISSN  1050-2947. S2CID  55541671.
  20. ^ Фриден, Б. Рой; Соффер, Бернард Х. (1 сентября 1995 г.). «Лагранжианы физики и игра Фишера-передачи информации». Физический обзор E. 52 (3): 2274–2286. Bibcode:1995PhRvE..52.2274F. Дои:10.1103 / Physreve.52.2274. ISSN  1063-651X. PMID  9963668.
  21. ^ Б. Рой Фриден, Наука от информации Фишера, Издательство Кембриджского университета, 2004.
  22. ^ Lavis, D.A .; Стритер, Р.Ф. (01.06.2002). «Физика из информации Фишера». Исследования по истории и философии науки Часть B: Исследования по истории и философии современной физики. 33 (2): 327–343. Дои:10.1016 / S1355-2198 (02) 00007-2. ISSN  1355-2198.

дальнейшее чтение

  • Дж. Г. Эй, изд., Фейнман и вычисления: изучение ограничений компьютеров, Персей, 1999.
  • Харви С. Лефф и Эндрю Ф. Рекс, Демон Максвелла 2: энтропия, классическая и квантовая информация, вычисления, ИФИ, 2003.