Введение в энтропию - Introduction to entropy

В Термодинамика, энтропия - это числовая величина, которая показывает, что многие физические процессы могут идти только в одном направлении во времени. Например, вы можете залить кофе сливками и перемешать его, но вы не можете его «размешать»; можно сжечь кусок дерева, но нельзя его «разжечь». Слово «энтропия» вошло в широкое употребление для обозначения отсутствия порядка или предсказуемости или постепенного спада в беспорядок.[1] Более физическая интерпретация термодинамической энтропии относится к распространению энергии или материи. (Увидеть вводные описания энтропии раздел ниже.)

Если вы перевернете фильм, где смешивают кофе или сжигают дрова, вы увидите вещи, невозможные в реальном мире. Другой способ сказать, что эти обратные процессы невозможны, - это сказать, что смешивание кофе и горящей древесины «необратимо». Необратимость описывается важным законом природы, известным как второй закон термодинамики, который гласит, что в изолированной системе (системе, не связанной с какой-либо другой системой), которая претерпевает изменения, энтропия со временем увеличивается.[2]

Энтропия не увеличивается бесконечно. Со временем энтропия становится все ближе и ближе к своему максимально возможному значению.[3] Для системы с максимальной энтропией энтропия становится постоянной, и говорят, что система находится в термодинамическое равновесие. В некоторых случаях энтропия процесса меняется очень мало. Например, когда два бильярдных шара сталкиваются, изменения в энтропии очень малы, и поэтому, если бы фильм о столкновении был запущен в обратном направлении, это не могло бы показаться невозможным. Такие случаи называют почти «обратимыми». Идеальная обратимость невозможна, но это полезное понятие в теоретической термодинамике.

Хотя второй закон и термодинамика в целом чрезвычайно точны в своих предсказаниях поведения сложных физических систем, ученые довольствуются не только знанием того, как система ведет себя, но и ПОЧЕМУ она ведет себя именно так. На вопрос, почему энтропия увеличивается до тех пор, пока не будет достигнуто равновесие, в 1854 году очень успешно ответил известный ученый по имени Людвиг Больцманн. Теория, разработанная Больцманом и другими, известна как статистическая механика. Статистическая механика - это физическая теория, которая объясняет термодинамику с точки зрения статистического поведения атомов и молекул, составляющих систему.

Важным понятием статистической механики является идея микросостояние и макросостояние системы. Если, например, у нас есть контейнер с газом, и мы знаем положение и скорость каждой молекулы в этой системе, то мы знаем микросостояние этой системы. Если мы знаем только термодинамическое описание этой системы, давление, объем, температуру и / или энтропию, то мы знаем макросостояние этой системы. Больцман понял, что существует множество различных микросостояний, которые приводят к одному и тому же макросостоянию, и, поскольку частицы сталкиваются друг с другом и меняют свои скорости и положения, микросостояние газа всегда меняется. Но если газ находится в равновесии, кажется, что его макроскопическое поведение не изменится: нет изменений давления, температуры и т. Д. Статистическая механика связывает термодинамическую энтропию макросостояния с количеством микросостояний, которые могут дать это макросостояние. В статистической механике энтропия системы определяется знаменитым уравнением Людвига Больцмана:

где S - термодинамическая энтропия, W количество микросостояний, которые могут дать макросостояние, и является Постоянная Больцмана. Логарифм числа микросостояний () известен как информационная энтропия системы. Это можно проиллюстрировать на простом примере:

Если подбросить две монеты, можно получить четыре разных результата. Если ЧАС это головы и Т есть решка, мы можем иметь (ЧАС,ЧАС), (ЧАС,Т), (Т,ЧАС), и (Т,Т). Мы можем назвать каждое из них «микросостоянием», для которого мы точно знаем результаты процесса. Но что, если у нас меньше информации? Допустим, нам известно только общее количество голов ?. Это может быть 0, 1 или 2. Мы можем назвать эти «макросостояния». Только микросостояние (Т,Т) даст макросостояние ноль, (ЧАС,Т) и (Т,ЧАС) даст макросостояние 1, и только (ЧАС,ЧАС) даст макросостояние 2. Таким образом, мы можем сказать, что информационная энтропия макросостояния 0 и 2 равна ln (1), которая равна нулю, но информационная энтропия макросостояния 1 равна ln (2), что составляет около 0,69. Из всех микросостояний на макросостояние 2 приходится половина.

Оказывается, что если вы подбрасываете большое количество монет, макросостояния на уровне половины решки и половины решки или почти составляют почти все микросостояния. Другими словами, для миллиона монет вы можете быть уверены, что примерно половина будет орлом, а половина - решкой. Макросостояние с соотношением орла и решки 50-50 будет макросостоянием "равновесия". Реальная физическая система в состоянии равновесия имеет огромное количество возможных микросостояний, и почти все они являются макросостоянием равновесия, и это макросостояние, которое вы почти наверняка увидите, если подождете достаточно долго. В примере с монетой, если вы начнете с очень маловероятного макросостояния (как у всех орлов, например, с нулевой энтропией) и начнете подбрасывать одну монету за раз, энтропия макросостояния начнет увеличиваться, как это делает термодинамическая энтропия, и через некоторое время монеты, скорее всего, будут в том макросостоянии 50-50 или около того, которое имеет наибольшую информационную энтропию - равновесную энтропию.

Объяснение

Понятие термодинамической энтропии возникает из второй закон термодинамики. Этот закон увеличения энтропии количественно определяет снижение способности системы к изменениям или определяет, может ли происходить термодинамический процесс. Например, тепло всегда течет из области с более высокой температурой в область с более низкой температурой, пока температура не станет однородной.

Энтропия рассчитывается двумя способами. Первое, что применяется там, где только тепловые изменения вызывают изменение энтропии, - это изменение энтропии () в систему, содержащую подсистему, которая передает тепло своему окружению (внутри интересующей системы). Он основан на макроскопический отношения между тепловой поток в подсистему, и температура, при которой это происходит, суммируется по границе этой подсистемы. Второй вычисляет абсолютная энтропия (S) системы на основе микроскопического поведения ее отдельных частиц. Это основано на натуральный логарифм из числа микросостояния возможно в конкретном макросостояние () называется термодинамической вероятностью. Грубо говоря, это дает вероятность того, что система находится в таком состоянии. В этом смысле он эффективно определяет энтропию независимо от ее эффектов из-за изменений, которые могут включать тепловую, механическую, электрическую, химическую энергию и т. Д., Но также включают логические состояния, такие как информация.

После формализм Клаузиуса, первый расчет можно математически сформулировать как:[4]

куда увеличение или уменьшение энтропии, добавляется ли тепло в систему или вычитается из нее, и это температура. Знак равенства указывает на то, что изменение обратимо, поскольку Клаузиус показывает пропорциональную зависимость между энтропией и потоком энергии, в системе тепловая энергия может быть преобразована в работу, а работа может быть преобразована в тепло посредством циклического процесса.[5] Если температура может изменяться, уравнение должно быть интегрированный по температурному пути. Этот расчет изменения энтропии не позволяет определить абсолютное значение, только разницу. В этом контексте второй закон термодинамики может быть заявлен, что для тепла, передаваемого по любому действующему процессу для любой системы, изолированной или нет,

Согласно первый закон термодинамики, который касается сохранение энергии, утрата тепла приведет к уменьшению внутренняя энергия из термодинамическая система. Термодинамическая энтропия обеспечивает сравнительную меру уменьшения внутренней энергии и соответствующего увеличения внутренней энергии окружающей среды при данной температуре. Простая и более конкретная визуализация второго закона состоит в том, что энергия всех типов изменяется от локализованной до рассеянной или распространяющейся, если ей не препятствовать в этом. Изменение энтропии - это количественная мера такого спонтанного процесса: сколько энергии утекло или насколько широко она распространилась при определенной температуре.

Второй расчет определяет энтропию в абсолютном выражении и исходит из статистическая механика. Энтропия конкретного макросостояние определяется как Постоянная Больцмана раз натуральный логарифм числа микросостояний, соответствующих этому макросостоянию, или математически

где переменные определены, как и раньше.

Макросостояние системы - это то, что мы знаем о системе, например температура, давление, и объем газа в коробке. Для каждого набора значений температуры, давления и объема существует множество комбинаций молекул, которые приводят к этим значениям. Количество расположений молекул, которые могут привести к одинаковым значениям температуры, давления и объема, - это количество микросостояний.

Концепция энтропии была разработана для описания любого из нескольких явлений, в зависимости от области и контекста, в котором она используется. Информационная энтропия принимает математические концепции статистическая термодинамика в области теория вероятности не связанные с теплом и энергией.

Таяние льда является примером энтропии увеличение

Пример увеличения энтропии

Таяние льда представляет собой пример, в котором энтропия возрастает в небольшой системе, термодинамической системе, состоящей из окружающей среды (теплая комната) и объекта из стеклянной емкости, льда и воды, которая может достигать термодинамическое равновесие при температуре плавления льда. В этой системе некоторые высокая температура (δQ) из более теплого окружения при 298 К (25 ° C; 77 ° F) переходит в более холодную систему льда и воды с постоянной температурой (Т) 273 К (0 ° C; 32 ° F), температура плавления льда. Энтропия системы, которая равна δQ/Т, увеличивается на δQ/273 К. Тепло δQ поскольку этот процесс - это энергия, необходимая для перевода воды из твердого состояния в жидкое, и называется энтальпия плавления, т.е. ΔЧАС для плавления льда.

Важно понимать, что энтропия окружающей комнаты уменьшается меньше, чем энтропия льда, а вода увеличивается: комнатная температура 298 K больше, чем 273 K, и, следовательно, отношение (изменение энтропии) δQ/298 К для окружающей среды меньше, чем отношение (изменение энтропии) δQ/273 К для системы льда и воды. Это всегда верно для спонтанных событий в термодинамической системе, и это показывает предсказательную важность энтропии: конечная чистая энтропия после такого события всегда больше, чем была начальная энтропия.

По мере того, как температура холодной воды повышается до температуры в комнате, и комната далее незаметно остывает, сумма δQ/Т в непрерывном диапазоне, «с множеством приращений», от первоначально холодной до, наконец, теплой воды, можно определить с помощью расчетов. Вся миниатюрная «вселенная», то есть эта термодинамическая система, увеличила энтропию. Энергия спонтанно стала более рассредоточенной и распределенной в этой «вселенной», чем когда был введен стакан льда и воды, и он стал «системой» внутри нее.

Происхождение и использование

Первоначально энтропия была названа для описания «отходящего тепла» или, точнее, потерь энергии от тепловых двигателей и других механических устройств, которые никогда не могли работать со 100% -ной эффективностью при преобразовании энергии в работу. Позже этот термин получил несколько дополнительных описаний, поскольку больше понималось поведение молекул на микроскопическом уровне. В конце 19 века слово «беспорядок» использовали Людвиг Больцманн в разработке статистические взгляды на энтропию с помощью теория вероятности описать увеличенное движение молекул на микроскопическом уровне. Это было до того, как квантовое поведение стало понятнее. Вернер Гейзенберг и те, кто следил. Описание термодинамической (тепловой) энтропии на микроскопическом уровне находится в статистической термодинамике и статистическая механика.

На протяжении большей части 20 века в учебниках энтропия описывалась как «беспорядок», следуя ранней концептуализации Больцмана. "двигательная" (т.е. кинетическая) энергия молекул. В последнее время в учебниках химии и физики появилась тенденция описывать энтропия как рассеивание энергии.[6] Энтропия также может включать в себя рассеивание частиц, которые сами по себе обладают энергией. Таким образом, бывают случаи, когда и частицы, и энергия рассеиваются с разной скоростью при смешивании веществ.

Было обнаружено, что математика, разработанная в статистической термодинамике, применима и в других дисциплинах. В частности, информационные науки разработали концепцию информационная энтропия, в котором отсутствует постоянная Больцмана, присущая термодинамической энтропии.

Тепло и энтропия

На микроскопическом уровне кинетическая энергия молекул отвечает за температура вещества или системы. «Тепло» - это кинетическая энергия передаваемых молекул: когда энергия движения передается от более горячей среды к более холодной системе, более быстро движущиеся молекулы в окружающей среде сталкиваются со стенками системы, которые переводы часть их энергии передается молекулам системы и заставляет их двигаться быстрее.

  • Молекулы в газ любить азот при комнатной температуре в любой момент движутся со средней скоростью почти 500 миль в час (210 м / с ), многократно сталкиваясь и, следовательно, обмениваясь энергией, так что их индивидуальные скорости всегда меняются. Если предположить идеальный газ модель, средняя кинетическая энергия увеличивается линейно с участием абсолютная температура, поэтому средняя скорость увеличивается как квадратный корень из температуры.
    • Таким образом, движущаяся молекулярная энергия («тепловая энергия») из более горячего окружения, как и более быстро движущиеся молекулы в пламя или сильно колеблющиеся атомы железа в горячей плите расплавят или закипят вещество (систему) при температуре его плавления или точки кипения. То количество энергии движения из окружающей среды, которое требуется для плавления или кипения, называется энергией фазового перехода, а именно энтальпией плавления или испарения соответственно. Эта энергия фазового перехода разрывает связи между молекулами в системе (не химические связи внутри молекул, которые удерживают атомы вместе) вместо того, чтобы вносить вклад в энергию движения и заставлять молекулы двигаться быстрее - так что это не повышает температуру, а вместо этого позволяет молекулам высвободиться и двигаться как жидкость или как пар.
    • С точки зрения энергии, когда твердое тело становится жидкостью или паром, энергия движения, исходящая из окружающей среды, изменяется на «потенциальную энергию» в веществе (изменение фазы энергия, которая возвращается в окружающую среду, когда окружающая среда становится холоднее, чем температура кипения или плавления вещества соответственно). Энергия фазового перехода увеличивает энтропию вещества или системы, потому что это энергия, которая должна распространяться в системе из окружающей среды, чтобы вещество могло существовать в виде жидкости или пара при температуре выше его точки плавления или кипения. Когда этот процесс происходит во `` вселенной '', состоящей из окружающей среды и системы, общая энергия `` вселенной '' становится более рассредоточенной или распределяемой, поскольку часть большей энергии, которая была только в более горячем окружении, переносится, так что некоторая часть энергии в системе охлаждения. Это рассеяние энергии увеличивает энтропию «вселенной».

Важным общим принципом является то, что Энергия всех типов меняется от локальной к рассредоточенной или рассредоточенной, если это не мешает. Энтропия (или, лучше сказать, изменение энтропии) - это количественная мера такого спонтанного процесса: сколько энергии было передано / T или насколько широко она распространилась при определенной температуре ».[нужна цитата ]

Классический расчет энтропии

Когда энтропия была впервые определена и использована в 1865 году, само существование атомов все еще оставалось спорным, и не существовало концепции, что температура обусловлена ​​энергией движения молекул или что «тепло» на самом деле является передачей этой движущейся молекулярной энергии из одного места в другое. еще один. Изменение энтропии, , был описан в макроскопических терминах, которые можно было измерить напрямую, таких как объем, температура или давление. Однако сегодня классическое уравнение энтропии, Частично можно объяснить в современных терминах, описывающих, как молекулы несут ответственность за происходящее:

  • представляет собой изменение энтропии системы (некоторой представляющей интерес физической субстанции) после того, как некоторая энергия движения («тепло») была передана ей быстро движущимися молекулами. Так, .
  • Потом, , отношение энергии движения («тепла») q, которая передается «обратимо» (rev) системе из окружающей среды (или из другой системы, находящейся в контакте с первой системой), деленное на T, абсолютную температуру, при которой передача происходит.
    • «Реверсивный» или «обратимый» (rev) просто означает, что T, температура системы, должна оставаться (почти) точно такой же, пока любая энергия передается к ней или от нее. Это просто в случае фазовых переходов, когда система абсолютно должна оставаться в твердой или жидкой форме, пока ей не будет передано достаточно энергии, чтобы разорвать связи между молекулами, прежде чем она сможет превратиться в жидкость или газ. Например, при таянии льда при 273,15 K, независимо от температуры окружающей среды - от 273,20 K до 500 K или даже выше, температура льда будет оставаться на уровне 273,15 K, пока последние молекулы льда не изменятся на жидкая вода, то есть до тех пор, пока все водородные связи между молекулами воды во льду не будут разорваны и не образуются новые, менее точно фиксированные водородные связи между молекулами жидкой воды. Это количество энергии, необходимое для таяния льда на моль, составляет 6008 джоулей при 273 К. Следовательно, изменение энтропии на моль равно , или 22 Дж / К.
    • Когда температура не соответствует температуре плавления или кипения вещества, разрыв межмолекулярных связей невозможен, и поэтому любая движущаяся молекулярная энергия («тепло») из окружающей среды, передаваемая системе, повышает ее температуру, заставляя ее молекулы двигаться быстрее. и быстрее. Поскольку температура постоянно повышается, больше не существует определенного значения «Т», при котором передается энергия. Однако «обратимую» передачу энергии можно измерить при очень небольшом повышении температуры, а совокупный итог можно найти, добавив каждый из множества небольших температурных интервалов или приращений. Например, чтобы найти изменение энтропии от 300 K до 310 K, измерьте количество энергии, передаваемой при десятках или сотнях температурных приращений, скажем, от 300,00 K до 300,01 K, а затем от 300,01 до 300,02 и так далее, разделив q на каждый T и, наконец, сложив их все.
    • Расчет может быть использован, чтобы упростить этот расчет, если эффект ввода энергии в систему линейно зависит от изменения температуры, как при простом нагреве системы от умеренных до относительно высоких температур. Таким образом, энергия, передаваемая «за постепенное изменение температуры» (теплоемкость, ), умноженное на интеграл из от к , непосредственно задается .

Вводные описания энтропии

Термодинамическая энтропия

  • Рассеивание энергии: Более новая формулировка, связанная с Фрэнк Л. Ламберт описывает энтропия как рассеивание энергии.[6] Как и в случае с «беспорядком», значение термина «рассредоточение» следует понимать в очень специфическом смысле, который сильно отличается от мирского значения термина «рассредоточение». Хотя увеличение энтропии часто связано с пространственным уменьшением концентрации плотности энергии, и никогда с увеличением, существуют контрпримеры, которые иллюстрируют, что концепция «рассредоточения» не сразу очевидна. Большинство контрпримеров могут быть включены в концепцию «рассредоточения», когда «пространство», в котором происходит рассредоточение, включает пространство квантовых уровней энергии в зависимости от численности населения, но это снижает эффективность концепции распространения как введения в концепцию энтропии. .
  • Мера энергии, недоступной для работы: Это часто повторяемая фраза, требующая значительного пояснения, чтобы ее можно было понять. Это неверно, за исключением циклических обратимых процессов, и в этом смысле вводит в заблуждение. Учитывая емкость с газом, ВСЯ его внутренняя энергия может быть преобразована в работу.(Точнее, количество работы, которую можно преобразовать, можно сделать сколь угодно близкой к полной внутренней энергии.) Точнее, для изолированной системы, состоящей из двух замкнутых систем при разных температурах, в процессе достижения равновесия количество потерянной энтропии горячей системой, умноженной на термодинамическая температура горячей системы - это показатель количества энергии, недоступной для работы. В этом смысле описание фундаментальной природы энтропии может ввести в заблуждение.

Информационная энтропия

  • Как мера беспорядка: Традиционно в учебниках ХХ века энтропия как порядок и беспорядок так что он обеспечивает «измерение беспорядка или случайности системы». Утверждалось, что двусмысленность и произвольное толкование используемых терминов (таких как «беспорядок» и «хаос») способствуют широко распространенной путанице и могут затруднить понимание энтропии для большинства студентов. С другой стороны, в удобной, хотя и произвольной интерпретации, «беспорядок» можно резко определить как Энтропия Шеннона распределения вероятностей микросостояний для конкретного макросостояния,[7]:379 в этом случае связь «беспорядка» с термодинамической энтропией является прямым, но произвольным и не очевидным для тех, кто не знаком с теорией информации.
  • Недостающая информация: Идея о том, что информационная энтропия является мерой того, сколько человек не знает о системе, довольно точна. К сожалению, однако, он дает менее интуитивное понимание физической концепции термодинамической энтропии, чем другие подходы к пониманию энтропии.
Если вместо натурального логарифма для определения информационной энтропии мы будем использовать логарифм с основанием 2, то информационная энтропия будет равна среднему количеству (тщательно выбранных) вопросов типа «да-нет», которые нам придется задать, чтобы получить полную информацию. информация о системе, с которой мы имеем дело. Во вводном примере с двумя перевернутыми монетами, информационной энтропией для макросостояния, которое содержит одну голову и один хвост, нам понадобится только один вопрос, чтобы определить его точное состояние (например, первая ли выпадает? "), И вместо выражения энтропии как ln (2), мы могли бы эквивалентно сказать, что это Log2(2) что равняется количеству вопросов, которые нам нужно задать: Один. При измерении энтропии с использованием натурального логарифма (ln) единица информационной энтропии называется «нат», но когда она измеряется с использованием логарифма с основанием 2, единица информационной энтропии называется «бит». Это просто разница в единицах измерения, очень похожая на разницу между дюймами и сантиметрами.
Понятия «беспорядок» и «распространение» могут быть проанализированы с учетом этой концепции информационной энтропии. Например, если мы возьмем новую колоду карт из коробки, она будет выстроена в "идеальном порядке" (пики, червы, бубны, трефы, каждая масть начинается с туза и заканчивается королем), мы можем сказать, что тогда у нас есть «упорядоченная» колода с нулевой информационной энтропией. Если мы тщательно перемешаем колоду, информационная энтропия составит около 225,6 бит: нам нужно будет задать в среднем около 225,6 вопросов, чтобы определить точный порядок перемешанной колоды. Мы также можем сказать, что перетасованная колода стала полностью «беспорядочной» или что упорядоченные карты «разложены» по всей колоде. Но информационная энтропия не говорит о том, что колоду нужно упорядочивать каким-то определенным образом. Если мы возьмем нашу перетасованную колоду и запишем названия карт по порядку, то энтропия информации станет равной нулю. Если мы снова перетасуем колоду, информационная энтропия снова будет около 225,6 бит, даже если каким-то чудом она будет перетасована в том же порядке, что и при выходе из коробки, потому что даже если бы это было так, мы бы этого не узнали. Итак, понятие «беспорядок» полезно, если под порядком мы подразумеваем максимальное знание, а под беспорядком мы подразумеваем максимальное отсутствие знания. Концепция «раздачи» полезна, потому что дает представление о том, что происходит с картами, когда они тасуются. Вероятность того, что карта окажется в определенном месте в упорядоченной колоде, равна 0 или 1, в перетасованной колоде - 1/52. Вероятность «разложилась» по всей колоде. Аналогично, в физической системе энтропия обычно ассоциируется с «растеканием» массы или энергии.
Связь между термодинамической энтропией и информационной энтропией дается уравнением Больцмана, которое гласит, что S = kB пер W. Если мы возьмем логарифм по основанию 2 W, это даст среднее количество вопросов, которые мы должны задать о микросостоянии физической системы, чтобы определить ее макросостояние.[8]

Смотрите также

использованная литература

  1. ^ «Определение энтропии в английском». Lexico на базе Оксфорда. Получено 18 ноября 2020.
  2. ^ Теоретически кофе может быть «несмешанным», а древесина - «несгоревшей», но для этого вам понадобится «машина», которая генерирует больше энтропии, чем было потеряно в исходном процессе. Поэтому второй закон справедлив только для изолированной системы, что означает, что они не могут быть связаны с какой-то внешней «машиной».
  3. ^ Строго говоря, термодинамика имеет дело только с системами, находящимися в равновесии. Идея о том, что энтропия непрерывно «изменяется», на самом деле является приближением, в котором изменение рассматривается как ряд отдельных шагов, каждый из которых является состоянием равновесия, полученным из предыдущего.
  4. ^ И. Клоц, Р. Розенберг, Химическая термодинамика - основные понятия и методы, 7-е изд., Wiley (2008), стр. 125
  5. ^ Энтропия и второй закон термодинамики (Глава 4)
  6. ^ а б Энтропийные сайты - Руководство Контент выбран Фрэнк Л. Ламберт
  7. ^ Каллен, Герберт Б. (1985). Термодинамика и введение в термостатистику (2-е изд.). Нью-Йорк: Джон Вили и сыновья. ISBN  0-471-86256-8.
  8. ^ В классической механике скорости и положения являются действительными числами, и существует континуум бесконечного числа микросостояний. Это означало бы, что нужно было бы задать бесконечное количество вопросов, чтобы определить макросостояние. В квантовой механике микросостояния «квантованы», и их конечное число для данной энергии, поэтому количество вопросов конечно. Больцман разработал свою теорию до появления квантовой механики, и надо отдать ему должное, что он, тем не менее, смог разработать теорию, которая имела дело с теоретически бесконечным числом микросостояний.

дальнейшее чтение