Энтропия термодинамической системы. Энтропия? Это просто! В теории информации

Можно отметить, что отношение температуры холодильника к температуре нагревателя равно отношению величины количества теплоты, отданного рабочим телом холодильнику, к величине количества теплоты, принятого от нагревателя. Это значит, что для идеальной тепловой машины, работающей по циклу Карно, выполняется и такое соотношение: . Отношение Лоренц назвал приведённой теплотой . Для элементарного процесса приведённая теплота будет равна . Значит, при реализации цикла Карно (а он является обратимым циклическим процессом) приведённая теплота остаётся неизменной и ведёт себя как функция состояния, тогда, как известно, что количество теплоты является функцией процесса.

Используя первое начало термодинамики для обратимых процессов, и деля обе части этого равенства на температуру, получим:

(3.70)

Теплота не может самопроизвольно перейти от более холодного тела к более нагретому без каких-либо других изменений в системе.

Обычно любой физический процесс, при котором система постепенно переходит из одного состояния в другое, протекает по-разному, поэтому провести это явление в обратное состояние практически невозможно. Для этого необходимо использовать показатели промежуточного времени в окружающих определенную среду телах. Это напрямую связано с тем, что в процессе часть энергетического потенциала рассеивается путем постоянного трения и излучения.

Рисунок 1. Термодинамическая энтропия. Автор24 - интернет-биржа студенческих работ

Согласно законам термодинамики, практически все явления в природе необратимы. В любом физическом процессе часть энергии постепенно теряется. Для характеристики и описания рассеяния энергии вводится определение энтропии, объясняющее тепловое состояние концепции и определяющее вероятность возникновения нового состояния тела. Чем более вероятно это состояния, тем больше показатель энтропии. Все естественные ситуации в обычной жизни сопровождаются ростом данного элемента, который остается постоянным только в случае идеализированного процесса, наблюдаемого в замкнутой системе.

Определение 1

Энтропия – это универсальная функция состояния конкретной системы, незначительное изменение которой в обратимой ситуации равно отношению ничтожно малого количества введенной в данный процесс теплоты при соответствующей начальному состоянию температуре.

Поскольку энтропия есть основная функция состояния физического тела, то свойством интеграла выступает его самостоятельность и независимость от формы контура, по которому он вычисляется таким образом:

  • в любом обратимом физическом явлении изменения энтропии приравниваются нулю;
  • в термодинамике доказывается, что системы необратимой цикл возрастает с равными промежуточными параметрами;
  • энтропия замкнутой системы может либо возрастать, либо оставаться в стабильном состоянии.

Следовательно, указанная термодинамическая функция обладает особенностями аддитивности: энтропия каждой системы равна сумме энтропий материальных тел, входящих в систему: $S = S_1 + S_2 + S_3 + …$ Существенным отличием теплового движения элементарных частиц от других форм движения является их беспорядочность и хаотичность. Поэтому для описания теплового движения изначально нужно ввести количественный уровень молекулярной нестабильности. Если рассмотреть данное макроскопическое состояния вещества с любыми средними значениями параметров, то оно представляет собой ни что иное, как систематическая смена близко расположенных микросостояний, которые отличаются друг от друга распределением молекул в различных частях объема.

Статистическое определение энтропии: принцип Больцмана

Рисунок 2. Статистический смысл энтропии. Автор24 - интернет-биржа студенческих работ

В 1877 году ученый Людвиг Больцман обнаружил, что энтропия концепции может относиться к числу вероятных «микросостояний», которые согласуются с основными термодинамическими свойствами. Хорошим примером такого явления выступает идеальный газ в сосуде. Микросостояние в указанном элементе определено как импульсы и позиции (моменты движения) каждого составляющего систему атома и молекула.

Комплексность предъявляет к ученым требования исследовать только те микросостояния, для которых:

  • месторасположения всех движущихся частей расположены в пределах сосуда;
  • для получения общего энергетического потенциала кинетические энергии газа в итоге суммируются;
  • затем тепловая константа определяет количество микросостояний, которые возможны в имеющемся состоянии (статистический вес состояния).

Такой постулат, известный в науке как принцип Больцмана, возможно охарактеризовать в виде начала статистической механики, описывающего подробно главные термодинамические системы и использующего для своих целей принципы классической и квантовой физики.

Замечание 1

Закон Больцмана связывает в термодинамике все микроскопические свойства системы с одним из её динамических свойств.

Согласно определению исследователя, энтропия является просто дополнительной функцией состояния, параметры которой могут быть только натуральным числом.

Понимание энтропии как меры беспорядка

Существует мнение, что энтропию возможно рассматривать, как меру беспорядка в определенной системе. Иногда, с научной точки зрения, это может быть оправдано, так как зачастую ученые в первую очередь думают об «упорядоченных» концепциях как элементах, имеющих практически нулевую возможность дальнейшего конфигурирования, а как о «нестабильных» системах, обладающих множеством вероятных состояний. Собственно, это просто переформулированное трактовка энтропии как количества микросостояний, действующих в определенной среде.

Подобное определение беспорядка и хаотичности термодинамической системы как основного параметра возможностей конфигурирования концепции практически дословно соответствует формулировке энтропии в виде микросостояний.

Проблемы начинаются в двух конкретных случаях:

  • когда физики начинают смешивать разные понимания беспорядка, в результате чего энтропия становится мерой беспорядка в целом;
  • когда определение энтропии используется для систем, изначально не являющихся термодинамическими.

В вышеуказанных случаях применение понятия энтропии в термодинамике абсолютно неправомерно.

Значение энтропии для живых организмов

Все трансформации и превращения внутренней энергии описываются в физике законами термодинамики, которые при адекватных физических моделях и грамотно сформулированных физических ограничениях вполне применимы и для жизненных нестабильных процессов. Уменьшение показателя энтропия (появление отрицательной энергии по Шрёдингеру) в живом организме при тесном взаимодействии его с окружающей средой автоматически приводит к росту свободного энергетического потенциала.

Замечание 2

Если система «уклоняется» от постоянного равновесия, то она непременно должна в дальнейшем компенсировать увеличение энтропии другой энергией, с точки зрения науки - свободной энергией.

Таким образом, живая природа пытается избегать роста энтропии, повышая ее значимость в окружающей среде при общении с ней живого организма. Энтропия представляет собой «омертвленную» энергия, которую невозможно превратить в стабильную работу. По законам классической термодинамики в изолированных, хаотичных системах теплота полностью рассеивается, следовательно, процесс идет от порядка к хаосу.

Для живых микроорганизмов, как главных открытых систем, с научной точки зрения акт возникновения живого будет характеризоваться спонтанной трансформацией тепловой энергии необратимых функций в механическую целенаправленную работу создания высокоразвитой системы. Все это возможно осуществить посредством наличия свободной энергии. Следовательно, термодинамическая неравновесность существующих живых систем свидетельствует об их обязательной упорядоченности, так как полноценное равновесие соответствует хаосу и это в итоге приводит к смерти живого организма, когда его энтропия находится на максимальном уровне.

В целом, энтропия выступает как мера неопределенности и нестабильности, усреднения поведения физических объектов, установления правильного состояния и даже определенного единообразия. Жизнедеятельность биологических систем доказывает, что они не хотят подчиняться закону термодинамики для изолированной среды.

Понятие энтропии используется в различных науках: физике, химии, математике, биологии, социологии. Само слово произошло от греческого и обозначает «превращение, изменение». Что это такое простыми словами? Можно сказать, что это мера беспорядка, хаотичности в любой системе. Чем меньше порядка, тем больше ее значение. Если книги стоят на полке, неупорядоченность у них меньше, чем если они лежат кучей.

Определение данного термина зависит от сферы его применения. В общих словах можно сказать, что это мера беспорядка и необратимого рассеяния энергии. Чем более упорядочена какая-то система, тем энергия более сконцентрирована. Например, если мы поместим горячий предмет в холодную воду, постепенно он остынет, а вода нагреется. Во втором случае энтропия больше.

Важно! Энтропия характеризует беспорядок. Чем она больше, тем меньше система упорядочена.

В качестве системы может выступать что угодно. В физике или химии это обычно газ, жидкость, твердое тело, набор определенного числа частиц. В информатике это может быть текст, в социологии группа людей.

Термин энтропия

В физике

Этот термин используется в таких разделах физики, как термодинамика и статистическая физика. Термодинамика изучает способы передачи и превращения энергии. Она имеет дело с процессами, в которых можно использовать понятие температуры. Именно в термодинамике впервые начали использовать это понятие. Ввел его немецкий ученый Рудольф Клаузиус. Статистическая механика изучает поведение систем из конечного количества частиц, используя для этого методы теории вероятности.

В разных разделах физики этот термин означает несколько разные вещи. В термодинамике это характеристика необратимого рассеяния энергии. В статистической физике эта величина показывает вероятность какого-то состояния.

В термодинамике

Энтропия - единственная величина, показывающая направление физических процессов. Что это значит?

  • В изолированной системе, то есть той, которая не обменивается ни веществом, ни энергией с окружающими предметами, процессы всегда идут так, что неупорядоченность увеличивается. Достигнув максимума, она остается постоянной. В этом суть второго начала термодинамики.
  • Обратимые процессы не меняют неупорядоченность.
  • Необратимые процессы всегда идут так, что беспорядок увеличивается.
    В открытой системе эта величина может возрастать или оставаться постоянной, возможны и такие процессы, при которых беспорядок уменьшается. То есть вмешательством извне мы можем уменьшить неупорядоченность.

Всякая система, находящаяся в неизменных внешних условиях, со временем приходит в состояние равновесия и не может самостоятельно из него выйти. При этом все ее части будут иметь одинаковую температуру. Это нулевое начало термодинамики.

В равновесии беспорядок больше всего. Например, есть сосуд, разделенный перегородкой. С одной стороны находится один газ, с другой - другой. Если убрать перегородку, постепенно газы смешаются и самостоятельно уже не разделятся снова. Такое состояние будет более беспорядочным, чем состояние, когда газы были разделены.

В физике эта величина - функция состояния системы. Это значит, что она зависит от параметров системы:

  • температуры;
  • давления;
  • объема;
  • внутренней энергии.

В статистической механике

В статистической механике это понятие связано с вероятностью получить определенное состояние. Например, для нескольких предметов или частиц она зависит от числа способов их расположить.

Есть несколько определений этой величины. Наиболее простое определение Больцамана. Она равна логарифму вероятности состояния, умноженному на постоянную Больцмана: S=k*ln(W).

Полезное видео: что такое энтропия

Абсолютное значение

Энтропия - величина неотрицательная (больше или равна нулю). Чем ближе температура к абсолютному нулю, тем она тоже ближе к нулю. Это третье начало термодинамики. В первоначальном виде его сформулировал Макс Планк в 1911 году.

Также третье начало термодинамики называют принципом недостижимости абсолютного нуля. Это значит, что при любых процессах, связанных с изменением неупорядоченности, невозможно достигнуть абсолютного нуля (0К, или -273,15 С). Можно только бесконечно приближаться к этой температуре. Ученые договорились, что при 0 К неупорядоченность равна 0.

Важно! Абсолютное значение неупорядоченности можно посчитать как изменение энергии при данной температуре.

В термодинамике обычно не имеет значения абсолютная величина, важно только ее изменение. Однако можно найти и абсолютное значение. Оно вычисляется по разным формулам для твердого, жидкого и газообразного состояния вещества. Эта величина измеряется в Дж/К или Дж/градус, то есть в тех же единицах, что и теплоемкость. Удобно поделить эту величину на массу или количество моль вещества. Поэтому используют единицы Дж/(моль*К) или Дж/(моль*градус) в зависимости от того, в чем измеряется температура - в кельвинах или градусах.

В химии

Что такое, к примеру, энтропия в химии? Это понятие применяется в химической термодинамике. Здесь важно изменение этой величины. Если оно положительно, то и система становится менее упорядоченной. Знать это важно для определения направления химических реакций и изменения химического равновесия. Этот термин связан с понятием энтальпии - энергии, которую можно превратить в тепло при определенном постоянном давлении.

По изменению неупорядоченности можно определить, может ли реакция протекать самопроизвольно. Этого нельзя сделать только по изменению энергии, так как существуют и реакции, протекающие с поглощением тепла, и реакции, протекающие с его выделением. Согласно второму началу термодинамики, состояние с наибольшей неупорядоченностью - это наиболее устойчивое состояние замкнутой системы. Также любая замкнутая система стремится к наименее упорядоченному состоянию. Поэтому при самопроизвольных процессах беспорядок возрастает.

В теории информации

Информационная энтропия характеризует непредсказуемость какой-либо системы. Например, это может быть вероятность появления какого-то символа из алфавита в тексте. При этом эта функция равна количеству информации, которое приходится на один символ. Клод Шеннон - ученый, который ввел этот термин в теории информации, - даже сначала хотел называть эту величину информацией.

Шеннон предположил, что, увеличивая количество информации, мы уменьшаем неопределенность. Упорядочивая систему, мы также уменьшаем неопределенность.

Важно! Чем более предсказуемо какое-то событие, тем оно менее информативно, и тем меньше беспорядок.

С помощью этой неопределенности можно предсказывать события, например, исход какого-то эксперимента. Для этого события делят на отдельные части и считают неопределенность для них.

Информационная энтропия связана с числом доступных состояний. Чем это число больше, тем она больше. Например, если мы будем играть в шахматы по правилам, для шахматной доски эта величина будет меньше, чем если переставлять фигуры хаотически. Неопределенность для монетки, которая может упасть только на одну или другую сторону, меньше, чем у игральной кости с 6 гранями, а у кости с 20 гранями эта величина еще больше.

Существует также энтропия языка. Это понятие обозначает количество информации на единицу текста на этом языке (одни символ) и измеряется в битах на букву. Для разных языков она разная.

В языке одни символы появляются чаще, другие реже, также есть определенные часто встречающиеся сочетания символов. Проводя анализ вероятности появления того или иного символа, можно декодировать зашифрованный текст. Информационная неупорядоченность также помогает устанавливать необходимую пропускную способность каналов для передачи зашифрованных сообщений.

Для анализа данных в самых разных сферах, от медицины до социологии, используется информационно-энтропийный анализ. Простыми словами можно сказать, что, анализируя увеличение или уменьшение беспорядка, можно установить связи между явлениями.

Понятие «информационная энтропия» используется также в математической статистике и статистической физике. Эти науки также имеют дело с вероятностью различных состояний и используют методы теории вероятности.

В экономике

В экономике используется понятие «коэффициент энтропии». Он связан с концентрацией продавцов на рынке. Чем больше концентрация, тем меньше этот коэффициент, или индекс. Он зависит от распределения долей между фирмами на рынке, и чем больше разница в величине этих долей, тем больше и коэффициент энтропии.

Если поделить этот индекс на количество фирм на рынке, получится относительный показатель. Он обозначается буквой Е. Его значение находится между 0 и 1. Значение Е=0 соответствует монополии, а Е=1 - совершенной конкуренции.

Что говорит википедия

В википедии можно найти разные определения этого понятия. Самое общее - это мера необратимого рассеяния энергии, отклонения реального процесса от идеального. Также в википедии можно найти:

  • статьи об этом термине в классической термодинамике;
  • в биологической экологии;
  • энтропию Вселенной;
  • языка;
  • дифференциальную;
  • топологическую;
  • информационную.

Полезное видео: представление об энтропии

Заключение

Термин «энтропия» впервые был использован в термодинамике Рудольфом Клаузиусом. Из физики он пришел и в другие науки. Это понятие обозначает неупорядоченность, хаотичность, непредсказуемость и тесно связано с вероятностью. Энтропийный анализ помогает изучать данные и находить связи между явлениями, определять направления физических и химических процессов.

Этот пост является вольным переводом ответа, который Mark Eichenlaub дал на вопрос What"s an intuitive way to understand entropy? , заданный на сайте Quora

Энтропия. Пожалуй, это одно из самых сложных для понимания понятий, с которым вы можете встретиться в курсе физики, по крайней мере если говорить о физике классической. Мало кто из выпускников физических факультетов может объяснить, что это такое. Большинство проблем с пониманием энтропии, однако, можно снять, если понять одну вещь. Энтропия качественно отличается от других термодинамических величин: таких как давление, объём или внутренняя энергия, потому что является свойством не системы, а того, как мы эту систему рассматриваем. К сожалению в курсе термодинамики её обычно рассматривают наравне с другими термодинамическими функциями, что усугубляет непонимание.

Так что же такое энтропия?

Если в двух словах, то
Энтропия - это то, как много информации вам не известно о системе

Например, если вы спросите меня, где я живу, и я отвечу: в России, то моя энтропия для вас будет высока, всё-таки Россия большая страна. Если же я назову вам свой почтовый индекс: 603081, то моя энтропия для вас понизится, поскольку вы получите больше информации.


Почтовый индекс содержит шесть цифр, то есть я дал вам шесть символов информации. Энтропия вашего знания обо мне понизилась приблизительно на 6 символов. (На самом деле, не совсем, потому что некоторые индексы отвечают большему количеству адресов, а некоторые - меньшему, но мы этим пренебрежём).


Или рассмотрим другой пример. Пусть у меня есть десять игральных костей (шестигранных), и выбросив их, я вам сообщаю, что их сумма равна 30. Зная только это, вы не можете сказать, какие конкретно цифры на каждой из костей - вам не хватает информации. Эти конкретные цифры на костях в статистической физике называют микросостояниями, а общую сумму (30 в нашем случае) - макросостоянием. Существует 2 930 455 микросостояний, которые отвечают сумме равной 30. Так что энтропия этого макросостояния равна приблизительно 6,5 символам (половинка появляется из-за того, что при нумерации микросостояний по порядку в седьмом разряде вам доступны не все цифры, а только 0, 1 и 2).

А что если бы я вам сказал, что сумма равна 59? Для этого макросостояния существует всего 10 возможных микросостояний, так что его энтропия равна всего лишь одному символу. Как видите, разные макросостояния имеют разные энтропии.

Пусть теперь я вам скажу, что сумма первых пяти костей 13, а сумма остальных пяти - 17, так что общая сумма снова 30. У вас, однако, в этом случае имеется больше информации, поэтому энтропия системы для вас должна упасть. И, действительно, 13 на пяти костях можно получить 420-ю разными способами, а 17 - 780-ю, то есть полное число микросостояний составит всего лишь 420х780 = 327 600. Энтропия такой системы приблизительно на один символ меньше, чем в первом примере.

Мы измеряем энтропию как количество символов, необходимых для записи числа микросостояний. Математически это количество определяется как логарифм, поэтому обозначив энтропию символом S, а число микросостояний символом Ω, мы можем записать:

Это есть ничто иное как формула Больцмана (с точностью до множителя k, который зависит от выбранных единиц измерения) для энтропии. Если макросостоянию отвечают одно микросостояние, его энтропия по этой формуле равна нулю. Если у вас есть две системы, то полная энтропия равна сумме энтропий каждой из этих систем, потому что log(AB) = log A + log B.

Из приведённого выше описания становится понятно, почему не следует думать об энтропии как о собственном свойстве системы. У системы есть опеделённые внутренняя энергия, импульс, заряд, но у неё нет определённой энтропии: энтропия десяти костей зависит от того, известна вам только их полная сумма, или также и частные суммы пятёрок костей.

Другими словами, энтропия - это то, как мы описываем систему. И это делает её сильно отличной от других величин, с которыми принято работать в физике.

Физический пример: газ под поршнем

Классической системой, которую рассматривают в физике, является газ, находящийся в сосуде под поршнем. Микросостояние газа - это положение и импульс (скорость) каждой его молекулы. Это эквивалентно тому, что вы знаете значение, выпавшее на каждой кости в рассмотренном раньше примере. Макросостояние газа описывается такими величинами как давление, плотность, объём, химический состав. Это как сумма значений, выпавших на костях.

Величины, описывающие макросостояние, могут быть связаны друг с другом через так называемое «уравнение состояния». Именно наличие этой связи позволяет, не зная микросостояний, предсказывать, что будет с нашей системой, если начать её нагревать или перемещать поршень. Для идеального газа уравнение состояния имеет простой вид:

Хотя вы, скорее всего, лучше знакомы с уравнением Клапейрона - Менделеева pV = νRT - это то же самое уравнение, только с добавлением пары констант, чтобы вас запутать. Чем больше микросостояний отвечают данному макросостоянию, то есть чем больше частиц входят в состав нашей системы, тем лучше уравнение состояния её описывают. Для газа характерные значения числа частиц равны числу Авогадро, то есть составляют порядка 10 23 .

Величины типа давления, температуры и плотности называются усреднёнными, поскольку являются усреднённым проявлением постоянно сменяющих друг друга микросостояний, отвечающих данному макросостоянию (или, вернее, близким к нему макросостояниям). Чтобы узнать в каком микросостоянии находится система, нам надо очень много информации - мы должны знать положение и скорость каждой частицы. Количество этой информации и называется энтропией.

Как меняется энтропия с изменением макросостояния? Это легко понять. Например, если мы немного нагреем газ, то скорость его частиц возрастёт, следовательно, возрастёт и степень нашего незнания об этой скорости, то есть энтропия вырастет. Или, если мы увеличим объём газа, отведя поршень, увеличится степень нашего незнания положения частиц, и энтропия также вырастет.

Твёрдые тела и потенциальная энергия

Если мы рассмотрим вместо газа какое-нибудь твёрдое тело, особенно с упорядоченной структурой, как в кристаллах, например, кусок металла, то его энтропия будет невелика. Почему? Потому что зная положение одного атома в такой структуре, вы знаете и положение всех остальных (они же выстроены в правильную кристаллическую структуру), скорости же атомов невелики, потому что они не могут улететь далеко от своего положения и лишь немного колеблются вокруг положения равновесия.

Если кусок металла находится в поле тяготения (например, поднят над поверхностью Земли), то потенциальная энергия каждого атома в металле приблизительно равна потенциальной энергии других атомов, и связанная с этой энергией энтропия низка. Это отличает потенциальную энергию от кинетической, которая для теплового движения может сильно меняться от атома к атому.

Если кусок металла, поднятый на некоторую высоту, отпустить, то его потенциальная энергия будет переходить в кинетическую энергию, но энтропия возрастать практически не будет, потому что все атомы будут двигаться приблизительно одинаково. Но когда кусок упадёт на землю, во время удара атомы металла получат случайное направление движения, и энтропия резко увеличится. Кинетическая энергия направленного движения перейдёт в кинетическую энергию теплового движения. Перед ударом мы приблизительно знали, как движется каждый атом, теперь мы эту информацию потеряли.

Понимаем второй закон термодинамики

Второй закон термодинамики утверждает, что энтропия (замкнутой системы) никогда не уменьшается. Мы теперь можем понять, почему: потому что невозможно внезапно получить больше информации о микросостояниях. Как только вы потеряли некую информацию о микросостоянии (как во время удара куска металла об землю), вы не можете вернуть её назад.


Давайте вернёмся обратно к игральным костям. Вспомним, что макросостояние с суммой 59 имеет очень низкую энтропию, но и получить его не так-то просто. Если бросать кости раз за разом, то будут выпадать те суммы (макросостояния), которым отвечает большее количество микросостояний, то есть будут реализовываться макросостояния с большой энтропией. Самой большой энтропией обладает сумма 35, и именно она и будет выпадать чаще других. Именно об этом и говорит второй закон термодинамики. Любое случайное (неконтролируемое) взаимодействие приводит к росту энтропии, по крайней мере до тех пор, пока она не достигнет своего максимума.

Перемешивание газов

И ещё один пример, чтобы закрепить сказанное. Пусть у нас имеется контейнер, в котором находятся два газа, разделённых расположенной посередине контейнера перегородкой. Назовём молекулы одного газа синими, а другого - красными.

Если открыть перегородку, газы начнут перемешиваться, потому что число микросостояний, в которых газы перемешаны, намного больше, чем микросостояний, в которых они разделены, и все микросостояния, естественно, равновероятны. Когда мы открыли перегородку, для каждой молекулы мы потеряли информацию о том, с какой стороны перегородки она теперь находится. Если молекул было N, то утеряно N бит информации (биты и символы, в данном контексте, это, фактически, одно и тоже, и отличаются только неким постоянным множителем).

Разбираемся с демоном Максвелла

Ну и напоследок рассмотрим решение в рамках нашей парадигмы знаменитого парадокса демона Максвелла. Напомню, что он заключается в следующем. Пусть у нас есть перемешанные газы из синих и красных молекул. Поставим обратно перегородку, проделав в ней небольшое отверстие, в которое посадим воображаемого демона. Его задача - пропускать слева направо только красных, и справа налево только синих. Очевидно, что через некоторое время газы снова будут разделены: все синие молекулы окажутся слева от перегородки, а все красные - справа.


Получается, что наш демон понизил энтропию системы. С демоном ничего не случилось, то есть его энтропия не изменилась, а система у нас была закрытой. Получается, что мы нашли пример, когда второй закон термодинамики не выполняется! Как такое оказалось возможно?

Решается этот парадокс, однако, очень просто. Ведь энтропия - это свойство не системы, а нашего знания об этой системе. Мы с вами знаем о системе мало, поэтому нам и кажется, что её энтропия уменьшается. Но наш демон знает о системе очень много - чтобы разделять молекулы, он должен знать положение и скорость каждой из них (по крайней мере на подлёте к нему). Если он знает о молекулах всё, то с его точки зрения энтропия системы, фактически, равна нулю - у него просто нет недостающей информации о ней. В этом случае энтропия системы как была равна нулю, так и осталась равной нулю, и второй закон термодинамики нигде не нарушился.

Но даже если демон не знает всей информации о микросостоянии системы, ему, как минимум, надо знать цвет подлетающей к нему молекулы, чтобы понять, пропускать её или нет. И если общее число молекул равно N, то демон должен обладать N бит информации о системе - но именно столько информации мы и потеряли, когда открыли перегородку. То есть количество потерянной информации в точности равно количеству информации, которую необходимо получить о системе, чтобы вернуть её в исходное состояние - и это звучит вполне логично, и опять же не противоречит второму закону термодинамики.

Уравнение (44.7) или (44.12) может быть истолковано особо. При работе обратимых машин , и тепло при температуре «эквивалентно» теплу при температуре ; ведь если поглощается , то всегда выделяется тепло . Если теперь придумать для особое название, то можно сказать, что при обратимых процессах поглощается столько же , сколько и выделяется. Иначе говоря, не убывает и не прибывает. Эта величина называется энтропией, и мы говорим, что «за обратимый цикл изменение энтропии равно нулю». Если , то энтропия равна ; мы уже снабдили энтропию особым символом . Энтропия повсюду обозначается буквой , а численно она равна теплу (которое мы обозначили буквой ), выделяемому в одноградусном резервуаре (энтропия не равна просто теплу, это тепло, деленное на температуру, и измеряется она в джоулях на градус).

Интересно, что, кроме давления, которое зависит от температуры и объема, и внутренней энергии (функции все тех же объема и температуры), мы нашли еще величину - энтропию вещества, которая тоже является функцией состояния. Постараемся объяснить, как вычислять энтропию и что мы понимаем под словами «функция состояния». Проследим за поведением системы в разных условиях. Мы уже умеем создавать разные условия экспериментально, например можно заставить систему расширяться адиабатически или изотермически. (Между прочим, машина не обязательно должна иметь только два резервуара, может быть и три, и четыре различные температуры, и машина будет обмениваться теплом с каждым из резервуаров.) Мы можем прогуляться по всей диаграмме , переходя от одного состояния к другому. Иначе говоря, можно перевести газ из состояния в какое-нибудь другое состояние и потребовать, чтобы переход из в был обратимым. Теперь предположим, что вдоль пути из в поставлены маленькие резервуары с разными температурами. Тогда каждый короткий шажок будет сопровождаться изъятием из вещества тепла и передачей его в резервуар при температуре, соответствующей данной точке пути. Давайте свяжем все эти резервуары с помощью обратимых тепловых машин с одним резервуаром единичной температуры. После того как мы закончим перевод вещества из состояния в состояние , мы вернем все резервуары в их первоначальное состояние. Обратимая машина вернет каждую дольку тепла , изъятого из вещества при температуре , и каждый раз при единичной температуре будет выделяться энтропия , равная

Подсчитаем полное количество выделенной энтропии. Разность энтропии, или энтропия, нужная для перехода из в в результате какого-нибудь обратимого изменения, это - полная энтропия, т. е. энтропия, взятая из маленьких резервуаров и выделенная при единичной температуре:

Вопрос заключается в том, зависит ли разность энтропии от пути в плоскости ? Из в ведет много дорог. Вспомним, что в цикле Карно мы могли перейти из точки в точку (см. фиг. 44.6) двумя способами. Можно было расширить газ сначала изотермически, а потом адиабатически, а можно было начать с адиабатического расширения и окончить изотермическим. Итак, мы должны выяснить, меняется ли энтропия при изменении пути из в (фиг. 44.10). Она не должна измениться, потому что если мы совершим полный цикл, выйдя из в по одному пути и возвратясь по другому, то это путешествие будет эквивалентно полному циклу обратимой машины. При таком цикле никакого тепла не передается одноградусному резервуару.

Фиг. 44.10. Изменение энтропии при обратимом переходе.

Поскольку мы не имеем права взять тепло из одноградусного резервуара, то при каждом путешествии из в приходится обходиться одним и тем же количеством энтропии. Это количество не зависим от пути, существенны только конечные точки. Таким образом, можно говорить о некоторой функции, которую мы назвали энтропией вещества. Эта функция зависит только от состояния вещества, т. е. только от объема и температуры.

Можно найти функцию . Мы подсчитаем изменение энтропии при обратимых изменениях вещества, следя за теплом, выделяемым в одноградусном резервуаре. Но это изменение можно выразить еще в терминах тепла , изымаемого у вещества при температуре

Полное изменение энтропии равно разности энтропии в конечной и начальной точках пути:

. (44.18)

Это выражение не определяет энтропию полностью. Пока известна лишь разность энтропии в двух разных состояниях. Определить энтропию абсолютно можно только после того, как мы сумеем вычислить энтропию одного какого-нибудь состояния.

Очень долго считалось, что абсолютная энтропия - это вообще ничего не значащее понятие. Но в конце концов Нернст высказал утверждение, названное им тепловой теоремой (иногда его называют третьим законом термодинамики). Смысл ее очень прост. Сейчас мы сообщим эту теорему, не объясняя, почему она верна. Постулат Нернста утверждает просто, что энтропия всякого тела при абсолютном нуле равна нулю. Теперь мы знаем, при каких и (при ) энтропия равна нулю, и сможем вычислить энтропию в любой другой точке.

Чтобы проиллюстрировать эту идею, давайте вычислим энтропию идеального газа. При изотермическом (а, следовательно, обратимом) расширении равен просто , потому

что постоянная. Таким образом, согласно (44.4), изменение энтропии равно

,

так что плюс функция одной только температуры. А как зависит от ? Мы уже знаем, что при адиабатическом расширении теплообмена нет. Таким образом, энтропия остается постоянной, хотя объем изменяется, заставляя изменяться (чтобы сохранить равенство ). Ясно ли вам после этого, что

,

где - постоянная, не зависящая ни от , ни от ? [Постоянная называется химической постоянной. Она зависит от свойств газа, и ее можно определить экспериментально в соответствии с теоремой Нернста. Для этого надо измерить тепло, выделяемое газом при его охлаждении и конденсации до превращения его при 0° в твердое тело (гелий и при этой температуре остается жидким). Потом надо найти интеграл . Можно найти и теоретически; для этого понадобятся постоянная Планка и квантовая механика, но в нашем курсе этого мы не будем касаться.]

Отметим некоторые свойства энтропии. Сначала вспомним, что на участке обратимого цикла между точками и энтропия меняется на (фиг. 44.11). Вспомним еще, что по мере продвижения вдоль этого пути энтропия (тепло, выделяемое при единичной температуре) возрастает в согласии с правилом , где - тепло, изъятое из вещества при температуре .

Фиг. 44.11. Изменение энтропии за полный обратимый цикл.

Полное изменение энтропии равно нулю.

Мы уже знаем, что после обратимого цикла полная энтропия всего, что включается в процесс, не изменяется. Ведь тепло , поглощенное при , и тепло , выделенное при , вносят в энтропию равные по величине, но противоположные по знаку вклады. Поэтому чистое изменение энтропии равно нулю. Таким образом, при обратимом цикле энтропия всех участников цикла, включая резервуары, не изменяется. Это правило как будто похоже на закон сохранения энергии, но это не так. Оно применимо только к обратимым циклам. Если перейти к необратимым циклам, то закона сохранения энтропии уже не существует.

Приведем два примера. Для начала предположим, что какая-то машина с трением производит необратимую работу, выделяя тепло при температуре . Энтропия возрастет на . Тепло равно затраченной работе, и когда мы производим какую-то работу с помощью трения о какой-то предмет, температура которого равна , то энтропия возрастает на величину .

Другой пример необратимости: если приложить друг к другу два предмета с разными температурами, скажем и , то от одного предмета к другому перетечет некоторое количество тепла. Предположим, например, что мы бросили в холодную воду горячий камень. Насколько изменяется энтропия камня, если он отдает воде тепло при температуре ? Она уменьшается на . А как изменяется энтропия воды? Она возрастет на . Тепло, конечно, может перетечь только от более высокой температуры к более низкой . Поэтому если больше , то положительно. Таким образом, изменение энтропии положительно и равно разности двух дробей:

. (44.19)

Итак, справедлива следующая теорема: в любом необратимом процессе энтропия всего на свете возрастает. Только обратимые процессы могут удержать энтропию на одном уровне. А поскольку абсолютно необратимых процессов не существует, то энтропия всегда понемногу растет. Обратимые процессы - это идеализированные процессы с минимальным приростом энтропии.

К сожалению, нам не придется углубиться в область термодинамики. Наша цель лишь проиллюстрировать основные идеи этой науки и объяснить причины, по которым возможно основываться на этих аргументах. Но в нашем курсе мы не будем часто прибегать к термодинамике. Термодинамикой широко пользуются в технике и в химии. Поэтому с термодинамикой вы практически познакомитесь в курсе химии или технических наук. Ну а дублировать нет смысла, и мы ограничимся лишь некоторым обзором природы теории и не будем вдаваться в детали для специальных ее применений.

Два закона термодинамики часто формулируют так:

Первый закон: Энергия Вселенной всегда постоянна.

Второй закон: Энтропия Вселенной всегда возрастает.

Это не слишком хорошая формулировка второго закона. В ней ничего не говорится, например, о том, что энтропия не изменяется после обратимого цикла и не уточняется само понятие энтропии. Просто это легко запоминаемая форма обоих законов, но из нее нелегко понять, о чем собственно идет речь.

Все законы, о которых сейчас шла речь, мы собрали в табл. 44.1. А в следующей главе мы используем эту сводку законов, чтобы найти соотношение между теплом, выделяемым резиной при растяжении, и дополнительным натяжением резины при ее нагревании.

Таблица 44.1 Законы термодинамики

Первый закон

Подведенное к системе тепло + Работа, совершенная над системой = Возрастание внутренней энергии системы: