Часть полного текста документа:Революция в термодинамике Игорь Иванов В 1988 бразильским ученым Константино Тсаллисом была предпринята очень нетривиальная попытка расширить область применения термодинамики и статистической механики. Шло время, и то, что поначалу казалось лишь неким математическим трюком, вдруг начало находить применение во многих физических задачах. В задачах, которые касались термодинамически аномальных систем. 1. Обычная термодинамика: резюме Прежде, чем знакомиться с термодинамикой Тсаллиса, давайте вспомним главную идею обычной термодинамики. Пусть у нас есть макроскопический "кусок" какого-то вещества, например, капля воды. Нам известны такие его непосредственно измеряемые параметры, как объем, количество вещества и внутренняя энергия. Однако ничего о том, как энергия распределена по объему, мы сказать не можем. В принципе, существует огромное количество возможностей распределить энергию по всему объему. Однако из опыта мы знаем, что практически все системы вокруг нас, если их изолировать от внешнего воздействия, рано или поздно приходят в определенное, вполне конкретное состояние, которое мы называем состоянием равновесия. Отсюда возникает вопрос: как научиться предсказывать распределение энергии, вещества и т.д. в состоянии равновесия? Именно на этот вопрос и отвечает термодинамика. В этой науке предлагается ввести в рассмотрение энтропию: особую функцию состояния системы, которая для замкнутой системы может лишь увеличиваться в ходе эволюции. Тогда состояние равновесия (то есть, прекращение эволюции) будет отвечать максимально возможному значению энтропии при данных значениях энергии, объема и т.д. Если не указывать конкретную форму для энтропии (конкретную функциональную зависимость энтропии от энергии, объема и количества вещества), то отсюда мало что можно получить. Однако если предположить, что энтропия является экстенсивной величиной, то сразу возникает целый ряд нетривиальных и полезных утверждений. Напомним, что экстенсивная величина -- эта такая характеристика системы, которая растет с увеличением размеров системы. Более строгое определение: если наша система состоит из двух независимых подсистем А и В, то энтропию всей системы можно получить сложением энтропий подсистем: S(A+B) = S(A) + S(B) Именно это свойство и означает экстенсивность, или аддитивность, энтропии. В статистической физике энтропия уже берется не "с потолка", а трактуется через число микросостояний системы. Стараясь, тем не менее, определить энтропию так, чтобы она оставалась экстенсивной величиной, статистическая физика (а точнее, кинетика) вынуждена привлекать недоказуемую гипотезу молекулярного хаоса. Эта гипотеза состоит в том, что любые сталкивающиеся молекулы были до столкновения никак не скоррелированы, то есть, никак не чувствовали друг друга. Для многих (но не для всех!) систем это, конечно, вполне здравая аксиома. И именно из нее следует знаменитое выражение для энтропии для замкнутой системы (выгравированное, кстати, на надгробной плите Больцмана): S = - k Si pi ln(pi) Здесь i - это номер микросостояния системы, pi - это вероятность нахождения системы в этом микросостоянии, Si означает суммирование по всем таким микросостояниям, а k - это константа Больцмана, которую мы в дальнейшем положим равной единице. ............ |