ВСЕГЕИ
+7 (812) 328 9282 - Канцелярия,  +7 (812) 328 9248 - Музей    info@karpinskyinstitute.ru
Всероссийский научно-исследовательский геологический институт им. А.П. Карпинского
Публикации
Словари
Геологический словарь
Э
Энтропия

Энтропия




Энтропия




[от греч. en – в, внутри и tropē – поворот, перемена; entropy] – 1. В классической термодинамике – понятие, введенное нем. физиком Р. Клаузиусом (1865) и представляющее собой функцию состояния термодинамической системы (S), дифференциал которой dS в равновесном процессе равен, а в неравновесном – больше отношения бесконечно малого кол-ва теплоты (δQ), сообщенной системе, к абс. температуре (T) системы, т. е. dS ≥ δQ/T. Постулат о существовании такой функции состояния есть одно из выражений второго начала термодинамики. Э. изолированных, в т. ч. адиабатных систем может либо сохраняться постоянной (при протекании в них лишь равновесных процессов), либо увеличиваться (при наличии неравновесных процессов), но не уменьшаться, т. е. ΔS ≥ Q. В неизолированных системах изменение Э. в ходе как равновесных, так и неравновесных процессов может быть положительным и отрицательным (так, охлаждение и кристаллизация жидкого расплава сопровождается уменьшением его Э.). В таблице термодинамических констант приводятся значения Э. в-в в стандартных условиях (S0298). Единица измерения Э. – Дж/К. 2. В статистич. термодинамике – понятие, отражающее степень беспорядка в расположении и движении большого кол-ва однородных элементов (атомов, молекул, ионов) в изолированной системе, которое может быть определено ф-лой Больцмана – Планка: S = k · ln W, где k – постоянная Больцмана, W – число разл. (равновероятностных) микросостояний изолированной системы, которое иначе называют термодинамической вероятностью. Наиболее вероятным является распределение, при котором W (следовательно, и Э.) максимально и соответствует энергетически «благоприятному» состоянию. Статистич. истолкование Э. вскрыло вероятностный характер второго закона термодинамики; от него возможны отклонения (флюктуации), но чем больше величина флюктуации, тем меньше ее вероятность. 3. В теории информации – Э. – мера неопределенности исхода случайного эксперимента, введенная К.Э. Шенноном (Shannon C.E., 1948). Если эксперимент имеет n разл. исходов с вероятностями p1, p2, …, pn, то Э. есть ЭнтропияЧаще всего Э. выражаютчерез двоичные логарифмы. Единицей Э. служит бит. Э. – непрерывная, неотрицательная функция p1, …,  pn. Н = 0, если любое pi = 1, а p1 = … = pi−1 = pi+1 = … = pn = 0, т. е. когда эксперимент не случаен и не содержит никакой неопределенности. Э. максимальна при данном n, когда все возможные значения случайной величины равновероятны, т. е. при p1 = … = pn = 1/n; в этом случае Н = log n. Для непрерывной случайной величины X аналогичным образом вводится т. н. дифференциальная Э. в виде: Энтропия где f(x) – плотность вероятности X. Меры связи или устойчивости геологич. характеристик, основанные на свойствах Э., чрезвычайно удобны, особенно при изучении данных качественных и полуколичественных наблюдений.





Если вы заметили ошибку - напишите, пожалуйста, об этом в комментариях.

Яндекс.Метрика