WikiSort.ru - Не сортированное

ПОИСК ПО САЙТУ | о проекте

В статистической термодинамике энтропия Цаллиса — обобщение стандартной энтропии Больцмана—Гиббса, предложенное Константино Цаллисом (Constantino Tsallis)[1] в 1988 г. для случая неэкстенсивных (неаддитивных) систем. Его гипотеза базируется на предположении, что сильное взаимодействие в термодинамически аномальной системе приводит к новым степеням свободы, к совершенно иной статистической физике небольцмановского типа.

Определение и основные сведения

Для системы, находящейся в одном из доступных состояний с распределением вероятностей , энтропия Цаллиса определяется как

.

Если — непрерывное распределение с плотностью , заданной на множестве ,

.

В этих формулах — некоторая положительная константа, которая определяет единицу измерения энтропии и в физических формулах служит для связки размерностей, как, например, постоянная Больцмана. С точки зрения задачи оптимизации энтропии данная константа является несущественной, поэтому для простоты часто полагают .

Параметр — безразмерная величина ( ), которая характеризует степень неэкстенсивности (неаддитивности) рассматриваемой системы. В пределе при , энтропия Цаллиса сходится к энтропии Больцмана—Гиббса. Нужно заметить, что при энтропия Цаллиса является вогнутой функцией вероятностей состояний (в непрерывном случае — вогнутым функционалом от плотности распределения вероятностей) и, как обычная энтропия, достигает максимума при равномерном распределении вероятностей. При функция является выпуклой (то же касается функционала в непрерывном случае) и при равномерном распределении достигает минимума. Т.е. для поиска равновесного состояния изолированной системы при энтропию Цаллиса нужно максимизировать, а при — минимизировать[2]. Значение параметра — это вырожденный случай энтропии Цаллиса, когда она не зависит от , а зависит лишь от размера системы (от в дискретном случае или лебеговой меры множества — в непрерывном).

В непрерывном случае иногда требуют, чтобы носитель случайной величины был безразмерным[3]. Это обеспечивает корректность функционала энтропии с точки зрения размерности.

Исторически первыми выражение для энтропии Цаллиса (точнее, для частного её случая при ) получили Дж. Хаврда и Ф. Чарват (J. Havrda and F. Charvát)[4] в 1967 г.

Некоторые соотношения

Энтропия Цаллиса может быть получена из стандартной формулы для энтропии Больцмана—Гиббса путём замены используемой в ней функции на функцию

— так называемый q-деформированный логарифм или просто q-логарифм (в пределе при совпадающий с логарифмом)[5]. К. Цаллис использовал[6] несколько иную формулу q-логарифма, которая сводится к приведённой здесь заменой параметра на .

Ещё один способ[6] получить энтропию Цаллиса основан на соотношении, справедливом для энтропии Больцмана—Гиббса:

.

Нетрудно видеть, что если заменить в этом выражении обычную производную на q-производную (известную также как производная Джексона), получается энтропия Цаллиса:

.

Аналогично для непрерывного случая:

.

Неэкстенсивность (неаддитивность)

Пусть имеются две независимых системы и , т.е. такие системы, что в дискретном случае совместная вероятность появления двух любых состояний и в этих системах равна произведению соответствующих вероятностей:

,

а в непрерывном — совместная плотность распределения вероятностей равна произведению соответствующих плотностей:

,

где , — области значений случайной величины в системах и соответственно.

В отличие от энтропии Больцмана—Гиббса и энтропии Реньи, энтропия Цаллиса, вообще говоря, не обладает аддитивностью, и для совокупности систем справедливо[6]

.

Поскольку условие аддитивности для энтропии имеет вид

,

отклонение параметра от характеризует неэкстенсивность (неаддитивность) системы. Энтропия Цаллиса является экстенсивной только при .

Дивергенция Цаллиса

Наряду с энтропией Цаллиса, рассматривают также семейство несимметричных мер расхождения (дивергенций) Цаллиса между распределениями вероятностей с общим носителем. Для двух дискретных распределений с вероятностями и , , дивергенция Цаллиса определяется как[7]

.

В непрерывном случае, если распределения и заданы плотностями и соответственно, где ,

.

В отличие от энтропии Цаллиса, дивергенция Цаллиса определена при . Несущественная положительная константа в этих формулах, как и для энтропии, задаёт единицу измерения дивергенции и часто опускается (полагается равной ). Дивергенция Цаллиса является частным случаем α-дивергенции[8] (с точностью до несущественной константы) и, как α-дивергенция, является выпуклой по обоим аргументам при всех .

Дивергенция Цаллиса может быть получена из формулы для дивергенции Кульбака—Лейблера путём подстановки в неё q-деформированного логарифма, определённого выше, вместо функции . В пределе при дивергенция Цаллиса сходится к дивергенции Кульбака—Лейблера.

Связь формализмов Реньи и Цаллиса

Энтропия Реньи и энтропия Цаллиса эквивалентны[7][9] с точностью до монотонного преобразования, не зависящего от распределения состояний системы. То же касается соответствующих дивергенций. Рассмотрим, к примеру, энтропию Реньи для системы с дискретным набором состояний , :

, .

Дивергенция Реньи для дискретных распределений с вероятностями и , :

, .

В этих формулах положительная константа имеет тот же смысл, что и в формализме Цаллиса.

Нетрудно видеть, что

,
,

где функция

определена на всей числовой оси и непрерывно возрастает по (при полагаем ). Приведённые соотношения имеют место и в непрерывном случае.

Несмотря на наличие этой связи, следует помнить, что функции (функционалы) в формализмах Реньи и Цаллиса обладают разными свойствами:

  • энтропия Цаллиса, вообще говоря, не аддитивна, тогда как энтропия Реньи аддитивна при всех ;
  • энтропия и дивергенция Цаллиса являются вогнутыми или выпуклыми (кроме ), тогда как энтропия и дивергенция Реньи, вообще говоря, не обладают ни тем, ни другим свойством[10].

Примечания

  1. Tsallis, C. (1988). “Possible generalization of Boltzmann-Gibbs statistics”. Journal of Statistical Physics. 52: 479—487. Bibcode:1988JSP....52..479T. DOI:10.1007/BF01016429.
  2. Зарипов Р. Г. Новые меры и методы в теории информации. — Казань: Изд-во Казан. гос. техн. ун-та, 2005. — 364 с.
  3. Plastino A., Plastino A. R. Tsallis Entropy and Jaynes' Information Theory Formalism // Brazilian Journal of Physics. — 1999. Т. 29. С. 1-35.
  4. Havrda, J.; Charvát, F. (1967). “Quantification method of classification processes. Concept of structural α-entropy” (PDF). Kybernetika. 3 (1): 30—35.
  5. Oikonomou T., Bagci G. B. A note on the definition of deformed exponential and logarithm functions // Journal of Mathematical Physics. — 2009. Т. 50, вып. 10. С. 1-9.
  6. 1 2 3 Tsallis C. Nonextensive statistics: Theoretical, experimental and computational evidences and connections // Brazilian Journal of Physics. — 1999. Т. 29, вып. 1. С. 53.
  7. 1 2 Nielsen F., Nock R. On Renyi and Tsallis entropies and divergences for exponential families // arXiv:1105.3259. — 2011. С. 1-7.
  8. Waters A. Alpha divergence // STAT 631 / ELEC 633:Graphical Models. — Rice Univercity, 2008. С. 1-4.
  9. Sonnino G., Steinbrecher G.Sonnino A. The Rényi entropy of Lévy distribution // Physics AUC. — 2013. Т. 23. С. 10-17.
  10. Xu D., Erdogmuns D. Renyi’s Entropy, Divergence and Their Nonparametric Estimator // J.C. Principe, Information Theoretic Learning: Renyi’s Entropy and Kernel Perspectives. — Springer Science+Business Media, LLC, 2010. С. 47-102.

Данная страница на сайте WikiSort.ru содержит текст со страницы сайта "Википедия".

Если Вы хотите её отредактировать, то можете сделать это на странице редактирования в Википедии.

Если сделанные Вами правки не будут кем-нибудь удалены, то через несколько дней они появятся на сайте WikiSort.ru .




Текст в блоке "Читать" взят с сайта "Википедия" и доступен по лицензии Creative Commons Attribution-ShareAlike; в отдельных случаях могут действовать дополнительные условия.

Другой контент может иметь иную лицензию. Перед использованием материалов сайта WikiSort.ru внимательно изучите правила лицензирования конкретных элементов наполнения сайта.

2019-2025
WikiSort.ru - проект по пересортировке и дополнению контента Википедии