Энтропия
entropy
Слово заимствовано в немецком языке в конце XIX века в значении степень беспорядка, неупорядоченности в чем-либо. Поскольку эта степень находится в обратной зависимости от порядка и упорядоченности, то оказалось возможным использование "энтропии" для обозначения степени порядка и упорядоченности.
Корневая основа понятия – от двух частей греческого слова еntropie: en- "in" внутрь + trope" поворот". Если суммировать, то первичный смысл слова - превращение внутри, то есть происходящее внутри.
Что может быть показателем происходящего внутри объекта (системы)? Ответ физиков - температура. Если повлиять на неё, то можно повлиять и на происходящее внутри объекта. Однако оказалось, что передача тепла объекту по-разному сказывается на его температуре. Всё зависит от внутреннего состояния объекта, то есть от его "внутренней упорядоченности". Для обозначения этой "внутренней упорядоченности" и ввели в научный оборот понятие "энтропия".
Поскольку тепло полученное системой, идет на изменение ее внутренней энергии, то можно дать и такое определение энтропии – это мера потери энергии, мера рассеивания её в окружающее пространство.
Что происходит с системой, если внутри неё идут неравновесные процессы? Её энтропия повышается, и система приближается к равновесному состоянию, в котором энтропия максимальна. Отсюда следует еще одно определение энтропии как меры вероятности пребывания системы в данном состоянии.
В настоящее время понятие энтропии используется для анализа не только в физике, но и химии, биологии, теории информации.
В теории информации энтропия определяется как мера неопределенности случайной величины. Если в результате получения информации неопределенность полностью устранена, то она равна энтропии, имевшей место до получения информации. В этом смысле информация равна ycтраненной энтропии.
С середины ХХ века понятие "энтропия" всё чаще заходит в сферу социальных явлений. Свидетельством тому концепции социальной энтропии и энтропийной экономики.