Энтропия — на самом деле всё просто!

341
Энтропия — на самом деле всё просто!
Ратмир Белов
Журналист-райтер

Термином «энтропия» можно охарактеризовать практически все процессы, происходящие в жизни человека, причем не только физические и химические, но и социальные.

Многие не совсем четко понимают значение данного термина, учитывая то обстоятельство, что теория является достаточно сложной для восприятия, однако если в качестве примеров привести некоторые жизненные ситуации, то многогранное понятие «энтропия», являющееся достаточно многогранным, становится уже не таким сложным.

История появления термина

Энтропия была введена в качестве определения состояния системы в 1965 году, немецким физиком Рудольфом Клаузисом, и применялась, прежде всего, с целью описания способности превращения тепла в иные формы энергии. В термодинамике при помощи понятия «энтропия» описывают состояние термодинамических систем. В течение достаточно длительного времени термин использовался исключительно в термодинамике, для которой изначально и вводился, однако со временем энтропия стала перетекать и в другие сферы и теории.

Само понятие «энтропия» происходит от греческого «поворот» или «превращение», часто употребляясь в естественных и точных науках, в то время как в статистической физике данный термин характеризует степень вероятности осуществления того или иного макроскопического состояния. Достаточно широко понятие энтропии используется применительно к теории информации и математической статистике.

Виды энтропий

В термодинамике

Основной постулат физической химии о равновесии заключается в том, что любая термодинамическая система, находящаяся в изолированном состоянии, через определенный промежуток времени приходит в равновесное состояние, причем самопроизвольно выйти из него не может. Если проще, то под энтропией, в данном случае, следует понимать своеобразную меру беспорядка, определить который можно при помощи приписывания каждому состоянию определенного количества вариантов, используя которые данное состояние можно реализовать.

Стоит отметить, что чем больше подобных способов реализации, тем большее значение получает энтропия, в то время как чем более организованным является вещество, тем меньшей является его хаотичность. Абсолютное значение энтропии равняется изменению энергии, имеющейся у вещества или системы, во время теплопередачи при данной температуре.

В экономике

В данном случае имеет место коэффициент энтропии, с помощью которого проводится анализ изменения концентрации рынка и уровень данной концентрации. Высокое значение коэффициента говорит о высоком уровне экономической неопределенности, в связи с чем вероятность появления монополии минимизируется. Подобный коэффициент дает возможность оценить выгоды, приобретенные фирмой в результате осуществления вероятной монопольной деятельности, либо при изменении степени концентрации рынка.

В теории информации

Под информационной энтропией подразумевается своеобразная мера непредсказуемости, либо неопределенности некоторой системы, что дает возможность определить степень беспорядочности события. В данном случае процессы упорядочивания системы вызывают появление новых данных, что автоматически приводит к снижению информационной неопределенности. Информационная непредсказуемость позволяет определить именно ту пропускную способность канала, которая обеспечит передачу информации самым надежным образом, в системе закодированных символов.

Кроме того, можно осуществить частичное предсказание хода события, деля его на составные части и вычисляя значение неопределенности для каждой из них. С помощью подобного метода, позволяющего выявить вероятность события, можно провести дешифровку закодированного текста, при этом уделяя особое внимание анализу показателя энтропии символов. Выделяется такое понятие, как абсолютная энтропия языка, что означает максимальное количество информации, возможное к передаче в единице данного языка, причем за единицу берется символ алфавита языка – бит.

В социологии

В данном случае под энтропией, или информационной неопределенностью, подразумевается характеристика отклонения социума, либо его отдельных звеньев, от состояния, которое принято считать эталонным, что проявляется в снижении эффективности функционирования системы и падении уровня самоорганизации.

В качестве примера можно привести предприятие, сотрудники которого загружены выполнением отчетов до такой степени, что им просто некогда заниматься своей основной деятельностью, связанной с проведением проверок. В данном случае, именно информационная неопределенность является своеобразной мерой нецелесообразного использования рабочих ресурсов.

Энтропия в тезисах и примерах

Увеличение способов реализации приводит к возрастанию информационной неопределенности.

  1. Программа Т9 действует таким образом, что если в слове будет достаточно небольшое количество опечаток, то оно будет распознано, после чего программа предложит замену. Увеличение ошибок, а значит беспорядка, приведет к тому, что резко возрастет уровень информационной неопределенности, в результате чего программа получить меньше информации о вводимом слове.
  2. Выкинуть при помощи игральных костей комбинацию 2 или 12 можно только одним способом, 1+1 и 6+6, в то время как максимальное число способов получается для числа семь, когда имеет место шесть возможных комбинаций. В данном случае, наибольшей непредсказуемостью реализации обладает число семь.
  3. В жидком состоянии вода обладает большей энтропией, чем в твердом, так как в жидком состоянии атомы находятся в состоянии беспорядка, в то время как в кристаллическом твердом теле каждый атом находится на своем месте, занимая определенный порядковый номер в кристаллической решетке. Минимальным значением энтропии, по сравнению с другими кристаллами, обладает белый алмаз без каких-либо примесей.

Взаимосвязь информации и неопределенности

  • В сосуде, который имеет как левую, так и правую часть, располагается молекула, причем если изначально неизвестно, где именно она находится, то для определения энтропии потребуется число способов реализации умножить на количество частей сосуда, причем в данном случае информация будет равняться нулю. Таким образом, при повышении количества информации, уровень информационной неопределенности снижается.
  • Порядок на рабочем столе позволяет максимально оперативно получить информацию о вещах, которые на нем находятся, причем упорядоченность предметов, в данном случае, способствует снижению энтропии системы.
  • Во время урока информация о классе повышается, в то время как во время перемены наступает снижение, причиной чего является тот факт, что хаотичное перемещение учащихся во время перемены резко повышает их энтропию, в то время как во время урока школьники сидят упорядоченно.
  • В момент реакции щелочного металла с водой начинает выделяться водород, причем учитывая то обстоятельство, что данный элемент является газом, а молекулы газа, движущиеся хаотично, обладают высокой степенью энтропии, реакция будет протекать с увеличением значения, что приведет к повышению энтропии химической системы.

Демон Максвела

Для того, чтобы подвести окончательный итог, уделим немного внимания решению парадигмы парадокса демона Максвела. Суть данного парадокса заключается в том, чтобы, имея перемешанные газы, состоящие из красных и синих молекул, поставить перегородку и, проделав в ней отверстие, посадить возле него воображаемого демона, задача которого заключается в пропуске слева направо исключительно красных молекул, в то время как в обратном направлении могут двигаться только синие. Естественно, что спустя некоторое время, газы вновь окажутся разделенными, что является показателем снижения энтропии, при этом с демоном ничего не произошло, его энтропия осталась на прежнем уровне, в то время как система носила закрытый характер.

Таким образом, можно подумать, что в данном примере не выполняется второй закон термодинамики, однако подобный парадокс решается достаточно просто, учитывая то обстоятельство, что энтропия является свойством нашего знания непосредственно о системе, а не выступает свойством самой системы. Мы знаем о системе слишком мало, в связи с чем может показаться, что энтропия уменьшается, в то время как демон обладает совсем иным уровнем информации. Он знает о системе практически все, так как для того, чтобы разделять молекулы, он должен, как минимум, обладать информацией относительно скорости каждой из них, равно как и местоположении, а раз он знает о молекулах достаточно много, энтропия системы, с точки зрения демона, равна нулю.

Энтропия системы, изначально равная нулю, осталась на прежнем уровне, в результате чего нарушения второго закона термодинамики не произошло. Но даже в том случае, если демон не обладает информацией и микросостоянии системы, цвет молекулы он знать должен, чтобы иметь четкое представление о том, стоит ее пропускать, или нет. Таким образом, если взять общее число молекул за X, то демон должен обладать X бит информации о системе, а именно это количество информации было потеряно в момент открытия перегородки. Количество потерянной информации, в данном случае, равняется количеству информации, которую требуется получить, с целью возвращения в исходное состояние, что вполне логично.

Заключение

Можно сказать, что энтропия представляет собой своеобразную меру беспорядка, либо неопределенности, причем как системы в целом, так и ее частей. Наибольший интерес представляет тот факт, что в то время, как в природе превалирует стремление к максимальной энтропии, человек настроен на максимум информации. Представленные теории направлены на установление четкого баланса между устремлениями человека и природными процессами, носящими естественный характер.

Оценить
Обсудить Содержание