Энтропия — это мера беспорядка и неизвестности. 3 Чем выше уровень беспорядка, тем больше значение энтропии. 1
В термодинамике энтропия — это мера необратимого рассеяния или бесполезности энергии. 5 Она показывает разницу между той информацией о системе, которая известна (макроскопическими свойствами), и неизвестной информацией, которая скрыта в устройстве системы на микроскопическом уровне. 5
В статистической физике энтропия — вероятность осуществления некоторого макроскопического состояния системы. 5 В теории динамических систем — мера хаоса в поведении системы. 5 В теории информации — мера неопределённости источника сообщений, определяемая вероятностями появления тех или иных символов при их передаче. 5
В психологии понятие энтропии характеризует то, насколько психика справляется с окружающим хаосом, насколько она стабильна в условиях неопределённости. 3