Энтропия — это мера беспорядка, случайности или неопределённости. 5 Чем выше уровень беспорядка, тем больше значение энтропии. 1
В термодинамике энтропия определяется как мера тепловой энергии в системе на единицу температуры, которая не может быть использована для совершения полезной работы. 3 Поскольку работа получается в результате упорядоченного движения молекул, энтропия также является мерой молекулярного беспорядка, или случайности, в системе. 3
Простыми словами, энтропия характеризует конкретность информации. 2 Если мы знаем о чём-то точно, то энтропия этого события низкая. 2 Если же мы в чём-то не уверены и у нас мало информации — энтропия высокая. 2
Понятие энтропии широко используется в разных науках, например в химии, биологии, социологии, экономике, теории информации. 34