Энтропия — это мера хаотичности информации или внутренней неупорядоченности информационной системы. 2 Она увеличивается при хаотическом распределении информационных ресурсов и уменьшается при их упорядочении. 2
От информации энтропия отличается следующим образом:
Информация — это характеристика степени зависимости некоторых переменных. 2 Если корреляция характеризует лишь линейную связь переменных, то информация характеризует любую связь. 2
Информацию можно рассматривать как отрицательную энтропию. 2 Тогда энтропия и информация смотрятся как понятия одного уровня. 2 Однако это не так: в отличие от энтропии информация — общенаучное понятие, приближающееся по своему значению к философской категории. 2
Таким образом, получение информации необходимо для снятия неопределённости. 2 Чем больше объём полученных сведений, тем больше будет информация о системе, тем менее неопределённым будет её состояние. 3