Теория информации помогает измерять сложность систем, используя понятие информационно-флуктуационной сложности. ru.wikipedia.org ru.ruwiki.ru Эта теоретико-информационная величина определяется как флуктуация информации по отношению к информационной энтропии. ru.wikipedia.org ru.ruwiki.ru
Некоторые аспекты, как теория информации позволяет измерять сложность систем:
- Определение количества информации. elib.oreluniver.ru Количество информации определяется как минимальная длина программы, позволяющей преобразовать один объект (множество) в другой (множество). elib.oreluniver.ru Чем больше различаются два объекта между собой, тем сложнее (длиннее) программа перехода от одного объекта к другому. elib.oreluniver.ru
- Измерение энтропии. books.ifmo.ru Энтропия выступает мерой неопределённости состояния физической системы. books.ifmo.ru После получения сведений неопределённость может быть уменьшена. books.ifmo.ru Чем больше получено сведений, тем больше будет информация о системе, менее неопределённым будет её состояние. books.ifmo.ru
- Связь между информацией и сложностью системы. elib.oreluniver.ru profbeckman.narod.ru По мере увеличения сложности системы величина энтропии уменьшается, и величина информации увеличивается. profbeckman.narod.ru
Таким образом, теория информации даёт возможность измерять сложность систем, учитывая количественный аспект информации и её упорядоченность. elib.oreluniver.ru profbeckman.narod.ru