Формула Хартли связана с энтропией в математической теории информации, так как в случае равновероятных символов формула Хартли совпадает с формулой Шеннона, которая определяет информационную энтропию. 2
Формула Хартли предложена американским учёным Р. Хартли в 1928 году и используется для измерения количества информации в сообщении с равновероятными символами. 12
Энтропия — мера хаотичности информации, которая определяет неопределённость появления символа в сообщении. 2 К. Шеннон ввёл понятие энтропии в теорию информации. 2
Взаимосвязь энтропии и информации выражается формулой: H + I = 1, где Н — энтропия, I — информация. 5