Принцип подсчёта информации в компьютерном коде основан на алфавитном подходе. 14 Он предполагает, что любое сообщение можно представить в виде кодов с помощью конечной последовательности символов определённого алфавита. 1
При таком подходе важна только длина сообщения, а его содержание не учитывается. 1 При этом каждый символ текста несёт в себе определённую информационную ёмкость, которая зависит от мощности алфавита. 1
Единицей измерения количества информации в компьютерных системах является бит — наименьшая единица, одна двоичная цифра, элемент, принимающий значения 0 или 1. 5
Для измерения информации также используют более крупные единицы: байт, килобайт, мегабайт, гигабайт, терабайт. 45