Для хранения чисел в компьютерных системах используют определённое количество бит, потому что биты — базовые строительные блоки информации, которые могут представлять только два значения: 0 и 1. 3 Количество бит определяет максимальное число, которое компьютер может представлять. 3
Например, обычно используются целые числа, занимающие 32 бита. 3 Это позволяет представлять очень большие числа (от -2^31 до 2^31-1), но существуют числа, которые не могут быть представлены в этом диапазоне. 3
Также определённое количество бит используют для эффективной работы с десятичными значениями в двоичной кодировке. 5 Например, в 60-е годы существовала популярная кодировка целых чисел под названием BCD (binary-coded decimal), которая кодировала каждую цифру в 4 бита. 5 Поэтому в целях удобства работы с закодированным в двоичную форму десятичным значением размер байта должен был быть кратным 4 битам — например, 8 бит. 5