Разница между представлениями целых чисел в различных компьютерных архитектурах заключается в наборе доступных размеров целых чисел. 1
Обычно целые числа в компьютере представляются в виде группы двоичных цифр (битов). 1 Количество битов в представлении числа называется его шириной, точностью или разрядностью. 1 Чем больше формат, тем больше диапазон представляемых чисел. 2 Но вместе с тем с увеличением формата увеличивается объём памяти, требуемый для записи одного числа. 2
Для целых чисел существуют два представления: 2
В зависимости от архитектуры десятичные целые числа могут иметь фиксированный размер (например, 7 десятичных цифр плюс знак вписываются в 32-битное слово) или могут иметь переменную длину (до некоторого максимального размера цифры), обычно занимая две цифры на байт (октет). 1