Система кодирования двузначных чисел в компьютерных алгоритмах основана на двоичной системе счисления, в которой используются только две цифры: 0 и 1. 12
Принцип кодирования: любое натуральное число кодируется в последовательный ряд из нулей и единиц. 1 В крайней правой позиции числа указывается количество единиц, левее — количество двоек, затем количество четвёрок и так далее. 1
Для кодирования двух цифр, например 0 и 1, нужно 2 ячейки памяти: в одну записывают 0, в другую — 1. 2
В зависимости от особенностей чисел, компьютер может использовать разные алгоритмы кодирования: 5