Один символ компьютерного алфавита занимает 8 бит, потому что это размер одного байта — минимального элемента системы. otvet.mail.ru
Длина в восемь бит оказалась оптимальной по нескольким причинам: yandex.ru
- Восемь — это степень двойки, что было выгодно для аппаратной реализации двоичной системы. yandex.ru
- В восемь бит можно закодировать любой нужный символ в кодировке EBCDIC. yandex.ru Это упрощало работу со строками, так как при этом каждый байт соответствует одному символу. yandex.ru
- При операциях с десятичным представлением чисел использовался формат BCD, при котором десятичная цифра представлена четырьмя битами. yandex.ru То есть в один байт можно записать два десятичных разряда. yandex.ru