Компьютер работает с цифровой информацией, так как ее удобно хранить и обрабатывать. Компьютер отдельно работает с каждым символом. Если это рисунок, то компьютер работает с каждой точкой этого рисунка отдельно. Спрашивается: а до каких пор можно делить информацию? Буква- это самая маленькая часть информации? Оказывается, нет. Существует много различных букв, и, для того чтобы компьютер смог различать буквы, их тоже надо кодировать.
Пример. В телеграфной азбуке буквы кодируют с помощью
точек и тире:
А .- Б -... В .--
Точки и тире- это действительно самая малая часть информации, но в информатике кодом телеграфной азбуки не пользуются. Вместо точек и тире применяют нули и единицы - такой код называется двоичным. По-английски двоичный код звучит как binary digit. Сокращенно получается bit (бит). Бит- это наименьшая единица информации, которая выражает логическое значение ДА или НЕТ и обозначается двоичным числом 1 или 0.
Если какая-то информация представлена в цифровом виде, то компьютер легко превращает числа, которыми она закодирована, в последовательности нулей и единиц, а дальше уже работает с ними. Вы тоже можете преобразовать любое число в двоичную форму, а делается это следующим образом.
Как видно, преобразовывать число в двоичный код совсем не трудно. Отнять 1 и поделить число пополам может каждый. Но для человека эта работа утомительна, зато компьютер преобразовывает числа в двоичный код так быстро, что со стороны не заметно.