Какой принцип кодирования текстовой информации используется в компьютере?

15 ответов на вопрос “Какой принцип кодирования текстовой информации используется в компьютере?”

  1. StRoGiY_MuLtIk Ответить

    Современный
    компьютер может обрабатывать числовую,
    текстовую, графическую, звуковую и видео
    информацию. Все эти виды информации в
    компьютере представлены в двоичном
    коде, т. е. используется алфавит мощностью
    два символа (0 и 1). Связано это с тем, что
    удобно представлять информацию в виде
    последовательности электрических
    импульсов: импульс отсутствует (0),
    импульс есть (1). Такое кодирование
    принято называть двоичным, а сами
    логические последовательности нулей
    и единиц – машинным языком.

    Каждая цифра
    машинного двоичного кода несет количество
    информации равное одному биту.
    Данный вывод можно
    сделать, рассматривая цифры машинного
    алфавита, как равновероятные события.
    При записи двоичной цифры можно
    реализовать выбор только одного из двух
    возможных состояний, а, значит, она несет
    количество информации равное 1 бит.
    Следовательно, две цифры несут информацию
    2 бита, четыре разряда –4 бита и т. д. Чтобы
    определить количество информации в
    битах, достаточно определить количество
    цифр в двоичном машинном коде.

    Кодирование текстовой информации

    В настоящее время
    большая часть пользователей при помощи
    компьютера обрабатывает текстовую
    информацию, которая состоит из символов:
    букв, цифр, знаков препинания и др.
    На основании одной
    ячейки информационной ёмкостью 1 бит
    можно закодировать только 2 различных
    состояния. Для того чтобы каждый символ,
    который можно ввести с клавиатуры в
    латинском регистре, получил свой
    уникальный двоичный код, требуется 7
    бит. На основании последовательности
    из 7 бит, в соответствии с формулой
    Хартли, может быть получено N=27=128
    различных комбинаций из нулей и единиц,
    т.е. двоичных кодов. Поставив в соответствие
    каждому символу его двоичный код, мы
    получим кодировочную таблицу. Человек
    оперирует символами, компьютер – их
    двоичными кодами.
    Для латинской
    раскладки клавиатуры такая кодировочная
    таблица одна на весь мир, поэтому текст,
    набранный с использованием латинской
    раскладки, будет адекватно отображен
    на любом компьютере. Эта таблица носит
    название ASCII (American Standard Code of Information
    Interchange) по-английски произносится
    [э?ски], по-русски произносится [а?ски].
    Ниже приводится вся таблица ASCII, коды в
    которой указаны в десятичном виде. По
    ней можно определить, что когда вы
    вводите с клавиатуры, скажем, символ
    “*”, компьютер его воспринимает как
    код 42(10), в свою очередь 42(10)=101010(2) – это
    и есть двоичный код символа “*”. Коды
    с 0 по 31 в этой таблице не задействованы.
    Таблица символов
    ASCII
    код
    символ
    код
    символ
    код
    символ
    код
    символ
    код
    символ
    код
    символ
    32
    Пробел
    48
    .
    64
    @
    80
    P
    96

    112
    p
    33
    !
    49
    65
    A
    81
    Q
    97
    a
    113
    q
    34

    50
    1
    66
    B
    82
    R
    98
    b
    114
    r
    35
    #
    51
    2
    67
    C
    83
    S
    99
    c
    115
    s
    36
    $
    52
    3
    68
    D
    84
    T
    100
    d
    116
    t
    37
    %
    53
    4
    69
    E
    85
    U
    101
    e
    117
    u
    38
    &
    54
    5
    70
    F
    86
    V
    102
    f
    118
    v
    39

    55
    6
    71
    G
    87
    W
    103
    g
    119
    w
    40
    (
    56
    7
    72
    H
    88
    X
    104
    h
    120
    x
    41
    )
    57
    8
    73
    I
    89
    Y
    105
    i
    121
    y
    42
    *
    58
    9
    74
    J
    90
    Z
    106
    j
    122
    z
    43
    +
    59
    :
    75
    K
    91
    [
    107
    k
    123
    {
    44
    ,
    60
    ;
    76
    L
    92
    \
    108
    l
    124
    |
    45

    61
    < 77 M 93 ] 109 m 125 } 46 . 62 >
    78
    N
    94
    ^
    110
    n
    126
    ~
    47
    /
    63
    ?
    79
    O
    95
    _
    111
    o
    127
    DEL
    Для того чтобы
    закодировать один символ используют
    количество информации равное 1 байту,
    т. е. I = 1 байт = 8 бит. При помощи формулы,
    которая связывает между собой количество
    возможных событий К и количество
    информации I, можно вычислить сколько
    различных символов можно закодировать
    (считая, что символы – это возможные
    события):
    К = 2I
    = 28
    = 256,
    т. е. для представления
    текстовой информации можно использовать
    алфавит мощностью 256 символов.
    Суть кодирования
    заключается в том, что каждому символу
    ставят в соответствие двоичный код от
    00000000 до 11111111 или соответствующий ему
    десятичный код от 0 до 255.
    Необходимо помнить,
    что в настоящее время для
    кодировки русских букв используют пять
    различных кодовых таблиц

    (КОИ – 8, СР1251, СР866, Мас, ISO), причем тексты,
    закодированные при помощи одной таблицы
    не будут правильно отображаться в другой
    кодировке. Наглядно это можно представить
    в виде фрагмента объединенной таблицы
    кодировки символов.
    Одному и тому же
    двоичному коду ставится в соответствие
    различные символы.
    Двоичный
    код
    Десятичный
    код
    КОИ8
    СР1251
    СР866
    Мас
    ISO
    11000010
    194
    б
    В


    Т
    Впрочем, в большинстве
    случаев о перекодировке текстовых
    документов заботится не пользователь,
    а специальные программы – конверторы,
    которые встроены в приложения.
    Начиная с 1997 г.
    последние версии Microsoft Office поддерживают
    новую кодировку. Она называется Unicode
    (Юникод). Unicode – это кодировочная таблица,
    в которой для кодирования каждого
    символа используется 2 байта, т.е. 16 бит.
    На основании такой таблицы может быть
    закодировано N=216=65
    536 символов.
    Юникод включает
    практически все современные письменности,
    в том числе: арабскую, армянскую,
    бенгальскую, бирманскую, греческую,
    грузинскую, деванагари, иврит, кириллицу,
    коптскую, кхмерскую, латинскую, тамильскую,
    хангыль, хань (Китай, Япония, Корея),
    чероки, эфиопскую, японскую (катакана,
    хирагана, кандзи) и другие.
    С академической
    целью добавлены многие исторические
    письменности, в том числе: древнегреческая,
    египетские иероглифы, клинопись,
    письменность майя, этрусский алфавит.
    В Юникоде представлен
    широкий набор математических и музыкальных
    символов, а также пиктограмм.
    Для символов
    кириллицы в Юникоде выделено два
    диапазона кодов:
    Cyrillic (#0400 — #04FF)
    Cyrillic
    Supplement
    (#0500 — #052F).
    Но внедрение
    таблицы Unicode в чистом виде сдерживается
    по той причине, что если код одного
    символа будет занимать не один байт, а
    два байта, что для хранения текста
    понадобится вдвое больше дискового
    пространства, а для его передачи по
    каналам связи – вдвое больше времени.
    Поэтому сейчас на
    практике больше распространено
    представление Юникода UTF-8 (Unicode
    Transformation Format). UTF-8 обеспечивает наилучшую
    совместимость с системами, использующими
    8-битные символы. Текст, состоящий только
    из символов с номером меньше 128, при
    записи в UTF-8 превращается в обычный
    текст ASCII. Остальные символы Юникода
    изображаются последовательностями
    длиной от 2 до 4 байтов. В целом, так как
    самые распространенные в мире символы
    – символы латинского алфавита – в UTF-8
    по-прежнему занимают 1 байт, такое
    кодирование экономичнее, чем чистый
    Юникод.
    Чтобы определить
    числовой код символа можно или
    воспользоваться кодовой таблицей. Для
    этого в меню нужно выбрать пункт “Вставка”
    – “Символ”, после чего на экране
    появляется диалоговая панель Символ.
    В диалоговом окне появляется таблица
    символов для выбранного шрифта. Символы
    в этой таблице располагаются построчно,
    последовательно слева направо, начиная
    с символа Пробел.

  2. Кристалли Ответить

    В каждом национальном языке имеется свой алфавит, который состоит из определенного набора букв, следующих друг за другом, а значит и имеющих свой порядковый номер.
    Каждой букве сопоставляется целое положительное число, которое называют кодом символа. Именно этот код и будет хранить память компьютера, а при выводе на экран или бумагу преобразовывать в соответствующий ему символ. Помимо кодов самих символов в памяти компьютера хранится и информация о том, какие именно данные закодированы в конкретной области памяти. Это необходимо для различия представленной информации в памяти компьютера (числа и символы).
    Используя соответствия букв алфавита с их числовыми кодами, можно сформировать специальные таблицы кодирования. Иначе можно сказать, что символы конкретного алфавита имеют свои числовые коды в соответствии с определенной таблицей кодирования.
    Однако, как известно, алфавитов в мире большое множество (английский, русский, китайский и др.). Соответственно возникает вопрос, каким образом можно закодировать все используемые на компьютере алфавиты.
    Чтобы ответить на данный вопрос, нам придется заглянуть назад в прошлое.
    В $60$-х годах прошлого века в американском национальном институте стандартизации (ANSI) была разработана специальная таблица кодирования символов, которая затем стала использоваться во всех операционных системах. Эта таблица называется ASCII (American Standard Code for Information Interchange, что означает в переводе с английского «американский стандартный код для обмена информацией»).
    В данной таблице представлен $7$-битный стандарт кодирования, при использовании которого компьютер может записать каждый символ в одну $7$-битную ячейку запоминающего устройства. При этом известно, что в ячейке, состоящей из $7$ битов, можно сохранять $128$ различных состояний. В стандарте ASCII каждому из этих $128$ состояний соответствует какая-то буква, знак препинания или же специальный символ.
    В процессе развития вычислительной техники стало ясно, что $7$-битный стандарт кодирования достаточно мал, поскольку в $128$ состояниях $7$-битной ячейки нельзя закодировать буквы всех письменностей, имеющихся в мире.
    Чтобы решить эту проблему, разработчики программного обеспечения начали создавать собственные 8-битные стандарты кодировки текста. За счет дополнительного бита диапазон кодирования в них был расширен до $256$ символов. Во избежание путаницы, первые $128$ символов в таких кодировках, как правило, соответствуют стандарту ASCII. Оставшиеся $128$ – реализуют региональные языковые особенности.

  3. Aralhala Ответить

    Данная кодировка решает пользовательские проблемы (см. выше), но создает новые, технические проблемы: как пересылать символы в формате Unicode, используя 8-битные байты? 8-битные единицы являются наименьшими передаваемыми единицами в большинстве компьютеров, а также являющимися минимальными единицами, используемыми при сетевых соединениях на основе протокола TCP/IP. Использование 1-го байта для представления 1-го символа стало эпизодом истории (факт появления такой кодировки обусловлен тем, что компьютеры зародились в Европе и США, где долгое время обходились 96 символами).
    Существует 4 основных способа кодировки байтами в формате Unicode:
    UTF-8: 128 символов кодируются одним байтом (формат ASCII), 1920 символов кодируются 2-мя байтами ((Roman, Greek, Cyrillic, Coptic, Armenian, Hebrew, Arabic символы), 63488 символов кодируются 3-мя байтами (Китайский, японский и др.) Оставшиеся 2 147 418 112 символы (еще не использованы) могут быть закодированы 4, 5 или 6-ю байтами.
    UCS-2: Каждый символ представлен 2-мя байтами. Данная кодировка включает лишь первые 65 535 символов из формата Unicode.
    UTF-16:Является расширением UCS-2, включает 1 114 112 символов формата Unicode. Первые 65 535 символов представлены 2-мя байтами, остальные – 4-мя байтами.
    USC-4: Каждый символ кодируется 4-мя байтами.
    Получается, что 8 бит используются для кодирования европейских языков, а для китайского, японского и корейского языков много больше. Это может повлиять на объем занимаемого дискового пространства и на скорость передачи по сети. Для основных кодировок картина следующая (K(%) – увеличение дискового пространства и снижение скорости передачи по сети):
    UTF-8: никаких изменений для американской ASCII, незначительное ухудшение (К = несколько %) для ISO-8859-1, К=50% для китайского, японского, корейского и К=100% для греческого и кириллицы.
    UCS-2 и UTF-16: никаких изменений для китайского, японского, корейского; К=100% для американской ASCII, ISO-8859-1, греческого и кириллицы.
    UCS-4: К=100% для китайского, японского, корейского; К=300% для американской ASCII, ISO-8859-1, греческого и кириллицы.
    В итоге получается, что UTF-8 кодировка занимает меньше дискового пространства и позволяется передавать данные по сети с большей скоростью [10].Unicode 3.0
    Стандарт Unicode был разработан с целью создания единой кодировки символов всех современных и многих древних письменных языков. Каждый символ в этом стандарте кодируется 16 битами, что позволяет ему охватить несравненно большее количество символов, чем принятые ранее 7- и 8-битовые кодировки. Еще одним важным отличием Unicode от других систем кодировки является то, что он не только приписывает каждому символу уникальный код, но и определяет различные характеристики этого символа, например:
    тип символа (прописная буква, строчная буква, цифра, знак препинания и т.д.);
    атрибуты символа (отображение слева направо или справа налево, пробел, разрыв строки и т.д.);
    соответствующая прописная или строчная буква (для строчных и прописных букв соответственно);
    соответствующее числовое значение (для цифровых символов).
    Весь диапазон кодов от 0 до FFFF разбит на несколько стандартных подмножеств, каждое из которых соответствует либо алфавиту какого-то языка, либо группе специальных символов, сходных по своим функциям. На приведенной ниже схеме содержится общий перечень подмножеств Unicode 3.0
    .
    Формат UTF-8: Стандарт Unicode является основой для хранения и текста во многих современных компьютерных системах. Однако, он не совместим с большинством Интернет-протоколов, поскольку его коды могут содержать любые байтовые значения, а протоколы обычно используют байты 00 – 1F и FE – FF в качестве служебных. Для достижения совместимости были разработаны несколько форматов преобразования Unicode (UTFs, Unicode Transformation Formats), из которых на сегодня наиболее распространенным является UTF-8. Этот формат определяет следующие правила преобразования каждого кода Unicode в набор байтов (от одного до трех), пригодных для транспортировки Интернет-протоколами.Таблица 2. Формат UTF-8.
    Диапазон Unicode Двоичный код символа Байты UTF-8 (двоичные)
    0000 – 007F 00000000 0zzzzzzz 0zzzzzzzz
    0080 – 07FF 00000yyy yyzzzzzz 110yyyyy 10zzzzzz
    0800 – FFFF xxxxyyyy yyzzzzzz 1110xxxx 10yyyyyy 10zzzzzz
    Здесь x,y,z обозначают биты исходного кода, которые должны извлекаться, начиная с младшего, и заноситься в байты результата справа налево, пока не будут заполнены все указанные позиции.Формат UTF-16: Дальнейшее развитие стандарта Unicode связано с добавлением новых языковых плоскостей, т.е. символов в диапазонах 10000 – 1FFFF, 20000 – 2FFFF и т.д., куда предполагается включать кодировку для письменностей мертвых языков, не попавших в таблицу, приведенную выше. Для кодирования этих дополнительных символов был разработан новый формат UTF-16. Для базовой языковой плоскости, т.е. для символов с кодами от 0000 до FFFF, он совпадает с Unicode. Поэтому, если вы не собираетесь писать Веб-страницы на языке шумеров или майя, можете смело отождествлять два эти формата.
    Файл. Форматы файлов
    Файл – наименьшая единица хранения информации, содержащая последовательность байтов и имеющая уникальное имя.
    Основное назначение файлов – хранить информацию. Они предназначены также для передачи данных от программы к программе и от системы к системе. Другими словами, файл – это хранилище стабильных и мобильных данных. Но, файл – это нечто большее, чем просто хранилище данных. Обычно файл имеет имя, атрибуты, время модификации и время создания.
    Файловая структура представляет собой систему хранения файлов на запоминающем устройстве, например, на диске. Файлы организованы в каталоги (иногда называемые директориями или папками). Любой каталог может содержать произвольное число подкаталогов, в каждом из которых могут храниться файлы и другие каталоги.
    Способ, которым данные организованы в байты, называется форматом файла.
    Для того чтобы прочесть файл, например, электронной таблицы, нужно знать, каким образом байты представляют числа (формулы, текст) в каждой ячейке; чтобы прочесть файл текстового редактора, надо знать, какие байты представляют символы, а какие шрифты или поля, а также другую информацию. Все файлы условно можно разделить на две части – текстовые и двоичные. Текстовые файлы – наиболее распространенный тип данных в компьютерном мире. Для хранения каждого символа чаще всего отводится один байт, а кодирование текстовых файлов выполняется с помощью специальных таблиц, в которых каждому символу соответствует определенное число, не превышающее 255. Файл, для кодировки которого используется только 127 первых чисел, называется ASCII-файлом (сокращение от American Standard Code for Information Intercange – американский стандартный код для обмена информацией), но в таком файле не могут быть представлены буквы, отличные от латиницы (в том числе и русские). Большинство национальных алфавитов можно закодировать с помощью восьмибитной таблицы. Для русского языка наиболее популярны на данный момент три кодировки: Koi8-R, Windows-1251 и, так называемая, альтернативная (alt) кодировка.
    Такие языки, как китайский, содержат значительно больше 256 символов, поэтому для кодирования каждого из них используют несколько байтов.Но чисто текстовые файлы встречаются все реже. Документы часто содержат рисунки и диаграммы, используются различные шрифты. В результате появляются форматы, представляющие собой различные комбинации текстовых, графических и других форм данных.
    Двоичные файлы, в отличие от текстовых, не так просто просмотреть, и в них, обычно, нет знакомых слов – лишь множество непонятных символов. Эти файлы не предназначены непосредственно для чтения человеком. Примерами двоичных файлов являются исполняемые программы и файлы с графическими изображениями.

  4. Kirga Ответить

    Обращаю ваше внимание на то, что в таблице кодировки буквы (прописные и строчные) располагаются в алфавитном порядке, а цифры упорядочены по возрастанию значений. Такое соблюдение лексикографического порядка в расположении символов называется принципом последовательного кодирования алфавита.
    Для букв русского алфавита также соблюдается принцип последовательного кодирования.

    Вторая половина таблицы кодов ASCII


    К сожалению, в настоящее время существуют пять различных кодировок кириллицы (КОИ8-Р, Windows. MS-DOS, Macintosh и ISO). Из-за этого часто возникают проблемы с переносом русского текста с одного компьютера на другой, из одной программной системы в другую.
    Хронологически одним из первых стандартов кодирования русских букв на компьютерах был КОИ8 (“Код обмена информацией, 8-битный”). Эта кодировка применялась еще в 70-ые годы на компьютерах серии ЕС ЭВМ, а с середины 80-х стала использоваться в первых русифицированных версиях операционной системы UNIX.
    От начала 90-х годов, времени господства операционной системы MS DOS, остается кодировка CP866 (“CP” означает “Code Page”, “кодовая страница”).
    Компьютеры фирмы Apple, работающие под управлением операционной системы Mac OS, используют свою собственную кодировку Mac.
    Кроме того, Международная организация по стандартизации (International Standards Organization, ISO) утвердила в качестве стандарта для русского языка еще одну кодировку под названием ISO 8859-5.
    Наиболее распространенной в настоящее время является кодировка Microsoft Windows, обозначаемая сокращением CP1251.
    С конца 90-х годов проблема стандартизации символьного кодирования решается введением нового международного стандарта, который называется Unicode. Это 16-разрядная кодировка, т.е. в ней на каждый символ отводится 2 байта памяти. Конечно, при этом объем занимаемой памяти увеличивается в 2 раза. Но зато такая кодовая таблица допускает включение до 65536 символов. Полная спецификация стандарта Unicode включает в себя все существующие, вымершие и искусственно созданные алфавиты мира, а также множество математических, музыкальных, химических и прочих символов.

    Попробуем с помощью таблицы ASCII представить, как будут выглядеть слова в памяти компьютера.

    Внутреннее представление слов в памяти компьютера

  5. Zolojar Ответить

    На сегодняшний день персональный компьютер может обрабатывать числовую, текстовую, графическую, звуковую и видео информацию. Вся информация в компьютере представлена в двоичном коде, то есть используется алфавит в два символа 0 и 1. Именно в двоичном коде легч всего представить информацию как электрический импульс, его отсутствие (0), а его присутствие (1).
    Такой вид кодирования принято называть двоичным, а алфавит двоичного кодирования из нулей и единиц, несущий смысловую нагрузку на компьютер принято называть машинным языком.

    Примечание

    Каждая цифра двоичного кода, занимает место в памяти, равное 1 биту, соответственно две цифры 2 бита, три — 3 бита и т.д…
    Вид информации
    Двоичный код
    Числовая
    1001001111
    Текстовая
    1010011101
    Графическая
    1100101011
    Звуковая
    1010010011
    Видео
    1110010101
    Чтобы посчитать колличество информации, для числа например, нужно представить это число в двоичном коде и посчитать колличество нулей и единиц.

    Кодирование текстовой информации.

    На сегодняшний день большое колличество пользователей при помощи компьютера обрабатывает текстовую информацию, которая состоит из: букв, цифр, знаков препинания и других элементов.
    Обычно для кодирования одного символа, используеться 1 байт памяти то есть 8 бит. По теории вероятностей с помощью простой формулы, которая связывает количество возможных событий (К) и количество информации (I), можно вычислить сколько не одинаковых символов можно закодировать: К = 2^I = 28 = 256.

    Примечание

    Для кодирования текстовой информации обычно используют алфавит мощьностью в 256 символов…
    Принцип данного кодирования заключается в том, что каждому символу (букве, знаку) соответствуе свой двоичный код от 00000000 до 11111111, так-же текстовая информация может быть представлена в десятичном коде от 0 до 255.
    Нужно запомнить, что на сегодняшний день для кодирования букв российского алфавитаиспользуют пять разных кодировачных таблиц (КОИ — 8, СР1251, СР866, Мас, ISO), запомните, что тексты закодированные с помощью одной таблицы не будут корректно отображаться в другой кодировке. Это можно увидить в обьединенной таблице кодировки символов.
    Для одного двоичного кода в разных таблицах соответствуют разные символы:
    Двоичный код
    Десятичный код
    КОИ8
    СР1251
    СР866
    Мас
    ISO
    11000010
    194
    б
    В


    Т
    На сегодняшний день перекодированием текстовых документов заботится не пользователь, а программы, которые встроены в текстовые редакторы и текстовые процессоры. В начале 1997 года Microsoft Office начали поддерживать новую кодировку Unicode. В Unicode можно закодировать не 256 символов а, 65536, это было достигнуто тем, что под каждый символ начали отводить 2 байта. Сегодня больше всего популярны две таблицы это Windows (СР1251), и Unicode.

    Решаем задачи.

    Задача №1.
    Допустим у нас есть два текста которые содержат одинаковое колличество символов. Один текст записан на русском языке его алфавит (32 символа), а второй допустим на украинском его алфавит (16 символов). Чей текст несет большее количество информации?

    Решение

    I = К * а (информационный объем текста равен произведению числа символов на информационный вес одного символа). Т.к. оба текста имеют одинаковое число символов (К), то разница зависит от информативности одного символа алфавита (а).
    2^а1 = 32, т.е. а1 = 5 бит.
    2^а2 = 16, т.е. а2 = 4 бит.
    I1 = К * 5 бит, I2 = К * 4 бит.
    Значит, текст, записанный на русском языке в 5/4 раза несет больше информации.
    Задача №2.
    Объем сообщения, содержащего 2048 символов, составил 1/512 часть Мбайта. Определить мощность алфавита.

    Решение

    I = 1/512 * 1024 * 1024 * 8 = 16384 бит. – перевели в биты информационный объем сообщения.
    а = I / К = 16384 /1024 = 16 бит – приходится на один символ алфавита.
    2^16 = 65536 символов – мощность использованного алфавита.
    Именно такой алфавит используется в кодировке Unicode, который стал международным стандартом для представления символьной информации в компьютере.

  6. Shalirad Ответить

    В предыдущем пункте уже говорилось о том, что бинарный код внутри компьютера хранится в виде комбинаций большого количества элементов, каждый из которых может иметь одно из двух состояний.
    Такой мельчайший элемент, участвующий в формировании бинарного кода, называется битом.
    Битом является, например, каждая темная или светлая точка дорожки оптического диска, каждая запоминающая ячейка оперативной памяти компьютера и т.д.
    Чем больше битов содержит какой-то носитель, тем больше информации на нем можно закодировать. К примеру, оптический диск типа “CD” может содержать около 6 млрд. битов. Жесткий диск – в десятки раз больше.
    Но каждый отдельный бит сам по себе не имеет практической ценности. Для кодирования информации используются блоки из нескольких битов.
    Представим, например, что в каком-то запоминающем устройстве содержится только один бит. В нем можно будет закодировать всего одно из двух состояний чего либо, например, одну из двух цифр или один из двух цветов. Понятное дело, что практическая ценность такого носителя минимальна.
    Блок из 2 битов может принимать одно из 4 состояний:

    В 3-хбитном блоке можно закодировать уже одно из 8 состояний:

    Ну а 8-битный блок может принимать аж 256 разных состояний. Это уже достаточно существенная частичка двоичного кода, позволяющая отобразить один из значительного количества вариантов.
    Например, каждому состоянию 8-битного блока можно сопоставить какую-то букву. Вариантов, а их 256, будет достаточно для кодирования всех русских букв, включая строчные и прописные их варианты, а также всех знаков препинания. Заменяя каждую букву соответствующим 8-мибитным блоком, из двоичного кода можно составить текст.
    Этот принцип и используется для записи в компьютере текстовой информации (подробнее речь об этом пойдет ниже).
    Как видите, 8-битная ячейка имеет вполне реальную практическую ценность. Поэтому ее и решили считать минимальной единицей компьютерной информации. Эта единица получила название байт.
    Текстовые файлы состоят из сотен, тысяч или даже десятков тысяч букв. Соответственно, для их хранения в двоичном коде требуются сотни, тысячи или десятки тысяч байтов.
    Поэтому на практике гораздо чаще приходится имеет дело не с байтами, а с более крупными единицами:
    • килобайтами (1 килобайт = 1024 байт);
    • мегабайтами (1 мегабайт = 1024 килобайт);
    • гигабайтами (1 гигабайт = 1024 мегабайт);
    • терабайтами (1 терабайт = 1024 гигабайт).

    Кодирование числовой информации

    Для работы с числовой информацией мы пользуемся системой счисления, содержащей десять цифр: 0 1 2 3 4 5 6 7 8 9. Эта система называется десятичной.
    Кроме цифр, в десятичной системе большое значение имеют разряды. Подсчитывая количество чего-нибудь и дойдя до самой большой из доступных нам цифр (до 9), мы вводим второй разряд и дальше каждое последующее число формируем из двух цифр. Дойдя до 99, мы вынуждены вводить третий разряд. В пределах трех разрядов мы можем досчитать уже до 999 и т.д.
    Таким образом, используя всего десять цифр и вводя дополнительные разряды, мы можем записывать и проводить математические операции с любыми, даже самыми большими числами.
    Компьютер ведет подсчет аналогичным образом, но имеет в своем распоряжении всего две цифры – логический ноль (отсутствие у бита какого-то свойства) и логическая единица (наличие у бита этого свойства).
    Система счисления, использующая только две цифры, называется двоичной.
    При подсчете в двоичной системе добавлять каждый следующий разряд приходится гораздо чаще, чем в десятичной.
    Вот таблица первых десяти чисел в каждой из этих систем счисления:

    Как видите, в десятичной системе счисления для отображения любой из первых десяти цифр достаточно 1 разряда. В двоичной системе для тех же целей потребуется уже 4 разряда.
    Соответственно, для кодирования этой же информации в виде двоичного кода нужен носитель емкостью как минимум 4 бита (0,5 байта).
    Человеческий мозг, привыкший к десятичной системе счисления, плохо воспринимает систему двоичную. Хотя обе они построены на одинаковых принципах и отличаются лишь количеством используемых цифр. В двоичной системе точно так же можно осуществлять любые арифметические операции с любыми числами. Главный ее минус – необходимость иметь дело с большим количеством разрядов.
    Так, самое большое десятичное число, которое можно отобразить в 8 разрядах двоичной системы – 255, в 16 разрядах – 65535, в 24 разрядах – 16777215.
    Компьютер, кодируя числа в двоичный код, основывается на двоичной системе счисления. Но, в зависимости от особенностей чисел, может использовать разные алгоритмы:

    • небольшие целые числа без знака

    Для сохранения каждого такого числа на запоминающем устройстве, как правило, выделяется 1 байт (8 битов). Запись осуществляется в полной аналогии с двоичной системой счисления.
    Целые десятичные числа без знака, сохраненные на носителе в двоичном коде, будут выглядеть примерно так:

    • большие целые числа и числа со знаком

    Для записи каждого такого числа на запоминающем устройстве, как правило, отводится 2-байтний блок (16 битов).
    Старший бит блока (тот, что крайний слева) отводится под запись знака числа и в кодировании самого числа не участвует. Если число со знаком “плюс”, этот бит остается пустым, если со знаком “минус” – в него записывается логическая единица. Число же кодируется в оставшихся 15 битах.
    Например, алгоритм кодирования числа +2676 будет следующим:
    1. Перевести число 2676 из десятичной системы счисления в двоичную. В итоге получится 101001110100;
    2. Записать полученное двоичное число в первые 15 бит 16-битного блока (начиная с правого края). Последний, 16-й бит, должен остаться пустым, поскольку кодируемое число имеет знак +.
    В итоге +2676 в двоичном коде на запоминающем устройстве будет выглядеть так:

    Примечательно, что в двоичном коде присвоение числу отрицательного значения предусматривает не только изменение старшего бита. Осуществляется также инвертирование всех остальных его битов.
    Чтобы было понятно, рассмотрим алгоритм кодирования числа -2676:
    1. Перевести число 2676 из десятичной системы счисления в двоичную. Получим все тоже двоичное число 101001110100;
    2. Записать полученное двоичное число в первые 15 бит 16-битного блока. Затем инвертировать, то есть, изменить на противоположное, значение каждого из 15 битов;
    3. Записать в 16-й бит логическую единицу, поскольку кодируемое число имеет отрицательное значение.
    В итоге -2676 на запоминающем устройстве в двоичном коде будет иметь следующий вид:

    Запись отрицательных чисел в инвертированной форме позволяет заменить все операции вычитания, в которых они участвуют, операциями сложения. Это необходимо для нормальной работы компьютерного процессора.
    Максимальным десятичным числом, которое можно закодировать в 15 битах запоминающего устройства, является 32767.
    Иногда для записи чисел по этому алгоритму выделяются 4-байтные блоки. В таком случае для кодирования каждого числа будет использоваться 31 бит плюс 1 бит для кодирования знака числа. Тогда максимальным десятичным числом, сохраняемым в каждую ячейку, будет 2147483647 (со знаком плюс или минус).

    • дробные числа со знаком

    Дробные числа на запоминающем устройстве в двоичном коде кодируются в виде так называемых чисел с плавающей запятой (точкой). Алгоритм их кодирования сложнее, чем рассмотренные выше. Тем не менее, попытаемся разобраться.
    Для записи каждого числа с плавающей запятой компьютер чаще всего выделяет 4-байтную ячейку (32 бита):
    • в старшем бите этой ячейки (тот, что крайний слева) записывается знак числа. Если число отрицательное, в этот бит записывается логическая единица, если оно со знаком “плюс” – бит остается пустым.
    • во втором слева бите аналогичным образом записывается знак порядка (что такое порядок поймете позже);
    • в следующих за ним 7 битах записывается значение порядка.
    • в оставшихся 23 битах записывается так называемая мантисса числа.

    Чтобы стало понятно, что такое порядок, мантисса и зачем они нужны, переведем в двоичный код десятичное число 6,25.
    Порядок кодирования будет примерно следующим:
    1. Перевести десятичное число в двоичное (десятичное 6,25 равно двоичному 110,01);
    2. Определить мантиссу числа. Для этого в числе необходимо передвинуть запятую в нужном направлении, чтобы слева от нее не осталось ни одной единицы. В нашем случае запятую придется передвинуть на три знака влево. В итоге, получим мантиссу ,11001;
    3. Определить значение и знак порядка.
    Значение порядка – это количество символов, на которое была сдвинута запятая для получения мантиссы. В нашем случае оно равно 3 (или 11 в двоичной форме);
    Знак порядка – это направление, в котором пришлось двигать запятую: влево – “плюс”, вправо – “минус”. В нашем примере запятая двигалась влево, поэтому знак порядка – “плюс”;
    Таким образом, порядок двоичного числа 110,01 будет равен +11, а его мантисса ,11001. В результате в двоичном коде на запоминающем устройстве это число будет записано следующим образом

    Обратите внимание, что мантисса в двоичном коде записывается, начиная с первого после запятой знака, а сама запятая упускается.
    Числа с плавающей запятой, кодируемые в 32 битах, называю числами одинарной точности.
    Когда для записи числа 32-битной ячейки недостаточно, компьютер может использовать ячейку из 64 битов. Число с плавающей запятой, закодированное в такой ячейке, называется числом двойной точности.

  7. Dagdagar Ответить

    Главная | Информатика и информационно-коммуникационные технологии | Планирование уроков и материалы к урокам | 10 классы | Планирование уроков на учебный год | Представление текстовой информации в компьютере
    Урок 12
    Представление нечисловой информации в компьютере





    Представление текстовой информации в компьютере

    Изучив эту тему, вы узнаете и повторите:
    – как в компьютере представляется текстовая информация;
    – что такое ASCII и Unicode;
    – как в компьютере представляется графическая информация;
    – какие форматы используются при хранении графических файлов;
    – как в компьютере представляется звуковая информация;
    – какие форматы используются при хранении звуковых файлов.
    Компьютеры не с самого рождения могли обрабатывать символьную информацию. Лишь с конца 60-х годов они стали использоваться для обработки текстов и в настоящее время большинство пользователей ПК занимаются вводом, редактированием и форматированием текстовой информации.

    1. Таблица кодирования ASCII.

    А теперь «заглянем» в память компьютера и разберемся, как же представлена в нем текстовая информация.
    Текстовая информация состоит из символов: букв, цифр, знаков препинания, скобок и других. Мы уже говорили, что множество всех символов, с помощью которых записывается текст, называется алфавитом, а число символов в алфавите — его мощностью.
    Для представления текстовой информации в компьютере используется алфавит мощностью 256 символов. Мы знаем, что один символ такого алфавита несет 8 битов информации: 2 в 8 степени равно 256. 8 битов = 1 байт, следовательно:
    Один символ в компьютерном тексте занимает 1 байт памяти.
    Как мы выяснили, традиционно для кодирования одного символа используется 8 бит. И, когда люди определились с количеством бит, им осталось договориться о том, каким кодом кодировать тот или иной символ, чтобы не получилось путаницы, т.е. необходимо было выработать стандарт – все коды символов сохранить в специальной таблице кодов. В первые годы развития вычислительной техники таких стандартов не существовало, а сейчас наоборот, их стало очень много, но они противоречивы. Первыми решили эти проблемы в США, в институте стандартизации. Этот институт ввел в действие таблицу кодов ASCII (AmericanStandardCodeforInformationInterchange – стандартный код информационного обмена США).
    Рассмотрим таблицу кодов ASCII.
    Пояснение: раздать учащимся распечатанную таблицу кодов ASCII.
    Таблица ASCII разделена на две части. Первая – стандартная – содержит коды от 0 до 127. Вторая – расширенная – содержит символы с кодами от 128 до 255.
    Первые 32 кода отданы производителям аппаратных средств и называются они управляющие, т.к. эти коды управляют выводом данных. Им не соответствуют никакие символы.
    Коды с 32 по 127 соответствуют символам английского алфавита, знакам препинания, цифрам, арифметическим действиям и некоторым вспомогательным символам.
    Коды расширенной части таблицы ASCII отданы под символы национальных алфавитов, символы псевдографики и научные символы.
    Стандартная часть таблицы кодов ASCII

    Если вы внимательно посмотрите на обе части таблицы, то увидите, что все буквы расположены в них по алфавиту, а цифры – по возрастанию. Этот принцип последовательного кодирования позволяет определить код символа, не заглядывая в таблицу.
    Коды цифр берутся из этой таблицы только при вводе и выводе и если они используются в тексте. Если же они участвуют в вычислениях, то переводятся в двоичную систему счисления.
    Коды национального (русского) алфавита расширенной частитаблицы ASCII

    Альтернативные системы кодирования кириллицы.

    Тексты, созданные в одной кодировке, не будут правильно отображаться в другой.В настоящее время для поддержки букв русского алфавита (кириллицы) существует несколько кодовых таблиц (кодировок), которые используются различными операционными системами, что является существенным недостатком и в ряде случаев при-водит к проблемам, связанным с операциями декодирования числовых значений символов.
    Для разных типов ЭВМ используются различные кодировки:
    В настоящее время существует 5 кодовых таблиц для русских букв: Windows (СР(кодовая страница)1251), MS – DOS (СР(кодовая страница)866), KOИ – 8 (Код обмена информацией, 8-битный) (используется в OS UNIX), Mac (Macintosh), ISO (OS UNIX).
    Одним из первых стандартов кодирования кириллицы на компьютерах был стан-дарт КОИ-8.
    Национальная часть кодовой таблицы стандарта КОИ8-Р

    В настоящее время применяется и кодовая таблица, размещенная на странице СР866 стандарта кодирования текстовой информации, которая используется в операционной системе MS DOS или сеансе работы MS DOS для кодирования кириллицы.
    Национальная часть кодовой таблицы СР866

    В настоящее время для кодирования кириллицы наибольшее распространение получила кодовая таблица, размещенная на странице СР1251 соответствующего стандарта, которая используется в операционных системах семейства Windows фирмы Microsoft.
    Национальная часть кодовой таблицы СР1251

    Во всех представленных кодовых таблицах, кроме таблицы стандарта Unicode, для кодирования одного символа отводится 8 двоичных разрядов (8 бит).
    В мире существует примерно 6800 различных языков. Если прочитать текст, напечатанный в Японии на компьютере в России или США, то понять его будет нельзя. Чтобы буквы любой страны можно было читать на любом компьютере, для их кодировки стали использовать 2 байта (16 бит).
    N = 2i
    2i = 216 = 65536
    N = 65536
    N – мощность алфавита символов в кодовой таблице Unicode.
    i – информационный вес символа
    Основополагающая таблица использования кодового пространства Unicode


    Использование Unicode значительно упрощает создание многоязычных документов, публикаций и программных приложений.
    Рассмотрим примеры.
    1) Представьте в форме шестнадцатеричного кода слово «ЭВМ» во всех пяти кодировках. Воспользуемся компьютерным калькулятором для перевода чисел из десятичной в шестнадцатеричную систему счисления.
    Последовательности десятичных кодов слова «ЭВМ» в различных кодировках составляем на основе кодировочных таблиц:
    КОИ8-Р: 252 247 237
    СР1251: 221 194 204
    СР866: 157 130 140
    Мас: 157 130 140
    ISO: 205 178 188
    Переводим с помощью калькулятора последовательности кодов из десятичной системы в шестнадцатеричную:
    КОИ8-Р: FCF7 ED
    СР1251: DDC2 CC
    СР866: 9D 82 8C
    Мас: 9D 82 8C
    ISO: CDB2 BC
    2) Определить числовой код символа в кодировке Unicode с помощью тексто-вого редактора MicrosoftWord.
    1. В операционной системе Windows запустить текстовый редактор MicrosoftWord.
    2. В текстовом редакторе MicrosoftWord ввести команду [Вставка-Символ…]. На экране появится диалоговое окно Символ. Центральную часть диалогового окна занимает фрагмент таблицы символов.

    3. Для определения числового кола знака кириллицы с помощью раскрывающегося списка Набор: выбрать пункт кириллица.
    4. Для определения шестнадцатеричного числового кода символа в кодировке Unicode с помощью раскрывающегося списка из: выбрать тип кодировки Юникод (шестн.).
    5. В таблице символов выбрать символ Э. В текстовом поле кодзнака : появится его шестнадцатеричный числовой код (в данном случае 042D).

    Решите задачи:

    №1. Закодируйте с помощью таблицы ASCII слова: А) Excel; Б) Access; В) Windows; Г) ИНФОРМАЦИЯ.
    №2. Буква «i» в таблице кодов имеет код 105. Не пользуясь таблицей, расшифруйте следующую последовательность кодов: 102, 105, 108, 101.
    №3. Десятичный код буквы «е» в таблице ASCII равен 101. Не пользуясь таблицей, составьте последовательность кодов, соответствующих слову help.
    №4. Десятичный код буквы «i» в таблице ASCII равен 105. Не пользуясь таблицей, составьте последовательность кодов, соответствующих слову link.
    №5. Декодируйте следующие тексты, заданные десятичным кодом:
    А) 192 235 227 238 240 232 242 236;
    Б) 193 235 238 234 45 241 245 229 236 224;
    В) 115 111 102 116 119 97 114 101.
    №6. Во сколько раз увеличится информационный объем страницы текста при его преобразовании из кодировки Windows 1251 (таблица кодировки содержит 256 символов) в кодировку Unicode (таблица кодировки содержит 65536 символов)?
    №7. Каков информационный объем текста, содержащего слово ПРОГРАММИРОВАНИЕ:
    А) в 16-битной кодировке;
    Б) в 8-битной кодировке.
    №8. Текст занимает ? Кбайта. Какое количество символов он содержит?
    №9. Текст занимает полных 6 страниц. На каждой странице размещается 30 строк по 80 символов. Определить объем оперативной памяти, который займет этот текст.
    №10. Свободный объем оперативной памяти компьютера 320 Кбайт. Сколько страниц книги поместится в ней, если на странице:
    А) 32 строки по 32 символа;
    Б) 64 строки по 64 символа;
    В) 16 строк по 32 символа.
    №11. Текст занимает 20 секторов на двусторонней дискете объемом 360 Кбайт. Дискета разбита на 40 дорожек по 9 секторов. Сколько символов содержит текст?

  8. Mariri Ответить

    Кодирование текстовой, графической и звуковой информации
    Компьютер может обрабатывать только информацию, представленную в числовой форме. Вся другая информация (например, звуки, изображения, показания приборов и т.д.) для обработки на компьютере должна быть преобразована в числовую форму. Как правило, все числа в компьютере представляются с помощью нулей и единиц. Иными словами, компьютеры работают в двоичной системе счисления.
    Кодирование информации – это процесс формирования определенного представления информации. В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.
    Декодирование – преобразование данных из двоичного кода в форму, понятную человеку.
    Код — это набор условных обозначений (или сигналов) для записи (или передачи) некоторых заранее определенных понятий.
    Двоичное кодирование – один из распространенных способов представления информации. В вычислительных машинах, в роботах и станках с числовым программным управлением, как правило, вся информация, с которой имеет дело устройство, кодируется в виде слов двоичного алфавита.
    Двои?чный код — это способ представления данных в виде кода, в котором каждый разряд принимает одно из двух возможных значений, обычно обозначаемых цифрами 0 и 1. Разряд в этом случае называется двоичным разрядом.
    Кодирование числовой информации
    Сходство в кодировании числовой и текстовой информации состоит в следующем: чтобы можно было сравнивать данные этого типа, у разных чисел (как и у разных символов) должен быть различный код. Основное отличие числовых данных от символьных заключается в том, что над числами кроме операции сравнения производятся разнообразные математические операции: сложение, умножение, извлечение корня, вычисление логарифма и пр. Правила выполнения этих операций в математике подробно разработаны для чисел, представленных в позиционной системе счисления.
    Основная система счисления для представления чисел в компьютере – это двоичная позиционная система счисления.
    Кодирование текстовой информации
    При вводе текстовой информации с помощью клавиатуры компьютера каждый вводимый символ подвергается кодированию, т.е. преобразуется в числовой код. При выводе текстовой информации на устройство вывода (дисплей, принтер или плоттер) по числовому коду символа строится его изображение.
    Традиционно для кодирования одного символа используется количество информации равное 1 байту. Учитывая, что каждый бит принимает значение 1 или 0, получаем, что с помощью 1 байта можно закодировать 256 различных символов. (28 = 256). Кодирование заключается в том, что каждому символу ставится в соответствие уникальный двоичный код от 00000000 до 11111111 (или десятичный код от 0 до 255).

  9. VideoAnswer Ответить

Добавить ответ

Ваш e-mail не будет опубликован. Обязательные поля помечены *