Будь умным!


У вас вопросы?
У нас ответы:) SamZan.net

информация происходит от латинского слова informtio означающего разъяснение изложение осведомленность

Работа добавлена на сайт samzan.net:

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 9.11.2024

1.Понятие информации

Термин «информация» происходит от латинского слова informatio, означающего разъяснение, изложение, осведомленность.

Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т. п.), несущую смысловую нагрузку н представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности увеличивает информационный объем сообщения.

Информация в наиболее общем определении — это отражение предметного мира с помощью знаков и сигналов.

Сигналы отражают физические (физико-химические) характеристики различных процессов и объектов, но лишь для человека информация, получаемая из внешнего мира, может становиться сведениями, являющимися объектом осознанного хранения, обмена и преобразования. Человек воспринимает информацию с помощью органов чувств при непосредственном контакте с объектами внешнего мира, может хранить ее, обрабатывать, в итоге получать новую информацию и передавать ее другим людям, используя знаковую форму н различные инструментальные средства. Чтобы информация способствовала принятию на ее основе правильных решений, она должна характеризоваться такими свойствами, как достоверность, полнота, актуальность, полезность, понятность.

Достоверность. Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений.

Полнота. Информация полная, если ее достаточно для понимания и принятия решений. Неполнота информации сдерживает принятие решений или может повлечь ошибки.

Полезность. Актуальность. Ценность информации зависит от того, какие задачи мы можем решить с ее помощью. Актуальную информацию важно иметь при работе в изменившихся условиях.

Понятность. Если ценная и актуальная информация выражена непонятными словами, она может стать бесполезной. Информация становится понятной, если она передается языком, на котором говорят те, кому предназначена эта информация.

Знаковая форма восприятия, хранения и передачи информации означает использование какого-либо языка. Языки делятся на разговорные (естественные) и формальные. Естественные языки носят национальный характер. Формальные языки чаше всего относятся к специальной области человеческой деятельности (например язык математики).

Информация передается в виде сообщений от некоторого источника информации к се приемнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приемнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.

Обработка информации — получение одних информационных объектов из других информационных объектов путем выполнения некоторых алгоритмов.

Средства обработки информации — это разнообразные устройства и системы, созданные для преобразования информации, и в первую очередь, компьютер — универсальная машина для обработки информации.

Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.

2. Количество информации (содержательный и алфавитный подходы).
3. Единицы измерения количества информации.

Вопрос: «Как измерить информацию?» очень непростой. Ответ на него зависит от того, что понимать под информацией. Но поскольку определять информацию можно по-разному, то и способы измерения тоже могут быть разными.

Содержательный подход к измерению информации.

Для человека информация — это знания человека. Рассмотрим вопрос с этой точки зрения.

Получение новой информации приводит к расширению знаний. Если некоторое сообщение приводит к уменьшению неопределённости нашего знания, то можно говорить, что такое сообщение содержит информацию.

Отсюда следует вывод, что сообщение информативно (т.е. содержит ненулевую информацию), если оно пополняет знания человека. Например, прогноз погоды на завтра — информативное сообщение, а сообщение о вчерашней погоде не информативно, т.к. нам это уже известно.

Нетрудно понять, что информативность одного и того же сообщения может быть разной для разных людей. Например: «2x2=4» информативно для первоклассника, изучающего таблицу умножения, и не информативно для старшеклассника.

Но для того чтобы сообщение было информативно оно должно еще быть понятно. Быть понятным, значит быть логически связанным с предыдущими знаниями человека. Определение «значение определенного интеграла равно разности значений первообразной подынтегральной функции на верхнем и на нижнем пределах», скорее всего, не пополнит знания и старшеклассника, т.к. оно ему не понятно. Для того, чтобы понять данное определение, нужно закончить изучение элементарной математики и знать начала высшей.

Получение всяких знаний должно идти от простого к сложному. И тогда каждое новое сообщение будет в то же время понятным, а значит, будет нести информацию для человека.

Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными.

Очевидно, различать лишь две ситуации: «нет информации» — «есть информация» для измерения информации недостаточно. Нужна единица измерения, тогда мы сможем определять, в каком сообщении информации больше, в каком — меньше.

Единица измерения информации была определена в науке, которая называется теорией информации. Эта единица носит название «бит». Ее определение звучит так:

Сообщение, уменьшающее неопределённость знаний в два раза, несет 1 бит информации.

Например, после сдачи зачета или выполнения контрольной работы ученик мучается неопределённостью, он не знает, какую оценку получил. Наконец, учитель объявляет результаты, и он получаете одно из двух информационных сообщений: «зачет» или «незачет», а после контрольной работы одно из четырех информационных сообщений: «2», «3», «4» или «5».

Информационное сообщение об оценке за зачет приводит к уменьшению неопределённости знания в два раза, так как получено одно из двух возможных информационных сообщений. Информационное сообщение об оценке за контрольную работу приводит к уменьшению неопределённости знания в четыре раза, так как получено одно из четырех возможных информационных сообщений.

Неопределённость знаний о некотором событии — это количество возможных результатов события.

Рассмотрим еще один пример.

На книжном стеллаже восемь полок. Книга может быть поставлена на любую из них. Сколько информации содержит сообщение о том, где находится книга?

Применим метод половинного деления. Зададим несколько вопросов уменьшающих неопределённость знаний в два раза.

Задаем вопросы:

- Книга лежит выше четвертой полки?

- Нет.

- Книга лежит ниже третьей полки?

- Да .

- Книга — на второй полке?

- Нет.

- Ну теперь все ясно! Книга лежит на первой полке!

Каждый ответ уменьшал неопределённость в два раза.

Всего было задано три вопроса. Значит набрано 3 бита информации. И если бы сразу было сказано, что книга лежит на первой полке, то этим сообщением были бы переданы те же 3 бита информации.

Если обозначить возможное количество событий, или, другими словами, неопределённость знаний N, а буквой I количество информации в сообщении о том, что произошло одно из N событий, то можно записать формулу:

2I = N

Количество информации, содержащееся в сообщении о том, что произошло одно из N равновероятных событий, определяется из решения показательного уравнения: 2I = N.

Алфавитный подход к измерению информации.

А теперь познакомимся с другим способом измерения информации. Этот способ не связывает количество информации с содержанием сообщения, и называется он алфавитным подходом.

При алфавитном подходе к определению количества информации отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность знаков определенной знаковой системы.

Проще всего разобраться в этом на примере текста, написанного на каком-нибудь языке. Для нас удобнее, чтобы это был русский язык.

Все множество используемых в языке символов будем традиционно называть алфавитом. Обычно под алфавитом понимают только буквы, но поскольку в тексте могут встречаться знаки препинания, цифры, скобки, то мы их тоже включим в алфавит. В алфавит также следует включить и пробел, т.е. пропуск между словами.

Полное количество символов алфавита принято называть мощностью алфавита. Будем обозначать эту величину буквой N. Например, мощность алфавита из русских букв и отмеченных дополнительных символов равна 54.

Представьте себе, что текст к вам поступает последовательно, по одному знаку, словно бумажная ленточка, выползающая из телеграфного аппарата. Предположим, что каждый появляющийся на ленте символ с одинаковой вероятностью может быть любым символом алфавита. В действительности это не совсем так, но для упрощения примем такое предположение.

В каждой очередной позиции текста может появиться любой из N символов. Тогда, согласно известной нам формуле, каждый такой символ несет I бит информации, которое можно определить из решения уравнения: 2I = 54. Получаем: I = 5.755 бит.

Вот сколько информации несет один символ в русском тексте! А теперь для того, чтобы найти количество информации во всем тексте, нужно посчитать число символов в нем и умножить на I.

Посчитаем количество информации на одной странице книги. Пусть страница содержит 50 строк. В каждой строке — 60 символов. Значит, на странице умещается 50x60=3000 знаков. Тогда объем информации будет равен: 5,755 х 3000 = 17265 бит.

При алфавитном подходе к измерению информации количество информации зависит не от содержания, а от размера текста и мощности алфавита.

При использовании двоичной системы (алфавит состоит из двух знаков: 0 и 1) каждый двоичный знак несет 1 бит информации. Интересно, что сама единица измерения информации «бит» получила свое название от английского сочетания «binary digit» - «двоичная цифра».

Применение алфавитного подхода удобно прежде всего при использовании технических средств работы с информацией. В этом случае теряют смысл понятия «новые — старые», «понятные — непонятные» сведения. Алфавитный подход является объективным способом измерения информации в отличие от субъективного содержательного подхода.

Удобнее всего измерять информацию, когда размер алфавита N равен целой степени двойки. Например, если N=16, то каждый символ несет 4 бита информации потому, что 24 = 16. А если N =32, то один символ «весит» 5 бит.

Ограничения на максимальный размер алфавита теоретически не существует. Однако есть алфавит, который можно назвать достаточным. С ним мы скоро встретимся при работе с компьютером. Это алфавит мощностью 256 символов. В алфавит такого размера можно поместить все практически необходимые символы: латинские и русские буквы, цифры, знаки арифметических операций, всевозможные скобки, знаки препинания....

Поскольку 256 = 28, то один символ этого алфавита «весит» 8 бит. Причем 8 бит информации — это настолько характерная величина, что ей даже присвоили свое название — байт.

1 байт = 8 бит.

Сегодня очень многие люди для подготовки писем, документов, статей, книг и пр. используют компьютерные текстовые редакторы. Компьютерные редакторы, в основном, работают с алфавитом размером 256 символов.

В этом случае легко подсчитать объем информации в тексте. Если 1 символ алфавита несет 1 байт информации, то надо просто сосчитать количество символов; полученное число даст информационный объем текста в байтах.

Пусть небольшая книжка, сделанная с помощью компьютера, содержит 150 страниц; на каждой странице — 40 строк, в каждой строке — 60 символов. Значит страница содержит 40x60=2400 байт информации. Объем всей информации в книге: 2400 х 150 = 360 000 байт.

В любой системе единиц измерения существуют основные единицы и производные от них.

Для измерения больших объёмов информации используются следующие производные от байта единицы:

1 килобайт = 1Кб = 210 байт = 1024 байта.

1 мегабайт = 1Мб = 210 Кб = 1024 Кб.

1 гигабайт = 1Гб = 210 Мб = 1024 Мб.

Название

Условное обозначение

Соотношение с другими единицами

Килобит

Кбит

1 Кбит = 1024 бит = 210 бит ≈ 1000 бит

Мегабит

Мбит

1 Мбит = 1024 Кбит = 220 бит ≈ 1 000 000 бит

Гигабит

Гбит

1 Гбит = 1024 Мбит = 230 бит ≈ 1 000 000 000 бит

Килобайт

Кбайт (Кб)

1 Кбайт = 1024 байт = 210 байт ≈ 1000 байт

Мегабайт

Мбайт (Мб)

1 Мбайт = 1024 Кбайт = 220 байт ≈ 1 000 000 байт

Гигабайт

Гбайт (Гб)

1 Гбайт = 1024 Мбайт = 230 байт ≈ 1 000 000 000 байт

Прием-передача информации могут происходить с разной скоростью. Количество информации, передаваемое за единицу времени, есть скорость передачи информации или скорость информационного потока.

Очевидно, эта скорость выражается в таких единицах, как бит в секунду (бит/с), байт в секунду (байт/с), килобайт в секунду (Кбайт/с) и т.д.

4. Системы счисления (позиционные, непозиционные), алфавит, основание.
5. Переход из одной системы счисления в другую.

1. Позиционные и непозиционные системы счисления. Запись чисел в позиционных системах счисления. Алгоритмы перевода чисел из одной системы счисления в другую.

Числа записываются с использованием особых знаковых систем, которые называются системами счисления. Все системы счисления делятся на позиционные и непозиционные.

Система счисления – это способ записи чисел  с помощью специальных знаков – цифр.

Числа:
123, 45678, 1010011, CXL

Цифры:
0, 1, 2, …         I, V, X, L, …

Алфавит – это набор цифр.  {0, 1, 2, 3, 4, 5, 6, 7, 8, 9}

Типы систем счисления:

  1.  непозиционные – значение цифры не зависит от ее места (позиции) в записи числа;
  2.  позиционные – зависит от ее места (позиции) в записи числа.

Непозиционные системы

Унарная – одна цифра обозначает единицу (1 день,
1 камень, 1 баран, …)

Римская:
I – 1 (палец),    V – 5 (раскрытая ладонь, 5 пальцев),    
X – 10 (две ладони),    L – 50,
C – 100 (Centum),  D – 500 (Demimille),   
M – 1000 (Mille)

Алфавитные системы счисления. Более совершенными непозиционными системами счисления были алфавитные системы. К числу таких систем счисления относились греческая, славянская, финикийская и другие. В них числа от 1 до 9, целые количества десятков (от 10 до 90) и целые количества сотен (от 100 до 900) обозначались буквами алфавита.

Позиционная система:

значение цифры определяется ее позицией в записи числа.

Основные достоинства любой позиционной системы счисления — простота выполнения арифметических операций и ограниченное количество символов (цифр), необходимых для записи любых чисел.

Десятичная система:
первоначально – счет на пальцах
изобретена в Индии, заимствована арабами, завезена в Европу

Алфавит: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9
Основание (количество цифр): 10

Десятичная система характеризуется тем,  что в ней 10 единиц какого-либо разряда образуют единицу следующего старшего разряда. Другими словами, единицы различных разрядов представляют собой различные степени числа 10. Числа позиционной системы счисления можно записать в развернутой форме:

2       1     0             

сотни   десятки   единицы

               разряды

                       

3          7         8  = 3·102 + 7·101 + 8·100

300    70     8

Пример. Десятичное число А10=4718,63 в развернутой форме запишется так:

А10=4·103+7·102+1·101+8·100+6·10-1+3·10-2

Другие позиционные системы:

  1.  двенадцатеричная (1 фут = 12 дюймов, 1 шиллинг = 12 пенсов)
  2.  двадцатеричная (1 франк = 20 су)
  3.  шестидесятеричная (1 минута = 60 секунд, 1 час = 60 минут)
  4.  двоичная, восьмеричная, шестнадцатеричная (информатика)

 Двоичная система счисления.

        В двоичной системе счисления основание  2. Двоичное  число  представляет собой цепочку из нулей и единиц. При этом оно имеет достаточно  большое  число  разрядов.  Быстрый рост  числа  разрядов — самый существенный недостаток двоичной системы счисления.

        Записав двоичное число А2=1001,1 в развернутом виде и произведя вычисления, получим это число, выраженное в десятичной системе счисления:

А2=1·23+0·22+0·21+1·20+1·2-1 = 8+1+0,5 = 9,510

Восьмеричная система счисления.

Основание:  8.

Алфавит: 0, 1, 2, 3, 4, 5, 6, 7.

Записав восьмеричное число А8=7764,1  в развернутом виде и произведя вычисления, получим это число, выраженное в десятичной системе счисления:

А8=7·83+7·82+6·81+4·80+1·8-1 = 3584 + 448 + 48 + 4 + 0,125 = 4084,12510

Шестнадцатеричная система счисления.

Основание: q=16.

Алфавит: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F.

Здесь только десять цифр из шестнадцати имеют общепринятое  обозначение 0,1, …9. Для записи остальных цифр (10, 11, 12, 13, 14 и 15) обычно используются первые пять букв латинского алфавита.

Таким образом, запись 3АF16 означает:

3АF16 = 3·162+10·161+15·160 = 768+160+15 = 94310.

Соответствие между первыми несколькими натуральными числами всех трех систем счисления представлено в таблице перевода:

Десятичная

система

Двоичная система

Восьмеричная система

Шестнадцатеричная система

0

0

0

0

1

1

1

1

2

10

2

2

3

11

3

3

4

100

4

4

5

101

5

5

6

110

6

6

7

111

7

7

8

1000

10

8

9

1001

11

9

10

1010

12

A

11

1011

13

B

12

1100

14

C

13

1101

15

D

14

1110

16

E

15

1111

17

F

16

10000

20

10

Переводы из 10-ой системы счисления в 2-ю, 8-ю, 16-ю и обратно.


Cистемы счисления в компьютерах
(дополнительный материал)

В XVII веке  немецкий ученый Готфрид Лейбниц предложил уникальную систему представления чисел с помощью всего двух символов – 0 и 1. Сегодня этот способ повсеместно используется в технике, в том числе и в компьютерах и называется дискретным.

Компьютер способен хранить только дискретно представленную информацию. Его память, как бы велика она ни была, состоит из отдельных битов, а значит, по своей сути дискретна.

Язык компьютера  — это язык двоичных чисел - двоичный алфавит, имеющий два знака, 1 и 0. Этим знакам в логике и технике приводят в соответствие понятия  — да и нет, истина и ложь, включено и выключено. Такой алфавит называют еще бинарным. В соответствии с этим введена и наименьшая единица информации  — бит (англ. bit, от binary  — двоичный и digit  — знак).
Одного бита информации достаточно, чтобы передать слово "да" или "нет", закодировать, например, состояние электролампочки. Кстати, на некоторых выключателях пишут "1  —включено" и "0  — выключено". Взгляд на выключатель снимает для нас
неопределенность в его состоянии. При этом мы получаем количество информации, равное одному биту.

БИТ  — наименьшая единица измерения информации, соответствующая одному разряду машинного двоичного кода.

Двоичная кодировка (двоичная система счисления) имеет ряд преимуществ перед другими системами кодирования:

  1.  Для ее реализации нужны технически не сложные элементы с двумя возможными состояниями (есть ток  — нет тока, намагничен  — не намагничен и т.д.).
  2.  Представление информации посредством только двух состояний надежно и помехоустойчиво.
  3.  Возможно применение особой алгебры логики (булевой алгебры) для выполнения логических преобразований информации.
  4.  Двоичная арифметика намного проще десятичной. Двоичные таблицы сложения и умножения предельно просты.
  5.  Обработка информации в компьютере основана на обмене электрическими сигналами между различными устройствами машины. Признак наличия сигнала можно обозначить цифрой 1, признак отсутствия  — цифрой 0.

6. Виды информации, обрабатываемые компьютером (числовая, символьная, графическая, звуковая).

Основные виды информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информатики, это:

  1.  графическая или изобразительная — первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального мира;
  2.  звуковая — мир вокруг нас полон звуков и задача их хранения и тиражирования была решена с изобретением звукозаписывающих устройств в 1877 г. (см., например, историю звукозаписи на сайте — http://radiomuseum.ur.ru/index9.html); ее разновидностью является музыкальная информация — для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение ее аналогично графической информации;
  3.  текстовая — способ кодирования речи человека специальными символами — буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания;
  4.  числовая — количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для ее отображения используется метод кодирования специальными символами — цифрами, причем системы кодирования (счисления) могут быть разными;
  5.  видеоинформация — способ сохранения «живых» картин окружающего мира, появившийся с изобретением кино.

7. Типы информации (дискретная, непрерывная).

2. Непрерывная и дискретная информация

Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция – носитель информации. Сообщение, передаваемое с помощью носителя, назовем сигналом. В общем случае сигнал – это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока). Та из характеристик, которая используется для представления сообщений, называется параметром сигнала.

В случае когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называетсядискретным, а сообщение, передаваемое с помощью таких сигналов -дискретным сообщением. Информация, передаваемая источником, в этом случае также называется дискретной. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала – непрерывная функция от времени), соответствующая информация называется непрерывной. Пример дискретного сообщения – процесс чтения книги, информация в которой представлена текстом, т.е. дискретной последовательностью отдельных значков (букв). Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника – человеческого уха.

Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором отрезке [а, Ь] (см. рис. 2). Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Для этого из бесконечного множества значений этой функции (параметра сигнала) выбирается их определенное число, которое приближенно может характеризовать остальные значения. Один из способов такого выбора состоит в следующем. Область определения функции разбивается точками x1x2,... хn, на отрезки равной длины и на каждом из этих отрезков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке; полученная на этом этапе функция называется в математике ступенчатой. Следующий шаг – проецирование значений “ступенек” на ось значений функции (ось ординат). Полученная таким образом последовательность значений функции у1, у2, ... уn. является дискретным представлением непрерывной функции, точность которого можно неограниченно улучшать путем уменьшения длин отрезков разбиения области значений аргумента.

Рис. 2. Процедура дискретизации непрерывного сообщения

Ось значений функции можно разбить на отрезки с заданным шагом и отобразить каждый из выделенных отрезков из области определения функции в соответствующий отрезок из множества значений (рис. 2). В итоге получим конечное множество чисел, определяемых, например, по середине или одной из границ таких отрезков.

Таким образом, любое сообщение может быть представлено как дискретное, иначе говоря последовательностью знаков некоторого алфавита.

Возможность дискретизации непрерывного сигнала с любой желаемой точностью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер – цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информации (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки.

Существуют и другие вычислительные машины – аналоговые ЭВМ. Они используются обычно для решения задач специального характера и широкой публике практически не известны. Эти ЭВМ в принципе не нуждаются в дискретизации входной информации, так как ее внутреннее представление у них непрерывно. В этом случае все наоборот – если внешняя информация дискретна, то ее “перед употреблением” необходимо преобразовать в непрерывную.

8. Понятие «кодирования» информации.

При передаче информации происходит кодирование информации, и мы должны договориться о том, как понимать те или иные обозначения.

Человек выражает свои мысли словами. Они являются алфавитным представлением информации. На уроках физики при рассмотрении какого-либо явления мы используем формулы. В этом случае говорят о языке алгебры. Формула - это математический код. Существует язык глухонемых, где символы - мимика и жесты; язык музыки, где символы - ноты и т.д.
Основу любого языка составляет алфавит - конечный набор различных символов, из кото-рых складывается сообщение.
Одна и та же запись может нести разную смысловую нагрузку. Например, набор цифр 251299 может обозначать: массу объекта; длину объекта; расстояние между объектами; номер телефона; дату 25 декабря 1999 года. Эти примеры говорят, что для представления информации могут использоваться разные коды, и поэтому надо знать законы записи этих кодов, т.е. уметь кодировать.
Код - набор условных обозначений для представления информации. Кодирование - процесс представления информации в виде кода. Кодирование сводится к использованию совокупности символов по строго определенным правилам. При переходе улицы мы встречаемся с кодированием информации в виде сигналов светофора. Водитель передает сигнал с помощью гудка или миганием фар. Кодировать инфор-мацию можно устно, письменно, жестами или сигналами любой другой природы. По мере разви-тия техники появились разные способы кодирования информации. Во второй половине XIX века американский изобретатель Морзе изобрел удивительный код, который служит человечеству до сих пор.

В качестве источников информации может выступать человек, техническое устройство, предметы, объекты живой и неживой природы. Получателей сообщения может быть несколько или один.
В процессе обмена информацией мы совершаем две операции: кодирование и декодирование. При кодировании происходит переход от исходной формы представления информации в форму, удобную для хранения, передачи или обработки, а при декодировании - в обратном направлении. 

Кодирование информации в двоичном коде 

Существуют разные способы кодирования и декодирования информации в компьютере. Это зависит от вида информации: текст, число, графическое изображение или звук. Для числа также важно, как оно будет использовано: в тексте, или в вычислениях, или в процессе ввода-вывода. Вся информация кодируется в двоичной системе счисления: с помощью цифр 0 и 1. Эти два символа называют двоичными цифрами или битами. Такой способ кодирования технически просто организовать: 1 - есть электрический сигнал, 0 - нет сигнала. Недостаток двоичного кодирования - длинные коды. Но в технике легче иметь дело с большим числом простых однотип-ных элементов, чем с небольшим числом сложных. 

Кодирование текстовой информации

При нажатии клавиши клавиатуры сигнал посылается в компьютер в виде двоичного чис-ла, которое хранится в кодовой таблице. Кодовая таблица - это внутреннее представление символов в компьютере. В качестве стандарта в мире принята таблица ASCII (American Standart Code for Information Interchange - Американский стандартный код для обмена информацией). Для хранения двоичного кода одного символа выделен 1 байт = 8бит. Так как 1 бит принимает значение 0 или 1, то с помощью одного байта можно закодировать 28 = 256 различных символов, т.к. именно столько различных кодовых комбинаций можно составить. Эти комбинации и со-ставляют таблицу ASCII. Например, буква S имеет код 01010011; при нажатии ее на клавиатуре происходит декодирование двоичного кода и по нему строится изображение символа на экране монитора.

Стандарт ASCII определяет первые 128 символов: цифры, буквы латинского алфавита, управляющие символы. Вторая половина кодовой таблицы не определена американским стандартом и предназначена для национальных символов, псевдографических и некоторых немате-матических символов. В разных странах могут использоваться различные варианты второй половины кодовой таблицы. Цифры кодируются по этому стандарту при вводе-выводе и если они встречаются в тексте. Если они участвуют в вычислениях, то осуществляется их преобразование в другой двоичный код.

Кодирование чисел.

В двоичной системе счисления для представления используются две цифры 0 и 1. 
Сравните:
в десятичной системе счисления 435,6710 = 4 102 + 3 101 + 5 100 + 6 10-1 + 7 10-2 в десятичной системе счисления 10110,1012 = 1 24 +0 23 +1 22 +1 21 +0 20 +1 2-1 +0 2-2 +1 2-3
Действия с числами в двоичной системе счисления изучает наука двоичная арифметика. Все основные законы арифметических действий для таких чисел также выполняются.
Для сравнения рассмотрим два варианта кодирования для числа 45. При использовании числа в тексте каждая цифра кодируется 8 битами в соответствии с ASCII (т.е. потребуется 2 байта): 4 - 01000011, 5 - 01010011. При использовании в вычислениях код этого числа получается по специальным правилам перевода из десятичной системы счисления в двоичную в виде 8-разрядного двоичного числа: 4510 = 001011012, что потребует 1 байт.

Кодирование графической информации

Графический объект в компьютере может быть представлен как растровое или векторное изображение. От этого зависит и способ кодирования. Растровое изображение представляет собой совокупность точек различного цвета. Объем растрового изображения равен произведению количества точек на информационный объем одной точки, который зависит от количества возможных цветов. Для черно-белого изображения информационный объем точки равен 1 биту, т.к. она может быть либо белой, либо черной, что можно закодировать двумя цифрами 0 и 1. Рассмотрим, сколько потребуется бит для изображе-ния точки: 8 цветов - 3 бита (8 = 23); для 16 цветов - 4 бита (16 = 24); для 256 цветов - 8 битов (1 байт). Различные цвета получаются из трех основных - красного, зеленого и синего. Векторное изображение представляет собой графический объект, состоящий из элементарных отрезков и дуг. Положение этих элементарных объектов определяется координатами точек и длиной радиуса. Для каждой линии указывается ее тип (сплошная, пунктирная, штрих-пунктирная), толщина и цвет. Информация о векторном изображении кодируется как обычная буквенно-цифровая и обрабатывается специальными программами.

Кодирование звуковой информации

Звуковая информация может быть представлена последовательностью элементарных звуков (фонем) и пауз между ними. Каждый звук кодируется и хранится в памяти. Вывод звуков из компьютера осуществляется синтезатором речи, который считывает из памяти хранящийся код звука. Гораздо сложнее преобразовать речь человека в код, т.к. живая речь имеет большое разнообразие оттенков. Каждое произнесенное слово должно сравнивать с предварительно занесенным в память компьютера эталоном, и при их совпадении происходит его распознавание и запись. 

Устройства обработки информации (цифровые, аналоговые)

Аналоговий сигнал содержит информацию в виде величин, которые плавно меняются. Цифровий сигнал содержит конечный ряд значений даноӥ величины.

Числовое значение аналоговой величины изменяется постоянно. Так, при измерении температуры мы имеем дело с аналоговой величиной, поскольку она может принимать любое значение из бесконечного множества.

Значение цифровой величины в данном диапазоне имеет конечный ряд значений. Типичным примером цифровой системы является счеты, поскольку на ней величину подают только целыми числами.

Электрический сигнал может быть аналоговым или цифровым. Электрический ток может увеличиваться или падать плавно, а может меняться мгновенно, если он поступает импульсами.

Цифровую величину можно выразить через значение, или амплитуду импульса тока.

Различные типы данных, в частности звук, изображение или текст, задаются последовательностью импульсов, которые можно сосчитать.

Любой электрический сигнал можно получить как в аналоговом, так и в цифровом виде.

Аналогово-цифровые преобразователи (АЦП) используются действие перевода аналогового сигнала в цифровую форму.

АЦП измеряет аналоговую величину, разбивая ее по времени на отдельные отрезки (выборки). Размер выборки определяется величиной. что называется частотой выборки.

Числовое значение каждой выборки затем выражается в цифровом виде, например количеством импульсов. Поток цифровых данных с АЦП затем можно обработать на компьютере.

В цифровом виде информация сохранится лучше, поскольку при обработке импульсы не искажаются, тогда как в аналоговый сигнал может быть внесена препятствие.

Цифро-аналоговые преобразователи (ЦАП) выполняют противоположную функцию. Они превращают числа на непрерывный аналоговый сигнал.

Одной из областей применения ЦАП можно назвать проигрыватели CD, где они превращают цифровую информацию на звуковой сигнал.

Аналоговый сигнал в телефоне может быть превращен в последовательность импульсов. После этого сигнал не будет искажен или испорчен шумовыми помехами. Чтобы снова можно было слышать звук, импульсы в приемном аппарате превращаются в аналоговый сигнал.

10. Единицы измерения: байт, Кб, Мб, Гб...

ну что тут скажешь…..

1 Килобайт (Кбайт) = 1024 байт = 210 байт;

1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт;

1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт;

1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт;

1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

Единицы обработки: байт, слово, двойное слово ...

Понятия бита, байта и слова

Компьютеры оперируют данными, имеющими исключительно двоичное представление или кодирование. Независимо от того, как изображает входные данные пользователь (десятичные числа в различных формах, шестнадцатеричные числа, символьные цепочки и др.), они аппаратно и (или) программно преобразуются в цепочки (последовательности) двоичных цифр - единиц и нулей. При выводе данных осуществляется обратное преобразование двоичных цепочек в удобную для пользователя форму, например десятичные числа.

Бит. Двоичная цифра, имеющая всего два значения 1 и 0, называется битом (BInary digiT). С помощью двух битов можно представить четыре значения (кода) - 00, 01, 10 и 11; с помощью трех битов - восемь значений от 000 до 111 и т. д. Группа из и бит позволяет представить 2n значений или комбинаций - от 00...00 до 11...11.

Единицы данных. Во всех современных компьютерах важную роль играет представление данных группами по 8 бит, называемых байтами (byte - слог) и содержащими любую из 28=256 комбинаций. По существу, байт стал стандартной базовой единицей, из которой образуются все остальные единицы машинных данных. В зависимости от того, как интерпретируется содержимое байта, оно может быть: кодированным представлением символа внешнего алфавита, целым знаковым или беззнаковым числом, частью команды или более сложной единицы данных и т. д. Другими словами, интерпретацию байта определяет программист в зависимости от контекста своей программы.

Биты в байте нумеруются справа налево, начиная с ноля.

Трехбитная единица данных называется триадой. Она может содержать 8 комбинаций от 000 до 111. Триады используются только в восьмеричной системе счисления.

Четырехбитная единица данных называется тетрадой; она может содержать 16 различных комбинаций от 0000 до 1111. Применение тетрад ограничено упакованными десятичными числами.

Единица данных, состоящая из 16 бит или двух байт, называется словом. Слово может содержать любую из 216=65536 комбинаций. Для краткой записи больших ступеней числа два число 210= 1024 обозначается «К» и читается как приставка «кило», или, просто, как буква «к». По аналогии с нумерацией бит байты в слове также нумеруются справа налево, начиная с нуля: байт 0 является младшим, а байт 1 - старшим.

Следующая единица данных состоит из четырех байтов и называется двойным словом. Число возможных комбинаций в двойном слове составляет 232, что очень близко к 4 млрд. Число 220=1048576, близкое к миллиону, обозначают «М» и читают как приставку «мега», или как букву «м», а число 230 = 1 073 741 824, близкое к миллиарду, обозначают «Г» и читают как приставку «гига», или как букву «г».

Последняя из рассматриваемых единица данных состоит из 64 бит или 8 байт и называется счетверенным (длинным) словом. Число комбинаций в этой единице данных составляет 264 или более 1019.

Машинное слово. Основная или базовая единица данных, которой оперирует микропроцессор, называется машинным словом. Практически во всех микропроцессорах длина машинного слова кратка байту. Длина слова является важнейшей характеристикой микропроцессора и в соответствии с ней микропроцессоры подразделяются на 8-, 16- или 32-битные. В 16-битных микропроцессорах всегда есть команды обработки байтов, а в 32-битных микропроцессорах - команды операций с байтами и словами.

Программы и данные, к которым процессор имеет непосредственный доступ, хранятся в основной памяти, иногда называемой также оперативной памятью (запоминающим устройством).

12. Представление целых чисел без знака.
13. Представление знаковых целых чисел. Прямой код.
14. Представление отрицательных целых чисел. Дополнительный обратный код.

Ячейка – это часть памяти компьютера, вмещающая в себя информацию, доступную для обработки отдельной командой процессора.

Содержимое ячейки памяти называется машинным словом.

Ячейка памяти состоит из некоторого числа однородных элементов. Каждый элемент способен находиться в одном из двух состояний и служит для изображения одного из разрядов числа. Именно поэтому каждый элемент ячейки называют разрядом.

Нумерацию разрядов в ячейке принято вести справа налево, самый правый разряд имеет порядковый номер 0. Это младший разряд ячейки памяти, старший разряд имеет порядковый номер (n-1) в n-разрядной ячейке памяти.

Содержимым любого разряда может быть либо 0, либо 1.

Машинное слово для конкретной ЭВМ – это всегда фиксированное число разрядов. Данное число является одной из важнейших характеристик любой ЭВМ и называетсяразрядностью машины.

Например, самые современные персональные компьютеры являются 64-разрядным, то есть машинное слово и соответственно, ячейка памяти, состоит из 64 разрядов или битов.

Бит — минимальная единица измерения информации.

Каждый бит может принимать значение 0 или 1.

Битом также называют разряд ячейки памяти ЭВМ.

Стандартный размер наименьшей ячейки памяти равен восьми битам, то есть восьми двоичным разрядам. Совокупность из 8 битов является основной единицей представления данных – байт.

Байт (от английского byte – слог) – часть машинного слова, состоящая из 8 бит, обрабатываемая в ЭВМ как одно целое. На экране – ячейка памяти, состоящая из 8 разрядов – это байт. Младший разряд имеет порядковый номер 0, старший разряд – порядковый номер 7.

В байтовом алфавите байт является минимальной единицей информации, обрабатываемой в ЭВМ. Для записи чисел также используют 32-разрядный формат (машинное слово), 16-разрядный формат (полуслово) и 64-разрядный формат (двойное слово). Обратите внимание на нумерацию разрядов в ячейках памяти для представленных форматов данных.

Число 1024 как множитель при переходе к более высшей единице измерения информации имеет своим происхождением двоичную систему счисления (1024 — это десятая степень двойки).

Для целых чисел существуют два представления: беззнаковое (только для неотрицательных целых чисел) и со знаком. Очевидно, что отрицательные числа можно представлять только в знаковом виде.

Различие в представлении целых чисел со знаком и без знака вызвано тем, что в ячейках одного и того же размера в беззнаковом типе можно представить больше различных положительных чисел, чем в знаковом.

Например, в байте (8 разрядов) можно представить беззнаковые числа от 0 до 255.

Максимальное число, записанное в восьми разрядах ячейки соответствует восьми единицам и равно:

11111111= 1*27 + 1*26 + 1*25 + 1*24 + 1*23 + 1*22 + 1*21 + 1*20 = 255.

Таким образом, для беззнаковых типов нижняя граница диапазона значений всегда равна 0, а верхнюю границу диапазона допустимых значений можно подсчитать, зная количество разрядов, занимаемых элементами данного типа.

Верхняя граница диапазона допустимых значений для беззнаковых типов рассчитывается по формуле 2k – 1, где k – количество разрядов в ячейке

Знаковые положительные числа в байте можно представить только от 0 до 127.

Старший (левый) разряд отводится под знак числа, остальные

7 разрядов под само число. Максимальное число в знаковом представлении соответствует семи единицам и равно:

11111112 = 1*26 + 1*25 + 1*24 + 1*23 + 1*2 + 1*21 + 1*20 = 127.

Поэтому, если известно, что некоторая числовая величина является неотрицательной, то лучше рассматривать ее как беззнаковую.

Диапазон допустимых значений для знаковых типов рассчитывается по формулам:

Нижняя граница допустимых значений: 2k-1;

Верхняя граница допустимых значений: 2k-1 – 1, где k – количество разрядов в ячейке.

Рассмотрим алгоритм представления в компьютере целых положительных чисел.

Пример: Требуется получить внутреннее 8-разрядное представление десятичного числа 54.

1. Для этого целое положительное число переводится в двоичную систему счисления.

2. Полученное двоичное число записывается в 8 разрядах так, что в младшем разряде ячейки находится младший разряд числа.

3. Двоичное число дополняется, если это необходимо, слева нулями до соответствующего числа разрядов (8-ми, 16-ти, 32-х и более);

Мы рассмотрели компьютерное представление целых положительных чисел.

Следующий вопрос: как представляются в компьютере целые отрицательные числа.

В ЭВМ в целях упрощения выполнения арифметических операций применяютспециальные коды для представления чисел. Использование кодов позволяет свести операцию вычитания чисел к операции поразрядного сложения кодов этих чисел.

Применяются прямой, обратный и дополнительный коды чисел.

К кодам выдвигаются следующие требования:

1) Разряды числа в коде жестко связаны с определенной разрядной сеткой.

2) Для записи кода знака в разрядной сетке отводится фиксированный, строго определенный разряд.

Например, если за основу представления кода взят один байт, то для представления числа будет отведено 7 разрядов, а для записи кода знака один разряд. Знаковым разрядом является старший разряд в разрядной сетке.

Прямой код

Прямой код двоичного числа совпадает по изображению с записью самого числа. Значение знакового разряда для положительных чисел равно 0, а для отрицательных чисел 1.

Пример. В случае, когда для записи кода выделен один байт, для числа +1101 прямой код 0,0001101, для числа -1101 прямой код 1,0001101.

Обратный код

Обратный код для положительного числа совпадает с прямым кодом.

Для отрицательного числа все цифры числа заменяются на противоположные (1 на 0, 0 на 1), а в знаковый разряд заносится единица.

Пример.

Для числа +1101 прямой код 0,0001101; обратный код 0,0001101.

Для числа -1101 прямой код 1,0001101; обратный код 1,1110010.

Дополнительный код

Дополнительный код положительного числа совпадает с прямым кодом.

Для отрицательного числа дополнительный код образуется путем получения обратного кода и добавлением к младшему разряду единицы.

Пример.

Для числа +1101 Для числа -1101

прямой код 0,0001101; 1,0001101;

обратный код 0,0001101; 1,1110010.

дополнительный код:   0, 0001101 1,1110011

Итак, все целые отрицательные числа в компьютере представляются дополнительным кодом.

15. Алгебраическое сложение целых чисел.
16. Вычитание чисел (алгебраическое сложение).

18. Переполнение.


При переводе из дополнительного в прямой код происходит 1) инверсия цифр числа, 2)добавляется +1 в младший разряд инвертированного числа.
Арифметические действия над числами со знаком

В большинстве компьютеров операция вычитания не используется. Вместо нее производится сложение обратных или дополнительных кодов уменьшаемого и вычитаемого. Это позволяет существенно упростить конструкцию АЛУ. 

Сложение обратных кодов. Здесь при сложении чисел А и В имеют место четыре основных и два особых случая: 
^

Алгебраическое сложение



|A|<|B|


|A|>|B| или (A<0,B<0)

^

Обратный код




Дополнительный код




Если результат получен со знаком минус (с "1"), то результат необходимо преобразовать в прямой код!!!

^ 1. А и В положительные. При суммировании складываются все разряды, включая разряд знака. Так как знаковые разряды положительных слагаемых равны нулю, разряд знака суммы тоже равен нулю. Например:



Получен правильный результат. 

^ 2. А положительное, B отрицательное и по абсолютной величине больше, чем А. |A| < |B|

Например: 



Если результат получен со знаком минус с "1", то результат необходимо преобразовать в прямой код!!!

Получен правильный результат в обратном коде. При переводе в прямой код биты цифровой части результата инвертируются: 1 0000111 = -710

^ 3. А положительное, B отрицательное и по абсолютной величине меньше, чем А. |A| > |B|

Например: 



Компьютер исправляет полученный первоначально неправильный результат (6 вместо 7) переносом единицы из знакового разряда в младший разряд суммы. 

^ 4. А и В отрицательные. Например: 



Полученный первоначально неправильный результат (обратный код числа -1110 вместо обратного кода числа -1010) компьютер исправляет переносом единицы из знакового разряда в младший разряд суммы. При переводе результата в прямой код биты цифровой части числа инвертируются: 1 0001010 = -1010

При сложении может возникнуть ситуация, когда старшие разряды результата операции не помещаются в отведенной для него области памяти. Такая ситуация называется переполнением разрядной сетки формата числа. Для обнаружения переполнения и оповещения о возникшей ошибке в компьютере используются специальные средства. Ниже приведены два возможных случая переполнения. 

^ 5. А и В положительные, сумма А+В больше, либо равна 2n-1, где n — количество разрядов формата чисел (для однобайтового формата n=8, 2n-1 = 27 = 128). Вариант переполнения. 

Например: 



Семи разрядов цифровой части числового формата недостаточно для размещения восьмиразрядной суммы (16210 = 101000102), поэтому старший разряд суммы оказывается в знаковом разряде. Это вызывает несовпадение знака суммы и знаков слагаемых, что является свидетельством переполнения разрядной сетки

^ 6. А и В отрицательные, сумма абсолютных величин А и В больше, либо равна 2n-1. Вариант переполнения.

Например: 



Здесь знак суммы тоже не совпадает со знаками слагаемых, что свидетельствует о переполнении разрядной сетки
Сложение дополнительных кодов. Здесь также имеют место рассмотренные выше шесть случаев: 

^ 1. А и В положительные. Здесь нет отличий от случая 1, рассмотренного для обратного кода. 

2. А положительное, B отрицательное и по абсолютной величине больше, чем А. 

Например: 



Получен правильный результат в дополнительном коде. При переводе в прямой код биты цифровой части результата инвертируются и к младшему разряду прибавляется единица: 1 0000110 + 1 = 1 0000111 = -710

^ 3. А положительное, B отрицательное и по абсолютной величине меньше, чем А. 

Например: 



Получен правильный результат. Единицу переноса из знакового разряда компьютер отбрасывает. 

^ 4. А и В отрицательные. Например: 



Получен правильный результат в дополнительном коде. Единицу переноса из знакового разряда компьютер отбрасывает
Случаи переполнения для дополнительных кодов рассматриваются по аналогии со случаями 5 и 6 для обратных кодов. 

^ Сравнение рассмотренных форм кодирования целых чисел со знаком показывает: 

  1.  
    на преобразование отрицательного числа в обратный код компьютер затрачивает меньше времени, чем на преобразование в дополнительный код, так как последнее состоит из двух шагов — образования обратного кода и прибавления единицы к его младшему разряду; 
  2.  
    время выполнения сложения для дополнительных кодов чисел меньше, чем для их обратных кодов, потому что в таком сложении нет переноса единицы из знакового разряда в младший разряд результата. 



ВАЖНО: Результат всегда представляется в том виде, в котором представлены исходные операнды.

17. Умножение чисел (сложение и сдвиг).

Умножение — это многократно повторенная операция сложения. Но этот тип умножения не нашел широкого распространения из—за малого быстродействия. Практически используемым способом умножения является способ сложений со сдвигами (способ сдвига и сложения).

Пример на умножение двоичных чисел:

Установим 3 важных факта:

1. Частичное произведение всегда равно 000, если множитель равен нулю, и равно множимому, если множитель равен 1.

2. При сложении первое частичное произведение сдвигается на одну позицию (разряд) вправо по отношению ко второму частичному произведению.

3. Число разрядов в регистре произведения должно быть в 2 раза больше числа разрядов в регистре множимого.

19. Представление вещественных чисел (нормализованный вид, мантисса, порядок).

Представление вещественных чисел в компьютере.



Для представления вещественных чисел в современных компьютерах принят способ представления с плавающей запятой. Этот способ представления опирается на нормализованную (экспоненциальную) запись действительных чисел.
Как и для целых чисел, при представлении действительных чисел в компьютере чаще всего используется двоичная система, следовательно, предварительно десятичное число должно быть переведено двоичную систему.

Нормализованная запись числа.


Нормализованная запись отличного от нуля действительного числа - это запись вида a=  m*Pq, где q - целое число (положительное, отрицательное или ноль), а m - правильная P-ичная дробь, у которой первая цифра после запятой не равна нулю, то есть . При этом m называется мантиссойчисла, q - порядком числа.

Примеры:

  1.  3,1415926 = 0, 31415926 * 101;
  2.  1000=0,1 * 104;
  3.  0,123456789 = 0,123456789 * 100;
  4.  0,00001078 = 0,1078 * 8-4; (порядок записан в 10-й системе)
  5.  1000,00012 = 0, 100000012 * 24.


Так как число ноль не может быть записано в нормализованной форме в том виде, в каком она была определена, то считаем, что нормализованная запись нуля в 10-й системе будет такой:
0 = 0,0 * 100.

Нормализованная экспоненциальная запись числа - это запись вида a=  m*Pq, где q - целое число (положительное, отрицательное или ноль), а m - P-ичная дробь, у которой целая часть состоит из одной цифры. При этом (m-целая часть) называется мантиссой числа, q - порядком числа.

Представление чисел с плавающей запятой.


При представлении чисел с плавающей запятой часть разрядов ячейки отводится для записи порядка числа, остальные разряды - для записи мантиссы. По одному разряду в каждой группе отводится для изображения знака порядка и знака мантиссы. Для того, чтобы не хранить знак порядка, был придуман так называемый смещённый порядок, который рассчитывается по формуле 2a-1+ИП, где a - количество разрядов, отводимых под порядок.

Пример:
Если истинный порядок равен -5, тогда смещённый порядок для 4-байтового числа будет равен 127-5=122.

Алгоритм представления числа с плавающей запятой.


  1.  Перевести число из p-ичной системы счисления в двоичную;
  2.  представить двоичное число в нормализованной экспоненциальной форме;
  3.  рассчитать смещённый порядок числа;
  4.  разместить знак, порядок и мантиссу в соответствующие разряды сетки.


Пример:
Представить число -25,625 в машинном виде с использованием 4 байтового представления (где 1 бит отводится под знак числа, 8 бит - под смещённый порядок, остальные биты - под мантиссу).

2510=1000112
0,62510=0,1012
-25,62510= -100011,1012
2. -100011,1012 = -1,000111012 * 24
3. СП=127+4=131
4.

Можно заметить, что представление действительного числа не очень удобно изображать в двоичной системе, поэтому часто используют шестнадцатеричное представление:

Окончательный ответ: C1CD0000.




1. Масштаб определяется системой членений соотношением частей и целого и является средством повышения эмоцио
2. 201г Мы в дальнейшем Продавец и
3. УРАЛЬСКИЙ ФИНАНСОВОЮРИДИЧЕСКИЙ ИНСТИТУТ Юридический факультет
4. тематическому анализу Выполнил- Морозов Н
5.  Автор ~ это физическое лицо творческим трудом которого создан объект интеллектуальной собственности
6. НарКом 19981999 язык- russin НарКом Вопросы профилактики аддик
7. Огонь друг или враг Правила пожарной безопасности Классный руководитель- Плотникова О
8. Мотивация персонала
9. Під часколи українське життя в Росії штучно руйнувалося спинялося заморожувалося всіма способами галиць
10. Контрольная работа- Политические традиции в России
11. Спочатку було Слово зазначено в Біблії
12. Организация контроля за персоналом в учреждении
13. на тему МАССОВАЯ И ЭЛИТАРНАЯ КУЛЬТУРА Выполнил студент гр
14. Кутузов
15. РЕФЕРАТ дисертації на здобуття наукового ступеня кандидата медичних наук м
16. реферат дисертації на здобуття наукового ступеня кандидата технічних наук Харків 2001 Д
17. вооруженная борьба между социальными группами во главе с большевиками пришедшими к власти в результате Окт
18. Номер задания соответствует порядковому номеру в списке группы 16
19. это жидкая ткань организма выполняющая важные биологические функции
20. Перераспределение переводов в семиосфере