Будь умным!


У вас вопросы?
У нас ответы:) SamZan.net

Лекция 1 1 Что изучает информатика

Работа добавлена на сайт samzan.net:


ИНФОРМАТИКА

Лекция 1

1. Что изучает информатика. Понятие интерфейса

Информа́тика (ср. со сходными по звучанию и происхождению  нем.  Informatik  и  фр.  Informatique, в противоположность традиционному англоязычному термину англ. computer science — компьютерные науки  — в США или англ. computing science — вычислительная наука — в Британии) есть наука о вычислениях, хранении и обработке  информации. Она включает дисциплины, так или иначе относящиеся к вычислительным машинам:  как абстрактные, вроде анализа алгоритмов, так и довольно конкретные, например, разработка языков программирования.

Отдельной наукой информатика была признана лишь в 1970-х; до этого она развивалась в составе математики, электроники и других технических наук. С момента своего признания отдельной наукой информатика разработала собственные методы и терминологию.

Первый факультет информатики был основан в 1962 году в университете Пёрдью (Purdue University). Сегодня факультеты и  кафедры  информатики имеются в большинстве  университетов  мира.

Существует много определений информатики. Одно из них такое.

Информатикаэто техническая наука, систематизирующая приемы создания, хранения, обработки и передачи информации средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.

Из определения  следует, что предмет информатики составляют:

  1.  аппаратное обеспечение вычислительной системы1;
  2.  программное обеспечение вычислительной системы;
  3.  средства взаимодействия аппаратного обеспечения;
  4.  средства взаимодействия программного обеспечения;
  5.  средства взаимодействия аппаратного и программного обеспечения;
  6.  средства взаимодействия человека с аппаратным и программным обеспечением.

Средства взаимодействия, сопряжения между действующими объектами вычислительной системы занимают особое место в информатике.

Интерфейсом называется   совокупность аппаратных и программных средств, используемых для создания связи, сопряжения между взаимодействующими объектами вычислительной системы.

Интерфейсом называется также и сам процесс взаимодействия, сопряжения, установления связи между действующими объектами.

Согласно п.п. 3, 4, 5, 6 (см. выше) интерфейс бывает аппаратный, программный, аппаратно-программный и пользовательский.

Слово интерфейс состоит из двух английских слов: inter – между, face – лицо, внешний вид. Буквально «между лицами». В одном из справочников по вычислительной технике дано определение интерфейса как «установление границ между взаимодействующими  объектами».

2. Понятие информации и ее измерение

Данные и информация

Понятие информация является одним из фундаментальных в современной науке и базовым для информатики. Дать точного определения информации нельзя, как нельзя дать определение точке в геометрии. В таких случаях пользуются понятиями. Наряду с такими понятиями, как вещество и энергия, пространство и время, оно составляет основу современной картины мира, ее относят к фундаментальным философским категориям.

В популярной или научной литературе нет (и быть не может) универсальных определений этих понятий. Можно говорить лишь о некоторых подходах, разделяемых или не разделяемых различными авторами. 

Один из подходов такой. Материальный мир состоит из физических тел и полей. Они находятся в состоянии непрерывного движения и взаимодействия. Взаимодействие может происходить при непосредственном контакте или на расстоянии.  Взаимодействия тел сопровождается изменением энергии, вызывает изменения физических свойств тел и полей.

Назовем данными зафиксированные изменения физических свойств тел и полей. Данные – объективны, так как  несут в себе информацию о событиях, произошедших в материальном мире.

Для того чтобы извлечь информацию из данных, необходимо наличие адекватного (соответствующего) метода, с помощью которого следует обработать данные. В отличие от данных метод всегда субъективен, т.к. он придумывается, разрабатывается человеком. Поэтому информация есть продукт взаимодействия данных и адекватных им методов. Информация появляется именно в момент такой обработки, взаимодействия данных и методов.

Из всего этого следует, что информация всегда хранится в виде данных. Но иногда понятие данные подменяется понятием информация. И еще одно замечание. Понятие данные тесно связано с процессом кодирования информации. Можно еще сказать, что данные – это закодированная информация.

Информацию следует считать особым видом ресурса, т.е. запаса некоторых сведений об объекте. Однако, в отличие от материальных ресурсов, информация является неистощимым ресурсом и предполагает существенно иные методы воспроизведения и обновления.

Понятие информации многозначно.

В философском словаре говорится, что информация (лат. informatio — разъяснение, изложение) — это, во-первых, некоторые сведения, совокупность каких-либо данных, знаний; во-вторых — одно из основных понятий кибернетики.

В неживой природе понятие информации связывают с понятием отражения, отображения.

В быту под информацией понимают сведения, которые нас интересуют. Информация для человека — это знания, которые он получает из различных источников. С помощью всех своих органов чувств человек получает информацию из внешнего мира.

В лингвистике под информацией понимают не любые сообщения, а только те из них, которые обладают новизной или полезностью, т.е. учитывается смысл сообщения.

Под информацией в технике понимают сообщения, передаваемые в форме знаков или сигналов.

В теории связи под информацией принято понимать любую последовательность символов, не учитывая их смысл.

В теории информации под информацией понимают не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность. По определению К. Шеннона, информацияэто снятая неопределенность.

Под информацией в кибернетике понимается любая совокупность сигналов, воздействий или сведений, которые некоторая система воспринимает от окружающей среды (входная информация), выдает в окружающую среду (выходная информация) или, наконец, хранит в себе (внутренняя, внутрисистемная информация).

Еще один подход к определению информации такой: средства вычислительной техники обладают способностью обрабатывать информацию автоматически, без участия человека, и ни о каком знании или незнании здесь речь идти не может. Эти средства могут работать с искусственной, абстрактной и даже ложной информацией, не имеющей объективного отражения ни в природе, ни в обществе.

Свойства информации

  •  запоминаемость — возможность хранения информация;
  •  передаваемость — способность информации к копированию;
  •  воспроизводимость — неиссякаемость: при копировании информация остается тождественной самой себе;
  •  преобразуемость — преобразование информации связанное с ее уменьшением;
  •  стираемость — преобразование информации, когда ее количество становится равным нулю;
  •  объективность и субъективность — информация объективна, если она не зависит от чьего-либо мнения, суждения;
  •  достоверность — информация достоверна, если она отражает истинное положение дел;
  •  полнота — характеризует качество информации и определяет достаточность данных для принятия решений или для создания новых данных на основе имеющихся;
  •  адекватность — степень соответствия реальному объекту;
  •  доступность — мера возможности получить ту или иную информацию;
  •  актуальность — степень соответствия информации текущему моменту времени.

Информация может быть непрерывной и дискретной.

Измерение информации

Существует несколько способов измерения информации:

  1.  Объемный (технический). Каждый символ языка кодируется определенной последовательностью бит, и затем подсчитывается полное количество бит в сообщении. Смысловое содержание сообщения в этом случае не играет никакой роли. В прикладной информатике практически всегда количество информации понимается в объемном смысле.

Единицей информацией в этом случае является бит (от английского binary digit – двоичное число, разряд). Бит также можно определить как  единицу представления информации в компьютере.

Бит принимает два значения: 0 или 1. Именно эти два значения (0 и 1) используются как цифры (и числа) в двоичной позиционной системе счисления, которая используется в компьютере.

Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица —  байт,  равная  восьми битам. Байт используется для кодирования информации в компьютере.

Поэтому байт можно определить как двоичное слово длиной в 8 бит, используемое для кодирования информации, и как единицу обработки информации в компьютере. 

В теории информации доказывается следующая лемма.

Лемма 1. Число  различных двоичных слов длины I равно 2I.

 Если число различных слов обозначить N, то получаем формулу:

                                           N = 2I                           (1)

Если I = 8, то байтами можно закодировать 28 = 256 символов, так как согласно лемме 1 именно столько существует двоичных слов (байт) длиной в 8 бит.

Широко используются также ещё более крупные производные единицы информации:

  •  1 Килобайт (Кбайт) = 1024 байт = 210 байт,
  •  1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,
  •  1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

  •  1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,
  •  1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.
  1.  Алгоритмический. В данном методе количественная характеристика сообщения (информации) определяется сложностью программы, воспроизводящей это сообщение: компьютерная программа, воспроизводящая сообщение из одних нулей крайне проста: печатать один и тот же символ; для получения сообщения 010101…01 нужна чуть более сложная программа, печатающая символ, противоположный только что напечатанному; случайная, не обладающая никакими закономерностями, последовательность не может быть воспроизведена никакой короткой программой (длина программы близка к длине этой последовательности). То есть количество информации в сообщении можно определить сложностью программы, воспроизводящей это сообщение. Так как имеется много разных вычислительных машин и разных языков программирования, то для определенности задаются некоторой вычислительной машиной, например, машиной Тьюринга, а количество информации в сообщении определяется как минимальное число внутренних состояний машины Тьюринга, необходимое для воспроизведения этого сообщения.
  2.  Вероятностный.   Вероятностный способ измерения информации основан на том, что количество информации, содержащееся в сообщении, определяют как величину уменьшения неопределённости наших знаний об объекте без учета какого-либо смысла сообщения. Эти подходы используют математические понятия  вероятности  и  логарифма. 

Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N:

                       I = log2 N ,                               (2)

где N - количество равновероятных событий; I - количество бит в сообщении о событии, которое произошло из N событий. Тогда после потенцирования из формулы (2) получаем:

                                             N=2I                                   (3)

Сравните эту формулу с формулой (1). Формулы полностью идентичны. И получается, что длина двоичного слова, которым может быть закодирована информация, у Хартли – количество информации, содержащееся в сообщении.

Иногда формулу Хартли записывают так:             

I = log2 N = log2 (1/р) = – log2 р,

 т. к. каждое из N событий  имеет равновероятный исход р = 1/N, то N=1/р.

   В 1948 г. американский инженер и математик К. Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями:

I =

Она стала не менее распространенной, чем знаменитая формула Эйнштейна Е = mc2. Оказалось, что формула, предложенная Хартли, представляет собой частный случай более общей формулы Шеннона. Если в формуле Шеннона принять, что р1 = p2 = ... = рi = ... =pN = 1/N, то

I = –        (4)

В качестве единицы информации Клод Шеннон предложил принять  один  бит.

Обосновать эту единицу информации можно так. Из формулы (4) следует, что количество информации I уменьшается с уменьшением количества возможных событий N. Если принять N =1, то количество информации равно 0, т. к. мы априори (заранее) знаем, что произойдет только это одно событие. И из формулы (4) при N = 1 при любом основании логарифма I = 0.

При  N = 2 оно не будет равно нулю и будет наименьшим. То есть в этом случае имеем два разных равновероятных события. При совершении одного из них наше незнание уменьшится в два раза. И мы, действительно,  получим единицу информации I = 1, если в формуле (4) при N = 2 за основание логарифма примем 2, так как  log2 2 = 1.

Отсюда следует такое определение бита как единицы количества информации:

Бит – это такое количество информации, которое содержит сообщение, уменьшающее  неопределенность знания в два раза. Это и есть единица информации.

Кодирование данных в компьютере

Чтобы легче было обрабатывать данные, их следует привести к одному виду, т. е. унифицировать форму их представления.  Для этого используется кодирование. 

Кодированиеэто представление одного типа данных через другой. 

Способов кодирования существует великое множество. Наиболее часто используется символьный способ кодирования. Самый известный и распространенный способ кодирования человеческой речи – это кодирование с помощью азбук. В качестве других способов кодирования можно назвать азбуку Морзе (точка, тире), код Брайля для слепых, код морской сигнальный (положение рук с флажками), ноты для кодирования музыки.

Компьютер – это электронный прибор, предназначенный для автоматизации создания, хранения, обработки и транспортировки данных.

Буквальный перевод английского слова computer – вычислитель, счетная машина. А если компьютер – вычислитель, то, следовательно, компьютер имеет дело с обработкой чисел.

Числа эти двоичные, ибо при создании компьютера  в основу его работы положена двоичная позиционная система счисления. В ней для изображения любого числа используются только две цифры 0 или 1. Для запоминания этих цифр в компьютере надо создать элемент памяти, который бы имел два устойчивых состояния. Примеры таких состояний: напряжение тока в полупроводнике есть – это 1, напряжения нет – это 0; частичка магнитного покрытия намагничена – это 1, не намагничена  – 0. То есть технически это реализовать просто.

При использовании десятичной системы счисления используются десять цифр (0, 1, 2, 3, 4, 5, 6, 7, 8, 9) и  элемент памяти должен  иметь 10 устойчивых состояний. В этом случае устройства памяти будет значительно сложнее.

Просты также правила арифметических операций над двоичными числами. И, наконец, логические выражения, используемые в компьютерных программах, могут принимать только два значения истина или ложь (да или нет). Этим двум значениям также можно поставить в соответствие числа 1 или 0.

Кодирование целых и действительных чисел

Целые числа кодируются двоичным кодом достаточно просто — достаточно взять целое число и делить его пополам до тех пор, пока в остатке не образуется ноль или единица. Полученный результат деления снова так же делить. И эту процедуру деления продолжаем до тех пор, пока результат деления не окажется меньше 2. Совокупность остатков от каждого деления, записанная справа налево вместе с последним остатком, и образует двоичный аналог десятичного числа.

19:2 = 9 + 1            9:2=4+1    4:2=2+0         2:2 = 1

Таким образом, 1910 = 10112.

Для кодирования целых чисел от 0 до 255 достаточно иметь 8 разрядов двоичного кода (8 бит). Шестнадцать бит позволяют закодировать целые числа от 0 до 65 535, а 24 бита — уже более 16,5 миллионов разных значений.

Для кодирования действительных чисел используют 80-разрядное кодирование. При этом число предварительно преобразуется в нормализованную форму:

3,1415926 = 0,31415926-101

300 000 = 0,3-106

123 456 789 = 0,123456789 • 109

Первая часть числа называется мантиссой, а вторая — характеристикой. Большую часть из 80 бит отводят для хранения мантиссы (вместе со знаком) и некоторое фиксированное количество разрядов отводят для хранения характеристики (тоже со знаком).

Кодирование текстовых данных

С помощью байтов, 8-ми разрядных двоичных чисел, кодируются все буквы, цифры, символы печати. Байтами всего можно закодировать 28 = 256 символов.

Таблица соответствия символов печати (букв, цифр, знаков печати) их кодам называется кодовой таблицей.

Во времена, когда не было установлено стандартов в  кодировании данных, кодовых таблиц было много, разные у них были и названия.

Сейчас кодовая таблица имеет название ASCII. Она состоит из двух частей – базовой и расширенной. В каждой части используются следующие коды:

Базовая часть ASCII (коды 0 – 127)

Коды   0 – 32 используются для управления компьютером.

Коды 33 – 127 используются для кодирования английского

алфавита, цифр 0 ÷ 9, символов печати,

математических символов и знаков.

Расширенная часть ASCII (коды 128 – 255)

Коды 128 – 255 используются для кодирования национальных

алфавитов.

Кодирование текстовых данных одним байтом не позволяет кодировать тысячи китайских и японских иероглифов. Но использование универсальной кодировки UNICODE, в которой применяется для кодирования одного символа 2 байта, позволяет закодировать и тысячи иероглифов. Действительно, два байта – это 16-ти разрядное число и двумя байтами можно закодировать 216 = 65536 символов.

Кодировки русского алфавита имеют названия Windows 1251 (разработка Microsoft для нас), КОИ-8 (Код Обмена Информации восьмибитовый).

Загрузив приложение Word и подключив дополнительную клавиатуру справа, после набора десятичного значения двоичного кода кодировочной таблицы ASCII на этой клавиатуре при нажатой клавише Alt можно узнать символ, соответствующий этому коду.

Кодирование графических данных

Любой рисунок, серый, монохромный или цветной, состоит из совокупности точек, которые и образуют изображение. Это совокупность называется растром. Растр легко можно разглядеть с помощью увеличительного стекла. Каждая точка имеет свой цвет, если рисунок цветной, или разный оттенок серого цвета, если рисунок монохромный, черно-белый.

Для кодирования черно-белых рисунков, иллюстраций достаточно использовать байты, т. е. восьмиразрядные двоичные числа. Использование 256 оттенков серого цвета оказывается вполне достаточным, чтобы получить качественные черно-белые иллюстрации.

При кодировании цветных графических изображений применяется принцип декомпозиции любого цвета на основные составляющие. За такие основные составляющие приняты красный (Red), зеленый (Green) и синий (Blue). Эта система кодирования называется по первым буквам цветов RGB. Смешивая эти 3 цвета (с их оттенками), можно получить практически любой цвет. RGB(255,255,255) –белый, RGB(0,0,0) – черный цвет.

Для кодирования каждого цвета используется один байт. Поэтому каждый основной цвет из трех имеет 256 оттенков. Если цвет одной точки получаем из трех цветов, то для кодирования цвета одной точки используется 3 байта, т. е. 24-х разрядное двоичное число. Таким образом, всего получим 224 ≈ 16,5 млн. различных цветов. Этот цветовой режим называется полноцветным (True Color).

При программировании на Visual Basic используется функция RGB, которая позволяет окрашивать контуры графических фигур. Примеры этой функции: RGB (230, 134, 89), RGB (255, 0, 0). В последнем случае контур фигуры будет красного цвета.

Другой режим имеет аббревиатуру CMYK. За основные приняты цвета:

голубой (Cyan, C), получается после «смешивания» зеленого и синего, для его получения надо записать функцию RGB (0, 255, 255);

пурпурный (Magenta, M), получается после «смешивания» красного и синего RGB (255, 0, 255);

желтый (Yellow, Y),  получается после «смешивания» красного и зеленого RGB (255, 255, 0);

черный (Black, K), получаем так: RGB(0, 0, 0); принята буква К, так как буква В используется для обозначения синего цвета.

Функция RGB задает белый цвет так  RGB(255, 255, 255).

Кодирование звуковой информации

Стандартов на кодирование звуковой информации двоичным кодом нет. Существуют отдельные корпоративные стандарты. Способы работы со звуком и видео получили название мультимедийных технологий.

Имеется два основных метода кодирования звука.

Метод FM (Frequency Modulation) – метод частотной модуляции. В нем используется разложение сложного звука на последовательность простейших гармонических сигналов разной частоты. Гармонический сигнал представляет собой правильную синусоиду, которую можно описать набором числовых параметров – амплитуды, фазы и частоты.

Преобразование звука в цифровую форму или оцифровывание звука происходит следующим образом.  В природе звуковые сигналы являются аналоговыми, т. е. непрерывными. В компьютере непрерывный звуковой сигнал заменяется дискретным и значение параметров, определяющих звуковые характеристики, определяются  только в некоторые фиксированные моменты времени. Количество отсчетов сигнала в единицу времени называется частотой дискретизации, которую принимают равной 8, 11, 22 и 44 кГц. Например, частота дискретизации в 22 килогерца означает, что одна секунда непрерывного звучания заменяется набором из двадцати двух тысяч отдельных отсчетов сигнала. Чем выше частота дискретизации, тем лучше качество оцифрованного звука.

Качество преобразования звука в цифровую форму определяется также количеством битов памяти, используемых для записи амплитуды, фазы и частоты для одного дискретного значения времени. Этот параметр принято называть разрядностью преобразования. В настоящее время используется разрядность 8 бит 16 или 24 бит.

Аналогово-цифровые преобразователи (АЦП) выполняют разложение аналоговых сигналов в гармонические ряды, которые кодируются в виде  дискретных цифровых сигналов. Обратное преобразование для воспроизведения звука, закодированного числовым кодом, выполняют цифро-аналоговые преобразователи (ЦАП). При таких преобразованиях неизбежны потери информации, связанные с методом кодирования, поэтому качество звукозаписи обычно получается не вполне удовлетворительным и соответствует качеству звучания простейших электромузыкальных инструментов с окрасом, характерным для электронной музыки. В то же время данный метод кодирования обеспечивает весьма компактный код, и потому он нашел применение еще в те годы, когда ресурсы средств вычислительной техники были явно недостаточны.

Метод таблично-волнового (Wave-Table) синтеза лучше соответствует современному уровню развития техники. Если говорить упрощенно, то можно сказать, что где-то в заранее подготовленных таблицах хранятся образцы звуков для множества различных музыкальных инструментов (хотя не только для них). В технике такие образцы называют сэмплами. Числовые коды выражают тип инструмента, номер его модели, высоту тона, продолжительность и интенсивность звука, динамику его изменения, некоторые параметры среды, в которой происходит звучание, а также прочие параметры, характеризующие особенности звука. Поскольку в качестве образцов используются «реальные» звуки, то качество звука, полученного в результате синтеза, получается очень высоким и приближается к качеству звучания реальных музыкальных инструментов.

Используются следующие форматы кодирования звука.

Формат WAV (от WAVeform-audio — волновая форма аудио) кодирования звука. Получить запись звука в этом формате можно от подключаемых к компьютеру микрофона, проигрывателя, магнитофона, телевизора и других стандартно используемых устройств работы со звуком. Однако формат WAV требует очень много памяти. Так, при записи стереофонического звука с частотой дискретизации 44 килогерца и разрядностью 16 бит — параметрами, дающими хорошее качество звучания, — на одну минуту записи требуется около десяти миллионов байтов памяти.

Широко применяется также формат с названием MIDI (Musical Instruments Digital Interface — цифровой интерфейс музыкальных инструментов). Фактически этот формат представляет собой набор инструкций, команд так называемого музыкального синтезатора — устройства, которое имитирует звучание реальных музыкальных инструментов. Команды синтезатора фактически являются указаниями на высоту ноты, длительность ее звучания, тип имитируемого музыкального инструмента и т. д. Таким образом, последовательность команд синтезатора представляет собой нечто вроде нотной записи музыкальной мелодии. Получить запись звука в формате MIDI можно только от специальных электромузыкальных инструментов, которые поддерживают интерфейс MIDI. Формат MIDI обеспечивает высокое качество звука и требует значительно меньше памяти, чем формат WAV.

Форматы кодирования видеоинформации

Кодирование видеоинформации еще более сложная проблема, чем кодирование звуковой информации, так как нужно позаботиться не только о дискретизации непрерывных движений, но и о синхронизации изображения со звуковым сопровождением. В настоящее время для этого используется формат, которой называется AVI (Audio-Video Interleaved – чередующееся аудио и видео).

Для уменьшения объема памяти видеоинформации применяются различные способы компрессии, то есть сжатия звуковых и видеокодов.

Стандартными стали способы сжатия, предложенные MPEG (Moving Pictures Experts Group — группа экспертов по движущимся изображениям). В частности, стандарт MPEG-1 описывает несколько популярных в настоящее время форматов записи звука.

При записи в формате МР-3 при практически том же качестве звука требуется в десять раз меньше памяти, чем при использовании формата WAV. Существуют специальные программы, которые преобразуют записи звука из формата WAV в формат МР-3.

Стандарт MPEG-2 описывает методы сжатия видеозаписей, которые обеспечивают телевизионное качество изображения и стереозвуковое сопровождение и имеют приемлемые требования к памяти.

Стандарт MPEG-4, разработанный недавно, позволяет записать полнометражный цветной фильм со звуковым сопровождением на компакт-диск обычных размеров и качества.


2. Вычислительная техника

Принципы фон Неймана и работа компьютера

В 1945г знаменитый математик фон Неймана в своем докладе, посвященном вычислительной машине ENIAC, разработанной американцами Джоном Мочли и Проспером Эккертом, сформулировал общие принципы функционирования универсальных вычислительных устройств, т. е. компьютеров.

Первый компьютер, в котором были воплощены принципы фон Неймана, был построен в 1949 г. английским исследователем Морисом Уилксом. С той поры компьютеры стали гораздо более мощными, но подавляющее большинство из них сделано в соответствии с теми принципами, которые изложил в своем докладе в 1945г. Джон фон Нейман.

В основу построения подавляющего большинства ЭВМ положены следующие общие принципы.

Принцип двоичного кодирования

Согласно этому принципу, вся информация, поступающая в ЭВМ, кодируется с помощью двоичных сигналов.

Принцип программного управления

Из него следует, что программа состоит из набора команд, которые выполняются процессором автоматически друг за другом в определенной последовательности.

Принцип однородности памяти

Программы и данные хранятся в одной и той же памяти. Поэтому ЭВМ не различает, что хранится в данной ячейке памяти - число, текст или команда. Над командами можно выполнять такие же действия, как и над данными.

Принцип адресности

Структурно основная память состоит из пронумерованных ячеек; процессору в произвольный момент времени доступна любая ячейка. Отсюда следует возможность давать имена областям памяти, так, чтобы к запомненным в них значениям можно было бы впоследствии обращаться или менять их в процессе выполнения программы с использованием присвоенных имен.

В своем докладе Джон фон Нейман описал, как должен быть устроен компьютер для того, чтобы он был универсальным и эффективным устройством для обработки информации.

Прежде всего, компьютер должен иметь следующие устройства:

арифметическо-логическое устройство, выполняющее арифметические и логические операции;

устройство управления, которое организует процесс выполнения программ;

запоминающее устройство, или память для хранения программ и данных;

внешние устройства для ввода-вывода информации.

Память компьютера должна состоять из некоторого количества пронумерованных ячеек, в каждой из которых могут находиться или обрабатываемые данные, или инструкции программ. Все ячейки памяти должны быть одинаково легко доступны для других устройств компьютера.

Вот каковы должны быть связи между устройствами компьютера (одинарной линии показывают управляющие связи, двойные — информационные).

В общих чертах работу компьютера можно описать так. Вначале с помощью внешнего устройства в память компьютера вводится программа. Устройство управления считывает содержимое ячейки  памяти, где находится первая инструкция (команда) программы, и организует ее выполнение. Эта команда может задавать выполнение арифметических или логических операций, чтение из памяти данных для выполнения арифметических или логических операций или запись их результатов в память, ввод данных из внешнего устройства в память или вывод данных из памяти на внешнее устройство.

Как правило, после выполнения одной команды устройство управления начинает выполнять команду из ячейки памяти, которая находится непосредственно за только что выполненной командой. Однако этот порядок может быть изменен с помощью команд передачи управления (перехода). Эти команды указывают устройству управления, что ему следует продолжить выполнение программы, начиная с команды, содержащейся в некоторой другой ячейке памяти. Такой «скачок», или переход, в программе может выполняться не всегда, а только при выполнении некоторых условий, например, если некоторые числа равны, если в результате предыдущей арифметической операции получился нуль и т.д. Это позволяет использовать одни и те же последовательности команд в программе много раз (т.е. организовывать циклы), выполнять различные последовательности команд в зависимости от выполнения определенных условий и т.д., т.е. создавать сложные программы.

Таким образом, управляющее устройство выполняет инструкции программы автоматически, т.е. без вмешательства человека. Оно может обмениваться информацией с оперативной памятью и внешними устройствами компьютера. Поскольку внешние устройства, как правило, работают значительно медленнее, чем остальные части компьютера, управляющее устройство может приостанавливать выполнение программы до завершения операции ввода-вывода с внешним устройством. Все результаты выполненной программы должны быть ею выведены на внешние устройства компьютера, после чего компьютер переходит к ожиданию каких-либо сигналов внешних устройств.

Машины, построенные на этих принципах, называются ФОН-НЕЙМАНОВСКИМИ.

Следует заметить, что схема устройства современных компьютеров несколько отличается от приведенной выше. В частности, арифметическо-логическое устройство и устройство управления, как правило, объединены в единое устройство — центральный процессор. Кроме того, процесс выполнения программ может прерываться для выполнения неотложных действий, связанных с поступившими сигналами от внешних устройств компьютера — прерываний. Многие быстродействующие компьютеры осуществляют параллельную обработку данных на нескольких процессорах. Тем не менее, большинство современных компьютеров в основных чертах соответствуют принципам, изложенным фон Нейманом.

1 компьютер с различным составом оборудования

PAGE  7


Арифметич
еско-логическое

устройство

стройство

управления

Внешние

устройства

Оперативная

память




1.  Устройство и принцип работыДля начала определимся что такое автомобильная подвеска
2. Дед Мороз против никотина и алкоголя
3. Нефтеоборудование Особенности получения аудиторских доказательств при аудите малых предприятий
4. на тему германопольских отношений 19381939 годов
5. на тему- Влияние круглогодового стойлового содержания коров на их оплодотворяемость на массу новорожденны
6. Театр комедии Дель Арт
7. Тема 5. Прийняття рішень у міжнародних корпораціях 1
8. Разработка технологии по изготовлению книжного издания по искусству1
9. зубная бляшка как дословный перевод с аналогичного английского термина скопление бактерий в виде плён
10. Informcomu Заранее Вам благодарны Мы оперативно отреагируем на Ваши сообщения
11. тонкого Webклиента Влияние архитектуры Webприложения на объемы инвестиций жизненный цикл продукта и п
12. При этом примесный оксид углерода должен содержаться в количествах допускающих использование водорода в то
13. тема проверенных на практике достоверных знаний и в то же время особая область деятельности духовного прои
14. Разработка термостата и канала обработки аналогового сигнала
15. Оболочки почки- фиброзная капсула жировая капсула образующая на задн повти почки жиров тело фасциальная
16. экономического развития мирового сообщества важной проблемой является надежное обеспечение населения план
17. На тему- Основные направления оплаты труда на коммерческом предприятии
18. Карта цвета рекламной промостойки Приложение В
19. Разработка технологического процесса изготовления вала
20. С днём рожденья