Будь умным!


У вас вопросы?
У нас ответы:) SamZan.net

методические рекомендации для студентов заочного обучения Контрольная работа ’ 1 Алгоритмы.html

Работа добавлена на сайт samzan.net: 2016-01-17

Поможем написать учебную работу

Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.

Предоплата всего

от 25%

Подписываем

договор

Выберите тип работы:

Скидка 25% при заказе до 21.5.2024

Методические рекомендации предназначены для студентов, изучающих дисциплину «Диагностика вычислительных машин и каналов передачи данных». В методических указаниях представлены:

- теоретическая часть;

- практическая часть;

- задание на контрольную работу;

- пример выполнения контрольной работы.

Нейронные сети возникли из исследований в области искусственного интеллекта, а именно, из попыток воспроизвести способность биологических нервных систем обучаться и исправлять ошибки, моделируя низкоуровневую структуру мозга.  Мозг состоит из очень большого числа (приблизительно

10 000 000 000) нейронов, соединенных многочисленными связями (в среднем несколько тысяч связей на один нейрон, однако это число может сильно колебаться). Нейроны - это специальные клетки, способные распространять электрохимические сигналы. Нейрон имеет разветвленную структуру ввода информации (дендриты), ядро и разветвляющийся выход (аксон). Аксоны клетки соединяются с дендритами других клеток с помощью синапсов. При активации нейрон посылает электрохимический сигнал по своему аксону. Через синапсы этот сигнал достигает других нейронов, которые могут в свою очередь активироваться. Нейрон активируется тогда, когда суммарный уровень сигналов, пришедших в его ядро из дендритов, превысит определенный уровень (порог активации).

Тема: Алгоритмы обучения многослойного персептрона.

Цели: На примере готовой нейронной сети рассмотреть алгоритмы обучения персептрона.

Теоретическая часть

 

Алгоритм обучения однослойного персептрона (нейронная сеть).

Персептрон должен решать задачу классификации по входным сигналам. Набор входных сигналов будем обозначать переменным вектором X.

X=(x1, x2,..., xn).

Все элементы вектора являются булевыми переменными. Однако иногда полезно оперировать числовыми значениями. Персептрон – устройство, вычисляющее следующую систему функций:

где  – веса персептрона

       – пороговое значение

      xi – значение входных сигналов

Обучение персептрона состоит в подстройке весовых коэффициентов.

Пусть имеется набор пар векторов: , где =1..p, называющейся обучающей выборкой.

Будем называть нейронную сеть обученной на данной обученной выборке, если при подаче на вход сети каждого вектора , на выходе всякий раз получается соответствующий вектор .

Метод обучения состоит в итерационной подстройке матрицы весов последовательно уменьшающий ошибку в выходных векторах.

Алгоритм включает следующие шаги:

0 шаг: начальные значения весов всех нейронов полагаются случайными  (t=0).

1 шаг: сети предъявляется входной образ , в результате формируется выходной образ α.

2 шаг: вычисляется вектор ошибки делаемый сетью на выходе δα= ỸαYα.

Дальнейшее идея состоит в том, что изменение вектора весовых коэффициентов в области малых ошибок должно быть пропорционально ошибки на выходах и равно 0, если ошибка равна 0.

3 шаг: векторы весов модифицируются по следующей формуле:

  (t+∆T)=  (t)+ɳ* Xα*( δα)T, где 0<ɳ<1 темп обучения.

4 шаг: шаги 1-3 повторяются для всех обучающих векторов. Один цикл последовательного предъявления всей выборки называется эпохой. Обучение завершается по истечение нескольких эпох, когда итерации сойдутся, т.е векторы весов перестают изменяться  или когда полное просуммированное по всем векторам абсолютная ошибка станет меньше некоторого малого значения.

Объясним данный алгоритм более подробно:

Подаем на вход персептрона такой вектор Х, для которого уже известен правильный ответ. Если выходной сигнал персептрона совпадает с правильным ответом, то никаких действий принимать не надо. В случае ошибки необходимо обучить персептрон правильно решать данный пример.

Виды ошибок:

  1.  а) если на выходе персептрона получен 0, а правильный ответ равен 1, то необходимо увеличить веса связей между одновременно активными нейронами. При этом выходной персептрон считается активным;

    б) на выходе персептрона – 1, а правильный ответ равен 0, то для обучения правильному решению данного примера следует уменьшить сумму U . Следовательно, необходимо уменьшить веса  связей при тех  переменных, которые равны 1 (поскольку нет смысла уменьшать веса связей при элементах xj равных 0).

2. Если на выходе персептрона получилась 1, а правильный ответ равен 0, то необходимо уменьшить веса связей между одновременно активными нейронами.

Таким образом, процедура обучения сводиться к последовательному перебору всех примеров, обучающего множества с применением правил обучения для ошибочно решенных примеров. Если после очередного цикла предъявления всех примеров окажется, что все они решены правильно, то процедура обучения завершается.

Нерассмотренными остались два вопроса:

  1.  о сходимости процедуры обучения;
  2.  насколько нужно увеличить/уменьшить веса при применении правил обучения.

Ответ на первый вопрос дают следующие теоремы:

Теорема (о сходимости персептрона).

Если существует вектор параметров W, при котором персептрон правильно решает все примеры, обучающей выборки, то при обучении персептрона по выше описанному алгоритму решение будет найдено за конечное число шагов.

Теорема (о зацикливании персептрона).

Если не существует вектор параметров W, при котором персептрон правильно решает все примеры выборки, то при обучении персептрона по данному примеру через конечное число шагов вектор весов начнет повторяться.

Ответ на второй вопрос дает следующая теорема:

Теорема.

Любой персептрон можно заменить другим персептроном того же вида с целыми весами связей.

Вывод: поскольку из теоремы следует, что веса персептрона являются целыми числами, то вопрос о выборе шага, при применении правил обучения решается просто: веса и порог следует увеличить/уменьшить на 1.

Алгоритм обучения двухслойного персептрона.

Алгоритм обучения персептрона возможно использовать и для многослойных персептронов. Однако теоремы и зацикливание и ходимости персептрона верны только при обучении однослойного персептрона или многослойного персептрона при условии, что обучаются только веса персептрона, стоящего в последнем слое сети.

В случае произвольно многослойном персептроне они не работают.

Пример: проблема обучения многослойных персептронов.

Пусть веса всех слоев персептрона входе обучения сформировались так, что все примеры обучающего множества, кроме первого, решаются правильно. При этом правильным ответом первого примера является 1. Все входные сигналы персептрона последнего слоя равны 0. В этом случае первое правило не дает результата, поскольку  все нейроны предпоследнего слоя не активны.

Существует множество способов решать эту проблему, однако все эти методы не являются регулярными и не гарантируют сходимость многослойного персептрона к решению, даже если такое решение существует. В действительности проблема обучения (настройки) персептрона решается следующей теоремой:

Теорема (о двухслойности персептрона).

Любой многослойный персептрон может быть представлен в виде двухслойного персептрона с необученными весами первого слоя.

Выводы:

  1.  Любой персептрон может содержать один или два слоя, в случае двухслойного персептрона веса первого слоя не обучаются.
  2.  Веса любого персептрона можно заменить на целочисленные.
  3.  При обучении после конечного числа итераций возможно два исхода: персептрон обучается или вектор весов персептрона будет повторяться (персептрон зациклится).

Трудности с алгоритмом обучения персептрона.

Иногда бывает сложно определить выполнено ли условие разделимости для конкретного обучающего множества. Кроме этого во многих встречающихся на практике ситуациях входы часто меняются во времени и могут быть разделимы в один момент времени и не разделимы в другой.

В доказательстве алгоритма обучения персептрона ничего не говориться также о том, сколько шагов требуется для обучения сети.

Мало утешительного знать, что обучение закончится за конечное число шагов, если необходимое для этого время сравнительно с геологической эпохой. Кроме того не доказано, что алгоритм обучения более быстр по сравнению с простым перебором всех возможных значений весов и в некоторых случаях этот примитивный подход может оказаться лучшим.

 

Практическая часть

  1.  Работа с программой.

Программа предлагает различные модели нейронных сетей, состоящие из двух, четырех или шести нейронов.

При запуске программы появляется диалоговое окно (рис. 1)  выбора модели персептрона.


  1.  Примеры.

а) однослойный персептрон, состоящий из двух нейронов. Даны входные значения и значения на выходе. Найти весовые коэффициенты.

x

wi

y

5

-5

?

?

1

1

0

1

0

1

-4

-1

0

0

4

2

1

1

б)   однослойный персептрон, состоящий из двух нейронов. Даны входные значения и значения на выходе. Найти весовые коэффициенты.

x

wi

y

-4

3

 

?

?

0

1

-2

-4

1

0

0

0

0

1

в)  двухслойный персептрон, состоящий из четырех нейронов. Даны входящие значения, веса первого слоя и значения на выходе. Найти веса второго слоя.

x

wi

y

1

-3

1

2

-3

4

?

?

?

?

1

0

-1

2

0

1

5

0

1

1

-4

3

0

1

 

г)   двухслойный персептрон, состоящий из шести нейронов. Даны входящие значения, веса первого слоя и значения на выходе. Найти веса второго слоя.

x

wi

y

1

4

4

4

-1

-5

1

4

-5

-3

-5

3

?

?

?

?

?

?

?

?

?

0

0

1

-3

-4

-3

0

1

0

-2

1

-3

0

0

1

0

1

5

1

1

0

-5

3

1

1

0

1

  1.  
    Варианты заданий.

Задание №1.

а) Обучить однослойный персептрон, используя следующие наборы входных данных:

Варианты

0

1

2

3

4

5

6

x

y

x

y

x

y

x

y

x

y

x

y

x

y

4

-4

0

1

4

-1

1

1

5

-2

1

0

-4

-4

0

1

4

-3

0

1

-3

-1

1

0

5

2

0

1

-3

0

1

0

-5

2

0

0

-5

-2

0

1

5

2

1

0

-4

-5

0

1

5

-4

0

0

-5

-1

1

0

-4

3

1

0

3

1

1

1

-2

4

0

1

-1

4

1

0

-4

3

1

0

1

4

0

0

5

-2

1

1

-2

1

1

0

-1

1

0

0

5

-3

1

0

0

-5

0

1

4

-4

0

1

-5

4

1

1

-3

5

0

0

Варианты

6

7

8

9

10

11

12

x

y

x

y

x

y

x

y

x

y

x

y

x

y

0

1

0

0

-4

-2

0

1

1

3

1

0

-4

-1

0

1

-2

-5

0

0

-4

1

0

1

5

-3

1

0

-3

5

1

1

3

3

1

0

-3

-3

0

1

-5

5

1

1

3

1

0

1

5

1

1

0

4

-1

1

0

3

4

0

0

-4

-1

0

1

-3

1

1

1

0

-1

0

0

4

3

1

1

-2

4

1

1

2

2

1

0

-1

1

1

1

2

-3

1

1

0

-1

0

1

-4

5

1

1

1

-3

0

1

-4

-3

0

0

1

-4

1

0

Варианты

13

14

15

16

17

18

19

x

y

x

y

x

y

x

y

x

y

x

y

x

y

-2

4

1

1

-4

3

1

0

-1

4

1

1

5

1

1

0

4

3

1

1

3

-4

0

1

0

1

0

0

-5

-5

0

1

-2

1

1

0

1

-2

0

0

5

0

1

0

-2

1

0

1

-2

0

1

0

2

-3

1

1

-2

4

1

1

2

3

1

0

-4

3

1

1

5

-3

0

1

-4

5

0

1

-1

0

1

0

0

1

0

0

1

-2

0

0

2

4

1

0

5

4

0

1

-3

-4

0

1

1

0

1

0

5

0

0

0

0

-3

1

1

Варианты

20

21

22

23

24

25

26

x

y

x

y

x

y

x

y

x

y

x

y

x

y

3

2

1

1

-1

-3

0

0

-2

0

0

1

-5

-4

1

0

4

2

0

0

1

0

0

0

1

-5

1

0

-2

1

1

0

3

5

1

1

4

-2

1

0

-5

2

0

1

-3

1

1

0

-2

-1

1

1

3

-3

1

0

0

3

1

0

-2

0

0

1

4

5

1

0

-3

-3

1

0

2

-5

1

1

-5

-2

1

1

-3

2

0

1

5

1

0

1

2

1

1

0

-5

-5

0

1

4

4

0

1

-3

1

1

0

5

-3

0

1

-5

-2

0

1

Варианты

27

28

29

30

31

32

33

x

y

x

y

x

y

x

y

x

y

x

y

x

y

-2

-2

0

1

0

2

1

0

3

4

1

0

0

-4

0

1

-4

0

0

1

3

-4

0

1

-1

-2

0

0

4

0

1

1

-2

-3

0

0

-5

4

1

0

-3

4

1

0

0

4

1

0

5

-3

1

0

-1

-3

0

0

2

0

1

1

4

-3

0

1

1

-2

0

1

0

2

1

0

-5

2

1

1

4

-5

0

1

2

4

1

1

-1

5

1

0

-1

5

1

0

-1

4

1

0

-2

-4

0

1

1

2

1

0

-2

5

1

0

3

-4

1

0

б) На обученном однослойном персептроне в задании а) найти соответствующие выходные значения y:

Варианты

0

1

2

3

4

5

6

x

y

x

y

x

y

x

y

x

y

x

y

x

y

3

-4

?

-1

0

?

1

1

?

3

-2

?

5

2

?

-2

-2

?

0

-4

?

5

-5

?

-4

3

?

-3

-2

?

-2

3

?

-4

-4

?

4

0

?

-3

4

?

-1

-3

?

2

1

?

5

0

?

1

1

?

2

0

?

2

0

?

0

2

?

1

-1

?

0

0

?

4

0

?

0

0

?

3

-1

?

-1

5

?

-2

-4

?

Варианты

6

7

8

9

10

11

12

x

y

x

y 

x

y

x

y

x

y

x

y

x

y

-4

0

?

0

0

?

4

-4

?

4

3

?

-1

4

?

4

-1

?

1

3

?

0

4

?

1

1

?

-3

0

?

-2

1

?

1

-2

?

-5

2

?

-3

-3

?

-5

2

?

0

1

?

-4

3

?

-4

5

?

-4

3

?

3

1

?

-3

1

?

1

2

?

1

0

?

-2

1

?

1

0

?

5

4

?

-1

1

?

0

-1

?

Варианты

13

14

15

16

17

18

19

x

y

x

y

x

y

x

y

x

y

x

y

x

y

-4

-1

?

3

-4

?

1

3

?

-1

-2

?

0

1

?

1

3

?

3

-4

?

-5

5

?

-2

0

?

-3

-3

?

-1

-3

?

1

0

?

-3

-3

?

5

-3

?

0

-1

?

-1

0

?

-3

1

?

2

4

?

1

0

?

-3

1

?

4

-5

?

-4

5

?

5

0

?

0

-1

?

3

-4

?

0

1

?

0

-1

?

-2

5

?

Варианты

20

21

22

23

24

25

26

x

y

x

y

x

y

x

y

x

y

x

y

x

y

0

-1

?

-1

-1

?

3

-1

?

0

0

?

1

-1

?

-3

0

?

-3

-1

?

5

0

?

1

1

?

5

4

?

3

-4

?

5

1

?

5

0

?

2

-4

?

1

4

?

-5

-2

?

1

4

?

2

4

?

1

1

?

0

4

?

4

4

?

-5

0

?

-5

2

?

-5

4

?

-5

2

?

-5

4

?

-5

0

?

-2

4

?

Варианты

27

28

29

30

31

32

33

x

y

x

y

x

y

x

y

x

y

x

y

x

y

1

1

?

-1

-1

?

-3

3

?

-3

-1

?

4

2

?

-1

-3

?

3

2

?

-4

3

?

-4

-4

?

-4

4

?

5

-4

?

-3

1

?

3

5

?

-2

1

?

-3

1

?

2

2

?

5

1

?

1

4

?

2

-5

?

-2

0

?

0

3

?

3

3

?

1

5

?

1

5

?

-5

4

?

-3

1

?

2

1

?

5

1

?


Задание №2.

а) Обучить двухслойный персептрон, используя следующие наборы входных данных:

Варианты

0

1

2

3

4

x

wi

y

x

wi

y

x

wi

y

x

wi

y

x

wi

y

2

-3

-5

-3

0

4

0

0

-4

-2

1

-4

-3

-5

1

0

-3

1

-1

-3

3

5

0

0

-1

2

4

-4

5

-4

0

0

3

-1

     

5

0

-3

-4

1

1

5

-4

0

0

4

3

0

0

2

-5

1

1

-3

3

0

0

-5

-1

1

1

2

0

0

0

-2

-5

1

0

-5

3

1

1

2

2

0

1

5

3

1

1

1

-4

0

1

-3

-3

1

0

-1

2

0

0

-3

-3

0

0

0

-1

1

1

Варианты

5

6

7

8

9

x

wi

y

x

wi

y

x

wi

y

x

wi

y

x

wi

y

-5

-5

3

5

3

-5

0

0

4

0

-1

-1

5

3

0

1

-1

-4

3

4

-4

-5

0

0

5

-5

-4

3

4

5

0

0

-3

-5

2

4

1

-3

1

0

5

-3

0

0

1

4

0

1

2

-2

0

0

-3

1

1

1

-1

1

0

0

3

3

1

0

0

0

0

0

2

1

0

0

-3

5

1

1

4

-4

1

0

1

-5

0

0

-1

1

0

0

4

-1

0

0

3

-5

0

0

-1

2

0

0

Варианты

10

11

12

13

14

x

wi

y

x

wi

y

x

wi

y

x

wi

y

x

wi

y

4

1

-4

0

-3

1

0

0

-3

-5

0

-2

4

-3

1

0

-1

-4

5

2

-3

-4

1

0

-1

3

-3

3

4

1

1

1

2

-3

-5

0

-1

1

0

0

-5

0

0

1

-4

-3

1

0

0

1

0

1

-1

-1

0

0

0

3

1

1

-3

3

0

1

3

-5

1

0

-2

-2

1

0

3

-1

0

0

-1

4

1

1

0

0

0

0

2

0

0

0

2

4

0

1

-2

3

0

1

-5

-2

1

1

Варианты

15

16

17

18

19

x

wi

y

x

wi

y

x

wi

y

x

wi

y

x

wi

y

0

-1

-1

-4

-3

-3

0

0

1

2

5

-5

4

-5

0

0

-1

3

-1

2

-2

-5

1

1

5

-2

4

-2

-2

1

0

0

-4

-5

-2

-3

-3

5

1

0

0

-3

0

0

-3

-2

0

0

-2

-1

0

0

5

-1

0

0

3

-4

1

0

0

-1

0

0

5

4

0

0

-5

2

1

1

-3

1

0

1

3

-2

0

0

1

4

0

0

-4

-4

0

0

-4

1

0

0

-2

2

0

1

3

-5

1

0

Варианты

20

21

22

23

24

x

wi

y

x

wi

y

x

wi

y

x

wi

y

x

wi

y

3

-2

1

4

0

-3

0

1

3

2

2

-3

5

-2

1

0

2

-1

1

3

2

2

1

0

-5

4

 

3

1

0

4

0

1

2

4

3

0

5

-2

1

0

-1

5

0

0

2

2

1

0

3

-2

1

0

-1

-3

0

0

4

0

1

0

1

-5

0

1

-5

1

0

0

1

-4

0

0

2

4

0

0

3

4

1

0

-5

5

0

0

5

5

1

0

-4

-4

0

0

3

2

0

0

0

-5

1

0

Варианты

25

26

27

28

29

x

wi

y

x

wi

y

x

wi

y

x

wi

y

x

wi

y

1

-1

4

-3

0

4

1

0

0

5

5

-3

4

3

0

1

-1

3

-5

3

-1

-4

0

1

0

4

-5

4

-2

2

0

0

0

-3

1

0

-5

-5

1

1

-3

-1

0

0

3

5

0

0

4

-3

1

1

2

-5

0

0

-2

0

1

1

5

-2

1

0

-2

0

0

0

-5

3

0

1

2

3

0

0

5

0

0

0

-5

-3

0

0

5

-1

0

0

4

-4

1

1

-4

1

0

0

-4

1

1

1

Варианты

30

31

32

33

x

wi

y

x

wi

y

x

wi

y

x

wi

y

3

-1

2

0

4

-1

0

1

4

4

1

2

5

0

1

1

3

-2

-3

-2

3

-2

1

0

-3

4

0

-5

-3

5

1

1

5

-5

0

1

2

-5

0

1

-5

2

0

0

3

-4

0

0

-1

-4

0

0

5

1

1

1

5

0

1

0

5

5

1

1

3

0

0

1

-5

-1

0

0

-4

-4

0

0

5

3

0

0


б) На обученном двухслойном персептроне в задании а) найти соответствующие выходные значения
y:

Варианты

0

1

2

3

4

x

wi

y

x

wi

y

x

wi

y

x

wi

y

x

wi

y

-3

-1

-5

-3

0

4

?

-3

4

1

-4

-3

-5

?

3

-2

-1

-3

3

5

?

4

4

4

-4

5

-4

?

3

-1

     

5

0

-3

-4

?

2

-1

?

3

-4

?

-5

2

?

2

-5

?

5

-5

?

5

5

?

5

5

?

5

0

?

5

1

?

-1

-4

?

-4

3

?

5

3

?

-4

-4

?

-5

-1

?

3

0

?

Варианты

5

6

7

8

9

x

wi

y

x

wi

y

x

wi

y

x

wi

y

x

wi

y

0

-3

3

5

3

-5

?

0

4

-1

-1

5

3

?

-1

3

3

4

-4

-5

?

0

5

-4

3

4

5

?

1

-1

2

4

1

-3

?

-2

0

?

2

-5

?

4

-3

?

3

5

?

-3

-1

?

5

0

?

2

3

?

-5

3

?

-2

0

?

5

-2

?

-4

1

?

-4

1

?

4

-4

?

5

-1

?

-5

-3

?

Варианты

10

11

12

13

14

x

wi

y

x

wi

y

x

wi

y

x

wi

y

x

wi

y

2

4

-4

0

-3

1

?

-5

4

0

-2

4

-3

?

2

-1

5

2

-3

-4

?

3

2

-3

3

4

1

?

3

-2

-5

0

-1

1

?

4

0

?

-1

-3

?

3

-2

?

2

2

?

-1

5

?

3

4

?

2

4

?

1

-4

?

-5

1

?

1

-5

?

0

-5

?

3

2

?

-4

-4

?

5

5

?

-5

5

?

Варианты

15

16

17

18

19

x

wi

y

x

wi

y

x

wi

y

x

wi

y

x

wi

y

-4

-5

-1

-4

-3

-3

?

5

-2

5

-5

4

-5

?

1

2

-1

2

-2

-5

?

0

-1

4

-2

-2

1

?

-1

3

-2

-3

-3

5

?

3

-4

?

5

-1

?

-3

-2

?

0

-3

?

-2

-1

?

3

-2

?

-3

1

?

5

4

?

0

-1

?

-5

2

?

3

-5

?

-2

2

?

-4

-4

?

1

4

?

-4

1

?

Варианты

20

21

22

23

24

x

wi

y

x

wi

y

x

wi

y

x

wi

y

x

wi

y

2

-3

1

4

0

-3

?

-1

3

2

-3

5

-2

?

-1

-4

1

3

2

2

?

-3

-5

 

3

1

0

4

?

4

1

3

0

5

-2

?

0

3

?

-1

-1

?

0

1

?

-4

-3

?

-5

0

?

-1

4

?

3

-1

?

-2

-2

?

3

-5

?

-3

3

?

-5

-2

?

-2

3

?

2

4

?

2

0

?

0

0

?

Варианты

25

26

27

28

29

x

wi

y

x

wi

y

x

wi

y

x

wi

y

x

wi

y

-3

-5

4

-3

0

4

?

-1

-4

5

-3

4

3

?

4

0

-5

3

-1

-4

?

-5

-5

-5

4

-2

2

?

3

-1

1

0

-5

-5

?

-1

1

?

2

-2

?

1

4

?

5

-3

?

-5

-1

?

4

-4

?

2

1

?

0

0

?

3

3

?

5

3

?

-1

2

?

4

-1

?

-1

1

?

1

-5

?

0

-1

?

Варианты

30

31

32

33

x

wi

y

x

wi

y

x

wi

y

x

wi

y

-1

2

2

0

4

-1

?

-3

1

1

2

5

0

?

-4

-2

-3

-2

3

-2

?

3

-2

0

-5

-3

5

?

-3

3

?

2

-5

?

4

3

?

-1

5

?

2

2

?

-5

3

?

-2

-5

?

1

-5

?

-3

-3

?

-1

2

?

-3

-3

?

-5

5

?


Оформление лабораторной работы.

Системы искусственного интеллекта

Контрольная работа  №1.

Вариант 0

Тема: Обучение персептрона.

Цели: Рассмотреть методы обучения однослойного и двухслойного персептрона.

Ход работы:

 

Задание №1.

а) Обучение однослойного персептрона:

x

w0

wi

y

4

-4

0

-2

0

1

-2

0

1

-3

0

1

0

-4

3

1

0

-2

1

1

0


б) На обученном однослойном персептроне, в задании а), получились соответствующие выходные значения y:

x

w0

wi

y

3

-4

0

-2

0

1

-2

0

1

5

-5

0

1

-1

-3

1

1

1

-1

0

1


Задание №2.

а) Обучение двухслойного персептрона:

x

w0

wi

y

2

-3

0

-5

-3

0

4

0

-4

5

-4

0

0

5

-4

0

0

2

0

0

0

1

-4

0

1

б) На обученном двухслойном персептроне, в задании а), получились соответствующие выходные значения y:

x

w0

wi

y

-3

-1

 

0

-5

-3

0

4

0

-4

5

-4

0

1

2

-1

0

0

5

5

0

0

-4

3

0

1

Выводы:

Выполнил: __________________________ учебная группа ________

Проверил: Тимотин Андрей Максимович__________________________


Системы искусственного интеллекта

вопросы к экзамену:

  1.  Понятие искусственный интеллект (определение, вопросы которые  решает, пути развития ИИ).
  2.  История развития систем ИИ (Лейбниц, Эйлер) 18 в.
  3.  История развития систем ИИ (Дж. Буль, Беббидж) 19в.
  4.  Тест Тьюринга.
  5.  Ведение игр.
  6.  Автоматические рассуждения и доказательства теорем.
  7.  Экспертные системы.
  8.  Естественные языки и семантическое моделирование.
  9.  Моделирование работы человеческого мозга.
  10.  Планирование и робототехника.
  11.  Теория нечетких множеств (определения, способы задания характеристической функции).
  12.  Лингвистическая переменная (примеры).
  13.  Максиминные операции. Примеры.
  14.  Алгебраические операции. Примеры.
  15.  Ограниченные операции. Примеры.
  16.  Определение: носителя нечеткого множества, высота нечеткого множества, нормальное и субнормальне нечеткое множество.
  17.  Определение: субнормального нечеткого множества, точки перехода, четкое множество А* ближайшее к нечеткому множеству А.
  18.  Нечеткие множества. Принцип обобщения Лотфи Заде.
  19.  Нейронные сети, история развития. Определение нейрона.
  20.  Строение нейрона.
  21.  Биологические нейронные системы.
  22.  Рекуррентная нейронная сеть.
  23.   Виды задач, решаемые с помощью нейронных сетей.
  24.   Определение персептрона, обучающей выборки, обученной нейронной сети.
  25.  Алгоритм обучения однослойного персептрона, шаги обучения.
  26.  Теорема о сходимости персептрона и теорема о зацикливании персептрона.
  27.  Двухслойность персептрона. Теорема о двухслойности персептрона.
  28.  Экспертные системы, примеры применения экспертных систем.
  29.  Структура экспертной системы.


РЕКОМЕНДУЕМАЯ ЛИТЕРАТУРА

  1.  Мануилов Н.Ф. Искусственный интеллект. – Смоленск: Универсум 2005г.
  2.  Ручкин В.Н., Фулин В.А. Универсальный искусственный интеллект и экспертные системы. – СПб.: БХВ-Петербург,  2009.
  3.  Назаров А.В. Лоскутов А.И. Нейросетевые алгоритмы прогнозирования и оптимизации систем. – СПб.: Наука и техника, 2003г.


Рис. 1. Окно выбора персептрона.

Рис. 2. Окно программы – нейронная сеть.




1.  Вопрос 21 УТОПИЗМ ЭПОХИ ВОЗРОЖДЕНИЯ
2. Тема- Аппроксимация функций методом наименьших квадратов Автор- студент гр
3. Нейроэндокринная регуляция иммунного ответа
4. Лекция 42 СССР в конце 60х ~ начале 80х годов
5. Лекция 11 Продукциялы~ есептеулер модельдері логикалы~ есептеулер модельдері 1930жылдардан бастап ал
6. Реферат- Формирование личности, психологические особенности возрастных периодов
7. Сестринское дело
8. Заключение договора простого товарищества с иностранными компаниями
9. Реферат- Виды кровезаменителей
10. сколько людей ~ столько и характеров
11. Теоретические основы анализа и оценки экономико-финансового состояния предприятия
12. Курсовая работа на тему Организационные структуры управления Выполнила- студентка группы СКСиТ 40.html
13. функциональной классификации- Пограничные Внутренней среды Мышечные Нервные Каждый т
14.  Введение 2 Общие географические данные 3
15. Эмотивная компетенция автора и способы ее объективации в художественном тексте
16. Тема 2. Виникнення релігії та первісні вірування народів Первісні народні вірування та їх еволюція
17. Первых Богов создал Страх primos deos fecit timorс Петроний ум
18. Услуги через Интернет
19. тематики Національного університету водного господарства та природокористування
20. КИЇВСЬКИЙ НАЦІОНАЛЬНИЙ ЕКОНОМІЧНИЙ УНІВЕРСИТЕТ ІМЕНІ ВАДИМА ГЕТЬМАНА Характеристика видана за м