Поможем написать учебную работу
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Если у вас возникли сложности с курсовой, контрольной, дипломной, рефератом, отчетом по практике, научно-исследовательской и любой другой работой - мы готовы помочь.
Методические рекомендации предназначены для студентов, изучающих дисциплину «Диагностика вычислительных машин и каналов передачи данных». В методических указаниях представлены:
- теоретическая часть;
- практическая часть;
- задание на контрольную работу;
- пример выполнения контрольной работы.
Нейронные сети возникли из исследований в области искусственного интеллекта, а именно, из попыток воспроизвести способность биологических нервных систем обучаться и исправлять ошибки, моделируя низкоуровневую структуру мозга. Мозг состоит из очень большого числа (приблизительно
10 000 000 000) нейронов, соединенных многочисленными связями (в среднем несколько тысяч связей на один нейрон, однако это число может сильно колебаться). Нейроны - это специальные клетки, способные распространять электрохимические сигналы. Нейрон имеет разветвленную структуру ввода информации (дендриты), ядро и разветвляющийся выход (аксон). Аксоны клетки соединяются с дендритами других клеток с помощью синапсов. При активации нейрон посылает электрохимический сигнал по своему аксону. Через синапсы этот сигнал достигает других нейронов, которые могут в свою очередь активироваться. Нейрон активируется тогда, когда суммарный уровень сигналов, пришедших в его ядро из дендритов, превысит определенный уровень (порог активации).
Тема: Алгоритмы обучения многослойного персептрона.
Цели: На примере готовой нейронной сети рассмотреть алгоритмы обучения персептрона.
Теоретическая часть
Алгоритм обучения однослойного персептрона (нейронная сеть).
Персептрон должен решать задачу классификации по входным сигналам. Набор входных сигналов будем обозначать переменным вектором X.
X=(x1, x2,..., xn).
Все элементы вектора являются булевыми переменными. Однако иногда полезно оперировать числовыми значениями. Персептрон устройство, вычисляющее следующую систему функций:
где веса персептрона
пороговое значение
xi значение входных сигналов
Обучение персептрона состоит в подстройке весовых коэффициентов.
Пусть имеется набор пар векторов: , где =1..p, называющейся обучающей выборкой.
Будем называть нейронную сеть обученной на данной обученной выборке, если при подаче на вход сети каждого вектора , на выходе всякий раз получается соответствующий вектор .
Метод обучения состоит в итерационной подстройке матрицы весов последовательно уменьшающий ошибку в выходных векторах.
Алгоритм включает следующие шаги:
0 шаг: начальные значения весов всех нейронов полагаются случайными (t=0).
1 шаг: сети предъявляется входной образ , в результате формируется выходной образ Ỹα≠ .
2 шаг: вычисляется вектор ошибки делаемый сетью на выходе δα= Ỹα≠ Yα.
Дальнейшее идея состоит в том, что изменение вектора весовых коэффициентов в области малых ошибок должно быть пропорционально ошибки на выходах и равно 0, если ошибка равна 0.
3 шаг: векторы весов модифицируются по следующей формуле:
(t+∆T)= (t)+ɳ* Xα*( δα)T, где 0<ɳ<1 темп обучения.
4 шаг: шаги 1-3 повторяются для всех обучающих векторов. Один цикл последовательного предъявления всей выборки называется эпохой. Обучение завершается по истечение нескольких эпох, когда итерации сойдутся, т.е векторы весов перестают изменяться или когда полное просуммированное по всем векторам абсолютная ошибка станет меньше некоторого малого значения.
Объясним данный алгоритм более подробно:
Подаем на вход персептрона такой вектор Х, для которого уже известен правильный ответ. Если выходной сигнал персептрона совпадает с правильным ответом, то никаких действий принимать не надо. В случае ошибки необходимо обучить персептрон правильно решать данный пример.
Виды ошибок:
б) на выходе персептрона 1, а правильный ответ равен 0, то для обучения правильному решению данного примера следует уменьшить сумму U . Следовательно, необходимо уменьшить веса связей при тех переменных, которые равны 1 (поскольку нет смысла уменьшать веса связей при элементах xj равных 0).
2. Если на выходе персептрона получилась 1, а правильный ответ равен 0, то необходимо уменьшить веса связей между одновременно активными нейронами.
Таким образом, процедура обучения сводиться к последовательному перебору всех примеров, обучающего множества с применением правил обучения для ошибочно решенных примеров. Если после очередного цикла предъявления всех примеров окажется, что все они решены правильно, то процедура обучения завершается.
Нерассмотренными остались два вопроса:
Ответ на первый вопрос дают следующие теоремы:
Теорема (о сходимости персептрона).
Если существует вектор параметров W, при котором персептрон правильно решает все примеры, обучающей выборки, то при обучении персептрона по выше описанному алгоритму решение будет найдено за конечное число шагов.
Теорема (о зацикливании персептрона).
Если не существует вектор параметров W, при котором персептрон правильно решает все примеры выборки, то при обучении персептрона по данному примеру через конечное число шагов вектор весов начнет повторяться.
Ответ на второй вопрос дает следующая теорема:
Теорема.
Любой персептрон можно заменить другим персептроном того же вида с целыми весами связей.
Вывод: поскольку из теоремы следует, что веса персептрона являются целыми числами, то вопрос о выборе шага, при применении правил обучения решается просто: веса и порог следует увеличить/уменьшить на 1.
Алгоритм обучения двухслойного персептрона.
Алгоритм обучения персептрона возможно использовать и для многослойных персептронов. Однако теоремы и зацикливание и ходимости персептрона верны только при обучении однослойного персептрона или многослойного персептрона при условии, что обучаются только веса персептрона, стоящего в последнем слое сети.
В случае произвольно многослойном персептроне они не работают.
Пример: проблема обучения многослойных персептронов.
Пусть веса всех слоев персептрона входе обучения сформировались так, что все примеры обучающего множества, кроме первого, решаются правильно. При этом правильным ответом первого примера является 1. Все входные сигналы персептрона последнего слоя равны 0. В этом случае первое правило не дает результата, поскольку все нейроны предпоследнего слоя не активны.
Существует множество способов решать эту проблему, однако все эти методы не являются регулярными и не гарантируют сходимость многослойного персептрона к решению, даже если такое решение существует. В действительности проблема обучения (настройки) персептрона решается следующей теоремой:
Теорема (о двухслойности персептрона).
Любой многослойный персептрон может быть представлен в виде двухслойного персептрона с необученными весами первого слоя.
Выводы:
Трудности с алгоритмом обучения персептрона.
Иногда бывает сложно определить выполнено ли условие разделимости для конкретного обучающего множества. Кроме этого во многих встречающихся на практике ситуациях входы часто меняются во времени и могут быть разделимы в один момент времени и не разделимы в другой.
В доказательстве алгоритма обучения персептрона ничего не говориться также о том, сколько шагов требуется для обучения сети.
Мало утешительного знать, что обучение закончится за конечное число шагов, если необходимое для этого время сравнительно с геологической эпохой. Кроме того не доказано, что алгоритм обучения более быстр по сравнению с простым перебором всех возможных значений весов и в некоторых случаях этот примитивный подход может оказаться лучшим.
Практическая часть
Программа предлагает различные модели нейронных сетей, состоящие из двух, четырех или шести нейронов.
При запуске программы появляется диалоговое окно (рис. 1) выбора модели персептрона.
а) однослойный персептрон, состоящий из двух нейронов. Даны входные значения и значения на выходе. Найти весовые коэффициенты.
x |
wi |
y |
|
5 -5 |
? |
? |
1 1 |
0 1 |
0 1 |
||
-4 -1 |
0 0 |
||
4 2 |
1 1 |
б) однослойный персептрон, состоящий из двух нейронов. Даны входные значения и значения на выходе. Найти весовые коэффициенты.
x |
wi |
y |
|
-4 3 |
? |
? |
0 1 |
-2 -4 |
1 0 |
||
0 0 |
0 1 |
в) двухслойный персептрон, состоящий из четырех нейронов. Даны входящие значения, веса первого слоя и значения на выходе. Найти веса второго слоя.
x |
wi |
y |
|||
1 -3 |
1 2 |
-3 4 |
? ? |
? ? |
1 0 |
-1 2 |
0 1 |
||||
5 0 |
1 1 |
||||
-4 3 |
0 1 |
г) двухслойный персептрон, состоящий из шести нейронов. Даны входящие значения, веса первого слоя и значения на выходе. Найти веса второго слоя.
x |
wi |
y |
|||||
1 4 4 |
4 -1 -5 |
1 4 -5 |
-3 -5 3 |
? ? ? |
? ? ? |
? ? ? |
0 0 1 |
-3 -4 -3 |
0 1 0 |
||||||
-2 1 -3 |
0 0 1 |
||||||
0 1 5 |
1 1 0 |
||||||
-5 3 1 |
1 0 1 |
Задание №1.
а) Обучить однослойный персептрон, используя следующие наборы входных данных:
Варианты |
|||||||||||||
0 |
1 |
2 |
3 |
4 |
5 |
6 |
|||||||
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
4 -4 |
0 1 |
4 -1 |
1 1 |
5 -2 |
1 0 |
-4 -4 |
0 1 |
4 -3 |
0 1 |
-3 -1 |
1 0 |
5 2 |
0 1 |
-3 0 |
1 0 |
-5 2 |
0 0 |
-5 -2 |
0 1 |
5 2 |
1 0 |
-4 -5 |
0 1 |
5 -4 |
0 0 |
-5 -1 |
1 0 |
-4 3 |
1 0 |
3 1 |
1 1 |
-2 4 |
0 1 |
-1 4 |
1 0 |
-4 3 |
1 0 |
1 4 |
0 0 |
5 -2 |
1 1 |
-2 1 |
1 0 |
-1 1 |
0 0 |
5 -3 |
1 0 |
0 -5 |
0 1 |
4 -4 |
0 1 |
-5 4 |
1 1 |
-3 5 |
0 0 |
Варианты |
|||||||||||||
6 |
7 |
8 |
9 |
10 |
11 |
12 |
|||||||
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
0 1 |
0 0 |
-4 -2 |
0 1 |
1 3 |
1 0 |
-4 -1 |
0 1 |
-2 -5 |
0 0 |
-4 1 |
0 1 |
5 -3 |
1 0 |
-3 5 |
1 1 |
3 3 |
1 0 |
-3 -3 |
0 1 |
-5 5 |
1 1 |
3 1 |
0 1 |
5 1 |
1 0 |
4 -1 |
1 0 |
3 4 |
0 0 |
-4 -1 |
0 1 |
-3 1 |
1 1 |
0 -1 |
0 0 |
4 3 |
1 1 |
-2 4 |
1 1 |
2 2 |
1 0 |
-1 1 |
1 1 |
2 -3 |
1 1 |
0 -1 |
0 1 |
-4 5 |
1 1 |
1 -3 |
0 1 |
-4 -3 |
0 0 |
1 -4 |
1 0 |
Варианты |
|||||||||||||
13 |
14 |
15 |
16 |
17 |
18 |
19 |
|||||||
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
-2 4 |
1 1 |
-4 3 |
1 0 |
-1 4 |
1 1 |
5 1 |
1 0 |
4 3 |
1 1 |
3 -4 |
0 1 |
0 1 |
0 0 |
-5 -5 |
0 1 |
-2 1 |
1 0 |
1 -2 |
0 0 |
5 0 |
1 0 |
-2 1 |
0 1 |
-2 0 |
1 0 |
2 -3 |
1 1 |
-2 4 |
1 1 |
2 3 |
1 0 |
-4 3 |
1 1 |
5 -3 |
0 1 |
-4 5 |
0 1 |
-1 0 |
1 0 |
0 1 |
0 0 |
1 -2 |
0 0 |
2 4 |
1 0 |
5 4 |
0 1 |
-3 -4 |
0 1 |
1 0 |
1 0 |
5 0 |
0 0 |
0 -3 |
1 1 |
Варианты |
|||||||||||||
20 |
21 |
22 |
23 |
24 |
25 |
26 |
|||||||
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
3 2 |
1 1 |
-1 -3 |
0 0 |
-2 0 |
0 1 |
-5 -4 |
1 0 |
4 2 |
0 0 |
1 0 |
0 0 |
1 -5 |
1 0 |
-2 1 |
1 0 |
3 5 |
1 1 |
4 -2 |
1 0 |
-5 2 |
0 1 |
-3 1 |
1 0 |
-2 -1 |
1 1 |
3 -3 |
1 0 |
0 3 |
1 0 |
-2 0 |
0 1 |
4 5 |
1 0 |
-3 -3 |
1 0 |
2 -5 |
1 1 |
-5 -2 |
1 1 |
-3 2 |
0 1 |
5 1 |
0 1 |
2 1 |
1 0 |
-5 -5 |
0 1 |
4 4 |
0 1 |
-3 1 |
1 0 |
5 -3 |
0 1 |
-5 -2 |
0 1 |
Варианты |
|||||||||||||
27 |
28 |
29 |
30 |
31 |
32 |
33 |
|||||||
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
-2 -2 |
0 1 |
0 2 |
1 0 |
3 4 |
1 0 |
0 -4 |
0 1 |
-4 0 |
0 1 |
3 -4 |
0 1 |
-1 -2 |
0 0 |
4 0 |
1 1 |
-2 -3 |
0 0 |
-5 4 |
1 0 |
-3 4 |
1 0 |
0 4 |
1 0 |
5 -3 |
1 0 |
-1 -3 |
0 0 |
2 0 |
1 1 |
4 -3 |
0 1 |
1 -2 |
0 1 |
0 2 |
1 0 |
-5 2 |
1 1 |
4 -5 |
0 1 |
2 4 |
1 1 |
-1 5 |
1 0 |
-1 5 |
1 0 |
-1 4 |
1 0 |
-2 -4 |
0 1 |
1 2 |
1 0 |
-2 5 |
1 0 |
3 -4 |
1 0 |
б) На обученном однослойном персептроне в задании а) найти соответствующие выходные значения y:
Варианты |
|||||||||||||
0 |
1 |
2 |
3 |
4 |
5 |
6 |
|||||||
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
3 -4 |
? |
-1 0 |
? |
1 1 |
? |
3 -2 |
? |
5 2 |
? |
-2 -2 |
? |
0 -4 |
? |
5 -5 |
? |
-4 3 |
? |
-3 -2 |
? |
-2 3 |
? |
-4 -4 |
? |
4 0 |
? |
-3 4 |
? |
-1 -3 |
? |
2 1 |
? |
5 0 |
? |
1 1 |
? |
2 0 |
? |
2 0 |
? |
0 2 |
? |
1 -1 |
? |
0 0 |
? |
4 0 |
? |
0 0 |
? |
3 -1 |
? |
-1 5 |
? |
-2 -4 |
? |
Варианты |
|||||||||||||
6 |
7 |
8 |
9 |
10 |
11 |
12 |
|||||||
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
-4 0 |
? |
0 0 |
? |
4 -4 |
? |
4 3 |
? |
-1 4 |
? |
4 -1 |
? |
1 3 |
? |
0 4 |
? |
1 1 |
? |
-3 0 |
? |
-2 1 |
? |
1 -2 |
? |
-5 2 |
? |
-3 -3 |
? |
-5 2 |
? |
0 1 |
? |
-4 3 |
? |
-4 5 |
? |
-4 3 |
? |
3 1 |
? |
-3 1 |
? |
1 2 |
? |
1 0 |
? |
-2 1 |
? |
1 0 |
? |
5 4 |
? |
-1 1 |
? |
0 -1 |
? |
Варианты |
|||||||||||||
13 |
14 |
15 |
16 |
17 |
18 |
19 |
|||||||
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
-4 -1 |
? |
3 -4 |
? |
1 3 |
? |
-1 -2 |
? |
0 1 |
? |
1 3 |
? |
3 -4 |
? |
-5 5 |
? |
-2 0 |
? |
-3 -3 |
? |
-1 -3 |
? |
1 0 |
? |
-3 -3 |
? |
5 -3 |
? |
0 -1 |
? |
-1 0 |
? |
-3 1 |
? |
2 4 |
? |
1 0 |
? |
-3 1 |
? |
4 -5 |
? |
-4 5 |
? |
5 0 |
? |
0 -1 |
? |
3 -4 |
? |
0 1 |
? |
0 -1 |
? |
-2 5 |
? |
Варианты |
|||||||||||||
20 |
21 |
22 |
23 |
24 |
25 |
26 |
|||||||
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
0 -1 |
? |
-1 -1 |
? |
3 -1 |
? |
0 0 |
? |
1 -1 |
? |
-3 0 |
? |
-3 -1 |
? |
5 0 |
? |
1 1 |
? |
5 4 |
? |
3 -4 |
? |
5 1 |
? |
5 0 |
? |
2 -4 |
? |
1 4 |
? |
-5 -2 |
? |
1 4 |
? |
2 4 |
? |
1 1 |
? |
0 4 |
? |
4 4 |
? |
-5 0 |
? |
-5 2 |
? |
-5 4 |
? |
-5 2 |
? |
-5 4 |
? |
-5 0 |
? |
-2 4 |
? |
Варианты |
|||||||||||||
27 |
28 |
29 |
30 |
31 |
32 |
33 |
|||||||
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
x |
y |
1 1 |
? |
-1 -1 |
? |
-3 3 |
? |
-3 -1 |
? |
4 2 |
? |
-1 -3 |
? |
3 2 |
? |
-4 3 |
? |
-4 -4 |
? |
-4 4 |
? |
5 -4 |
? |
-3 1 |
? |
3 5 |
? |
-2 1 |
? |
-3 1 |
? |
2 2 |
? |
5 1 |
? |
1 4 |
? |
2 -5 |
? |
-2 0 |
? |
0 3 |
? |
3 3 |
? |
1 5 |
? |
1 5 |
? |
-5 4 |
? |
-3 1 |
? |
2 1 |
? |
5 1 |
? |
Задание №2.
а) Обучить двухслойный персептрон, используя следующие наборы входных данных:
Варианты |
|||||||||||||||||||
0 |
1 |
2 |
3 |
4 |
|||||||||||||||
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
|||||
2 -3 |
-5 -3 |
0 4 |
0 0 |
-4 -2 |
1 -4 |
-3 -5 |
1 0 |
-3 1 |
-1 -3 |
3 5 |
0 0 |
-1 2 |
4 -4 |
5 -4 |
0 0 |
3 -1 |
5 0 |
-3 -4 |
1 1 |
5 -4 |
0 0 |
4 3 |
0 0 |
2 -5 |
1 1 |
-3 3 |
0 0 |
-5 -1 |
1 1 |
||||||||||
2 0 |
0 0 |
-2 -5 |
1 0 |
-5 3 |
1 1 |
2 2 |
0 1 |
5 3 |
1 1 |
||||||||||
1 -4 |
0 1 |
-3 -3 |
1 0 |
-1 2 |
0 0 |
-3 -3 |
0 0 |
0 -1 |
1 1 |
||||||||||
Варианты |
|||||||||||||||||||
5 |
6 |
7 |
8 |
9 |
|||||||||||||||
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
|||||
-5 -5 |
3 5 |
3 -5 |
0 0 |
4 0 |
-1 -1 |
5 3 |
0 1 |
-1 -4 |
3 4 |
-4 -5 |
0 0 |
5 -5 |
-4 3 |
4 5 |
0 0 |
-3 -5 |
2 4 |
1 -3 |
1 0 |
5 -3 |
0 0 |
1 4 |
0 1 |
2 -2 |
0 0 |
-3 1 |
1 1 |
-1 1 |
0 0 |
||||||||||
3 3 |
1 0 |
0 0 |
0 0 |
2 1 |
0 0 |
-3 5 |
1 1 |
4 -4 |
1 0 |
||||||||||
1 -5 |
0 0 |
-1 1 |
0 0 |
4 -1 |
0 0 |
3 -5 |
0 0 |
-1 2 |
0 0 |
||||||||||
Варианты |
|||||||||||||||||||
10 |
11 |
12 |
13 |
14 |
|||||||||||||||
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
|||||
4 1 |
-4 0 |
-3 1 |
0 0 |
-3 -5 |
0 -2 |
4 -3 |
1 0 |
-1 -4 |
5 2 |
-3 -4 |
1 0 |
-1 3 |
-3 3 |
4 1 |
1 1 |
2 -3 |
-5 0 |
-1 1 |
0 0 |
-5 0 |
0 1 |
-4 -3 |
1 0 |
0 1 |
0 1 |
-1 -1 |
0 0 |
0 3 |
1 1 |
||||||||||
-3 3 |
0 1 |
3 -5 |
1 0 |
-2 -2 |
1 0 |
3 -1 |
0 0 |
-1 4 |
1 1 |
||||||||||
0 0 |
0 0 |
2 0 |
0 0 |
2 4 |
0 1 |
-2 3 |
0 1 |
-5 -2 |
1 1 |
||||||||||
Варианты |
|||||||||||||||||||
15 |
16 |
17 |
18 |
19 |
|||||||||||||||
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
|||||
0 -1 |
-1 -4 |
-3 -3 |
0 0 |
1 2 |
5 -5 |
4 -5 |
0 0 |
-1 3 |
-1 2 |
-2 -5 |
1 1 |
5 -2 |
4 -2 |
-2 1 |
0 0 |
-4 -5 |
-2 -3 |
-3 5 |
1 0 |
0 -3 |
0 0 |
-3 -2 |
0 0 |
-2 -1 |
0 0 |
5 -1 |
0 0 |
3 -4 |
1 0 |
||||||||||
0 -1 |
0 0 |
5 4 |
0 0 |
-5 2 |
1 1 |
-3 1 |
0 1 |
3 -2 |
0 0 |
||||||||||
1 4 |
0 0 |
-4 -4 |
0 0 |
-4 1 |
0 0 |
-2 2 |
0 1 |
3 -5 |
1 0 |
||||||||||
Варианты |
|||||||||||||||||||
20 |
21 |
22 |
23 |
24 |
|||||||||||||||
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
|||||
3 -2 |
1 4 |
0 -3 |
0 1 |
3 2 |
2 -3 |
5 -2 |
1 0 |
2 -1 |
1 3 |
2 2 |
1 0 |
-5 4 |
3 1 |
0 4 |
0 1 |
2 4 |
3 0 |
5 -2 |
1 0 |
-1 5 |
0 0 |
2 2 |
1 0 |
3 -2 |
1 0 |
-1 -3 |
0 0 |
4 0 |
1 0 |
||||||||||
1 -5 |
0 1 |
-5 1 |
0 0 |
1 -4 |
0 0 |
2 4 |
0 0 |
3 4 |
1 0 |
||||||||||
-5 5 |
0 0 |
5 5 |
1 0 |
-4 -4 |
0 0 |
3 2 |
0 0 |
0 -5 |
1 0 |
||||||||||
Варианты |
|||||||||||||||||||
25 |
26 |
27 |
28 |
29 |
|||||||||||||||
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
|||||
1 -1 |
4 -3 |
0 4 |
1 0 |
0 5 |
5 -3 |
4 3 |
0 1 |
-1 3 |
-5 3 |
-1 -4 |
0 1 |
0 4 |
-5 4 |
-2 2 |
0 0 |
0 -3 |
1 0 |
-5 -5 |
1 1 |
-3 -1 |
0 0 |
3 5 |
0 0 |
4 -3 |
1 1 |
2 -5 |
0 0 |
-2 0 |
1 1 |
||||||||||
5 -2 |
1 0 |
-2 0 |
0 0 |
-5 3 |
0 1 |
2 3 |
0 0 |
5 0 |
0 0 |
||||||||||
-5 -3 |
0 0 |
5 -1 |
0 0 |
4 -4 |
1 1 |
-4 1 |
0 0 |
-4 1 |
1 1 |
||||||||||
Варианты |
|||||||||||||||||||
30 |
31 |
32 |
33 |
||||||||||||||||
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
||||||||
3 -1 |
2 0 |
4 -1 |
0 1 |
4 4 |
1 2 |
5 0 |
1 1 |
3 -2 |
-3 -2 |
3 -2 |
1 0 |
-3 4 |
0 -5 |
-3 5 |
1 1 |
||||
5 -5 |
0 1 |
2 -5 |
0 1 |
-5 2 |
0 0 |
3 -4 |
0 0 |
||||||||||||
-1 -4 |
0 0 |
5 1 |
1 1 |
5 0 |
1 0 |
5 5 |
1 1 |
||||||||||||
3 0 |
0 1 |
-5 -1 |
0 0 |
-4 -4 |
0 0 |
5 3 |
0 0 |
б) На обученном двухслойном персептроне в задании а) найти соответствующие выходные значения y:
Варианты |
|||||||||||||||||||
0 |
1 |
2 |
3 |
4 |
|||||||||||||||
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
|||||
-3 -1 |
-5 -3 |
0 4 |
? |
-3 4 |
1 -4 |
-3 -5 |
? |
3 -2 |
-1 -3 |
3 5 |
? |
4 4 |
4 -4 |
5 -4 |
? |
3 -1 |
5 0 |
-3 -4 |
? |
2 -1 |
? |
3 -4 |
? |
-5 2 |
? |
2 -5 |
? |
5 -5 |
? |
||||||||||
5 5 |
? |
5 5 |
? |
5 0 |
? |
5 1 |
? |
-1 -4 |
? |
||||||||||
-4 3 |
? |
5 3 |
? |
-4 -4 |
? |
-5 -1 |
? |
3 0 |
? |
||||||||||
Варианты |
|||||||||||||||||||
5 |
6 |
7 |
8 |
9 |
|||||||||||||||
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
|||||
0 -3 |
3 5 |
3 -5 |
? |
0 4 |
-1 -1 |
5 3 |
? |
-1 3 |
3 4 |
-4 -5 |
? |
0 5 |
-4 3 |
4 5 |
? |
1 -1 |
2 4 |
1 -3 |
? |
-2 0 |
? |
2 -5 |
? |
4 -3 |
? |
3 5 |
? |
-3 -1 |
? |
||||||||||
5 0 |
? |
2 3 |
? |
-5 3 |
? |
-2 0 |
? |
5 -2 |
? |
||||||||||
-4 1 |
? |
-4 1 |
? |
4 -4 |
? |
5 -1 |
? |
-5 -3 |
? |
||||||||||
Варианты |
|||||||||||||||||||
10 |
11 |
12 |
13 |
14 |
|||||||||||||||
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
|||||
2 4 |
-4 0 |
-3 1 |
? |
-5 4 |
0 -2 |
4 -3 |
? |
2 -1 |
5 2 |
-3 -4 |
? |
3 2 |
-3 3 |
4 1 |
? |
3 -2 |
-5 0 |
-1 1 |
? |
4 0 |
? |
-1 -3 |
? |
3 -2 |
? |
2 2 |
? |
-1 5 |
? |
||||||||||
3 4 |
? |
2 4 |
? |
1 -4 |
? |
-5 1 |
? |
1 -5 |
? |
||||||||||
0 -5 |
? |
3 2 |
? |
-4 -4 |
? |
5 5 |
? |
-5 5 |
? |
||||||||||
Варианты |
|||||||||||||||||||
15 |
16 |
17 |
18 |
19 |
|||||||||||||||
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
|||||
-4 -5 |
-1 -4 |
-3 -3 |
? |
5 -2 |
5 -5 |
4 -5 |
? |
1 2 |
-1 2 |
-2 -5 |
? |
0 -1 |
4 -2 |
-2 1 |
? |
-1 3 |
-2 -3 |
-3 5 |
? |
3 -4 |
? |
5 -1 |
? |
-3 -2 |
? |
0 -3 |
? |
-2 -1 |
? |
||||||||||
3 -2 |
? |
-3 1 |
? |
5 4 |
? |
0 -1 |
? |
-5 2 |
? |
||||||||||
3 -5 |
? |
-2 2 |
? |
-4 -4 |
? |
1 4 |
? |
-4 1 |
? |
||||||||||
Варианты |
|||||||||||||||||||
20 |
21 |
22 |
23 |
24 |
|||||||||||||||
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
|||||
2 -3 |
1 4 |
0 -3 |
? |
-1 3 |
2 -3 |
5 -2 |
? |
-1 -4 |
1 3 |
2 2 |
? |
-3 -5 |
3 1 |
0 4 |
? |
4 1 |
3 0 |
5 -2 |
? |
0 3 |
? |
-1 -1 |
? |
0 1 |
? |
-4 -3 |
? |
-5 0 |
? |
||||||||||
-1 4 |
? |
3 -1 |
? |
-2 -2 |
? |
3 -5 |
? |
-3 3 |
? |
||||||||||
-5 -2 |
? |
-2 3 |
? |
2 4 |
? |
2 0 |
? |
0 0 |
? |
||||||||||
Варианты |
|||||||||||||||||||
25 |
26 |
27 |
28 |
29 |
|||||||||||||||
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
|||||
-3 -5 |
4 -3 |
0 4 |
? |
-1 -4 |
5 -3 |
4 3 |
? |
4 0 |
-5 3 |
-1 -4 |
? |
-5 -5 |
-5 4 |
-2 2 |
? |
3 -1 |
1 0 |
-5 -5 |
? |
-1 1 |
? |
2 -2 |
? |
1 4 |
? |
5 -3 |
? |
-5 -1 |
? |
||||||||||
4 -4 |
? |
2 1 |
? |
0 0 |
? |
3 3 |
? |
5 3 |
? |
||||||||||
-1 2 |
? |
4 -1 |
? |
-1 1 |
? |
1 -5 |
? |
0 -1 |
? |
||||||||||
Варианты |
|||||||||||||||||||
30 |
31 |
32 |
33 |
||||||||||||||||
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
x |
wi |
y |
||||||||
-1 2 |
2 0 |
4 -1 |
? |
-3 1 |
1 2 |
5 0 |
? |
-4 -2 |
-3 -2 |
3 -2 |
? |
3 -2 |
0 -5 |
-3 5 |
? |
||||
-3 3 |
? |
2 -5 |
? |
4 3 |
? |
-1 5 |
? |
||||||||||||
2 2 |
? |
-5 3 |
? |
-2 -5 |
? |
1 -5 |
? |
||||||||||||
-3 -3 |
? |
-1 2 |
? |
-3 -3 |
? |
-5 5 |
? |
Оформление лабораторной работы.
Системы искусственного интеллекта
Контрольная работа №1.
Вариант 0
Тема: Обучение персептрона.
Цели: Рассмотреть методы обучения однослойного и двухслойного персептрона.
Ход работы:
Задание №1.
а) Обучение однослойного персептрона:
x |
w0 |
wi |
y |
|
4 -4 |
0 |
-2 0 |
1 -2 |
0 1 |
-3 0 |
1 0 |
|||
-4 3 |
1 0 |
|||
-2 1 |
1 0 |
б) На обученном однослойном персептроне, в задании а), получились соответствующие выходные значения y:
x |
w0 |
wi |
y |
|
3 -4 |
0 |
-2 0 |
1 -2 |
0 1 |
5 -5 |
0 1 |
|||
-1 -3 |
1 1 |
|||
1 -1 |
0 1 |
Задание №2.
а) Обучение двухслойного персептрона:
x |
w0 |
wi |
y |
|||
2 -3 |
0 |
-5 -3 |
0 4 |
0 -4 |
5 -4 |
0 0 |
5 -4 |
0 0 |
|||||
2 0 |
0 0 |
|||||
1 -4 |
0 1 |
б) На обученном двухслойном персептроне, в задании а), получились соответствующие выходные значения y:
x |
w0 |
wi |
y |
|||
-3 -1 |
0 |
-5 -3 |
0 4 |
0 -4 |
5 -4 |
0 1 |
2 -1 |
0 0 |
|||||
5 5 |
0 0 |
|||||
-4 3 |
0 1 |
Выводы:
Выполнил: __________________________ учебная группа ________
Проверил: Тимотин Андрей Максимович__________________________
Системы искусственного интеллекта
вопросы к экзамену:
РЕКОМЕНДУЕМАЯ ЛИТЕРАТУРА
Рис. 1. Окно выбора персептрона.
Рис. 2. Окно программы нейронная сеть.