МОДУЛЬНАЯ АРХИТЕКТУРА НС. Каждая входная переменная связана только с одним из входов модулей. Выходы всех входных модулей соединены с модулем решения.

Презентация:



Advertisements
Похожие презентации
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
Advertisements

10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
Тема 10. Архитектура и алгоритмы обучения НС Основные парадигмы нейронных сетей обучения с учителем Однослойный перцептрон f f f х1.
Вероятностная НС (Probability neural network) X 1 X n... Y 1 Y m Входной слой Скрытый слой (Радиальный) Выходной слой...
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
«Обучение нейронных сетей. Алгоритм обратного распространения ошибки» Курс: «Системы искусственного интеллекта»
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
ФАКУЛЬТЕТ ПРИКЛАДНОЙ МАТЕМАТИКИ и ИНФОРМАТИКИ Тарасюк Александр Евгеньевич СИСТЕМА РАСПОЗНАВАНИЯ ЛИЦ НА ОСНОВЕ НЕЙРОННОЙ СЕТИ.
Нейросетевые технологии в обработке и защите данных Обработка данных искусственными нейронными сетями (ИНС). Лекция 5. Алгоритмы обучения искусственных.
Ассоциативная память. Ассоциативная сеть прямого распространения. 1 X 1 Y 1 X 2 Y 2 X i Y i X n Y n 2 i n... Y j = i=1 N w ij x i, j=1,M (*)
10. 3 Повносвязные нейронные сети со смешанным обучением Нейронная сеть Хопфилда ( Hopfield Net)
Лекция 6. Нейронные сети Хопфилда и Хэмминга Среди различных конфигураций искусственных нейронных сетей (НС) встречаются такие, при классификации которых.
© ElVisti Лекция 10 Основные сведения о нейронных сетях Дмитрий Владимирович ЛАНДЭ МЕЖДУНАРОДНЫЙ СОЛОМОНОВ УНИВЕРСИТЕТ.
Динамические нейронные сети и их аттракторы Резник Александр Михайлович Институт проблем математических машин и систем НАН Украины отдел Нейротехнологий.
1 Теория и применение искусственных нейронных сетей Тема 2 Т.Б. Шатовская Факультет компьютерных наук, Кафедра ПОЭВМ, ХНУРЭ ХНУРЭ, факультет КН, кафедра.
Метод моделирования статических систем по экспериментальным данным.
Самарский государственный аэрокосмический университет имени академика С. П. Королева Национальный исследовательский университет Выполнили : студент 662.
Для учащихся школы 19.
Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов Оптические Технологии.
Нейронные сети. Моделирование нейронных сетей. Модели нейронов. Выполнил: студент 1 курса магистратуры Сергеева Анастасия Юрьевна группа 418 м Москва -
Транксрипт:

МОДУЛЬНАЯ АРХИТЕКТУРА НС

Каждая входная переменная связана только с одним из входов модулей. Выходы всех входных модулей соединены с модулем решения. Размерность входного вектора обозначим как l, а количество классов – k. Обозначим количество входов модулей первого слоя как n; количество входных модулей в входном слое m= l*n. Далее принимается, что l=m*n. Модуль – это многослойная прямого распостранения НС, которая определяется тройкой: M=(a, b, H), где a – количество выходов модуля, b – количество выходных вершин, H – список, который содержит число нейронов в каждом из скрытых слоев. Например, многослойный перцептрон модуля М с 8 входами, 12 нейронами в первых скрытых слоях, 10 нейронами во втором скрытом слое и 4 выходами описывается как: М=(8, 4, [12, 10]).

Модульная нейронная сеть – это набор связанных модулей, определенных как семерка N=(l, k, m, r,, I, D), где l – количество входов, k – количество класов, m – количество модулей в входном слое, r – тип промежуточного представления, r {маленькое, большое}, π – функция перестановки, I – модуль входного слоя, D – модуль решения. Обучение системы. Начальная обучающая выборка TS: (x 1j, x 2j,…,x lj, d j ), где x ij IR – i-я компонента j-го входного вектора, d j – номер класса, j = 1,…,t, где t – номер обучающего примера. Модуль MLP i связанный с x i n + 1,x i n + 2,…,x (i+1) n. Обучающая выборка TS i для модуля MLP i : (x i n + 1 j, x i n + 2 j,…,x (i+1) n j ; d BIN j ) для всех j=1,…,t, где d BIN j – выходной класс d j представленный в двоичном коде.

Преобразование, сделанное входным слоем, обозначим как Φ: R n*m R 7m * log 2 k. Обучающее множество для модуля решения: Φ(x 1 j, x 2 j,…,x l j ); d BIT j и j=1,…,t, где d BIT j – выходной класс d j представленный в 1-с-k коде. Преобразование модуля решения обозначим как Ψ: R m * log 2 k R k. Алгоритм ОБУЧЕНИЯ: Шаг 1. Обучение входного слоя. Выбор обучающих множеств TS i из начального обучающего множества TS для всех i=1,…,m. Обучение всех модулей MLP i на TS i с использованием алгоритма обратного распространения. Шаг 2. Обучение выходного слоя сети. Вычисление выхода r первого слоя для каждого входного вектора j r j = Ф(x 1 j, x 2 j,…,x i j ). Построение обучающего множества для выходного слоя сети TS d ={(r j ; d BIT j ) | j=1,…,t}.