10.3.3 Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.

Презентация:



Advertisements
Похожие презентации
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
Advertisements

Ассоциативная память. Ассоциативная сеть прямого распространения. 1 X 1 Y 1 X 2 Y 2 X i Y i X n Y n 2 i n... Y j = i=1 N w ij x i, j=1,M (*)
10. 3 Повносвязные нейронные сети со смешанным обучением Нейронная сеть Хопфилда ( Hopfield Net)
Нейросетевые технологии в обработке и защите данных Обработка данных искусственными нейронными сетями (ИНС). Лекция 5. Алгоритмы обучения искусственных.
Тема 10. Архитектура и алгоритмы обучения НС Основные парадигмы нейронных сетей обучения с учителем Однослойный перцептрон f f f х1.
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
Лекция 6. Нейронные сети Хопфилда и Хэмминга Среди различных конфигураций искусственных нейронных сетей (НС) встречаются такие, при классификации которых.
Одно из наиболее перспективных направлений разработки принципиально новых архитектур вычислительных систем тесно связано.
МОДУЛЬНАЯ АРХИТЕКТУРА НС. Каждая входная переменная связана только с одним из входов модулей. Выходы всех входных модулей соединены с модулем решения.
1 Теория и применение искусственных нейронных сетей Тема 2 Т.Б. Шатовская Факультет компьютерных наук, Кафедра ПОЭВМ, ХНУРЭ ХНУРЭ, факультет КН, кафедра.
© ElVisti Лекция 10 Основные сведения о нейронных сетях Дмитрий Владимирович ЛАНДЭ МЕЖДУНАРОДНЫЙ СОЛОМОНОВ УНИВЕРСИТЕТ.
Автор: студент группы С-83 Потапенко Владимир Москва 2012 г.
Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов Оптические Технологии.
Динамические нейронные сети и их аттракторы Резник Александр Михайлович Институт проблем математических машин и систем НАН Украины отдел Нейротехнологий.
Вероятностная НС (Probability neural network) X 1 X n... Y 1 Y m Входной слой Скрытый слой (Радиальный) Выходной слой...
Использование MC# для реализации параллельных алгоритмов в 3D-графике. Е.С.Борисов, Институт кибернетики.
«Обучение нейронных сетей. Алгоритм обратного распространения ошибки» Курс: «Системы искусственного интеллекта»
Лекция 6 по дисциплине «Искусственный интеллект и нейросетевое управление» тема: «Обучение нейронных сетей» Мамонова Татьяна Егоровна
Лекция3.4:Нейронные сети: обучение без учителя Рассмотренный в предыдущей главе алгоритм обучения нейронной сети с помощью процедуры обратного распространения.
Транксрипт:

Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет максимальное значение Передаточная функция – линейная с насыщением

Число синапсов в сети m*(m-1). Формирование синаптического веса сети: где w ij – i-й синаптический вес j-го нейрона; x i – i-й элемент входного сигнала сети ; y j – выход j-го нейрона; m – количество элементов (розмерность) входного сигнала, количество нейронов в сети. Функционирование сети:

НС двунаправленной ассоциативной памяти (ДАП) 2 слой Выход Вход 1 слой Экспоненциальный сигмоид

Пусть пары образов записываются в виде векторов X k = {x i k : i = 0... n-1 } и Y k = {y j k : j = 0... m-1}, k=0...r-1, где r – число пар. Подача на вход первого слоя некоторого вектора P = {p i : i = 0...n-1} вызывает образование на входе второго слоя некоего другого вектора Q = {q j : j = 0...m 1}, который затем снова поступает на вход первого слоя. Ассоциации между векторами кодируются в весовой матрице W (1) первого слоя. Весовая матрица второго слоя W (2) равна транспонированной первой (W (1) ) T. Алгоритм обучения ДАП Расчет матрицы W