10.2 Основные парадигмы нейронных сетей обучения без учителя 10.2.1 Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.

Презентация:



Advertisements
Похожие презентации
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
Advertisements

МОДУЛЬНАЯ АРХИТЕКТУРА НС. Каждая входная переменная связана только с одним из входов модулей. Выходы всех входных модулей соединены с модулем решения.
Тема 10. Архитектура и алгоритмы обучения НС Основные парадигмы нейронных сетей обучения с учителем Однослойный перцептрон f f f х1.
А.В.Павлов ОТИИ Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов.
Лекция 5. Нейронные сети: обучение без учителя Главная черта, делающая обучение без учителя привлекательным, – это его "самостоятельность". Процесс обучения,
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
10. 3 Повносвязные нейронные сети со смешанным обучением Нейронная сеть Хопфилда ( Hopfield Net)
Вероятностная НС (Probability neural network) X 1 X n... Y 1 Y m Входной слой Скрытый слой (Радиальный) Выходной слой...
Лекция 6. Нейронные сети Хопфилда и Хэмминга Среди различных конфигураций искусственных нейронных сетей (НС) встречаются такие, при классификации которых.
Нейросетевые технологии в обработке и защите данных Обработка данных искусственными нейронными сетями (ИНС). Лекция 5. Алгоритмы обучения искусственных.
Ассоциативная память. Ассоциативная сеть прямого распространения. 1 X 1 Y 1 X 2 Y 2 X i Y i X n Y n 2 i n... Y j = i=1 N w ij x i, j=1,M (*)
1 Теория и применение искусственных нейронных сетей Тема 2 Т.Б. Шатовская Факультет компьютерных наук, Кафедра ПОЭВМ, ХНУРЭ ХНУРЭ, факультет КН, кафедра.
Лекция3.4:Нейронные сети: обучение без учителя Рассмотренный в предыдущей главе алгоритм обучения нейронной сети с помощью процедуры обратного распространения.
© ElVisti Лекция 10 Основные сведения о нейронных сетях Дмитрий Владимирович ЛАНДЭ МЕЖДУНАРОДНЫЙ СОЛОМОНОВ УНИВЕРСИТЕТ.
«Обучение нейронных сетей. Алгоритм обратного распространения ошибки» Курс: «Системы искусственного интеллекта»
Распознавание оптических образов (символов) с помощью однослойного персептрона Методические указания по дисциплинам «Системы искусственного интеллекта»,
Лекция 6 по дисциплине «Искусственный интеллект и нейросетевое управление» тема: «Обучение нейронных сетей» Мамонова Татьяна Егоровна
Одно из наиболее перспективных направлений разработки принципиально новых архитектур вычислительных систем тесно связано.
Выполни
Транксрипт:

10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные нейроны карты признаков Входной шар X n X 2 X 1 Функция активации – гиперболический тангенс

Зоны топологического соседства нейронов j NE j (0) NE j (t 1 ) NE j (t 2 ) NE j (t) множество нейронов, которые являются соседями нейрона j в момент времени t. Окрестность - это несколько нейронов, окружающих выигравший нейрон.

Алгоритм Кохонена формирования карт признаков:, Шаг 1. Инициализация сети: Весовым коэффициентам сети присваиваются малые случайные значения. Общее число синаптических весов - M*N Начальная зона соседства показана на рис. Шаг 2. Предъявление сети нового входного сигнала. Шаг 3. Вычисление расстояния до всех нейронов сети: Расстояния d j от входного сигнала до каждого нейрона j определяется по формуле: Где x i - i-ый элемент входного сигнала в момент времени t, w ij (t) - вес связи от i-го элемента входного сигнала к нейрону j в момент времени t. Шаг 4. Выбор нейрона с наименьшим расстоянием: Выбирается нейрон j*, для которого расстояние d j наименьшее. Шаг 5. Настройка весов нейрона j* и его соседей:

Производится подстройка весов для нейрона j* и всех нейронов из его зоны соседства NE. Новые значения весов: w ij (t+1) = w ij (t) + r (t) (x i (t) - w ij (t)), где r(t) - шаг обучения, уменьшающийся с течением времени (положительное число, меньше единицы). Шаг 6. Возвращение к шагу 2. Предварительная обработка входных векторов Нормализация

Инициализация НС - метод выпуклой комбинации ( convex combination method ) Веса сети принимают равными где п – число входов, число компонент каждого весового вектора. Каждая компонента входа Х принимает значение

Сеть встречного распостранения (Counterpropogation ) Входной слой Слой Кохонена Слой Гроссберга

При обучении слоя Кохонена изменяем вес W только у нейрона с максимальным значением сигнала внутреннего возбуждения. Преобразование веса для канала с переданным сигналом X : W(n+1) = W (n) + [ X – W (n) ]. Обучение слоя Кохонена на основе – метода выпуклой комбинации При обучении слоя Гроссберга веса корректируются таким образом: V ij (n+1)=V ij (n ) + [ H j –V ij ( n ) ] Y i.

СЖАТИЕ ДАННЫХ S m1 S mn S 1n S 11 пиксель Метод – векторное квантование Множество векторов подизображений используется в качестве входа для обучения слоя Кохонена по методу аккредитации, когда лишь выход одного нейрона равен 1. Веса слоя Гроссберга обучаются выдавать бинарный код номера того нейрона Кохонена, выход которого равен 1. Например, если выходной сигнал нейрона 7 равен 1 (а все остальные равны 0), то слой Гроссберга будет обучаться выдавать

Входная звезда ( Instar ) Входная звезда фрагмент нейронной сети, которая состоит из одного нейрона, который имееет группу взвешеных входов.

Процесс обучения выражается: w t (t+1) = w t (t) + a [x t – w t (t) ], где w i вес входа x i ; x i i-й вход; a нормировочный коэффициент обучения. Алгоритм работы НС Выходная звезда Процесс обучения выражается : w t (t+1) = w t (t) + b [y t – w t (t) ], где b нормировочный коэффициент обучения