10.1.3 Вероятностная НС (Probability neural network) X 1 X n... Y 1 Y m Входной слой Скрытый слой (Радиальный) Выходной слой...

Презентация:



Advertisements
Похожие презентации
1 Теория и применение искусственных нейронных сетей Тема 2 Т.Б. Шатовская Факультет компьютерных наук, Кафедра ПОЭВМ, ХНУРЭ ХНУРЭ, факультет КН, кафедра.
Advertisements

Тема 10. Архитектура и алгоритмы обучения НС Основные парадигмы нейронных сетей обучения с учителем Однослойный перцептрон f f f х1.
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
МОДУЛЬНАЯ АРХИТЕКТУРА НС. Каждая входная переменная связана только с одним из входов модулей. Выходы всех входных модулей соединены с модулем решения.
10. 3 Повносвязные нейронные сети со смешанным обучением Нейронная сеть Хопфилда ( Hopfield Net)
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
Ассоциативная память. Ассоциативная сеть прямого распространения. 1 X 1 Y 1 X 2 Y 2 X i Y i X n Y n 2 i n... Y j = i=1 N w ij x i, j=1,M (*)
Нейросетевые технологии в обработке и защите данных Обработка данных искусственными нейронными сетями (ИНС). Лекция 5. Алгоритмы обучения искусственных.
Лекция 6. Нейронные сети Хопфилда и Хэмминга Среди различных конфигураций искусственных нейронных сетей (НС) встречаются такие, при классификации которых.
МЕТОД НАИМЕНЬШИХ КВАДРАТОВ. СТАТИСТИЧЕСКАЯ ОЦЕНКА.
Сети глубокого обучения. Локальное и нелокальное в пространстве признаков обучение Прототипом всякого локально-обучающего алгоритма является построение:
Лекция 5. Нейронные сети: обучение без учителя Главная черта, делающая обучение без учителя привлекательным, – это его "самостоятельность". Процесс обучения,
АНАЛИЗ ДАННЫХ НА КОМПЬЮТЕРЕ. Регрессионный анализ.
НЕПРЕРЫВНО-ДЕТЕРМИНИРОВАННЫЕ СИСТЕМЫ (D-СИСТЕМЫ) i0123…i…n t …Δt · i…Δt · n xixi …xixi …xnxn.
Лекция 2 – Идентификация закона распределения вероятностей одномерной случайной величины 2.1. Основные определения 2.2. Этапы обработки данных одномерной.
Обратные задачи: теория и практика Лекция 7. Решение обратной задачи с предварительным обучением. Новосибирский Государственный Университет Физический.
Нейросетевые технологии в обработке и защите данных Обработка данных искусственными нейронными сетями (ИНС). Лекция 8. РАДИАЛЬНЫЕ БАЗИСНЫЕ СЕТИ 1.
Симплекс-метод Симплексный метод – это вычислительная процедура, основанная на принципе последовательного улучшения решений при переходе от одной базисной.
МЕТОДЫ ОПТИМИЗАЦИИ § 1. Основные понятия. Под оптимизацией понимают процесс выбора наилучшего варианта из всех возможных В процессе решения задачи оптимизации.
Транксрипт:

Вероятностная НС (Probability neural network) X 1 X n... Y 1 Y m Входной слой Скрытый слой (Радиальный) Выходной слой...

Для входного слоя используется акредитация для нормализации значений по формуле где x – входное значение из выборки; x – значение,которое приходит к входу НС; x min, x max – минимальное и максимальное значения данного параметра в обучающей виборке. Функция активации радиального слоя Функция активации выходного слоя Алгоритм работы

Каждый обучаемый пример ассоциируется з выходным нейроном того класса, к которому принадлежит этот пример S= i=1 Nk exp [( x T w ki -1) / 2 ] > i=1 Nj exp [( x T w kj -1) / 2 ]. Номер нейрона с максимальным значением S – номер класса

Сеть радиальных базисных функций (РБФ) ( Radial Basis Function Network ) X 1 X n... Y 1 Y m Входной слой Нейроны примеры слой радиальный Выходной слой...

наличие центра, представленного в виде вектора в входном пространстве; наличие способа измерения расстояния от центра до входного вектора. (расстояние Евклида) наличие специальной функции прохождения от одного аргумента, которая определяет выходной сигнал нейрона путем отображения функции расстояния (обычно функция Гаусса). Условия для радиально-симметричности шаблонного слоя Нейрони выходного слоя сети РБФ имеют линейные активационные функции Y=KX, где K=const

Алгоритм работы РБФ Нейроны-примеры функционируют так где y k (x) – k-й выход; Х – входной вектор; w ki – вес от i-го радиального нейрона к k-му выходному нейрону; c i – центроид i-го радиального нейрона; i – параметр сглаживания i-го радиального нейрона; M – количество радиальных нейронов; – функция Гаусса с i.

Обобщенно-регрессионная нейронная сеть (General Regression Neural Network - GRNN) x слой

Выход сети формируется как взвешенное среднее выходов по всем обучающим наблюдениям: где x i – обучающий входной вектор для класса i (дискретные или непрерывные значения); y i – выход, связанный с x i (дискретные или неперерывные значения); – параметр сглаживания, который выбирается в течении обучения сети; n – количество обучающих пар.

Преобразование сети GRNN к виду с многомерным выходным вектором Учитывая набор тестовых типовых векторов общая оценка ошибки наименьших квадратов (MSE) равна

Различные методы обучения НС Детерминистский метод обучения шаг за шагом осуществляет процедуру коррекции весов сети, основанную на использовании их текущих значений, а также величин входов, фактических выходов и желаемых выходов. Обучение персептрона является примером подобного детерминистского подхода Стохастические методы обучения выполняют псевдослучайные изменения величин весов, сохраняя те изменения, которые ведут к улучшениям.

Выбрать вес случайным образом и подкорректировать его на небольшое случайное число. Предъявить множество входов и вычислить получающиеся выходы. Сравнить эти выходы с желаемыми выходами и вычислить величину разности между ними для каждого элемента обучаемой пары, возведение разностей в квадрат и нахождение суммы этих квадратов. Целью обучения является минимизация этой разности, часто называемой целевой функцией. Выбрать вес случайным образом и подкорректировать его на небольшое случайное значение. Если коррекция помогает (уменьшает целевую функцию), то сохранить ее, в противном случае вернуться к первоначальному значению веса. Повторять шаги с 1 до 3 до тех пор, пока сеть не будет обучена в достаточной степени. Стохастический алгоритм обучения НС

Больцмановское обучение 1.Определить переменную Т, представляющую искусственную температуру. Придать Т большое начальное значение. 2.Предъявить сети множество входов и вычислить выходы и целевую функцию. 3.Дать случайное изменение весу и пересчитать выход сети и изменение целевой функции в соответствии со сделанным изменением веса. 4.Если целевая функция уменьшилась (улучшилась), то сохранить изменение веса. Если изменение веса приводит к увеличению целевой функции, то вероятность сохранения этого изменения вычисляется с помощью распределения Больцмана: P(c) = exp(–c/kT) где Р(с) – вероятность изменения с в целевой функции; k – константа, аналогичная константе Больцмана, выбираемая в зависимости от задачи; Т – искусственная температура.

- Далее выбираем случайное число r из равномерного распределения от нуля до единицы. Если Р(с) больше, чем r, то изменение сохраняется, в противном случае величина веса возвращается к предыдущему значению. - Шаги 3 и 4 повторяются для каждого из весов сети, постепенно уменьшая температуру Т, пока не будет достигнуто допустимо низкое значение целевой функции. Величина случайного изменения веса на шаге 3 P(w) = exp(–w2/T2) где P(w) – вероятность изменения веса на величину w, Т – искусственная температура. -Найти кумулятивную вероятность, соответствующую P(w). Это есть интеграл от P(w) в пределах от 0 до w. - Выбрать случайное число из равномерного распределения на интервале (0,1). Используя эту величину в качестве значения P(w}, найти в таблице соответствующее значение для величины изменения веса.

Обучение Коши Распределение Коши имеет вид где Р(х) есть вероятность шага величины х. В уравнении Р(х) может быть проинтегрирована стандартными методами. Решая относительно х, получаем x c = r T(t) tg(P(x)), где r – коэффициент скорости обучения; х c – изменение веса. Для нахождения х выбирается случайное число из равномерного распределения на открытом интервале (– /2, /2).

Комбинирование метода обратного распространения ошибки с обучением Коши Коррекция весов, состоит из двух компонент: (1)направленной компоненты, вычисляемой с использованием алгоритма обратного распространения, (2)случайной компоненты, определяемой распределением Коши. w mn,k (n+1) = w mn,k (n) + С [a С w mn,k (n) + (1 – a ) С n,k Y m,j ] + (1 – С) x с, Коррекция весов задается