Ассоциативная память. Ассоциативная сеть прямого распространения. 1 X 1 Y 1 X 2 Y 2 X i Y i X n Y n 2 i n... Y j = i=1 N w ij x i, j=1,M (*)

Презентация:



Advertisements
Похожие презентации
10. 3 Повносвязные нейронные сети со смешанным обучением Нейронная сеть Хопфилда ( Hopfield Net)
Advertisements

Лекция 6. Нейронные сети Хопфилда и Хэмминга Среди различных конфигураций искусственных нейронных сетей (НС) встречаются такие, при классификации которых.
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
Тема 10. Архитектура и алгоритмы обучения НС Основные парадигмы нейронных сетей обучения с учителем Однослойный перцептрон f f f х1.
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
Нейросетевые технологии в обработке и защите данных Обработка данных искусственными нейронными сетями (ИНС). Лекция 5. Алгоритмы обучения искусственных.
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
Вероятностная НС (Probability neural network) X 1 X n... Y 1 Y m Входной слой Скрытый слой (Радиальный) Выходной слой...
Павлов А.В. Инт.Инф.Сист. Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики.
1 Теория и применение искусственных нейронных сетей Тема 2 Т.Б. Шатовская Факультет компьютерных наук, Кафедра ПОЭВМ, ХНУРЭ ХНУРЭ, факультет КН, кафедра.
Лекция3.4:Нейронные сети: обучение без учителя Рассмотренный в предыдущей главе алгоритм обучения нейронной сети с помощью процедуры обратного распространения.
© ElVisti Лекция 10 Основные сведения о нейронных сетях Дмитрий Владимирович ЛАНДЭ МЕЖДУНАРОДНЫЙ СОЛОМОНОВ УНИВЕРСИТЕТ.
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
МОДУЛЬНАЯ АРХИТЕКТУРА НС. Каждая входная переменная связана только с одним из входов модулей. Выходы всех входных модулей соединены с модулем решения.
Павлов А.В. ОТИИ. Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов.
Симплекс-метод Лекции 6, 7. Симплекс-метод с естественным базисом Симплекс –метод основан на переходе от одного опорного плана к другому, при котором.
Лекция 5. Нейронные сети: обучение без учителя Главная черта, делающая обучение без учителя привлекательным, – это его "самостоятельность". Процесс обучения,
Основы нейронных сетей Рязанов М.А.. Построение обученной нейросети.
Сети глубокого обучения. Локальное и нелокальное в пространстве признаков обучение Прототипом всякого локально-обучающего алгоритма является построение:
Распознавание оптических образов (символов) с помощью однослойного персептрона Методические указания по дисциплинам «Системы искусственного интеллекта»,
Транксрипт:

Ассоциативная память. Ассоциативная сеть прямого распространения. 1 X 1 Y 1 X 2 Y 2 X i Y i X n Y n 2 i n... Y j = i=1 N w ij x i, j=1,M (*)

Сети предъявляются ассоциативные пары (x p, y p ), каждая из которых имеет свою весовую матрицу W p (N M) Задача сети: выдача на выходе сигнала (образа) y p ассоциированного с х р, если на ее вход поступает вектор х* подобный х р Расстояние Хэмминга ( расстояние между двумя векторами, представленными в двоичной форме) - число позиций в которых они отличаются. Автоассоциативная Гетероассоциативная Выдача сигнала у, соответствующего Хранит ассоциативные пары Х (хранит р образов, а не пар) Алгоритмы обучения ассоциативной памяти Правило Хэбба, дельта-правило, метод псевдоинверсий

Правило обучения Хэбба W ij = x i y j, i=1,N, j=1,M (1) W = y x Т, (2) матричный вид где - коэффициент пропорциональности обучения Соотношением (1) (2) описывается любая из р обучающих пар, значит W р = y р x Т р, (3) Матрица весов W имеет вид W = (4) Корректировка весов W(k+1) = W(k) + y(k) x T (k) (5) где k – k-й входные и выходные вектора Неконтролируемое правило обучения Хэбба (6)

Пример 1. Пусть сети предъявляются обучающие входные образы х 1 Т =(1 1) х 2 Т = (1 1)., а выходной сигнал формируется пороговой функцией Рассмотрим настройку весов по (5) с =1. Пусть W T (0)=(1 1 ) Имеем K=1 W(0) T x(1)= 1·1+ 1 ·1 = 2, y(1) = 1 K=2 W(1) T x(2)= (2 2) =4, y(2)=1, W(1)= + 1· = W(2) = W(1) + y(2) x(2) =

Применение механизма забывания В (5) используется W (k) = (1- ) W(k-1) + y(k) x T (k) (7) W ij max = / (8) Пример 2. Пусть сети предъявляются те же входы (пример 1) с =1, =0,1 k=1 y(1) =1 W(1) = (1-0.1) +1 = k=2 y(2) =1 W(2) = (1-0.1) + 1 = W max = 1/0.1=10 Далее правило (5) подверглось дальнейшему усовершенствованию, с целью минимизации повторения образов w ij (k) = w ij (k-1) + y i (k) x j (k) - y i (k) w ij (k-1) (9)

Если в (9) выбрать = получим w ij (k) = w ij (k-1) + y i (k) (x j (k) – w ij (k-1)) (10) Правило входной связки Если y i (k) = 1, то w ij (k) = (1- ) w ij (k) + x i (k) (11) Контролируемое правило обучения Хэбба W p = y * p x T p (12) где y* p – требуемый выход Матрица сети W определяется согласно (4) Фактический выходной сигнал при предъявлении некоторого образа x k вычисляется y k = W x k =(13) (14)

Пример 3. Пусть на вход линейной сети поступает обучающая последовательность (N=M=3) x 1 T = ( ) (y 1 * ) T = (1 1 0) x 2 T = ( 0 1 0) (y 2 *) T = (0 1 1) x 3 T = ( ) ( y 3 *) T = (1 0 1) Вычислим матрицы весов W p по (12)

При подаче на вход запомненных образов сеть их правильно воспроизводит

Дельта-правило обучения Если для р-ой обучающей пары (x p, y p * ) выходной сигнал представлен соотношением (*) то корректировка веса имеет вид Гетероассоциативная память (ГАП) Хранит ассоциированные пары {x p, y p } X1X1 Y1Y1... X2X2 XNXN YMYM YMYM X1X1 Y1Y1 X2X2 XNXN А Б

Пример 4. Рассмотрим сеть рис.А., с N=5, M=3 и пороговой релейной функцией активации. x 1 T = ( ) (y 1 *) T = (1 1 -1) x 2 T = ( ) (y 2 *) T = (1 -1 1) x 3 T = ( ) ( y 3 *) T = (-1 1 1) Функция активации Вычислим по (3) частные весовые матрицы, =1

Находим общую матрицу весов

Найдем ассоциированный образ с учетом функции активации Подадим на сеть искаженный образ х 2 Э =( ). Получим

Автоассоциативная память Частный случай ГАП при N=M. Сеть хранит предъявляемые обучающие пары (x,y * ). Задача сети – воссоздание некоторого зашумленного образа. Емкость сети (макс. число хранимых образов ) N. Двунаправленная ассоциативная память (ДАП) X1X1 Y1Y1... X2X2 XNXN YMYM w NM

Пороговая функция активации Пример 5. Применим правило Хэбба для обучения ДАМ. Пусть имеем обучающие пары x 1 T = ( ) y 1 T = ( ) x 2 T = ( ) y 2 T = ( ) Матрицы весов

При подаче х 1 с учетом пороговой функции активации W=W 1 +W 2 = Wx 1 = Воссоздание образа у 1 Подаем в обратном направлении на ДАМ вектор у 1 W Т у 1 = Воссоздание образа х 1

Аналогично можно вычислить для х 2 и у 2. Подадим на вход сети искаженный образ х 1 Э =( ) Получим Образ у 1 - Образ х 1 То есть сеть правильно восстановила искаженный образ

10. 3 Повносвязные нейронные сети со смешанным обучением Нейронная сеть Хопфилда ( Hopfield Net)

1.Сеть является однослойной и содержит N нейронов, число которых является одновременно числом входов и выходов сети 2.Каждый нейрон сети связан со всеми остальными нейронами 3.Ни один нейрон не имеет собственной обратной связи 4.Веса сети являются симметричными, т.е w ij =w ji 5.Каждый нейрон имеет пороговую функцию активации 6.Входными являются двоичные сигналы Цель работы Сети предъявляются р образов, описываемых N-мерными векторами x=(x 1, …x N ). Сеть на выходе формирует вектор компоненты которого совпадут с предъявленным образом, y=x p Каждый элемент x i равен +1, или -1.

Три стадии функционирования сети: 1.Инициализация 2.Предъявление входного образа 3.Вычисление состояния нейронов Инициализация сети ВЕСА СЕТИ где i и j – индексы соответственно предсинаптического и постсинаптического нейронов; x i р, x j р – i-ий та j-ый элементы вектора р-го примера. (1)

Алгоритм функционирования сети (k – номер итерации). Шаг 1. На входы сети подается неизвестный сигнал. Фактически его введение осуществляется непосредственно установкой значений аксонов: y i (0) = x i, i =1,...,n, Шаг 2. Расчитывается новое состояние нейронов: и новые значения аксонов где f – активационная функция единичного прыжка Шаг 3. Проверка изменились ли выходные значения аксонов за последнюю итерацию. Если да – переход нашаг 2, в противоположном случае – конец. (2) (3)

Для активных нейронов вычисляется энергия каждого образа Пример 1. Рассмотрим сеть Хопфилда, состоящей из 7 нейронов и биполярной пороговой функции активации с порогом Т =0, для обучения которой используются образы х 1 =( ) Т и х 2 =( ) Т Сеть должна распознать искаженный образ х 3 = х 2 - =( ) W=W 1 +W 2 = W 1 – матрица весов для i-го обучающего образа выч-я по (1)

w 12 =1·(-1)+(-1) ·(-1)=0, w 13 =1·(-1)+(-1) ·1= -2 w 14 =1·1+(-1) ·(-1)=2, w 15 =1·(-1)+(-1) ·1= -2, w 16 =1·1+(-1) ·(-1)=2, w 17 =1·1+(-1) ·1=0, После определения всех весов W имеет вид, а также вычислим энергию каждого образа, принимая во внимание только активные нейроны W= Е1=Е1= Е 1 1 = - ½ [x 1 (w 13 x 3 +w 14 x 4 +w 15 x 5 +w 16 x 6 )]= = -1/2 [(-2·(-1)+2·1+-2·(-1)+2·1)]= -4 Е 4 1 = - ½ [x 4 (w 41 x 1 +w 43 x 3 +w 45 x 5 +w 46 x 6 )]= -4 Е 6 1 = -4, Е 7 1 = -1 Е 1 = -13 Аналогично получаем для второго образа Е 2 = Е 3 2 +Е 5 2 +Е 7 2 = -9

Распознавание искаженного вектора начинаем с определения его энергии Е 3 = Е 5 3 +Е 7 3 = -5. Далее по (2) и (3) определяем новые состояния нейронов и соответствующие выходные сигналы, которые с учетом биполярной функции равны s 1 3 =w 31 x 3 3 +w 41 x 4 3 +w 51 x 5 3 +w 61 x 6 3 = (-2)(-1)+2(-1)+(-2)1+2(-1)= -4

Нейронная сеть Хемминга ( Hamming Network ) m ВХОД 1 слой 2 слой ВЫХОД mm Обратная связь

Сеть должна выбрать пример с min расстоянием Хэмминга к неизвестному входному сигналу. 1. Инициализация сети Весовые коэффициенты 1 слоя и порог активационной функции равны W 1 T = |x 1 * x 2 * x M * | Выходной сигнал этого слоя реализуется как Y = 0.5 (W 1 x+(M M…M )T ), где М – количество хранимых в памяти образов, т.е каждый компонент выходного сигнала Y i = 0.5 [(x i *) T x + M] Пусть Н – число несовпадающих битов двух векторов, тогда преобразуем Y i = 0.5 [(М-2Н+М]= М-Н Весовая матрица второго слоя равна W 2 = где

Выходной сигнал всей сети равен y(k)=W 2 y(k-1). 2. Алгоритм функционирования сети Хэмминга 1. На входы сети подается неизвестный вектор X = {x i : i=0...n-1}, исходя из которого рассчитываются состояния нейронов первого слоя (верхний индекс в скобках указывает номер слоя): j=0... m-1 После этого полученными значениями инициализируются значения аксонов второго слоя: y j (2) = y j (1), j = 0...m-1 2. Вычислить новые состояния нейронов второго слоя:

и значения их аксонов: Активационная функция f имеет вид порога, причем величина F должна быть достаточно большой, чтобы любые возможные значения аргумента не приводили к насыщению. 3. Проверить, изменились ли выходы нейронов второго слоя за последнюю итерацию. Если да – перейди к шагу 2. Иначе – конец. Пример. Даны два вектора х 1 * = (1, -1, -1 ) Т, х 2 * = (1, 1, -1) Т. Пусть = 0.3. х1х1 х2х2 х3х3 у1у1 у1у1 W1TW1T W2TW2T 1Тогда матрица будет W 1 = ( )

Рассчитаем компоненты выходного сигнала первого слоя при подаче на вход х 1 * с учетом того, что М=2 Y(0) = 0.5 После первой итерации на выходе получаем После второй и т.д. Первый компонент будет увеличиваться. Пусть на вход подан образ х 3 = ( ) Т – искажение х 1.

Тогда на выходе первого слоя будет сигнал Y И (0) = 0.5 После первой итерации на выходе сети получаем Расстояние Хэмминга между образом х 3 и образами х 1 * и х 2 * будут равны Н 1 =1 и Н 2 =2