10. 3 Повносвязные нейронные сети со смешанным обучением 10.3.1 Нейронная сеть Хопфилда ( Hopfield Net)

Презентация:



Advertisements
Похожие презентации
Ассоциативная память. Ассоциативная сеть прямого распространения. 1 X 1 Y 1 X 2 Y 2 X i Y i X n Y n 2 i n... Y j = i=1 N w ij x i, j=1,M (*)
Advertisements

Лекция 6. Нейронные сети Хопфилда и Хэмминга Среди различных конфигураций искусственных нейронных сетей (НС) встречаются такие, при классификации которых.
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
Лекция3.4:Нейронные сети: обучение без учителя Рассмотренный в предыдущей главе алгоритм обучения нейронной сети с помощью процедуры обратного распространения.
© ElVisti Лекция 10 Основные сведения о нейронных сетях Дмитрий Владимирович ЛАНДЭ МЕЖДУНАРОДНЫЙ СОЛОМОНОВ УНИВЕРСИТЕТ.
Тема 10. Архитектура и алгоритмы обучения НС Основные парадигмы нейронных сетей обучения с учителем Однослойный перцептрон f f f х1.
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
Вероятностная НС (Probability neural network) X 1 X n... Y 1 Y m Входной слой Скрытый слой (Радиальный) Выходной слой...
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
Лекция 5. Нейронные сети: обучение без учителя Главная черта, делающая обучение без учителя привлекательным, – это его "самостоятельность". Процесс обучения,
Автор: студент группы С-83 Потапенко Владимир Москва 2012 г.
Нейросетевые технологии в обработке и защите данных Обработка данных искусственными нейронными сетями (ИНС). Лекция 5. Алгоритмы обучения искусственных.
МОДУЛЬНАЯ АРХИТЕКТУРА НС. Каждая входная переменная связана только с одним из входов модулей. Выходы всех входных модулей соединены с модулем решения.
Симплекс-метод Лекции 6, 7. Симплекс-метод с естественным базисом Симплекс –метод основан на переходе от одного опорного плана к другому, при котором.
Использование нейросимулятора при определении внешнего вида ребенка по параметрам родителей.
Нейросетевые технологии в обработке и защите данных Лекция 4. Обработка данных искусственными нейронными сетями (ИНС). Формальный нейрон. Функции активации.
1 Теория и применение искусственных нейронных сетей Тема 2 Т.Б. Шатовская Факультет компьютерных наук, Кафедра ПОЭВМ, ХНУРЭ ХНУРЭ, факультет КН, кафедра.
Павлов А.В. Инт.Инф.Сист. Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики.
Использование нейронной сети Хопфилда для решения оптимизационных задач маршрутизации.
Транксрипт:

10. 3 Повносвязные нейронные сети со смешанным обучением Нейронная сеть Хопфилда ( Hopfield Net)

Входной сигнал - вектор X={x i : i=1,...,n}, n – число нейронов в сети и розмерность входных и выходных векторов. Каждый элемент x i равен +1, или -1. Вектор k-го примера - X k, а его компоненты - x i k, k=1,...,m, m – число примеров. Если образ распознан выход сети равен Y=Xk, где Y – вектор выходных значений сети: Y={y i, i=1,...,n}. Инициализация сети ВЕСА СЕТИ где i и j – индексы соответственно предсинаптического и постсинаптического нейронов; x i k, x j k – i-ий та j-ый элементы вектора k-го примера.

Алгоритм функционирования сети (p – номер итерации). Шаг 1. На входы сети подается неизвестный сигнал. Фактически его введение осуществляется непосредственно установкой значений аксонов: y i (0) = x i, i =1,...,n, Шаг 2. Расчитывается новое состояние нейронов: и новые значения аксонов где f – активационная функция единичного прыжка Шаг 3. Проверка изменились ли выходные значения аксонов за последнюю итерацию. Если да – переход нашаг 2, в противоположном случае – конец.

Нейронная сеть Хемминга ( Hamming Network ) m ВХОД 1 слой 2 слой ВЫХОД mm Обратная связь

Расстоянием Хэмминга называется число отличных битов в двух бинарных векторах. Сеть должна выбрать пример с min расстоянием Хэмминга к неизвестному входному сигналу. Инициализация сети Весовые коэффициенты 1 слоя и порог активационной функции равны i=1,...,n-1, k=1,...,m-1 T k = n / 2, k=1,...,m-1, где x i k – i-ый элемент k-го примера. Весовые коэффициенты тормозящих синапсов во 2 слое - 0 < < 1/m. Синапс нейрона, связанный с его ж аксоном, имеет вес +1.

Алгоритм функционирования сети Хэмминга 1. На входы сети подается неизвестный вектор X = {x i : i=0...n-1}, исходя из которого рассчитываются состояния нейронов первого слоя (верхний индекс в скобках указывает номер слоя): j=0... m-1 После этого полученными значениями инициализируются значения аксонов второго слоя: y j (2) = y j (1), j = 0...m-1 2. Вычислить новые состояния нейронов второго слоя:

и значения их аксонов: Активационная функция f имеет вид порога, причем величина F должна быть достаточно большой, чтобы любые возможные значения аргумента не приводили к насыщению. 3. Проверить, изменились ли выходы нейронов второго слоя за последнюю итерацию. Если да – перейди к шагу 2. Иначе – конец.