А.В.Павлов ОТИИ Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов.

Презентация:



Advertisements
Похожие презентации
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
Advertisements

10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
А.В.Павлов ОТИИ Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов.
Лекция 5. Нейронные сети: обучение без учителя Главная черта, делающая обучение без учителя привлекательным, – это его "самостоятельность". Процесс обучения,
Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов Оптические Технологии.
Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов Оптические Технологии.
Павлов А.В. Инт.Инф.Сист. Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики.
Павлов А.В. ОТИИ. Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов.
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
Выполни
Вероятностная НС (Probability neural network) X 1 X n... Y 1 Y m Входной слой Скрытый слой (Радиальный) Выходной слой...
Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов Оптические технологии.
Нейросетевые технологии в обработке и защите данных Обработка данных искусственными нейронными сетями (ИНС). Лекция 5. Алгоритмы обучения искусственных.
Тема 10. Архитектура и алгоритмы обучения НС Основные парадигмы нейронных сетей обучения с учителем Однослойный перцептрон f f f х1.
Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов Интеллектуальные.
Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов Обработка информации.
Называется поверхность, состоящая из всех точек пространства, расположенных на данном расстоянии от данной точки. R – радиус сферы О – центр сферы.
1 Теория и применение искусственных нейронных сетей Тема 2 Т.Б. Шатовская Факультет компьютерных наук, Кафедра ПОЭВМ, ХНУРЭ ХНУРЭ, факультет КН, кафедра.
Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов Оптические технологии.
Ассоциативная память. Ассоциативная сеть прямого распространения. 1 X 1 Y 1 X 2 Y 2 X i Y i X n Y n 2 i n... Y j = i=1 N w ij x i, j=1,M (*)
Транксрипт:

А.В.Павлов ОТИИ Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов Оптические Технологии Искусственного Интеллекта Тема Самоорганизация и самообучение в ИНС. Сеть Кохонена. Санкт-Петербург, 2007

А.В.Павлов ОТИИ Слой Кохонена Слой рецепторов (входной вектор) Слой Кохонена (классификатор) …… - классифицирует входные векторы в группы подобных В простейшей форме реализуется модель «WTA» («Победитель забирает всё»): вводится латеральное торможение выявляется нейрон-победитель

А.В.Павлов ОТИИ Нормализация - преобразование входного вектора в единичный вектор с тем же самым направлением, т. е. в вектор единичной длины в n- мерном пространстве. 4 3 X Y 3/5 4/5

А.В.Павлов ОТИИ Это представимо в двумерном пространстве векторами, оканчивающимися на окружности единичного радиуса, когда у сети лишь два входа: В случае трех входов векторы представлялись бы стрелками, оканчивающимися на поверхности единичной сферы. Сети, имеющие произвольное число входов, где каждый входной вектор является стрелкой, будут оканчиваться на поверхности единичной гиперсферы

А.В.Павлов ОТИИ Инициализация - придание векторам весов W ij случайных малых значений W1W1 W2W2 W4W4 W3W3 1 1

А.В.Павлов ОТИИ Работа сети: Предъявляется входной вектор W1W1 W4W4 W3W3 1 1 Вводится метрика ( например, скалярное произведение) и вычисляются расстояния до векторов весов, связанными со всеми нейронами Кохонена Х1Х1 САМООБУЧЕНИЕ: Нейрон с максимальным значением скалярного произведения объявляется победителем и его веса подстраиваются по формуле: Переменная h является коэффициентом скорости обучения, который вначале обычно равен ~ 0,7 и может постепенно уменьшаться в процессе обучения. Это позволяет делать большие начальные шаги для быстрого грубого обучения и меньшие шаги при подходе к окончательной величине.

А.В.Павлов ОТИИ Проблема: Как распределить начальные значения весовых векторов в соответствии с плотностью входных векторов, которые должны быть разделены? Помещение большего количества весовых векторов в окрестности большого числа входных векторов. Решение: На практике это невыполнимо, однако, существует несколько методов приближенного достижения тех же целей:

А.В.Павлов ОТИИ Метод выпуклой комбинации () Метод выпуклой комбинации ( convex combination method ) Все веса приравниваются: где n – число входов (число компонент каждого весового вектора) Каждой компоненте входа Х придается значение: где n – число входов

А.В.Павлов ОТИИ Другие методы: Добавление шума к входным векторам; Наделение каждого нейрона Кохонена «Чувством справедливости»; Метод аккредитации; Метод интерполяции. На начальной стадии подстраиваются все веса, а затем коррекция весов производится только для нейронов, ближайших к победителю. Если какой-либо нейрон становится победителем слишком часто (чаще, чем 1/k, где k – число нейронов Кохонена), то он временно увеличивает свой порог, давая тем самым возможность обучаться и другим нейронам. Для каждого входного вектора активируется лишь один нейрон- победитель. Возбуждение не одного, а группы нейронов с максимальным уровнем активации (Модификация идеи WTA).

А.В.Павлов ОТИИ Выводы: Во многих приложениях точность результата существенно зависит от распределения весов. К сожалению, эффективность различных решений исчерпывающим образом не оценена и остается проблемной.