© ElVisti Лекция 10 Основные сведения о нейронных сетях Дмитрий Владимирович ЛАНДЭ МЕЖДУНАРОДНЫЙ СОЛОМОНОВ УНИВЕРСИТЕТ.

Презентация:



Advertisements
Похожие презентации
Лекция 6. Нейронные сети Хопфилда и Хэмминга Среди различных конфигураций искусственных нейронных сетей (НС) встречаются такие, при классификации которых.
Advertisements

10. 3 Повносвязные нейронные сети со смешанным обучением Нейронная сеть Хопфилда ( Hopfield Net)
Тема 10. Архитектура и алгоритмы обучения НС Основные парадигмы нейронных сетей обучения с учителем Однослойный перцептрон f f f х1.
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
Нейросетевые технологии в обработке и защите данных Обработка данных искусственными нейронными сетями (ИНС). Лекция 5. Алгоритмы обучения искусственных.
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
Ассоциативная память. Ассоциативная сеть прямого распространения. 1 X 1 Y 1 X 2 Y 2 X i Y i X n Y n 2 i n... Y j = i=1 N w ij x i, j=1,M (*)
© ElVisti Лекция 7 Кластерный анализ и информационный поиск Дмитрий Владимирович ЛАНДЭ МЕЖДУНАРОДНЫЙ СОЛОМОНОВ УНИВЕРСИТЕТ.
© ElVisti Лекция 6 Математические модели информационных потоков Дмитрий Владимирович ЛАНДЭ МЕЖДУНАРОДНЫЙ СОЛОМОНОВ УНИВЕРСИТЕТ.
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
10.2 Основные парадигмы нейронных сетей обучения без учителя Самоорганизующиеся карты признаков Кохонена (Self-organized map) Кохонена... Выходные.
© ElVisti Лекция 2 Общие сведения об информационно-поисковых системах Дмитрий Владимирович ЛАНДЭ МЕЖДУНАРОДНЫЙ СОЛОМОНОВ УНИВЕРСИТЕТ.
Использование нейросимулятора при определении внешнего вида ребенка по параметрам родителей.
МОДУЛЬНАЯ АРХИТЕКТУРА НС. Каждая входная переменная связана только с одним из входов модулей. Выходы всех входных модулей соединены с модулем решения.
© ElVisti Лекция 9 Элементы фрактального анализа информационных потоков Дмитрий Владимирович ЛАНДЭ МЕЖДУНАРОДНЫЙ СОЛОМОНОВ УНИВЕРСИТЕТ.
Вероятностная НС (Probability neural network) X 1 X n... Y 1 Y m Входной слой Скрытый слой (Радиальный) Выходной слой...
Кафедра фотоники и оптоинформатики Санкт-Петербургский государственный университет информационных технологий, механики и оптики А.В.Павлов Оптические Технологии.
Распознавание оптических образов (символов) с помощью однослойного персептрона Методические указания по дисциплинам «Системы искусственного интеллекта»,
Автор: студент группы С-83 Потапенко Владимир Москва 2012 г.
Алгоритмы на графах. Задача о максимальном потоке в сетях Требуется от источника к стоку передать максимальное количество энергии. В условиях задачи о.
Транксрипт:

© ElVisti Лекция 10 Основные сведения о нейронных сетях Дмитрий Владимирович ЛАНДЭ МЕЖДУНАРОДНЫЙ СОЛОМОНОВ УНИВЕРСИТЕТ

© ElVisti2 Упрощенная модель мозга Мозг человека содержит нейронов. Состав нейрона: аксон, дендритов, синапсы Состояние нейрона – возбужденное или невозбужденное.

© ElVisti3 Формальный нейрон Нейрон как компьютер: Потенциал нейрона (аксона) – функция от потенциала дендритов. Формальный нейрон: Входные сигналы формируются в рецепторах (не входят нейрон). Далее эти сигналы умножаются на веса соответствующих синапсов (которые могут изменяться при обучении), Затем результаты суммируются. На основе полученной суммы (NET) с помощью активиционной функции вычисляется выходной сигнал нейрона (OUT).

© ElVisti4 Нейрон как компьютер Сигнал сумматора: n – количество синапсов i – индекс сигнала x i – входной сигнал NET – сигнал сумматора Активизационная функция: OUT = F(NET) Примеры активизационных функций: 1.OUT = K*NET 2.OUT=1, NET>T; OUT=0, NET T 3.OUT=1/(1 + e -NET ) 4.OUT=th(NET)

© ElVisti5 Нейронная сеть Нейронная сеть – ориентированный ациклический граф, вершины которого нейроны разбиты на слои. Ребра – синапсы. Каждому ребру приписан свой вес и функция проводимости.

© ElVisti6 Перцептрон Понятие перцептрона было введено в 50-е годы ХХ века Фрэнком Розенблатом. Первая версия перцептрона представляла собой однослойную нейронную сеть. Однослойный перцептрон состоит из слоя рецепторов и слоя нейронов (внутри которых выделяют слой синапсов). В перцептроне каждый нейрон связан через синаптический контакт со всеми рецепторами предыдущего слоя. Было доказано, что однослойные нейронные сети не способны решать многие задачи (например, исключающее ИЛИ). Для решения этих проблем широко используются многослойные нейронные сети. Многослойные сети могут образовываться каскадами слоев. Выход одного слоя является входом для последующего слоя.

© ElVisti7 Нейронная сеть, способная обучаться Нейронная сеть обучается, чтобы для некоторого множества входных сигналов давать желаемое множество выходных сигналов. Каждое множество сигналов при этом рассматривается как вектор. Обучение осуществляется путем последовательного предъявления входных векторов с одновременной подстройкой весов в соответствии с определенной процедурой. В процессе обучения веса сети постепенно становятся такими, чтобы каждый входной вектор вырабатывал требуемый выходной вектор, используя правила, указанные выше. Перцептрон Фрэнка Розенблата

© ElVisti8 Пример практического применения: определение тональности сообщений Алгоритм определения тональности представим в виде нейронной сети. Первый слой этой сети составляют два нейрона – определители весовых значений положительной и отрицательной тональности (положительный и отрицательный нейроны). Можно предположить, что количество дендритов каждого нейрона равно количеству слов из словаря естественного языка. На вход нейронов поступают входные сигналы - значения x 1 …x n, соответствующие входным словам. При этом x i =1, если на вход поступило слово из словаря с номером i, в противном случае x i =0.

© ElVisti9 Определение тональности сообщений: вес синопсов и функция проводимости Весовые значения (веса синапсов), которые соответствуют этим словам, равны w + 1 …w + n для положительного нейрона и w - 1 …w - n - для отрицательного. Именно эти весовые значения могут изменяться в процессе обучения перцептрона. Сумматоры подсчитывают значения NET + и NET -, соответственно. Проводимость нейронов рассчитывается по формуле: где х – число весомых с точки зрения тональности слов в информационном сообщении, α – вес.

© ElVisti10 Определение тональности сообщений: общая схема Аргументом в формуле выступает значение NET + для положительного нейрона и NET - – для отрицательного. Оба нейрона выдают через аксоны градиентные значения, OUT + и OUT -. Эти значения - входные сигналы нейрона второго уровня, сумматор которого вычис- ляет разность OUT + и OUT -, а функция проводимости выдает гради- ентный результат по приведенному условию.

© ElVisti Спасибо за внимание! Ландэ Д.В МЕЖДУНАРОДНЫЙ СОЛОМОНОВ УНИВЕРСИТЕТ Киев, Украина