ГЕНЕТИЧЕСКИЙ АЛГОРИТМ НАСТРОЙКИ ИСКУССТВЕННОЙ НЕЙРОННОЙ СЕТИ Конференция «Технологии Microsoft в информатике и программировании», 21-23 февраля 2004г.

Презентация:



Advertisements
Похожие презентации
«Современные техника и технологии 2005» Адаптивный оператор мутации для нейроэволюционного алгоритма АДАПТИВНЫЙ ОПЕРАТОР МУТАЦИИ ДЛЯ НЕЙРОЭВОЛЮЦИОННОГО.
Advertisements

«Современные техника и технологии 2004» Многоагентный нейроэволюционный подход к адаптивному управлению МНОГОАГЕНТНЫЙ НЕЙРОЭВОЛЮЦИОННЫЙ ПОДХОД К АДАПТИВНОМУ.
ТРЕХЭТАПНАЯ ОБРАБОТКА ЦИФРОВЫХ ИЗОБРАЖЕНИЙ С ИСПОЛЬЗОВАНИЕМ ЭВОЛЮЦИОНИРУЮЩИХ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ* Цой Ю.Р., Спицын В.Г. Кафедра вычислительной.
Цой Ю.Р., Спицын В.Г. К выбору размера популяции Интеллектуальные системы (AIS04), Россия, Дивноморское, 3-10 сентября, 2004г. К ВЫБОРУ РАЗМЕРА ПОПУЛЯЦИИ.
ФАКУЛЬТЕТ ПРИКЛАДНОЙ МАТЕМАТИКИ и ИНФОРМАТИКИ Тарасюк Александр Евгеньевич СИСТЕМА РАСПОЗНАВАНИЯ ЛИЦ НА ОСНОВЕ НЕЙРОННОЙ СЕТИ.
ОДИН СПОСОБ ВЫЧИСЛЕНИЯ ВРЕМЕНИ СМЕШИВАНИЯ ДЛЯ ГЕНЕТИЧЕСКИХ ОПЕРАТОРОВ СКРЕЩИВАНИЯ * Цой Ю.Р Кафедра вычислительной техники, Томский политехнический университет.
Разработка методов машинного обучения на основе генетических алгоритмов и эволюционной стратегии для построения управляющих конечных автоматов Второй этап.
Разработка программного средства 3Genetic для генерации автоматов управления системами со сложным поведением Государственный контракт «Технология.
Применение генетических алгоритмов для генерации тестов к олимпиадным задачам по программированию Буздалов М.В., СПбГУ ИТМО.
Прогнозирование финансовых рынков с использованием нейронных сетей Выполнила: Кокшарова А.А. ПНИПУ, ФПММ гр. ММЭм-12 Руководитель: к. ф.-м.н. Шумкова Д.Б.
МОДУЛЬНАЯ АРХИТЕКТУРА НС. Каждая входная переменная связана только с одним из входов модулей. Выходы всех входных модулей соединены с модулем решения.
Нейросетевые технологии в обработке и защите данных Обработка данных искусственными нейронными сетями (ИНС). Лекция 5. Алгоритмы обучения искусственных.
Вычислительные регуляторные сети Ю.Р. Цой Томский политехнический университет Томск 2007.
Тема 10. Архитектура и алгоритмы обучения НС Основные парадигмы нейронных сетей обучения с учителем Однослойный перцептрон f f f х1.
«Обучение нейронных сетей. Алгоритм обратного распространения ошибки» Курс: «Системы искусственного интеллекта»
Липецкий государственный технический университет Кафедра прикладной математики Кузьмин Алексей Сергеевич Распознавание образов сверточными искусственными.
Лекция 6. Нейронные сети Хопфилда и Хэмминга Среди различных конфигураций искусственных нейронных сетей (НС) встречаются такие, при классификации которых.
Гречанинова Наталья 11 гр. Научный руководитель: Энгель Е.А.
Применение генетического программирования в задаче поиска усердных бобров Д. О. Соколов, П.В. Федотов, Ф. Н. Царев Научный руководитель – А. А. Шалыто.
Метод моделирования статических систем по экспериментальным данным.
Транксрипт:

ГЕНЕТИЧЕСКИЙ АЛГОРИТМ НАСТРОЙКИ ИСКУССТВЕННОЙ НЕЙРОННОЙ СЕТИ Конференция «Технологии Microsoft в информатике и программировании», февраля 2004г. Цой Ю.Р., Спицын В.Г. Томский политехнический университет Кафедра вычислительной техники

Схема нейроэволюционного алгоритма Отбор Выбор родительских особей Инициализация Формирование нового поколения

Особенности алгоритма NEvA (NeuroEvolutionary Algorithm) Одновременная настройка весов и структуры искусственной нейронной сети. Неограниченный размер и сложность сетей. Большая гибкость эволюционного поиска. Адаптивный механизм мутации. Для работы необходима только обучающая выборка.

Представление информации в генетическом виде

Скрещивание особей

Мутация добавление нейрона; удаление нейрона; добавление связи; удаление связи; изменение веса случайно выбранной связи на произвольную величину из диапазона [-0,5; 0,5]. Выбор типа мутации осуществляется, исходя из характеристик сети, представленной мутирующей особью

Эксперименты Задача «Исключающего ИЛИ». Канонический генетический алгоритм (CGA). Алгоритм обратного распространения ошибки без инерционной составляющей (BP). Алгоритм обратного распространения ошибки с инерционной составляющей (BPM). Структура сети: 2 входных нейрона, 4 скрытых нейрона, 1 выходной нейрон. Каждый алгоритм запускался по 50 раз.

Сравнение результатов N - количество вычислений целевой функции NE - алгоритм NEvA CGA - канонический генетический алгоритм BP - алгоритм обратного распространения ошибки BPM - алгоритм обратного распространения ошибки с инерционностью

Примеры решений, найденных алгоритмом NEvA

Результаты и выводы Среднее число скрытых нейронов в решениях, найденных алгоритмом NEvA, равно 4,98, связей – 15,38. 7 раз были найдены сети с более простой топологией, чем в случае алгоритмов CGA, BP и BPM. 3 раза были найдены сети с эквивалентной топологией. Несмотря на проигрыш в скорости, стоит отметить стабильность работы и изначально большую сложность задачи. Алгоритм успешно справился с поставленной задачей.

Спасибо за внимание! (Ваши вопросы)