Липецкий государственный технический университет Кафедра прикладной математики Кузьмин Алексей Сергеевич Распознавание образов сверточными искусственными.

Презентация:



Advertisements
Похожие презентации
ФАКУЛЬТЕТ ПРИКЛАДНОЙ МАТЕМАТИКИ и ИНФОРМАТИКИ Тарасюк Александр Евгеньевич СИСТЕМА РАСПОЗНАВАНИЯ ЛИЦ НА ОСНОВЕ НЕЙРОННОЙ СЕТИ.
Advertisements

Тема 10. Архитектура и алгоритмы обучения НС Основные парадигмы нейронных сетей обучения с учителем Однослойный перцептрон f f f х1.
Использование глубоких машин Больцмана в системах распознавания образов Выполнил: студент группы ИТД-М1-41 Дьяконов А.В. Научный руководитель: д. б. н.,
Система управления РТК Основная задача системы управления роботом – автоматизация деятельности человека-оператора. Составные части: Система технического.
Нейросетевые технологии в обработке и защите данных Обработка данных искусственными нейронными сетями (ИНС). Лекция 5. Алгоритмы обучения искусственных.
Прогнозирование финансовых рынков с использованием нейронных сетей Выполнила: Кокшарова А.А. ПНИПУ, ФПММ гр. ММЭм-12 Руководитель: к. ф.-м.н. Шумкова Д.Б.
Институт энергосбережения и энергоменеджмента Кафедра автоматизации управления электротехническими комплексами Научный руководитель: доц. Тышевич Б.Л.
1 Теория и применение искусственных нейронных сетей Тема 2 Т.Б. Шатовская Факультет компьютерных наук, Кафедра ПОЭВМ, ХНУРЭ ХНУРЭ, факультет КН, кафедра.
Автор: студент группы С-83 Потапенко Владимир Москва 2012 г.
«Обучение нейронных сетей. Алгоритм обратного распространения ошибки» Курс: «Системы искусственного интеллекта»
Вероятностная НС (Probability neural network) X 1 X n... Y 1 Y m Входной слой Скрытый слой (Радиальный) Выходной слой...
Введение в задачи исследования и проектирования цифровых систем Санкт-Петербургский государственный университет Факультет прикладной математики - процессов.
Использование нейронных сетей для прогнозирования изменений на фондовом рынке Михаил Бондаренко 14 August
ТРЕХЭТАПНАЯ ОБРАБОТКА ЦИФРОВЫХ ИЗОБРАЖЕНИЙ С ИСПОЛЬЗОВАНИЕМ ЭВОЛЮЦИОНИРУЮЩИХ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ* Цой Ю.Р., Спицын В.Г. Кафедра вычислительной.
ГЕНЕТИЧЕСКИЙ АЛГОРИТМ НАСТРОЙКИ ИСКУССТВЕННОЙ НЕЙРОННОЙ СЕТИ Конференция «Технологии Microsoft в информатике и программировании», февраля 2004г.
Методы распознавания зашумленных образов БЕЛОРУССКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ ФАКУЛЬТЕТ ПРИКЛАДНОЙ МАТЕМАТИКИ и ИНФОРМАТИКИ Кафедра математического.
Сеть поиска максимума (MAXNET) Сеть поиска максимума с прямыми связями – слогослойная нейронная сеть определяющая, какой из входных сигналов имеет.
Метод моделирования статических систем по экспериментальным данным.
МОДУЛЬНАЯ АРХИТЕКТУРА НС. Каждая входная переменная связана только с одним из входов модулей. Выходы всех входных модулей соединены с модулем решения.
Использование нейросимулятора при определении внешнего вида ребенка по параметрам родителей.
Транксрипт:

Липецкий государственный технический университет Кафедра прикладной математики Кузьмин Алексей Сергеевич Распознавание образов сверточными искусственными нейронными сетями Направление Прикладная математика Научный руководитель д.ф.-м.н., профессор Блюмин С.Л. Липецк 2015 г.

Кузьмин А.С.Плакат 1 разработка классификатора на основе сверточной искусственной нейронной сети для распознавания дорожных знаков на изображениях. Задачи исследования обзор и анализ существующих методов распознавания изображений; исследование основных свойств и принципов построения и обучения сверточных нейронных сетей; подбор архитектуры и параметров обучения сверточной искусственной нейронной сети; обучение и оценка работы классификатора. Цель работы ПОСТАНОВКА ЗАДАЧИ

Кузьмин А.С.Плакат 2 СВЕРТОЧНАЯ ИСКУССТВЕННАЯ НЕЙРОННАЯ СЕТЬ Рисунок 1. Общая структура СИНС

Кузьмин А.С.Плакат 3 АЛГОРИТМ СВЕРТКИ ИЗОБРАЖЕНИЯ Пусть дано изображение в формате матрицы чисел X и квадратная матрица W: Тогда операция свертки определяется выражением Ядро Якорь (1) где – это значение элемента ядра свертки в позиции (s,t), – значение пикселя выходного изображения, – значение пикселя исходного изображения, K – размер ядра свертки.

Кузьмин А.С.Плакат 3 (1) где – это значение элемента ядра свертки в позиции (s,t), – значение пикселя выходного изображения, – значение пикселя исходного изображения, K – размер ядра свертки. Рисунок 2. Алгоритм свертки изображения АЛГОРИТМ СВЕРТКИ ИЗОБРАЖЕНИЯ

Кузьмин А.С.Плакат 4 АЛГОРИТМ СУБДИСКРЕТИЗАЦИИ ИЗОБРАЖЕНИЯ Пусть дано изображение в формате матрицы чисел X и установлено, что размеры окна субдискретизации – k x k: Тогда операция субдискретизации определяется выражением (2) где – это значение пикселя выходного изображения, – значение пикселя исходного изображения.

Кузьмин А.С. Пусть дано изображение в формате матрицы чисел X и установлено, что размеры окна субдискретизации – k x k: Тогда операция субдискретизации определяется выражением где – это значение пикселя выходного изображения, – значение пикселя исходного изображения. Плакат 4 Рисунок 3. Алгоритм max-pooling АЛГОРИТМ СУБДИСКРЕТИЗАЦИИ ИЗОБРАЖЕНИЯ (2)

Кузьмин А.С.Плакат 5 ПАРАДИГМЫ СИНС Такая архитектура заключает в себе 3 основных парадигмы: 1. Локальное восприятие: 2. Разделяемые веса: 2. Субдискретизация: За счет этого повышается устойчивость входного сигнала к смещениям и незначительным деформациям

Кузьмин А.С.Плакат 6 МЕТОД ОБРАТНОГО РАСПРОСТРАНЕНИЯ ОШИБКИ При реализации обратного распространения ошибка выходного слоя выбрана следующим образом где M количество нейронов выходного слоя, k номер выходного нейрона, реальное значение выходного сигнала нейрона, ожидаемое значение. Для обучения сети был выбран стандартный алгоритм градиентного спуска. Коррекция весов осуществляется по формуле где значение весов после коррекции, значение весов до коррекции, характеризует скорость обучения. (3) (4)

Кузьмин А.С.Плакат 7 где выход j-го нейрона (n-1)-го слоя, скалярное произведение всех выходов нейронов (n–1)-го слоя и соответствующих весовых коэффициентов. где производная функции активации, а Ошибку необходимо распространить на предыдущий слой. Это делается по следующей формуле (5) (6) (7) МЕТОД ОБРАТНОГО РАСПРОСТРАНЕНИЯ ОШИБКИ

Кузьмин А.С.Плакат 8 ИСХОДНЫЕ ДАННЫЕ Для решения задачи распознавания дорожных знаков сверточными искусственными нейронными сетями была сформирована база данных изображений дорожных знаков: объем обучающей выборки – изображений; объем тестовой выборки – изображений; количество классов изображений – 43; размеры изображений – от 15 х 15 до 250 х 250 пикселей; изображения не обязательно квадратные; местоположение знака на изображении не отцентрировано. Рисунок 4. Примеры изображений

ОБУЧЕНИЕ Архитектура сети: входной слой 32 х 32 пикселя; сверточный слой: 10 ядер свертки размером 5 х 5; слой субдискретизации: max-pooling 2 х 2; сверточный слой: 30 ядер свертки размером 5 х 5; слой субдискретизации: max-pooling 4 х 4; полносвязный слой: 200 нейронов; выходной слой: 43 нейрона. Функция активации: Кузьмин А.С.Плакат 9 Рисунок 5. График функции активации

РЕЗУЛЬТАТЫ ОБУЧЕНИЯ в ходе обучения была достигнута ошибка, равная 1,41%; из изображений обученный классификатор ошибочно распознал 178; Кузьмин А.С.Плакат 10 Рисунок 6. Динамика ошибки обучения

РЕЗУЛЬТАТЫ ОБУЧЕНИЯ После обучения есть возможность отобразить весовые коэффициенты на каждом слое сети в формате изображения. Рисунок 7. Ядра первого сверточного слоя Рисунок 8. Ядра второго сверточного слоя Кузьмин А.С.Плакат 11

РЕЗУЛЬТАТЫ ОБУЧЕНИЯ Исходной изображение Предсказанный номер класса Эталон для предсказанного класса Кузьмин А.С.Плакат 12 Таблица. Пример верно распознанных изображений

РЕЗУЛЬТАТЫ ОБУЧЕНИЯ Кузьмин А.С.Плакат 13 Сравнение результатов обучения СИНС и полносвязной ИНС а) СИНСб) полносвязная ИНС

ВЫВОДЫ Кузьмин А.С.Плакат Исследованы основные свойства и принципы построения и обучения СИНС. 2. Показана эффективность применения СИНС в задачах распознавания изображений. 3. Разработан классификатор на основе СИНС для распознавания знаков дорожного движения на изображениях. 4. Разработанный классификатор показал высокую точность распознавания знаков дорожного движения на изображениях.

1. LeCun Y. Gradient Based Learning Applied to Document Recognition //IEEE Press с Sermanet P., LeCun Y. Traffic Sign Recognition with Multi-Scale Convolutional Networks // Courant Institute of Mathematical Sciences. USA : New York University, A. Krizhevsky. Learning multiple layers of features from tiny images. Masters thesis, Computer Science Department, University of Toronto, Хайкин С. Нейронные сети: полный курс. М. : Вильямс, с. 5. Гонсалес P. С., Вудс Р. Е. Цифровая обработка изображений. 3-е, дополненное. М. : Техносфера, с. СПИСОК ИСТОЧНИКОВ Кузьмин А.С.Плакат 15

Спасибо за внимание!