Метод моделирования статических систем по экспериментальным данным.

Презентация:



Advertisements
Похожие презентации
Тема 10. Архитектура и алгоритмы обучения НС Основные парадигмы нейронных сетей обучения с учителем Однослойный перцептрон f f f х1.
Advertisements

Обратные задачи: теория и практика Лекция 7. Решение обратной задачи с предварительным обучением. Новосибирский Государственный Университет Физический.
Вероятностная НС (Probability neural network) X 1 X n... Y 1 Y m Входной слой Скрытый слой (Радиальный) Выходной слой...
МОДУЛЬНАЯ АРХИТЕКТУРА НС. Каждая входная переменная связана только с одним из входов модулей. Выходы всех входных модулей соединены с модулем решения.
Сети глубокого обучения. Локальное и нелокальное в пространстве признаков обучение Прототипом всякого локально-обучающего алгоритма является построение:
Определение. Случайная величина имеет нормальное распределение вероятностей с параметрами и 2, если ее плотность распределения задается формулой:
«Обучение нейронных сетей. Алгоритм обратного распространения ошибки» Курс: «Системы искусственного интеллекта»
МЕТОД НАИМЕНЬШИХ КВАДРАТОВ. СТАТИСТИЧЕСКАЯ ОЦЕНКА.
ИНФОРМАЦИОННАЯ ЧУВСТВИТЕЛЬНОСТЬ КОМПЬЮТЕРНЫХ АЛГОРИТМОВ И ЕЁ КОЛИЧЕСТВЕННЫЕ МЕРЫ д.т.н., профессор М.В. Ульянов Кафедра «Управление разработкой программного.
Статистическая проверка статистических гипотез.. Нулевая гипотеза - выдвинутая гипотеза. Конкурирующая гипотеза - - гипотеза, которая противоречит нулевой.
Лекция 2 Часть I: Многомерное нормальное распределение, его свойства; условные распределения Часть II: Парная линейная регрессия, основные положения.
Количественные характеристики случайных переменных Математическое ожидание (среднее значение) Математическое ожидание (среднее значение) Дисперсия и среднее.
АНАЛИЗ ДАННЫХ НА КОМПЬЮТЕРЕ. Регрессионный анализ.
Случайные и систематические погрешности при измерениях и расчетах.
ФАКУЛЬТЕТ ПРИКЛАДНОЙ МАТЕМАТИКИ и ИНФОРМАТИКИ Тарасюк Александр Евгеньевич СИСТЕМА РАСПОЗНАВАНИЯ ЛИЦ НА ОСНОВЕ НЕЙРОННОЙ СЕТИ.
Лекция 12 РАЗЛИЧЕНИЕ СИГНАЛОВ МНОГОАЛЬТЕРНАТИВНЫЕ ЗАДАЧИ ВЫБОРА РЕШЕНИЯ.
Стохастическое программирование выполнили Шпарик Анна Кутас Юлия.
Числовые характеристики (параметры) распределений случайных величин.
Найдем вероятность попадания в интервал (x, x + x): P(x X x + x)=F(x + x) - F(x) F(x). § 6. Непрерывная случайная величина. Функция плотности. Пусть X.
Регрессионный анализ. Основная особенность регрессионного анализа: при его помощи можно получить конкретные сведения о том, какую форму и характер имеет.
Транксрипт:

Метод моделирования статических систем по экспериментальным данным.

Данные для моделирования Вход Выход 1 2 … k X=F(Y) ?

Методы Свойства Название прямой или итеративный Дополнительные требования к пользователю Недостатки Линейная регрессия прямой нет требований Метод ограничен линейными моделями Многослойные нейронные сети, основанные на методе обратного распространения ошибки итеративный Требуется задать структуру сети (количество слоев, нейронов), топологию связей, шаг обучения Возможность паралича сети, получение неадекватной модели при неправильном выборе параметров сети. Длительное время обучения. Радиально- базисные нейронные сети итеративный либо гибридный Требуется задать форму и центры активационных функций. Шаг, эвристики обучения. Неадекватность моделей при неправильном выборе параметров сети. Медленное функционирование. Интерполяция сплайнами прямой Требуется учитывать расположение сетки, разбиение на группы иррегулярных данных. Неадекватность моделей при неправильном выборе сетки или неверном разбиении на группы.

Искомая модель – как некоторая наблюдаемая нами реализация некоторой случайной функции. (1) - координатные функции - случайные величины

Допущение, что имеют нормальный закон распределения

Плотность вероятности где - вектор, описывающий реализации (2)

Задача квадратического программирования (3) (4) i-тый вектор входных значений обучающей выборки значение выхода для i-того вектора

Используя метод Лагранжа и обозначив: - вектор решения получим: (5) где - коэффициенты (6) (7)(7)

Используя каноническое разложение случайной функции получим: (8) (9) Наиболее вероятная реализация всегда будет выражаться линейной комбинацией корреляционных функций.

Дополнительные условия: 1. Равная вероятность реализаций, преобразующихся друг в друга сдвигом или поворотом относительно осей. Прибавление констант к входам не должно влиять на процесс построения модели. Случайная функция должна быть стационарной. В формулах можно пользоваться автокорреляционной функцией 2. Равная вероятность реализаций, преобразующихся друг в друга равным изменением масштаба по всем осям. Умножение всех входов и выходов на константу не должно влиять в итоге на модель

(10) (11) Спектр автокорреляционной функции Спектр одномерного сечения: (12) Функция со спектром, близким к требуемому:

Таким образом:

Пример интерполяции одномерной функции Пример моделирования с учетом погрешностей

Расчет уровней вероятностей: Расчет уровней вероятности с учетом погрешностей

Результаты тестирования (примеры) Результаты тестовBoston. Тест Cancer

Сравнение результатов. (программа реализующая разработанный метод и ИНС)

Моделирование механических свойств металлов. пример: предел текучести (сравнение предсказанных свойств и реальных)

Результаты, полученные с использованием исследуемого метода, и результаты регрессии по трем сериям

Решение задачи текстурной сегментации изображений на основе предложенного метода. Сравнение с методом адаптивного квантования.