Лекция 8: Метод группового учёта аргументов (МГУА) Метод наименьших квадратов Общая схема алгоритмов МГУА Алгоритм с ковариациями и квадратичными описаниями.

Презентация:



Advertisements
Похожие презентации
Лекция3.6:Метод потенциальных функций Предположим, что требуется разделить два непересекающихся образа V1 и V2. Это значит, что в пространстве изображений.
Advertisements

В практических применениях математики очень часто встречается такая задача: Это могут быть результаты эксперимента, данные наблюдений или измерений, статистической.
Анализ данных Лекция 5 Методы построения математических функций.
План лекции. 1.Метод наименьших квадратов. 2.Дифференциальные уравнения.
Большая часть классического численного анализа основывается на приближении многочленами, так как с ними легко работать. Однако для многих целей используются.
Методы обработки экспериментальных данных. Методы обработки экспериментальных данных: 1. Интерполирование 2. Метод Лагранжа.
Л АБОРАТОРНАЯ РАБОТА 6 Тема: Численные методы решения задачи Коши для обыкновенных дифференциальных уравнений.
1. Постановка задачи аппроксимации 2. Метод наименьших квадратов 3. Линейная аппроксимация Лекция 8.
МЕТОД НАИМЕНЬШИХ КВАДРАТОВ. СТАТИСТИЧЕСКАЯ ОЦЕНКА.
Линейная модель парной регрессии и корреляции. 2 Корреляция – это статистическая зависимость между случайными величинами, не имеющими строго функционального.
Постановка задачи аппроксимации Линейная, нелинейная (второго порядка) аппроксимация Лекция 5.
Регрессионный анализ. Основная особенность регрессионного анализа: при его помощи можно получить конкретные сведения о том, какую форму и характер имеет.
Свойства Коэффициентов Множественной Регрессии Оценки b j – случайные величины. При выполнении определенных условий (4-х условий Гаусса-Маркова): E(b j.
Системы m линейных уравнений с n неизвестными. Определение: Определение. Система m уравнений с n неизвестными в общем виде записывается следующим образом:
3. Алгоритмы приближения функций Если функция y = f(x) задана, то любому допустимому значению x сопоставляется некоторое значение y. Функция может быть.
Численные методы линейной алгебры. Методы решений нелинейных уравнений и систем. Лекция 3:
Математическая модель и численные методы. Интерполяционный полиномы Лекция 1:
Лобанов Алексей Иванович Основы вычислительной математики Лекция 1 8 сентября 2009 года.
Аппроксимация функций Понятие о приближении функций.
МЕТОДЫ ОПТИМИЗАЦИИ § 1. Основные понятия. Под оптимизацией понимают процесс выбора наилучшего варианта из всех возможных В процессе решения задачи оптимизации.
Транксрипт:

Лекция 8: Метод группового учёта аргументов (МГУА) Метод наименьших квадратов Общая схема алгоритмов МГУА Алгоритм с ковариациями и квадратичными описаниями

Метод наименьших квадратов Перед тем, как начинать рассмотрение МГУА, было бы полезно вспомнить или узнать впервые метод наименьших квадратов наиболее распространенный метод подстройки линейно зависимых параметров. Рассмотрим для примера МНК для трех аргументов: Пусть функция T=T(U, V, W) задана таблицей, то есть из опыта известны числа. Будем искать зависимость между этими данными в виде: где a, b, c неизвестные параметры. Подберём значения этих параметров так, чтобы была наименьшей сумма квадратов отклонений опытных данных и теоретических, то есть сумма: (1) (2)

Величина является функцией трех переменных a, b, c. Необходимым и достаточным условием существования минимума этой функции является равенство нулю частных производных функции по всем переменным, то есть: (3) Так как: (4)

то система для нахождения a, b, c будет иметь вид: (5) Данная система решается любым стандартным методом решения систем линейных уравнений (Гаусса, Жордана, Зейделя, Крамера).

Рассмотрим некоторые практические примеры нахождения приближающих функций: Задача подбора коэффициентов a, b, g сводится к решению общей задачи при. Задача подбора коэффициентов a, b, g сводится к решению общей задачи при

Если мы распространим МНК на случай с m параметрами, (6) то путем рассуждений, аналогичных приведенным выше, получим следующую систему линейных уравнений: (7) где

Общая схема построения алгоритмов метода группового учета аргументов (МГУА). Рис. 1. Селекция самого черного тюльпана при расширяющемся опытном поле (эквивалент полного перебора), и при постоянном размере поля (эквивалент селекции при сохранении свободы выбора решений F = const).

Алгоритмы МГУА воспроизводят схему массовой селекции [ Васильев В. И., Коноваленко В. В., Горелов Ю. И. Имитационное управление неопределенными объектами. // К.: Наукова думка, с. ], показанной на Рис. 1. В них есть генераторы усложняющихся из ряда в ряд комбинаций и пороговые самоотборы лучших из них. Так называемое полное описание объекта где f некоторая элементарная функция, например степенной полином, заменяется несколькими рядами "частных" описаний: 1-ряд селекции: 2-ряд селекции:. Входные аргументы и промежуточные переменные сопрягаются попарно, и сложность комбинаций на каждом ряду обработки информации возрастает (как при массовой селекции), пока не будет получена единственная модель оптимальной сложности.

Каждое частное описание является функцией только двух аргументов. Поэтому его коэффициенты легко определить по данным обучающей последовательности при малом числе узлов интерполяции. Исключая промежуточные переменные (если это удается), можно получить "аналог" полного описания. Математика не запрещает обе эти операции. Например, по десяти узлам интерполяции можно получить в результате оценки коэффициентов полинома сотой степени и т. д.

Из ряда в ряд селекции пропускается только некоторое количество самых регулярных переменных. Степень регулярности оценивается по величине среднеквадратичной ошибки (средней для всех выбираемых в каждом поколении переменных или для одной самой точной переменой) на отдельной проверочной последовательности данных. Иногда в качестве показателя регулярности используется коэффициент корреляции. Ряды селекции наращиваются до тех пор, пока регулярность повышается. Как только достигнут минимум ошибки, селекцию следует остановить. Практически рекомендуется остановить селекцию даже несколько раньше достижения полного минимума, как только ошибка начинает падать слишком медленно. Это приводит к более простым и более достоверным уравнениям.

Алгоритм с ковариациями и с квадратичными описаниями. Рис. 2

В этом алгоритме [ Васильев В. И., Коноваленко В. В., Горелов Ю. И. Имитационное управление неопределенными объектами. // К.: Наукова думка, с., Половинкин А. И. Основы инженерного творчества. // М.: "Машиностроение", с ] используются частные описания, представленные в следующих формулах: (8)

Сложность модели увеличивается от ряда к ряду селекции как по числу учитываемых аргументов, так и по степени. Степень полного описания быстро растет. На первом ряду квадратичные описания, на втором четвертой степени, на третьем восьмой и т. д. В связи с этим минимум критерия селекции находится быстро, но не совсем точно. Кроме того, имеется опасность потери существенного аргумента, особенно на первых рядах селекции (в случае отсутствия протекции). Специальные теоремы теории МГУА определяют условия, при которых результат селекции не отличается от результата полного перебора моделей. Для того чтобы степень полного уравнения повышалась с каждым рядом селекции на единицу, достаточно рассматривать все аргументы и их ковариации как обобщенные аргументы и пользоваться составленными для них линейными описаниями.