Обзор алгоритмов оптимизации Аспирант 1 г/о Максимов Алексей.

Презентация:



Advertisements
Похожие презентации
Задача нелинейного программирования. Безусловная оптимизация.
Advertisements

Теория принятия решенийПетрГУ, А.П.Мощевикин, 2004 г. Безусловная многопарам. оптим-я Группы методов БМО: методы прямого поиска (вычисления только на основании.
МЕТОДЫ ЭКСПЕРИМЕНТАЛЬНОЙ ОПТИМИЗАЦИИ. Метод деления отрезка пополам Метод позволяет исключать на каждой итерации в точности половину интервала. Иногда.
Решение краевых задач ОДУ Паросова Ольга ГИП-109.
Обратные задачи: теория и практика Лекция 4. Задача минимизации при нелинейной регрессии. Новосибирский Государственный Университет Физический факультет.
Нелинейное программирование Практическое занятие 1.
МЕТОДЫ ОПТИМИЗАЦИИ § 1. Основные понятия. Под оптимизацией понимают процесс выбора наилучшего варианта из всех возможных В процессе решения задачи оптимизации.
УРАЛЬСКИЙ ГОСУДАРСТВЕННЫЙ ТЕХНИЧЕСКИЙ УНИВЕРСИТЕТ - УПИ ИННОВАЦИОННАЯ ОБРАЗОВАТЕЛЬНАЯ ПРОГРАММА.
Л АБОРАТОРНАЯ РАБОТА 4 Тема: Численное дифференцирование Тема: Численное дифференцирование.
ОБЫКНОВЕННЫЕ ДИФФЕРЕНЦИАЛЬНЫЕ УРАВНЕНИЯ. Задача Коши. (продолжение)
Нелинейное программирование Практическое занятие 2.
Нелинейное программирование Практическое занятие 4.
Численные методы (язык Паскаль) © К.Ю. Поляков, Решение уравненийРешение уравнений 2.Вычисление площади (интеграла)Вычисление площади (интеграла)
Экономические приложения выпуклого программирования: числовые модели Содержание лекции: Градиентные методы решения задач выпуклого программирования Градиентные.
Л АБОРАТОРНАЯ РАБОТА 3 Тема: Интерполирование функций.
Численные методы © К.Ю. Поляков, Решение уравненийРешение уравнений 2.Вычисление площади (интеграла)Вычисление площади (интеграла) 3.Вычисление.
К ОМБИНАЦИЯ МЕТОДА ПРОЕКЦИИ ГРАДИЕНТА С ГРАДИЕНТНЫМ МЕТОДОМ ДРОБЛЕНИЯ ШАГА Выполнил: студент М 16-ивт-3 Буланова Е.А. Проверил: к.т.н. доцент Тимофеева.
Среда MatLab для решения задач математического программирования Макарова А.А. Антонова А.А. 3 курс, Информатика.
Методы численного интегрирования Выполнили: ст. гр. 2Б15: Забродько П. О Золоторёв Р. Н Руководитель: Тарбокова Т. В.
НЕКОТОРЫЕ СВЕДЕНИЯ ИЗ МАТЕМАТИЧЕСКОГО АНАЛИЗА Задачи на условный экстремум Метод неопределенных множителей Лагранжа Рассмотрим функцию двух переменных.
Транксрипт:

Обзор алгоритмов оптимизации Аспирант 1 г/о Максимов Алексей

Оптимизаци я Методы условной оптимизации, в большинстве своем, основаны, на сведении их к безусловной оптимизации (метод неопределенных множителей Лагранжа) Функци и Безусловная Условная (уравнения, неравенства) баланс масс, n i >= 0 Одной переменной Многих переменных

I.Метод золотого сечения II.Квадратичная интерполяция (Метод Пауэлла) III.Метод Брента (золотое сечение + квадратичная интерполяция) Функции одной переменной

IV. Кубическая интерполяция (Метод Дэвидона) Локальная замена минимизируемой функции многочленом третьей степени (три члена в разложении Тейлора) Интерполяционный многочлен строится по значениям функции и ее производной в двух точках + требуется задание приблизительного значения f min Функции одной переменной

Функции нескольких переменных Методы, использующие только значения функции Методы, требующие вычисления первых производных функции (градиента) Методы, требующие вычисления вторых производных функции Если нет замкнутого аналитического выражения для вычисления функции, то методы, требующие вычисления производных, практически не используются

Функции нескольких переменных I.Метод покоординатного спуска (метод релаксации) 1) Задается начальное приближение 2) Фиксируются все координаты, кроме одной, ищется минимум одномерным поиском. 3) Предыдущий шаг повторяется для всех координат.

Функции нескольких переменных II. Метод Хука – Дживса В начале работы алгоритма задается начальное приближение и шаг по каждой из координат. 1) Исследующий поиск 2) Шаг по образцу 3) Исследующий поиск

Симплекс в n-мерном пространстве – правильный многогранник с n+1 вершинами (n-мерное обобщение треугольника) – треугольник, тетраэдр… Симплекс – метод Низкая скорость сходимости (определяется размерами симплекса, а не поведением минимизируемой функции)

Метод деформируемого многогранника Нелдера - Мида Изменения в оригинальном «симплекс – методе»: 1) Отказ от сохранения одинаковых расстояний между вершинами (симплекс -> деформированный многогранник). 2) Произвольный коэффициент отражения. 3) Добавлено растяжение и сжатие многогранника (аналог шага по образцу в методе Хука - Дживса). В процессе поиска минимума многогранник вытягивается в направлении успешных шагов и сжимается в «неперспективных» направлениях

Методы с использованием производных Метод одномерного поиска Для избавления от ортогональности используется демпфирование, либо шаг заданной длины (идём не в самый минимум, а чуть-чуть от него отступаем)

Методы с использованием производных Квадратичная скорость сходимости Требуются вторые производные

Методы с использованием производных III. Модификации и улучшения метода Ньютона. 1. Метод Ньютона – Рафсона На очередной итерации метода Ньютона каким-либо из методов одномерной оптимизации выбирается оптимальный шаг. 2. Метод Флетчера – Ривса, Дэвидона–Флетчера–Пауэлла Гессиан не рассчитывается напрямую, а вычисляется на основе информации о кривизне целевой функции (требуется вычисление только первых производных). 3. Метод Левенберга – Марквардта Комбинация метода Ньютона с методом градиентного спуска

Вероятностные методы I.Метод имитации отжига (похож на метод градиентного спуска) II.Метод роя частиц III.Генетические алгоритмы