close

Вход

Забыли?

вход по аккаунту

?

Безусловная многопараметрическая оптимизация

код для вставкиСкачать
Безусловная многопарам. оптим-я
Группы методов БМО:
методы прямого поиска (вычисления только на
основании значений целевой функции)
градиентные методы
методы второго порядка (наряду с первой производной
используется вторая)
Rev. 1.02 / 07.12.2007
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Методы прямого поиска
Методы прямого поиска
Эвристические (основаны на интуитивных
геометрических представлениях)
метод случайного поиска
поиск по симплексу
метод Хука-Дживса
Теоретические (основаны на
фундаментальных математических теоремах)
метод сопряженных направлений Пауэлла
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Метод случайного поиска
Метод случайного поиска основан на последовательной случайной
генерации достаточно большого количества значений в промежутках
нахождения корней с последующим сужением этих промежутков.
Алгоритм метода случайного поиска
1. В каждой серии с помощью генератора случайных чисел образуется
массив из N точек значений функции F(xi), xi[xiL,xiU] (i=1,2,...n; n – кол-во
переменных) (N>100).
2. Среди элементов этого массива значений функции находится
оптимальное значение (Wmin|Wmax), а также соответствующее ему значение
переменной (xmin|xmax).
3. По каждой координате рассчитывается новый промежуток, в пределах
которого будет производиться последующий выбор из N значений.
Например, для уменьшения промежутка процентов на 10%,
L=0.9*(b-a);
a_new=x_optimal – L/2; if a_new<a then a_new=a;
b_new=x_optimal + L/2; if b_new>b then b_new=b;
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Поиск по симплексу
Регулярный симплекс в пространстве n независимых переменных –
правильный многогранник с n+1 вершиной.
Двумерный случай: симплекс – правильный треугольник,
трехмерный: тетраэдр, четырехмерный: см. рисунок, и т.д.
Алгоритм поиска по симплексу
После построения в пространстве регулярного симплекса, оцениваются
значения целевой функции в его вершинах. Самая неоптимальная
(например, вершина с минимальным значение функции в случае поиска
максимума) отбрасывается.
Вместо нее строится новая вершина методом
проецирования старой через центр тяжести
остальных вершин симплекса. Если функция
убывает достаточно плавно, то итерации
продолжаются до тех пор, пока либо не будет
накрыта точка оптимума (вершина, которую
необходимо отбросить, была построена на
предыдущей итерации), либо не начнется
циклическое движение по двум или более
симплексам (одна из вершин симплекса не
исключается в течение нескольких N итераций).
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Поиск по симплексу
Циклическое движение.
Если некоторая вершина симплекса не исключается
на протяжении более чем М итераций, то необходимо с
помощью коэффициента редукции уменьшить размеры
симплекса. Новый симплекс следует строить выбрав в
качестве базовой точку, которой соответствует самое
неоптимальное значение целевой функции. В качестве
расчетной формулы числа итераций (с округлением до
целого) использовать следующую эмпирическую
зависимость: M = 1,65n + 0,05n2, где n - размерность
задачи.
Критерий окончания поиска.
Поиск завершается, когда или размеры симплекса,
или разности между значениями функций в вершинах
становятся достаточно малыми в контексте конкретной
прикладной задачи. В этой связи необходимо задать
величину параметра окончания поиска.
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Поиск по симплексу
Построение регулярного симплекса
x0 – исходная заданная точка (может быть случайным образом в
пределах интервала изоляции корней), – масштабный множитель, от
которого зависит длина ребра симплекса.
Для i-той вершины с координатами xi :
xi =
x0j + 2, i<>j
x0j + 1, i=j
i,j=1,2,...,N. N – количество переменных.
i – номер точки, j – номер координаты.
Приращения 1 и 2 зависят только от
размерности задачи и длина ребра симплекса.
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Поиск по симплексу
Расчет координат отраженной точки
Пусть xj - точка, подлежащая отражению. Центр тяжести остальных N
точек расположен в точке xc.
x2
C(3,4)
B(5,3)
Xc(3,3)
Все точки прямой, проходящей через xj и xc,
задаются формулой
A(1,2)
x1
x = xj + (xc - xj).
При =0 получаем исходную точку xj, =1 - центр тяжести xc. Для того,
чтобы построенный симплекс обладал свойством регулярности, отражение
должно быть симметричным, следовательно, =2, т.е.
xjновая=2xc – xjпредыдущая.
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Поиск по симплексу
Характеристики метода поиска по симплексу:
метод поиска надежно "работает" на любого вида функциях, даже
разрывных и дискретных;
метод достаточно прост, легко применим для задач с высокой
размерностью, невысокий уровень требований к ЭВМ;
возникает проблема масштабирования, поскольку все координаты
вершин симплекса зависят от одного масштабного множителя. Чтобы
избежать такого рода проблем в практических задачах, следует
промасштабировать все переменные с тем, чтобы их значения были
сравнимы по величине;
алгоритм работает достаточно медленно, т.к. полученная на предыдущих
итерациях информация не используется для ускорения поиска;
не существует простого способа расширения симплекса, требуется
перерасчет значений целевой функции во всех точках образца.
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Метод поиска Хука-Дживса
Процедура поиска Хука-Дживса представляет собой комбинацию
"исследующего поиска" и "ускоряющего поиска по образцу".
Исследующий поиск: Последовательно по всем координатам (с разной
величиной шага по разным координатам) проводят "замеры" направлений
поиска, т.е. исследуют поведение функции W в точках xi-, xi, xi+.
После перебора всех N координат и выбора направление движения
(например, с положительным приращением по координатам x1 и x4 и
отрицательным по x3), проводят поиск по образцу.
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Метод поиска Хука-Дживса
Поиск по образцу начинается в точке, найденной на этапе
исследующего поиска, и ведется по определенному направлению
последовательным перебором значений.
xk+1 = 2xk - xk-1
Если значение целевой функции в пробной точке не хуже значения
функции в исходной точке, то шаг поиска рассматривается как успешный. В
противном случае шаг не выполняется и необходимо снова перейти к
исследующему поиску.
В случае, если исследующий поиск не выдает рекомендаций по
направлению (значения целевой функции в окрестных точках хуже, чем в
исходной), размеры шага по всем координатам необходимо уменьшить,
например, по формуле i=i/2.
Недостаток метода: при значительных нелинейностях метод вырождается
в последовательность исследующих процедур без применения ускоряющего
поиска по образцу.
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Метод сопряженных направлений
Метод сопряженных направлений Пауэлла ориентирован на решение
задач с квадратичными целевыми функциями и основывается на
фундаментальных теоретических результатах.
Основная идея метода заключается в том, что если построена система
сопряженных направлений, то точку оптимума квадратичной функции W(x)
можно найти в результате реализации в точности N2 (N - размерность задачи)
одномерных поисков.
Если провести одномерный поиск из точки x0 вдоль направления e2,
найдя точку экстремума x1, затем уже из нее провести одномерный поиск
по направлению e1, потом из
найденной точки x2 снова по e2, то
направление (x3–x1) будет
сопряженным с e1. И оптимум
квадратичной функции будет лежать
именно на этой прямой (всего 4
одномерных поиска).
Если функция не строго
квадратичная, то такой поиск
необходимо провести еще несколько
раз.
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Метод сопряженных направлений
Трехмерный случай
Серия одномерных поисков из x0
проводится в направлении e3, затем
e1, e2 и снова e3. В результате
построены сопряженные
направления e1 и (x4-x1).
Направление e1 заменяется новым
направлением поиска 4. Следующая
серия: направление 4, e2, e3 и снова
4. Новое направление (x8-x5), 5,
сопряжено не только с 4, но и с e3.
Следовательно, e3, (x4-x5) и (x8-x5)
образуют систему взаимно
сопряженных направлений. Поэтому,
если провести дополнительный поиск
из точки x8 в направлении (x8-x5), то
будет найдена точка x*, в которой
должен достигаться оптимум
квадратичной функции трех
переменных W(x).
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Метод сопряженных направлений
Алгоритм метода сопряженных направлений Пауэлла
Шаг 1. Задать начальную точку xo и систему N линейно независимых
направлений si; целесообразно принять si=ei, i=1,2,...,N.
Шаг 2. Минимизировать W(x) при последовательном движении по N+1
направлениям; при этом полученная ранее точка минимума берется в
качестве исходной, а направление sN используется как при первом, так и при
последнем поиске.
Шаг 3. Определить новое сопряженное направление с помощью
обобщенного свойства параллельного подпространства.
Шаг 4. Заменить s1 на s2 и так далее (si=si+1). Заменить sN сопряженным
направлением. Перейти к шагу 2.
Шаг 5. По определенному на 3-ем шаге направлению провести
одномерный поиск. Результат – найденный оптимум функции.
Для применения метода на практике его необходимо дополнить
процедурами проверки сходимости и линейной независимости системы
направлений. Если целевая функция квадратична и обладает экстремумом,
то эта точка находится в результате реализации N-1 циклов, включающих
шаги 2-4. Если же функция W(x) не является квадратичной, то требуется
более чем N-1 циклов.
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Градиентные методы
Все методы основаны на итерационной процедуре, реализуемой в
соответствии с формулой
xk+1 = xk + ks(xk), где
xk - текущее приближение к решению x*,
k - параметр, характеризующий длину шага,
s(xk) - направление поиска в N – мерном пространстве управляемых
переменных xi, i=1,2,...,N.
Способ определения k и s(xk) на каждой итерации связан с
особенностями применяемого метода.
Обычно выбор k осуществляется путем решения задачи оптимизации
W(x) в направлении s(xk). Поэтому, при реализации градиентных необходимо
использовать эффективные алгоритмы одномерной минимизации.
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Простейший градиентный метод
В основе метода лежит следующая итерационная формула:
xk+1 = xk + W(xk), где
- заданный положительный коэффициент (связанный с длиной
откладываемого отрезка),
W(xk) - градиент целевой функции первого порядка.
Недостатки: необходимость выбора подходящего значения и медленная
сходимость к точке оптимума ввиду малости W(xk) в окрестностях этой
точки.
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Метод наискорейшего спуска
Метод наискорейшего спуска (метод Коши) свободен от первого
недостатка простейшего градиентного метода, т.к. k на каждом шаге
вычисляется путем решения задачи оптимизации W(xk) вдоль направления
W(xk) с помощью одного из методов одномерной оптимизации (например, с
помощью метода золотого сечения).
Недостаток: несмотря на устойчивость, механизма ускорения на
последних итерациях не существует (для одномерного поиска всегда
необходим интервал поиска).
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Методы второго порядка
Последовательное применение схемы квадратичной аппроксимации
приводит к реализации оптимизационного метода Ньютона по формуле
xk+1 = xk - k (2W(xk))-1 W(xk).
Дополнительная информация о второй производной в данной точке
позволяет более быстро находить экстремум функции.
ПетрГУ, А.П.Мощевикин, 2004 г.
Теория принятия решений
Документ
Категория
Презентации по математике
Просмотров
91
Размер файла
1 189 Кб
Теги
1/--страниц
Пожаловаться на содержимое документа