Донецкий национальный технический университет
Опубликован: 09.07.2007 | Доступ: свободный | Студентов: 3114 / 709 | Оценка: 4.34 / 4.12 | Длительность: 13:54:00
Специальности: Программист

Лекция 10: Многометрическая (многомерная) оптимизация. Методы многомерной оптимизации: метод Хука – Дживса, метод Нелдера – Мида, метод полного перебора, метод покоординатного спуска, метод градиентного спуска

< Лекция 9 || Лекция 10: 1234 || Лекция 11 >

3. Метод полного перебора (метод сеток)

Многомерные задачи, естественно, являются более сложными и трудоемкими, чем одномерные, причем обычно трудности при их решении возрастают при увеличении размерности. Для того чтобы вы лучше почувствовали это, возьмем самый простой по своей идее приближенный метод поиска наименьшего значения функции. Покроем рассматриваемую область сеткой G с шагом h (рис. 10.8) и определим значения функции в ее узлах. Сравнивая полученные числа между собой, найдем среди них наименьшее и примем его приближенно за наименьшее значение функции для всей области.


Рис. 10.8.

Как мы уже говорили выше, данный метод используется для решения одномерных задач. Иногда он применяется также для решения двумерных, реже трехмерных задач. Однако для задач большей размерности он практически непригоден из-за слишком большого времени, необходимого для проведения расчетов. Действительно, предположим, что целевая функция зависит от пяти переменных, а область определения G является пятимерным кубом, каждую сторону которого при построении сетки мы делим на 40 частей. Тогда общее число узлов сетки будет равно 41^5 \approx 10^8. Пусть вычисление значения функции в одной точке требует 1000 арифметических операций (это немного для функции пяти переменных). В таком случае общее число операций составит 1011. Если в нашем распоряжении имеется ЭВМ с быстродействием 1 млн. операций в секунду, то для решения задачи с помощью данного метода потребуется 105 секунд, что превышает сутки непрерывной работы. Добавление еще одной независимой переменной увеличит это время в 40 раз. Проведенная оценка показывает, что для больших задач оптимизации метод сплошного перебора непригоден. Иногда сплошной перебор заменяют случайным поиском. В этом случае точки сетки просматриваются не подряд, а в случайном порядке. В результате поиск наименьшего значения целевой функции существенно ускоряется, но теряет свою надежность.

4. Метод покоординатного спуска

Рассмотрим функцию двух переменных. Ее линии постоянного уровня представлены на рис. 10.9, а минимум лежит в точке (x_1^*, x_2^*). (Напомним, что линией постоянного уровня называется кривая в двумерном сечении пространства параметров (в данном случае в плоскости (х1, х2), значение функции на которой - константа). Простейшим методом поиска является метод покоординатного спуска. Из точки А мы производим поиск минимума вдоль направления оси х1 и, таким образом, находим точку B, в которой касательная к линии постоянного уровня параллельна оси x1. Затем, производя поиск из точки B в направлении оси x2, получаем точку C, производя поиск параллельно оси x1, получаем точку D, и т.д. Таким образом, мы приходим к оптимальной точке. Любой из одномерных методов, описанных в предыдущей главе, может быть использован здесь для поиска вдоль оси. Очевидным образом эту идею можно применить для функций n переменных.


Рис. 10.9.

Рассмотрим данный метод более детально на примере некоторой целевой функции.

Пусть нужно найти наименьшее значение целевой функции u=f(M)=f(x1,x2,...,xn). Здесь через M обозначена точка n -мерного пространства с координатами x1,x2,...,xn:M=(x1,x2,...,xn). Выберем какую-нибудь начальную точку M_0 = (x_1^0,x_2^0,\ldots,x_n^0) и рассмотрим функцию f при фиксированных значениях всех переменных, кроме первой: f(x_1^0,x_2^0,\ldots,x_n^0). Тогда она превратится в функцию одной переменной x1. Изменяя эту переменную, будем двигаться от начальной точки x_1=x_1^0 в сторону убывания функции, пока не дойдем до ее минимума при x_1 = x_1^1, после которого она начинает возрастать. Точку с координатами f(x_1^1,x_2^0,x_3^0,\ldots,x_n^0) обозначим через M1, при этом f(M^0) \ge f(M^1).

Фиксируем теперь переменные: x_1=x_1^1, x_3=x_3^0,...,x_n=x_n^0 и рассмотрим функцию f как функцию одной переменной x_2:f(x_1^1, x_2, x_3^0,\ldots,x_n^0). Изменяя x2, будем опять двигаться от начального значения x_2=x_2^0 в сторону убывания функции, пока не дойдем до минимума при x_2=x_2^1. Точку с координатами (x_1^1, x_2, x_3^0,\ldots,x_n^0) обозначим через M2, при этом f(M^1) \ge f(M^2). Проведем такую же минимизацию целевой функции по переменным x3,x4,...,xn. Дойдя до переменной xn, снова вернемся к x1 и продолжим процесс.

Эта процедура вполне оправдывает название метода. С ее помощью мы построим последовательность точек M0,M1,M2,... которой соответствует монотонная последовательность значений функции f(M^0) \ge f(M^1) \ge f(M^2) \ldots Обрывая ее на некотором шаге k, можно приближенно принять значение функции f(Mk) за ее наименьшее значение в рассматриваемой области (рис. 10.10).

Отметим, что данный метод сводит задачу поиска наименьшего значения функции нескольких переменных к многократному решению одномерных задач оптимизации. Если целевая функция f(x1,x2,\ldots,xn задана явной формулой и является дифференцируемой, то мы можем вычислить ее частные производные и использовать их для определения направления убывания функции по каждой переменной и поиска соответствующих одномерных минимумов.

На рис. 10.10. изображены линии уровня некоторой функции двух переменных u=f(x,y). Вдоль этих линий функция сохраняет постоянные значения, равные 1, 3, 5, 7, 9. Показана траектория поиска ее наименьшего значения, которое достигается в точке O, с помощью метода покоординатного спуска.

При этом нужно ясно понимать, что рисунок служит только для иллюстрации метода. Когда мы приступаем к решению реальной задачи оптимизации, такого рисунка, содержащего в себе готовый ответ, у нас, конечно, нет.


Рис. 10.10.

Теоретически данный метод эффективен в случае единственного минимума функции. Но на практике он оказывается слишком медленным. Поэтому были разработаны более сложные методы, использующие больше информации на основании уже полученных значений функции. Было предложено несколько функций, которые из-за своих свойств являются тестовыми для таких методов. Ниже приведено несколько примеров таких функций.

Функция Розенброка:

f(x_1, x_2) = 100(x_2 - x_1^2)^2 + (1-x_1)^2; \quad x^* = (1; 1). ( 4.1)

Функция Пауэлла:

\begin{aligned}
& f(x)=(x_1+10x_2)^2+5(x_3-x_4)^2+(x_2-2X_3)^4+10(x_1-x_4)^4; \\
& x^*=(0;0;0;0).
\end{aligned} ( 4.2)

Двумерная экспоненциальная функция:

\begin{aligned}
& f(x_1,x_2)=\sum_a [(e^{-ax_1}-e^{-ax_2})-(e^{-a}-e^{-10a})]^2, \\
& \text{где} \; a=0,1(0,1)1^*; \; x^*=(1;10).
\end{aligned} ( 4.3)

< Лекция 9 || Лекция 10: 1234 || Лекция 11 >