Главная страница Системы автоматического управления Выше предполагалось, что х, tn даны, а Хг не задано. Кроме того, будем считать, что на функцию управления не наложено никакого ограничения. С учетом сказанного выше можно сформулировать следующий общий подход к решению задачи. 1. Попытаемся использовать некоторое управление позволяющее получить решение хЦГ), соответствующее исходной точке х, в момент времени ti, ни одна из этих функций не является оптимальной, хотя х- должно соответствовать приведенным краевым условиям. Это неоптимальное решение даст в результате какое-то значение показателя качества РК 2. Осуществляем локальную линеаризацию системы (17.1) относительно х(1(0 и w()() подобно тому, как это показано в гл. 5. Это дает приближенное описание поведения системы относительно решения хЦГ) и ((). .3. Из линеаризованного уравнения определяем 6w<i(), т. е. поправку кы(() в соответствии с наложенными ограничениями с тем, чтобы уменьшить Р относительно P(i>. Для этого выполняем .вычисление, подобное-тому, которое было использовано при определении традиента. 4. Принимаем иЦ{) = ыЧО + uW(t) и повторяем этот процесс для последовательного получения ui{t), ... 5. Прекращаем этот процесс, когда 6ы( >(0 становится равномерно-меньше некоторой заранее определенной величины или когда изменение в показателе качества 8Р достаточно мало. Этот подход использовали Келли [103], Брайсон [28], а также другие авторы. Для большей конкретности предположим, что нам удалось получить-пробное решение ы1)(/), titt. Затем, проинтегрировав уравнение (17.1), получим xЦt). После линеаризации относительно x<(0 и u->{f}i в соответствии с указаниями, приведенными в гл. 5, имеем eiJfjc+eu. (17.3, где 5/(1) ()/5x и 5/(1) (/5ы представляют собой соответственно матрицу df/dx и вектор df/du, вычисляемые вдольх(1)(0 и ыЧ)(0. Пусть ФХ. i) представляет собой переходную матрицу, связанную-с линейным .уравнением (17.3), решение которого имеет вид 6х (t) = Ф(1) {t, tl) Ьх (tl) + J Ф(1) {t, т) ди (т) dx. (17.4) Так как из краевого условия х (tj) = х следует, что бх (tj) будет равна нулю, то в момент времени t имеем 8х (t) = 6x2 = J Ф(1) [is, т) - Ьи {x)dx. (17.5) . tl Уравнение (17.5) дает приближенную оценку изменения конечного-состояния бх(2), когда функция и{{) в уравнении (17.1) изменялась на величину Ьи (i). Приближенные решения здесь получаются из линеаризованных уравнений. Остается выбрать bu{i) для каждого значения t таким образом, чтобы bxit) располагалось в наиболее желательном направлении. при малых изменениях JC 2 результирующее изменение показателя качества в первом приближении, имеет вид В соответствии с выражением (17.5) имеем (17.6) (17.7) Целью метода наискорейшего спуска является нахождение би для максимизации 6Р. Конечно, би должно быть в известном смысле небольшим, чтобы аппроксимация методом локальной линеаризации оставалась справедливой. С этой целью нами наложено ограничение вида (бы(т))2 dx = k (17.8) с .соответствующим образом выбранным значением k. Теперь максимизация (17.7) путем выбора бы (f) с учетом ограничения (17.8) представляет собой простую задачу вариационного исчисления. Далее находим, что решение бы имеет вид (17.9а) (17.96) {Покажите это). Из уравнения (3.58) имеем где W (t, tz) - переходная матрица сопряженной системы к системе уравнения (17.3). Так как мы можем найти матрицу Ч* (t, tz) для уравнения (17.3) путем интегрирования, системы W{t, tz)- в обратном времени при условии ih, tz) = /, (17.10) (17.11) то можно найти Ф (4, t). Таким образом, видно, что вычислительные операции, которые должны быть выполнены при использовании метода наискорейшего спуска в случае отсутствия ограничения на и (t), должны сводиться к следующему: 1) взять пробное решение ы() (f) и численно проинтегрировать уравнение (17.1), на каждом шаге запоминая составляющие вектора лгЧ(/); 2) в конце интегрирования определить численные значения показателя качества Р = Р (xi%)) и вектора дРУдх 3) проинтегрировать сопряженную систему (17.10) в обратном направлении от t = ts, используя краевое условие (17.11) и определяя необходимые значения 5/Ч(0/5х и dfW{t)/du для каждого t с помощью значений х (t) и (1) (t), введенных в память. Кроме того, на каждом шаге интегрирования в обратном направлении определить значения бы) с помрщью уравнений (17.9); определить новую пробную функцию управления при .каждом значении t, ы(2>(0 = w(i)(/) + б (1Ч0; 4) повторить указанный процесс, т. е. пункты 1-3. Если при какой-либо итераций, например при п-й, p( )<p(n+i), то это означает, что взятый размер шага слишком велик. Постоянную k в уравнении (17.8) необходимо тогда уменьшить. Предположим, что на и (f) наложено ограничение вида , . (3 (О < W (О <а (О- (17.12) Можно было бы использовать метод функции штрафа (гл. 13) и приступить к итерационной процедуре. После п итераций можно получить функцию ы( +)(), удовлетворяющую условию (17.12), следующим образом: если (О -С Ф( ) it t) Ж а (t), то принять 6w( (О = ( ) (О - ы( ) (0; если u-{t}-C [lJ Ф( ) {t t) Ж <р (О, (17.13> , . то принять 6w (t) = w (t) - (3 (t); если 3 (О < (t) - C{] Ф( )(/2,0. X X--< (0, TO использовать выражение (17.9). Другой метод, требующий- большей затраты времени, но позволяющий надеяться на получение решения, более близкого к точному, состоит в том, чтобы не использовать условия (17.13). Вместо этого мы устраняем члены в показателе качества, связанные с функциями штрафа, а затем применяем метод наискорейшего спуска таким образом, что в соответствии с выражением (17.9) меняется та часть < )(/), в которой члены не отбрасываются. После нескольких итераций с использованием этого уточнения мы надеемся получить значительно более точное решение по сравнению с решением, получаемым с помощью метода функций штрафа. Отметим некоторые проблемы, связанные с методом наискорейшего спуска. 1. При большой размерности вектора состояния х или большой величине интервала интегрирования может не хватить объема памяти. 2. При интегрировании в прямом и обратном времени шаги должны совпадать; в противном случае необходимо прибегать ,к интерполяции. 3. При приближении к оптимальной траектории сходимость этого метода ухудшается *. * Эта проблема сходимости преодолевается в новом методе, основанном на использовании свойств градиентов и получившем название метода сопряженных градиентов. См., например, L. S. L а S d о п, S. К. М i 11 е г А. D. аг е п The Conjugate Gradient Method for Optimal Control Problems Метод сопряженных градиентов для задач оптимального управления ), ШЕЕ Transactions on Automatic Control, Vol. AC - 12, № 2, pp. 132-138, April, 1967.
|
© 2000 - 2024 ULTRASONEX-AMFODENT.RU.
Копирование материалов разрешено исключительно при условии цититирования. |