Главная страница  Системы автоматического управления 

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 [ 156 ] 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180

Этот метод удобно применять к задачам типа Майера, что влечет за собой преобразование данной задачи в форму Майера путем изменения переменных состояния (см. гл. 14).

Как и все другие методы, упомянутые в данном параграфе, метод градиентов позволяет лишь находить локальную точку минимума. Однако в отличие от двух других рассматриваемых ниже методов метод градиентов должен сходиться к вырожденному решению, если такое существует *, так как необходимые условия оптимальности, выражаемые с помощью уравнений Эйлера-Лагранжа или принципа максимума, здесь не используются.

При наличии ограничений типа неравенства на переменные состояния иногда может оказаться более выгодным использовать метод функций штрафа (см. гл. 14).

2. Оптимизация методом второй вариации

Преимуществом метода оптимизации, основанного на теории второй вариации в вариационном исчислении, является быстрая сходимость вблизи оптимальной траектории [25], [ПО]. К недостаткам этого метода следует отнести значительную сложность программирования, а также то, что с его .помощью может даже оказаться невозможным определение локального минимума, если начальная точка слишком далека от оптимальной траектории.

С учетом обсуждения метода второй вариации в гл. 16 основную идею можно выразить просто. Рассмотрим тот же класс задач, что и в предыдущем параграфе, только без ограничения типа неравенства на управляющее воздействие *. Вм(есто того, чтобы продолжать использовать метод градиента, можно сделать следующее:

1. Найти пробное решение и<-1 (f) и с помощью уравнения (17.1) составить пробную траекторию (t), идущую из данной исходной точки. Траектория (О не является вообще оптимальной.

2. Найти линеаризованное уравнение системы (17.3) относительно этой траектории.

3. Используя линеаризованную систему, найти приближенное оптимальное дискретное управление бы, максимизирующее приближенный функционал A/i, который обозначает изменение в пополненной функции

,/i = Р (Xg) + jф - f)dt при ее разложении в соответствии с методом вторых вариаций (см. § 16.6).

4. Принимая ы(2) (/) = ы* (f) + 6uW [t), повторить процесс.

Для большей конкретности предположим, что Хо, t-, и t, фиксированы; тогда f I можно разложить точно так же, как это было сделано в § 16.6. Таким образом, непосредственная задача состоит в том, чтобы найти бы {t), которое возбуждает систему (17.3) таким образом, чтобы минимизировать .приращение функционала

A/i = 6/i + -6Yi с учетом краевых условий бх (i) = 6xi = 0.

* В настоящее время очень трудно использовать метод второй вариации для задач с ограничениями. .



Формулы для б/i и 61 приведены в § 16.6. В частности, имеем формулу (16.46), которую переписываем ниже:

Если отсутствует гарантия того, что траектория, получаемая в результате п-й итерации л: ) (f), является оптимальной, то в противоположность случаю, рассматриваемому в § 16.6, 6fi не обязательно равняется нулю. Это обстоятельство необходимо учитывать в процессе оптимизации.

При интегрировании пО частям последнего члена в интеграле (16.46) это выражение принимает вид

t=ti

-l(( + )fi- + )- (17.14)

Если теперь определим номинальную сопряженную функцию tf (t) при п-й итерации как функцию, удовлетворяющую условию ф={д дхУф или if = -f (df/dx) с учетом соответствующего условия трансверсальности

If (t,) = - (дР/дх)\t=t, то члены (if + if (дх)) 6х и [dP/dxfdx + if6x]

t=ti

в подыинтегральном выражении (17.14) исчезают. Таким образом, у нас остается

6u)di . - . (17.15)

вдоль номинальной пробной траектории, где H - iff.

Член Sfi остается без изменений и удовлетворяет выражению (16.48). Тогда показатель качества -.

6/i = -J(

A/i=+-1- = (4 fi-* -S fi-*)

< = <2

Теперь задача аппроксимации или вспомогательной оптимизации представлена достаточно полно. Желательно найтн решение Sxi) (i), t удовлетворяющее выражению (17.3) и краевому условию бх (i = О, которое минимизирует функционал (17.16).

Для численного нахождения бх* (t) можно, например, использовать принцип максимума. В соответствии с указаниями, содержащимися в гл. 14, определим вспомогательные сопряженные переменные 6if и построим вспомогательный гамильтониан

fi + afi )- (17-17)



Вспомогательная сопряженная переменная бя]? должна удовлетворять уравнению

С условием трансверсальности; ответьте почему?

б(2) = -бл:,,, (17.19)

а вспомогательное оптимальное дискретное управление бы(>> следует найти из условия

= 0. (17.20)

Обобщая приведенные выше результаты, можно описать метод оптимизации более конкретно, выделив в нем следующие этапы:

1. Взять пробную функцию управления () и при ее использовании численно проинтегрировать уравнение (17.1) для получения траектории

2. Найти сопряженные переменные if(i> (f), соответствующие л:< (f), путем интегрирования системы -(df/dxYiii в обратном от = 2 с краевым условием

3. Найти бх>> (t) и бя]з1> (t) в соответствии с уравнениями (17.3) и (17.18) и краевыми условиями

6x<i4i) = 0, бя])(1)(2) = -

если бы(1> (t) получено из условия (17.20). Эта задача [в 2п-мерном пространстве состояний та же, что и задача, рассмотренная в § 12.3, и ее можно решить численно.

4. ФункДия управления для следующей итерации принимает вид ы) (t) = = (t) + бы(>> (t). Далее необходимо повторить этот процесс для сле-.дующей итерации.

Приведенную выше задачу минимизации часто целесообразно решать с помощью синтеза оптимальной линейной обратной связи, рассмотренной в гл. 15. В принципе это делается достаточно просто [25], [140].

Описанный здесь метод второй вариации имеет целый ряд практических трудностей. Первой из них является очевидная сложность программирования. Так, например, задача, указанная выше в пункте 3, несмотря на простоту формулировки, требует для своего решения большой затраты труда. Вторая заключается в том, что обычно нет гарантии, что удовлетворяются условия Лежандра и Якоби *. И, наконец, так как метод второй вариации основан на некоторых необходимых условиях оптимальности, которые в случае вырожденного управления удовлетворяются тривиально, с его помощью невозможно найти вырожденные траектории.

Преимуществом метода второй вариации по сравнению с методом гра-.диента является более высокая сходимость в том случае, когда локальное оптимальное решение близко.

. * В случаях, когда данные условия не удовлетворены, это часто приводит к невозможности -отыскания решения уравнения Риккати. См., например, [140].



1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 [ 156 ] 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180

© 2000 - 2024 ULTRASONEX-AMFODENT.RU.
Копирование материалов разрешено исключительно при условии цититирования.