Главная Переработка нефти и газа Оптимизация «маршрута» поиска может быть осуществлена с помощью исследования чувствительности решений прямых задач относительно варьирования значений коэффициентов моделей [11, 12]. Используя аппарат теории чувствительности, коэффициенты в можно искать при помощи итерационной процедуры в(+l)=в(s )+Aв(s), (2.10) где смешения Aв(s) определяются из условия минимизации функционала i=1ai h Xi ,в д u д u дв1 дв2 двm (s)) Матрица чувствительности ,в j определяет «отклик» решения прямой задачи на малые изменения значений коэффициентов в . Пример. Рассмотрим линейное дифференциальное уравнение k=1 dtk с начальными условиями u(k)(0) = ak, k = 0,1,..., m -1. Необходимо оценить параметры вj (j = 0,1,m) по замерам У1 = u (ti ) + ei, i = 1,2,..., n. Легко увидеть, что функции чувствительности д u(t,в) hj (t,в): могут быть найдены из решения задачи
hj = 0, j = 1,2,K, m, Оценки коэффициентов в определяются по алгоритму (2.10), где величины Aв(s) находятся путем решения уравнений JTAH Aвjs ) = Bjs) i = 0 j = 0, 1, m, :(s) = [vi -u(ti,e(s)(ti,e(s) i=1 2.1.2. Оценивание параметров с помощью замены дифференциального уравнения конечно-разностным Мы предполагали до сих пор, что прямая начально-краевая задача (2.1)-(2.2) может быть решена точно. Однако это возможно далеко не всегда. В тех случаях когда точное решение задачи (2.1)-(2.2) не удается получить, для определения параметров может быть произведена замена операторов Le и 1в их конечно-разностными аналогами. Рассмотрим, например, задачу оценки коэффициента температуропроводности а для уравнения теплопроводности: Э u (x, t) Э 2u (x, t) --= a-2- Э t Э x2 (0 < x < l, t > 0). Переходя к дискретной координате с шагом Ax и к дискретному времени с шагом At, получим уравнение [13] uk,s -uk,s-1 =e(uk+1,s - 2uk,s + uk-1,s), где в = ~ At (Ax)2 a - a (2.11) методическая ошибка замены дифференци- ального уравнения конечно-разностным. Требуется оценить в по системе наблюдений yk,s = uk,s +£k,s: uk,s = u(xk,ts), xk = k Ax k = 0,1,..., Ax J ts = s •At (s = 0,1,...), E[£k, s] = 0, т. е. E[ yk, s] = uk, s, E[£k,s s] = kkss2. Для решения задачи перепишем (2.11) в виде uk,s = uk,s-1 +e(uk+1,s - 2uk,s + uk-1,s). (2.12) Заменим теперь в правой части (2.12) все u на результаты их наблюдений. Получим в итоге некоторую оценку для uk, s : uk,s = yk,s-1 +в(yk+1,s - 2yk,s + yk-1,s ). В качестве оценки параметра в можно принять величину Л -1 в*= Arginf F* (в), F* (в) = E S(uk,s- yk,s) , и использовать для ее оп- ределения метод стохастической аппроксимации (2.1.1). Рассмотрим случай, когда разности у, - у,±1 измеряются в малом числе точек Xk . В этих условиях необходимая точность оценок обеспечивается достаточно большим числом измерений по времени (s ). Исходя из (2.9), получим следующий алгоритм определения оценок в(s) в момент sAt: в =в -р( s){VвF(s)(в) в=в(s-1) , - добавка, обеспечи- где VвF(s)(в) = Vв\2X(uk,s-yks)2 [ + f(s), f(s) вающая несмещенность оценок в . Так, если конечные разности измеряются в одной точке, можно положить [13] VвF(s )(в) = 2 Vв< Легко проверить, что uk,s-yk,s] [ + 2а2(1 + 3в). E[{{вF(s)(в)}в=в(s-1) ] = 0 при в(s-1) =вп, так что добавка 2а2 (1 + 3в) действительно обеспечивает несмещенность оценки в . 2.1.3. Некорректность операции дифференцирования экспериментальных функций В предыдущем разделе были рассмотрены алгоритмы решения обратных задач, основанные на конечно-разностной аппроксимации дифференциальных уравнений. Этот подход следует применять с большой осторожностью, поскольку конечно-разностная аппроксимация эквивалентна непосредственному дифференцированию экспериментальных функций, чреватому большими погрешностями [4-6]. Проиллюстрируем это обстоятельство следующим простым примером. Пусть дано уравнение du dt + в(u -1) = 0. (2.13) 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 [ 29 ] 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 |
||||||||||||||