Нейросетевое имитационное моделирование скачкообразных процессов на примере устойчивых и умеренно устойчивых процессов

Авторы статьи: Белявский Г.И., Кондратьева Т.Н., Мисюра В.В.

Введение. Процессы Леви можно рассматривать как непрерывный аналог случайного блуждания. Это процессы с траекториями непрерывными справа и имеющими пределы слева. Разрывы траекторий происходят в случайные моменты времени, число которых конечное на любом конечном временном интервале и не более чем счетное на бесконечном интервале. Важное место в теории процессов Леви занимают устойчивые и умеренно устойчивые процессы. Несмотря на то, что основные результаты теории были получены в 30-х годах прошлого столетия, интерес к процессам Леви не ослабевает, в связи с многочисленными приложениями. Например, в таких различных областях, как стохастическая финансовая математика и квантовая теория поля. Следует также отметить, что исследователи постоянно получают новые теоретические и прикладные результаты в области моделирования с использованием процессов Леви. Наиболее полное изложение теории процессов Леви представлено в относительно недавних работах Bertoin [1], Sato [2], в библии по устойчивым процессам Samorodnitsky and Taqqu [3] . Аналитические свойства процессов Леви изложены в работах Jacob [4,5], разнообразные приложения процессов Леви можно найти в работах O. E. Barndorff-Nielsen, T. Mikosch, S. Resnick [6] и работах B. Oksendal, A. Sulem [8].
При применении метода Монте-Карло возникает необходимость в имитационных моделях процессов Леви. Моделированию процессов Леви посвящен раздел в монографии R. Cont, P. Tankov [7].
В статье рассматривается задача моделирования случайных процессов с симметричной мерой Леви при помощи нейросети с обратной связью. При этом используются дискретные симметричные случайные величины, получающиеся в результате вычитания пуассоновских случайных величин. В статье используются результаты работы Белявского Г. и Никоненко Н. [8]. В связи с использованием нейро-сети при моделировании случайных процессов упомянем статью Dente A. [9], посвященную вычислению характеристической функции случайной величины при помощи обучения нейросети.

Модель процесса Леви с ограниченной вариацией на решетке. Рассмотрим полный стохастический базис (\Omega, (F_t)_{t \ge 0}, F, P), относительно которого процесс является процессом Леви. Мы будем рассматривать процессы Леви с траекториями ограниченной вариации. Характеристическая экспонента таких процессов имеет вид:

\varphi (y) = i\mu y+\int_{-\infty}^{\infty} (exp(iyx)-1)v(dx) (1)

В (1) мера Леви - v(dx) удовлетворяет условию:

\int_{-\infty}^{\infty} (|x| \wedge 1)v(dx)< \infty (2)

Рассмотрим значения процесса Леви в узлах решетки на R^{+}: Y_i = X_{ih}. Последовательность Y_i удовлетворяет очевидному рекуррентному уравнению: Y_i = Y_{i-1} + \xi_i, в котором начальное значение Y_0 = 0, случайные величины \xi_i - независимые, одинаково распределенные и безгранично-делимые случайные величины с общей характеристической функцией: \Phi_{\xi} (y) = exp(h\varphi(y)). Определим интервал [a,b] \subseteq [-1,1] и a<0<b. Оценим абсолютную величину разности | \int_a^b (exp(iyx)-1)v(dx)-iy\int_a^b xv(dx)| \le \frac{y^2}{2} \int_a^b x^2v(dx). Выберем наибольшее A и наименьшее B, удовлетворяющие неравенству:

\int_{-\infty}^A v(dx)+\int_{B}^{\infty} \le 2\xi (3)

Определим разбиение (\beta_j)^n_0 интервала [A, a] следующим образом: \beta_0 = A, \beta_j определяется рекуррентным уравнением: \int_{\beta_j}^{\beta_{j-1}}v(dx) = \Lambda, причем n = max\{m: \beta_m \le a\}. Аналогично определяется разбиение (\gamma_j)^n_0 интервала [b, B]. Рассмотрим приближение для интеграла \int_{-\infty}^{\infty} (exp(iyx)-1)v(dx) \approx iy \int^a_b xv(dx)+\Lambda (\sum_{j=1}^n (exp(iy \beta_{j-1}-1))+ \sum_{j=1}^m(exp(iy \gamma_{j-1}-1))). Погрешность такого приближения \bigtriangleup \le \frac{y^2}{2} \int^a_b x^2 v(dx)+|y|((\gamma_m - \beta_n)-(b-a))\Lambda +2\xi. Таким образом, приближенное представление случайной \xi_j имеет следующий вид: \xi_j \approx \overline{m}h+\sum_{k=1}^n \beta_{k-1} \zeta^j_k + \sum_{k=1}^m \gamma_{k-1} \varsigma_k^j, семейство \zeta^j_k, \varsigma_k^j - семейство независимых и одинаково распределенных пуассоновских случайных величин с общей интенсивностью \Lambda h. Это следует из того, что выражение \Lambda h (exp(iy \beta_{k-1}-1)) является характеристической функцией для случайной величины:\beta_{k-1} \zeta^j_k. Константа в этом приближении \overline{\mu} = h(\mu + int_a^b xv(dx)).
Рассмотрим случай симметричной меры Леви, то есть v(A) = v(-A). Для симметричного случая очевидны следующие равенства:

a = -b, A = -B, \beta_k = -\gamma_k, m=n (4)

Из (4) следует приближенное представление случайной величины \xi_j: \xi_j \approx \overline{\mu} + \sum_{k=1}^n \gamma_{k-1} (\varsigma^j_k - \zeta^j_k) = \overline{\mu}+\sum_{k=1}^n \beta{k-1} \eta_k^j. Симметричный закон распределения разности \eta_k^j = \varsigma^j_k - \zeta^j_k представляется быстро сходящимся рядом:

P(\eta^j_k = r) = (\Lambda h)^{|r|} exp(-2 \Lambda h) \sum^{\infty}_{s=0} \frac{(\Lambda h)^{2s}}{(|r|+s)! s!} (5)

Оценка погрешности приближенного представления характеристической экспоненты будет иметь вид: \bigtriangleup \le y^2 \int_0^b x^2 v(dx)+2(\Lambda(\gamma_n - b)|y|+\varepsilon).
Структура сети, вычисляющей процесс, представлена на рис.1.

model_LeviРис.1. Нейросетевая модель процесса Леви

Начальное состояние выходного нейрона равно нулю, случайные величины \varsigma_j независимые и одинаково распределенные по симметричному закону распределения (5). Обратная связь имеет один такт задержки.
Устойчивый, симметричный процесс Леви. Устойчивые процессы Леви широко распространены как средство моделирования, например, финансовых индексов и трафика. Мера Леви устойчивого симметричного процесса имеет следующий вид:

v(dx) = \frac{C}{{|x|}^{1+\alpha}} dx (6)

В (6) C - положительная константа, индекс устойчивости \alpha <1. Последнее неравенство означает, что вариация ограничена почти всюду. Расчетные формулы для параметров нейросетевой модели будут иметь вид:

B = (\frac {C}{\alpha \varepsilon})^{1/ \alpha} , \gamma_j = [(\frac{C}{\alpha \gamma^{\alpha}_{j-1}} - \Lambda) \frac{\alpha}{C}]^{\frac{-1}{\alpha}} (7)

Очевидно, что (\frac{C}{\alpha \gamma^{\alpha}_{j-1}} - \Lambda > 0), для всех j. Отсюда следует, что \Lambda < \varepsilon. Положим \Lambda = k \varepsilon, k<1, и рассмотрим неравенство для оценки погрешности y^2 \frac{b^{2-\alpha}}{2-\alpha}+2\Lambda ((\gamma_n -b)|y|+\varepsilon) \ge y^2 \frac{b^{2-\alpha}}{2-\alpha}+2(k \varepsilon((\frac {C}{\alpha \varepsilon})^{1/ \alpha} -b)|y|+ \varepsilon). Таким образом, оценка погрешности при \alpha <1, стремится к бесконечности при \varepsilon \to 0, что делает нейросеть, рассматриваемой архитектуры, неприемлемой для моделирования устойчивого процесса Леви с индексом устойчивости меньшим единицы.
Умеренно устойчивый, симметричный процесс Леви. Мера Леви для данного процесса выглядит следующим образом:

v(dx) = \frac{C}{|x|^{1+\alpha}} exp(- \delta |x|)dx (8)

При \alpha<1 соответствующий процесс Леви – процесс ограниченной вариации.
Скачки умеренно устойчивого процесса в окрестности нуля ведут себя как скачки устойчивого процесса. Большие скачки процесса за счет множителя exp(-\delta |x|) ведут себя умеренно. Умеренно устойчивые процессы особенно популярны при моделировании поведения финансовых индексов [10]. Формулы для вычисления параметров для нейросети будут иметь следующий вид:

B = \frac{1}{\delta} ln \frac{1}{\delta \varepsilon} (9)

\beta_j является решением уравнения:

\frac{(1+\delta \beta_{j-1})(1-\alpha)+\alpha \delta \beta_j}{\alpha (1-\alpha)\beta^{\alpha}_j} = \frac{(1+\delta \beta_{j-1})(1-\alpha)+\alpha \delta \beta_{j-1}}{\alpha (1-\alpha)\beta^{\alpha}_j} - \Lambda exp(\delta \beta_{j-1}) (10)

Положив \Lambda = k \varepsilon и b = \varepsilon, получим оценку погрешности: \bigtriangleup \le y^2 \frac{\varepsilon^{2-\alpha}}{2-\alpha}+2(k \varepsilon(\frac{1}{\delta} ln \frac{1}{\delta \epsilon}-b)|y|+\varepsilon), которая стремится к нулю при \varepsilon \to 0. Это означает, что предлагаемая архитектура нейросети вполне приемлема для моделирования данного процесса Леви. Одна из траекторий такого процесса представлена на рис. 2.

traektoriaРис.2. Траектория умеренно стабильного процесса с параметрами C = 1, \alpha = 0.5, \delta = 1.

Заключение. Эффективность предложенной архитектуры нейронной сети заключается в том, что состояния входных нейронов – независимые и одинаково распределенные случайные величины. Этот результат получается в результате неравномерного разбиения фазовой шкалы. Однако, не для всех процессов такая техника применима. В статье приводится пример такого процесса.

Литература

  1. Bertoin Jean. Lévy processes. Cambridge Tracts in Mathematics, 121. Cambridge University Press.Cambridge, 265 p.
  2. Sato Ken-iti. Lévy processes and infinitely divisible distributions. Cambridge Studies in Advanced Mathematics, 68. Cambridge University Press, Cambridge, 1999. 486 p.
  3. Samorodnitsky Gennady, Taqqu Murad S. Stable non-Gaussian random processes. Stochastic models with infinite variance. Stochastic Modeling. Chapman & Hall, New York, 1994. 632 p
  4. Jacob N. Pseudo-differential operators and Markov processes. Akademie-Verlag, Berlin, 1996. 475 р.
  5. Jacob N. Pseudo-Differential Operators and Markov Processes. World Scientific, 2001. 516 p.
  6. Barndorff-Nielsen O. E., Mikosch TResnick (eds.) S. Lévy Processes – Theory and Applications. Birkhauser. Boston, 2001. 401 р.
  7. Cont R., Tankov P., Financial modelling and jump processes. Chapman & Hall/CRC Financial Mathematics Series, USA, 2004. 533 p.
  8. Белявский Г., Никоненко Н. Алгоритм расчета безарбитражной цены финансового обязательства на основе дискретизации процессов Леви. // Научно-технические ведомости Санкт-Петербургского государственного политехнического университета. Информатика. Телекоммуникации. Управление. 2012. Т. 3. № 150. С. 56-59.
  9. Belyavskii G., Nikonenko N. Algoritm rascheta bezarbitrazhnoi tseny finansovogo obyazatel'stva na osnove diskretizatsii protsessov Levi. [The algorithm for calculating arbitrage-free price of financial liabilities based on the Levi processes sampling.] // Nauchno-tekhnicheskie vedomosti Sankt-Peterburgskogo gosudarstvennogo politekhnicheskogo universiteta. Informatika. Telekommunikatsii. Upravlenie. 2012. T. 3. № 150. pp . 56-59.
  10. Dente A. Characteristic functions and process identification by neural networks// Neural Networks. Vol.10, No. 8, 1997. pp. 1465-1471.
  11. Ширяев А.Н. Основы стохастической финансовой математики, т.1. М.: Фазис, 2004. 512 с.
  12. Shiryaev A.N. Osnovy stokhasticheskoi finansovoi matematiki [Essentials of Stochastic Financial Mathematics], t.1. M.: Fazis, 2004. 512 p.