Lemma von Itō


aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche

Das Lemma von Itō (auch Itō-Formel), benannt nach dem japanischen Mathematiker Itō Kiyoshi, ist eine zentrale Aussage in der stochastischen Analysis. In seiner einfachsten Form ist es eine Integraldarstellung für stochastische Prozesse, die Funktionen eines Wiener-Prozesses sind. Es entspricht damit der Kettenregel bzw. Substitutionsregel der klassischen Differential- und Integralrechnung.

Version für Wiener-Prozesse

Sei <math>(W_t)_{t \geq 0}</math> ein (Standard-)Wiener-Prozess und <math>h\colon \R \to \R</math> eine zweimal stetig differenzierbare Funktion. Dann gilt

<math>h(W_t) = h(W_0) + \int_0^t h'(W_s) \, {\rm d} W_s + \frac{1}{2} \int_0^t h(W_s) \, {\rm d}s\,.</math>

Dabei ist das erste Integral als Itō-Integral und das zweite Integral als ein gewöhnliches Riemann-Integral (über die stetigen Pfade des Integranden) zu verstehen.

Für den durch <math>Y_t = h(W_t)</math> für <math>t \geq 0</math> definierten Prozess lautet diese Darstellung in Differentialschreibweise

<math>{\rm d}Y_t = h'(W_t) \, {\rm d}W_t + \frac{1}{2} h(W_t) \, {\rm d}t\,.</math>

Version für Itō-Prozesse

Ein stochastischer Prozess <math> (X_t)_{t \ge 0}</math> heißt Itō-Prozess, falls

<math> X_t = X_0+\int_0^t a_s\,{\rm d}s+\int_0^t b_s\,{\rm d}W_s </math>

für zwei stochastische Prozesse <math>a_s</math>, <math>b_s</math> gilt (genaueres dazu unter stochastische Integration). In Differentialschreibweise:

<math> {\rm d}X_t=a_t\,{\rm d}t+b_t\,{\rm d}W_t\,.</math>

Ist <math> h\colon \mathbb{R}_{+} \times \mathbb{R} \to \mathbb{R} </math> eine in der ersten Komponente einmal und in der zweiten zweimal stetig differenzierbare Funktion, so ist auch der durch <math>Y_t :=h(t,X_t)</math> definierte Prozess ein Itō-Prozess, und es gilt<ref>Hui-Hsiung Kuo: Introduction to Stochastic Integration. Springer, 2006, ISBN 978-0387-28720-1, S. 103 (eingeschränkte Vorschau in der Google-Buchsuche).</ref>

<math>\begin{align} {\rm d}Y_t &= \frac{\partial h}{\partial t}(t,X_t)\,{\rm d}t + \frac{\partial h}{\partial x}(t,X_t)\, {\rm d}X_t + \frac{1}{2}\frac{\partial^2 h}{\partial x^2} (t,X_t) ({\rm d}X_t)^2\\

&= \left(\frac{\partial h}{\partial x}(t,X_t)\, a_t + \frac{\partial h}{\partial t}(t,X_t) + \frac{1}{2} \frac{\partial^2 h}{\partial x^2} (t,X_t)\, b_t^2\right){\rm d}t+\frac{\partial h}{\partial x}(t,X_t)\, b_t \,{\rm d}W_t\,. \end{align}</math>

Hierbei bezeichnen <math>\tfrac{\partial h}{\partial t}</math> und <math>\tfrac{\partial h}{\partial x}</math> die partiellen Ableitungen der Funktion <math>h</math> nach der ersten bzw. zweiten Variablen. Die zweite Darstellung folgt aus der ersten durch Einsetzen von <math>({\rm d}X_t)^2 = b_t^2 \, {\rm d}t</math> und Zusammenfassen der <math>{\rm d} t</math>- und <math>{\rm d} W_t</math>-Terme.

Version für Semimartingale

Sei <math> (X_t)_{t \geq 0} =(X_t^1,\dotsc,X_t^d)_{t \geq 0}</math> ein <math>\R^d</math>-wertiges Semimartingal und sei <math> F\in C^2(\R^d, \R) </math>. Dann ist <math>(F(X_t))_{t \geq 0}</math> wieder ein Semimartingal und es gilt

<math>

\begin{align} F(X_t)-F(X_0)= & \sum_{j=1}^d \int_0^t \frac{\partial F}{\partial x^j}(X_{s-}){\rm d}X_s^j + \frac{1}{2} \sum_{j,k=1}^d \int_0^t\frac{\partial^2 F}{\partial x^j \partial x^k}(X_{s-}) {\rm d}[X^j,X^k]^c_s\\ &{}+ \sum_{0<s\leq t}\left( F(X_s)-F(X_{s-}) - \sum_{j=1}^d \frac{\partial F}{\partial x^j}(X_{s-}) \Delta X_s^j \right). \end{align} </math>

Hierbei ist <math>\textstyle X_{s-} = \lim_{u \uparrow s} X_u</math> der linksseitige Grenzwert und <math>\Delta X_s^j = X_s^j - X_{s-}^j</math> der zugehörige Sprungprozess. Mit <math>[X^j, X^k]^c</math> wird die quadratische Kovariation der stetigen Anteile der Komponenten <math>X^j</math> und <math>X^k</math> bezeichnet. Falls <math>X</math> ein stetiges Semimartingal ist, verschwindet die letzte Summe in der Formel und es gilt <math>[X^j, X^k]^c = [X^j, X^k]</math>.

Beispiele

  • Für <math>Y_t = \sin(W_t)</math> gilt <math>{\rm d}Y_t = \cos(W_t)\,{\rm d}W_t - \tfrac{1}{2}\sin(W_t)\,{\rm d}t</math>.
<math> S_t=S_0 e^{rt- \frac{1}{2} \sigma^2 t +\sigma W_t}</math>
eine Lösung der stochastischen Differentialgleichung von Black und Scholes
<math>{\rm d}S_t=r S_t\, {\rm d}t+ \sigma S_t\, {\rm d}W_t</math>
ist.
Hierzu wählt man <math> X_t=W_t</math>, also <math>a_t=0,\; b_t=1 </math>.
Dann ergibt das Lemma mit <math>h(t,x) = S_0 e^{rt- \frac{1}{2} \sigma^2 t +\sigma x}</math>:
<math> {\rm d}S_t=\left[\left(r- \frac{\sigma^2}{2} +\frac{\sigma^2}{2}\right) S_0 e^{rt-\frac{1}{2} \sigma^2 t +\sigma W_t} \right]{\rm d}t+\left[\sigma S_0 e^{rt- \frac{1}{2} \sigma^2 t +\sigma W_t}\right]{\rm d}W_t =rS_t\, {\rm d}t+\sigma S_t \,{\rm d}W_t\,.</math>

Literatur

  • Philip E. Protter: Stochastic Integration and Differential Equations(2nd edition), Springer, 2004, ISBN 3-540-00313-4.

Einzelnachweise

<references />