Lade Inhalt...

Das lineare Filterproblem in separablen Hilberträumen

Mit einer Einführung in die stochastische Integration einschließlich Behandlung der Ito-Formel

©1992 Diplomarbeit 228 Seiten

Zusammenfassung

Inhaltsangabe:Inhaltsangabe:
Einleitung:
Zum Verständnis dieser Diplomarbeit sind gute Kenntnisse der Wahrscheinlichkeitstheorie und Integrationstheorie sowie Grundkenntnisse in Funktionalanalysis hilfreich.
Im Mittelpunkt meiner Diplomarbeit stehen zwei Themenbereiche, die ich nun kurz vorstellen möchte. Die Kapitel 1-6 geben eine umfangreiche Einführung in die Theorie der stochastischen Integration in Hilberträumen, wobei ich in Kapitel 1-3 zunächst grundlegende Begriffe wie z.B. Stoppzeit, Martingal oder bedingte Erwartung behandle. Daran schließt sich die eigentliche Einführung in die stochastische Integration in Hilberträumen an, wobei das Buch von M. MÉTIVIER und J. PELLAUMAIL die Basis für den von mir gewählten Zugang bildet. In Kapitel 4 werden dabei neben den grundlegenden Definitionen die Eigenschaften stochastischer Integrale und Integralprozesse sowie Konvergenzsätze für Folgen stochastischer Integralprozesse behandelt. In Kapitel 5 definiere ich die quadratischen und tensor-quadratischen Variationsprozesse und erarbeite wichtige Aussagen über diese Prozesse – dies dient zur Vorbereitung von Kapitel 6, das mit der Ito-Formel für stochastische Prozesse in Hilberträumen und einigen Korollaren hieraus die von mir gegebene Einführung in die Theorie der stochastischen Integration abschließt.
Die umfangreiche Behandlung der Theorie der stochastischen Integration ist als Unterbau für die Kapitel 7-9 erforderlich, die das lineare Filterproblem in separablen Hilberträumen behandeln. Hierbei handelt es sich um einen Gegenstand der stochastischen Kontrolltheorie. In der deterministischen Kontrolltheorie interessieren wir uns allgemein für lineare differentielle dynamische Systeme, d. h. für mathematische Modelle eines Teils der Realität, an dessen zeitlicher Veränderung wir interessiert sind – die Bezeichnung ‘linear differentiell’ drückt hierbei aus, daß nur solche Systeme betrachtet werden sollen, die sich durch lineare Differentialgleichungen beschreiben lassen. Wenn t (Formel im Original vorhanden) der Zeitparameter, x(t) der Systemzustand, u(t) die Eingangsgröße und y(t) die Ausgangsgröße zum Zeitpunkt t ist (x, u, y haben Werte in Vektorräumen), so hat ein solches System z. B. die Gestalt (im Originaltext befinden sich hier Formeln und eine Grafik).
Der Systemzustand zum Zeitpunkt t ist dabei eine Größe, die sämtliche Informationen über die Vorgeschichte des Systems enthält, die für die weitere zeitliche Entwicklung des Systems […]

Leseprobe

Inhaltsverzeichnis


Torsten Narjes
Das lineare Filterproblem in separablen Hilberträumen
Mit einer Einführung in die stochastische Integration einschließlich Behandlung der Ito-
Formel
ISBN: 978-3-8366-3809-8
Herstellung: Diplomica® Verlag GmbH, Hamburg, 2009
Zugl. Christian-Albrechts-Universität zu Kiel, Kiel, Deutschland, Diplomarbeit, 1992
Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte,
insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von
Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der
Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen,
bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung
dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen
der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik
Deutschland in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich
vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des
Urheberrechtes.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in
diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme,
dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei
zu betrachten wären und daher von jedermann benutzt werden dürften.
Die Informationen in diesem Werk wurden mit Sorgfalt erarbeitet. Dennoch können
Fehler nicht vollständig ausgeschlossen werden und der Verlag, die Autoren oder
Übersetzer übernehmen keine juristische Verantwortung oder irgendeine Haftung für evtl.
verbliebene fehlerhafte Angaben und deren Folgen.
© Diplomica Verlag GmbH
http://www.diplomica.de, Hamburg 2009

VORWORT UND EINLEITUNG
i
Vorwort und Einleitung
Zum Verst¨andnis dieser Diplomarbeit sind gute Kenntnisse der Wahrscheinlichkeitstheorie
und Integrationstheorie sowie Grundkenntnisse in Funktionalanalysis hilfreich.
Im Mittelpunkt meiner Diplomarbeit stehen zwei Themenbereiche, die ich nun kurz
vorstellen m¨ochte. Die Kapitel 1­6 geben eine umfangreiche Einf¨uhrung in die Theorie
der stochastischen Integration in Hilbertr¨aumen, wobei ich in Kapitel 1­3 zun¨achst grund-
legende Begriffe wie z. B. Stoppzeit, Martingal oder bedingte Erwartung behandle. Daran
schließt sich die eigentliche Einf¨
uhrung in die stochastische Integration in Hilbertr¨aum-
en an, wobei das Buch von M. M´
etivier
und J. Pellaumail [13] die Basis f¨
ur den
von mir gew¨ahlten Zugang bildet. In Kapitel 4 werden dabei neben den grundlegenden
Definitionen die Eigenschaften stochastischer Integrale und Integralprozesse sowie Kon-
vergenzs¨atze f¨
ur Folgen stochastischer Integralprozesse behandelt. In Kapitel 5 definiere
ich die quadratischen und tensor-quadratischen Variationsprozesse und erarbeite wichtige
Aussagen ¨
uber diese Prozesse -- dies dient zur Vorbereitung von Kapitel 6, das mit der
Ito-Formel f¨
ur stochastische Prozesse in Hilbertr¨aumen und einigen Korollaren hieraus
die von mir gegebene Einf¨
uhrung in die Theorie der stochastischen Integration abschließt.
Die umfangreiche Behandlung der Theorie der stochastischen Integration ist als Un-
terbau f¨
ur die Kapitel 7­9 erforderlich, die das lineare Filterproblem in separablen Hil-
bertr¨aumen behandeln. Hierbei handelt es sich um einen Gegenstand der stochastischen
Kontrolltheorie. In der deterministischen Kontrolltheorie interessieren wir uns allgemein
ur lineare differentielle dynamische Systeme, d. h. f¨
ur mathematische Modelle eines Teils
der Realit¨at, an dessen zeitlicher Ver¨anderung wir interessiert sind -- die Bezeichnung
"
linear differentiell" dr¨
uckt hierbei aus, daß nur solche Systeme betrachtet werden sollen,
die sich durch lineare Differentialgleichungen beschreiben lassen. Wenn t
IR der Zeit-
parameter, x(t) der Systemzustand, u(t) die Eingangsgr¨oße und y(t) die Ausgangsgr¨oße
zum Zeitpunkt t ist (x, u, y haben Werte in Vektorr¨aumen), so hat ein solches System
z. B. die Gestalt
x
(t) = F (t) x(t) + B(t) u(t)
y
(t) = G(t) x(t)
System
Umgebung
-
-
Eingang
Ausgang
Zustand x
u
y
Der Systemzustand zum Zeitpunkt t ist dabei eine Gr¨oße, die s¨amtliche Informationen

ii
VORWORT UND EINLEITUNG
¨
uber die Vorgeschichte des Systems enth¨alt, die f¨
ur die weitere zeitliche Entwicklung des
Systems relevant ist (nach [11, S. 10]). Der Ausgang y beschreibt die Wirkung des Systems
auf seine Umgebung, die von einem Beobachter außerhalb des Systems erfaßt werden
kann. Der Eingang u beschreibt den Einfluß der Umgebung auf das System. Enth¨alt u
sogenannte Stellgr¨oßen, d. h. Parameter, die im Laufe der Zeit beliebig variiert werden
k¨onnen, so haben wir ein Kontrollsystem vorliegen. Einen Regelkreis erhalten wir, wenn der
Eingang u auch eine Funktion der Beobachtungen y ist. Im allgemeinen wird u daneben
auch unbeeinflußbare und zeitlich nicht vorhersehbare St¨orungen beschreiben.
In der stochastischen Kontrolltheorie ber¨
ucksichtigt man zuf¨allige St¨oreinfl¨
usse auf ein
System und auf die Messung der Beobachtungen jeweils durch Terme, in denen Prozeßse
mit dem Namen
"
Weißes Rauschen" auftreten. Damit sind Systemzustand und Beob-
achtungen durch stochastische Prozesse zu beschreiben, so daß wir formal (!) folgendes
System erhalten (Wir lassen jetzt die Regelbarkeit außer acht):
dX
t
dt
= F (t) X
t
+ C(t)
dU
t
dt
Y
t
= G(t) X
t
+ D(t)
dV
t
dt
Hierbei sind U und V voneinander stochastisch unabh¨angige Brown'sche Bewegungen
(s. u.). In heuristischer Weise l¨aßt sich ein weißes Rauschen als Zeitableitung einer Brown'-
schen Bewegung interpretieren (siehe z. B. [14, S. 14] und [11, S. 176 ff.]), jedoch ist dies
rein formal, da Brown'sche Bewegungen fast sicher nirgendwo differenzierbare Pfade haben
(siehe z. B. [10, S. 110 f.]), und weil ein weißes Rauschen W Eigenschaften besitzt, die kein
gew¨ohnlicher stochastischer Prozeß besitzen kann, dessen Realisierungen Hilbertraum-
wertige Funktionen sind (siehe [14, S. 13] und [9, S. 10]):
(i) EW
t
= 0 f¨
ur alle t
(ii) W ist station¨ar, d. h. die gemeinsame Verteilung von (W
t+t
1
, . . . W
t+t
k
) h¨angt nicht
von t ab
(iii) W
s
und W
t
sind stochastisch unabh¨angig f¨
ur s = t, und es ist Cov(W
s
, W
t
) =
I
(t
- s) mit IR.
Aus diesen Gr¨
unden betrachtet man statt des obigen Systems das durch formales Aufin-
tegrieren entstehende System folgender stochastischer Integralgleichungen
1
:
X
t
=
]0,t]
F
(s) X
s
ds
+
]0,t]
C
(s) dU
s
]0,t]
Y
s
ds
=
]0,t]
G
(s) X
s
ds
+
]0,t]
D
(s) dV
s
.
Als Filterproblem bezeichnet man nun die Aufgabe, ausgehend von den Beobachtungen
Y
den (nicht voll zug¨anglichen) Systemzustand X
"
optimal" zu sch¨atzen, um z. B. einen
1
Die Theorie stochastischer Integralgleichungen ist kein Gegenstand dieser Diplomarbeit. Siehe Seite
162

VORWORT UND EINLEITUNG
iii
optimalen stochastischen Regler konstruieren zu k¨onnen. Bei diesem Beispiel spricht man
pr¨aziser vom linearen Filterproblem, da ein System linearer stochastischer Integralglei-
chungen zugrundeliegt. F¨
ur den Fall endlichdimensionaler Hilbertr¨aume ist die L¨osung
des linearen Filterproblems bekannt und findet unter dem Namen Kalman-Bucy-Filter
zahlreiche Anwendungen. Der unendlichdimensionale Fall ist jedoch noch Gegenstand
aktueller Arbeiten und bereitet eigent¨
umliche Schwierigkeiten, wenn der Raum der Beob-
achtungen unendlichdimensional ist (vgl. z. B. den Fehler in [1, S. 155]). Ich beschr¨anke
mich in meiner Arbeit auf den Fall, daß der Systemzustand Werte in separablen Hilber-
tr¨aumen und die Beobachtungen Werte in endlichdimensionalen Hilbertr¨aumen annehmen
k¨onnen.
Weitere Informationen zur Kontrolltheorie und Systemtheorie findet der Leser bei-
spielsweise in [11].
Neben den beiden großen Themenbereichen
"
Stochastische Integration" und
"
Lineares
Filterproblem" enth¨alt diese Arbeit im Anhang Informationen u. a. ¨
uber Vektorkonjuga-
tion, Kovarianz-Operatoren und Charakterisierung Brown'scher Bewegungen in separa-
blen Hilbertr¨aumen, soweit f¨
ur diese Arbeit erforderlich. Weitergehende Informationen zu
Brown'schen Bewegungen erh¨alt der Leser in [10]. Zu vielen anderen wahrscheinlichkeits-
theoretischen Aspekten in Banachr¨aumen ist die Lekt¨
ure des Buchs von N.N. Vakhania
et al. [16] sehr empfehlenswert.
Die Anregung zu dieser Arbeit entsprang einem Seminarvortrag, den ich im Februar
1990 zusammen mit M. Baudach im mathematischen Seminar zum Thema
"
stochasti-
sche Filtertheorie" (Prof'es Dr'es J. Ahrens, A. Irle, V. Wrobel) gehalten habe und
in dem der eindimensionale Fall des linearen Filterproblems im Mittelpunkt stand. Als
Lekt¨
ure diente das Buch von B. Øksendal [14], aus dem ich zentrale Gedankeng¨ange
auch f¨
ur diese Arbeit entnommen habe -- dies betrifft Kapitel 7, aber auch Kapitel 9.
Ohne intensive Unterst¨
utzung und Betreuung w¨are eine derartige Arbeit nicht m¨oglich
gewesen. Eine Danksagung und die eidesstattliche Erkl¨arung findet der Leser am Ende
der Diplomarbeit.
Kronshagen, im Juli 1992
Torsten Narjes

INHALTSVERZEICHNIS
v
Inhaltsverzeichnis
Notationen und Symbole
ix
1 Stochastische Prozesse
1
1.1 Filtrierungen und stochastische Basen . . . . . . . . . . . . . . . . . . . . .
1
1.2 Der Begriff des stochastischen Prozesses
. . . . . . . . . . . . . . . . . . .
2
1.3 Modifikation und P - ¨
Aquivalenz . . . . . . . . . . . . . . . . . . . . . . . .
3
1.4 Adaptierte stochastische Prozesse . . . . . . . . . . . . . . . . . . . . . . .
5
1.5 Die -Algebra der vorhersagbaren Mengen . . . . . . . . . . . . . . . . . .
6
2 Zufallszeiten
9
2.1 Zufallszeiten: Definition und allgemeine Eigenschaften . . . . . . . . . . . .
9
2.2 Stoppzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
2.3 Lokalisierung und Pr¨alokalisierung . . . . . . . . . . . . . . . . . . . . . . . 13
3 Martingale, bedingte Erwartung und Dol´
eans-Funktionen
15
3.1 Die bedingte Erwartung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Die Dol´eans-Funktion stochastischer Prozesse . . . . . . . . . . . . . . . . 18
3.3 Martingale, Submartingale und Supermartingale . . . . . . . . . . . . . . . 18
3.4 Orthogonalinkrement-Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . 23
4 Stochastische Integration I. Einf¨
uhrung in die stochastische Integration 25
4.1 Stochastische Integration von Treppenfunktionen . . . . . . . . . . . . . . 25
4.2 Stochastische Integration bez¨
uglich (L,J,K)-L
2
-primitiver Integratoren.
Der Begriff des dominierenden Maßes . . . . . . . . . . . . . . . . . . . . . 27
4.3 Dominierende Maße bei quadratintegrierbaren Martingalen . . . . . . . . . 39
4.4 Dominierende Maße bei Prozessen von endlicher Variation. Zusammenhang
zwischen stochastischem und Lebesgue-Stieltjes-Integral . . . . . . . . . . . 43
4.5 Stochastische Integration bez¨
uglich -Prozessen . . . . . . . . . . . . . . . 46
4.6 Ein Lemma zur Vertauschbarkeit von stochastischer und gew¨ohnlicher In-
tegration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5 Stochastische Integration II. Quadratische Variation und
Tensorvariation
51
5.1 Die quadratischen Variationsprozesse . . . . . . . . . . . . . . . . . . . . . 51
5.2 Die reinen tensor-quadratischen Variationsprozesse
. . . . . . . . . . . . . 66
5.3 Die gemischt tensor-quadratischen Variationsprozesse . . . . . . . . . . . . 76

vi
INHALTSVERZEICHNIS
5.4 Kreuzvariationsprozesse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.5 Quadratische und Tensor-Variationsprozesse
bei cadlag quadratintegrierbaren Martingalen . . . . . . . . . . . . . . . . 83
6 Stochastische Integration III. Ito-Formel und Ito-Isometrie
85
6.1 Vorbereitungen f¨
ur die Ito-Formel . . . . . . . . . . . . . . . . . . . . . . . 85
6.2 Ito-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.3 Transformationsformeln f¨
ur Tensor-Variationsprozesse und Kovarianzen . . 99
6.4 Ito-Isometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7 Das lineare Filterproblem I. Einf¨
uhrung in das lineare Filterproblem 109
7.1 Die Situation beim allgemeinen Filterproblem . . . . . . . . . . . . . . . . 109
7.2 Situation und Spezialisierungen beim linearen Filterproblem . . . . . . . . 111
7.3 Einschub: Die Wiener-Hopf-Gleichung . . . . . . . . . . . . . . . . . . . . . 113
7.4 Von der Definition des Sch¨atzers zu einer ersten analytischen Darstellung . 116
8 Das lineare Filterproblem II. Zum Problem der t-Meßbarkeit und
Integral-Darstellbarkeit des Sch¨
atzers
123
8.1 Eine Integraldarstellung f¨
ur ^~
X
. . . . . . . . . . . . . . . . . . . . . . . . . 123
8.2 Die Konsequenzen der Wiener-Hopf-Gleichung . . . . . . . . . . . . . . . . 124
8.3 Die Fredholm'schen Integralgleichungen f¨
ur den Sch¨atzerkern k(t, u). Un-
tersuchung der Integraloperatoren . . . . . . . . . . . . . . . . . . . . . . . 129
8.4 Nachweis der t-Meßbarkeit des Integralkerns k(t, u) . . . . . . . . . . . . . 140
9 Das lineare Filterproblem III. Vom Innovationsprozeß zum
Kalman-Bucy-Filter-Theorem
147
9.1 Der Innovationsprozeß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
9.2 Die innovative Brown'sche Bewegung . . . . . . . . . . . . . . . . . . . . . 153
9.3 Erste Integraldarstellung des Sch¨atzers in Abh¨angigkeit vom Systemprozeß 155
9.4 Der Systemprozeß X als L¨osung einer stochastischen Integralgleichung . . . 157
9.5 Der martingalisierte Systemprozeß . . . . . . . . . . . . . . . . . . . . . . . 163
9.6 Kovarianzfunktionen und Sch¨atzfehlerfunktion . . . . . . . . . . . . . . . . 164
9.7 Explizite Integraldarstellung des Sch¨atzers unter Benutzung der Sch¨atzfeh-
lerfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
9.8 Eigenschaften der Sch¨atzfehler- und Kovarianzfunktionen. Die Sch¨atzfeh-
lerfunktion als L¨osung einer Riccati'schen Differentialgleichung . . . . . . . 168
9.9 Das Kalman-Bucy-Filter-Theorem . . . . . . . . . . . . . . . . . . . . . . . 170
A Mehrfachintegrals¨
atze
173
B Der Volterra'sche Integraloperator mit L
2
-Kern
177
C Differentiation in Banachr¨
aumen
183
C.1 Die Fr´echet'sche Ableitung . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
C.2 Mehrfache Ableitungen. Der Satz von Taylor mit Integralrestglied in ten-
sorieller Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184

INHALTSVERZEICHNIS
vii
D Hilbert-Schmidt-Norm und -Skalarprodukt
187
E Vektorkonjugation und kanonische Isometrie
189
E.1 Vektorkonjugation
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
E.2 Operatorkonjugation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
E.3 Kanonische Isometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
E.4 Die Wirkung des Tensorprodukts von Operatoren . . . . . . . . . . . . . . 191
F Kovarianz-Operatoren bei Hilbertraum-wertigen Zufallsgr¨
oßen
193
G Gauß'sche Zufallsgr¨
oßen und Prozesse
199
G.1 Gauß'sche Zufallsgr¨oßen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
G.2 Gauß'sche Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
H Brown'sche Bewegungen
207
H.1 Die reelle eindimensionale Brown'sche Bewegung . . . . . . . . . . . . . . . 207
H.2 Die komplexe eindimensionale Brown'sche Bewegung . . . . . . . . . . . . 211
H.3 Brown'sche Bewegungen mit Werten in separablen Hilbertr¨aumen . . . . . 215
Literaturverzeichnis
221
Danksagung
225

NOTATIONEN UND SYMBOLE
ix
Notationen und Symbole
a
b (a,b IR) = min{a,b}
a
b (a,b IR) = max{a,b}
f
|
A
Restriktion der Abbildung f auf A
i
f
Partielle Ableitung der Funktion f nach der i-ten Va-
riable
L
p
K
(H)
Raum der p-Lebesgue-integrierbaren Funktionen auf H
mit Werten in K
L
p
K
(H)
Raum der ¨
Aquivalenzklassen p-Lebesgue-integrierbarer
Funktionen auf H mit Werten in K
L(H,K)
Raum der stetigen linearen Abbildungen des Vektor-
raums H in den Vektorraum K
HS(H,K)
Raum der Hilbert-Schmidt-Operatoren, die vom Hil-
bertraum H in den Hilbertraum K abbilden
Aut(H)
Raum der Automorphismen des Vektorraums H
·|·
H
Skalarprodukt im Hilbertraum H
P
H
(x)
Orthogonale Projektion des Hilbertraumelements x auf
den Unterhilbertraum H
x
(x
H)
Vektorkonjugation im komplexen separablen Hilbert-
raum H
S. 189
H
= L(H, I
C)
Der zum Hilbertraum H duale Raum
h
=
·|h
H
Das zu h
H duale Element aus H
A
Der zum Operator A adjungierte Operator
H ^
2
H
Vervollst¨andigung von H
H bzgl. der durch das Ska-
larprodukt x
y|x y
:= x
|x
H
y
|y
H
erzeugten
Norm
·
x
n
= x
x ··· x
n
-mal
S. 184
x
= x
2
x
= x
x

x
NOTATIONEN UND SYMBOLE
(,
F,P)
Wahrscheinlichkeitsraum mit -Algebra
F und Wahr-
scheinlichkeitsmaß P
E
Erwartungswert
Var
Varianz
Cov
Kovarianz
E(Y
|G)
Bedingte Erwartung von Y bzgl. der -Algebra
G
{F
t
, t
T} Filtrierung
S. 1
{F
X
t
, t
T} Vom stochastischen Prozeß X erzeugte Filtrierung
S. 5
X
u
, X
u
Bei bzw. unmittelbar vor der Stoppzeit u gestoppter sto-
chastischer Prozeß X
S. 13
[X]
Quadratischer Variationsprozeß des stochastischen Pro-
zesses X
S. 53
[X]
c
,
[X]
d
Stetiger bzw. unstetiger Teil von [X]
S. 63
[[X]]
Reiner tensor-quadratischer Variationsprozeß des sto-
chastischen Prozesses X
S. 67
[[X]]
Gemischt tensor-quadratischer Variationsprozeß des sto-
chastischen Prozesses X
S. 76
[X, Y ]
Skalarer Kreuzvariationsprozeß der stochastischen Pro-
zesse X und Y
S. 78
[[X, Y ]]
Tensorieller Kreuzvariationsprozeß der stochastischen
Prozesse X und Y
S. 80
C
B
Kovarianzparameter der Brown'schen Bewegung B
S. 215
^
Y
Bester Sch¨atzer f¨
ur die Zufallsgr¨oße Y
S. 110
~
X
Driftfreier Prozeß zum Prozeß X
S. 116
L
H
,
K
H
,
N
H
Spezielle Unterr¨aume von L
2
H
(,
F,P)
S. 110, 116

KAPITEL 1. STOCHASTISCHE PROZESSE
1
Kapitel 1
Stochastische Prozesse
Wir wollen zu Beginn neben der Definition des Begriffs
"
Stochastischer Prozeß" weitere
grundlegende Definitionen bereitstellen, die f¨
ur das Arbeiten mit stochastischen Prozessen
unerl¨aßlich sind -- erg¨anzt durch einige einfache Schlußfolgerungen und Bemerkungen.
Im folgenden ist (,
F,P) ein Wahrscheinlichkeitsraum und T ein 0 enthaltendes,
abgeschlossenes Teilintervall von [0,
[. Ist T ein Intervall endlicher L¨ange, so setzen wir
t
m
:= max T .
1.1
Filtrierungen und stochastische Basen
Definition 1.1 Sei (,
F,P) ein Wahrscheinlichkeitsraum.
a) Eine wachsende Familie
{F
t
, t
T} von -Unteralgebren von F heißt eine Filtrie-
rung von
F.
b) Eine stochastische Basis ist ein Tripel (,
F,{F
t
, t
T}), wobei {F
t
, t
T} eine
Filtrierung von
F ist.
c) Eine stochastische Basis mit Wahrscheinlichkeitsmaß P ist ein Quadrupel
(,
F,{F
t
, t
T},P), wobei {F
t
, t
T} eine Filtrierung von F ist.
Definition 1.2 (nach [3, S. 31] und [13, S. 2])
a) Ein Wahrscheinlichkeitsraum (,
F,P) heißt vollst¨andig genau dann, wenn gilt:
F
F,P(F) = 0,G F = G F (und damit P(G) = 0).
b) Eine stochastische Basis (,
F,{F
t
, t
T},P) heißt vollst¨andig genau dann, wenn
(,
F,P) vollst¨andig ist und dar¨uberhinaus gilt:
F
F,P(F) = 0 = F F
0
.
Anmerkung. In Zukunft wollen wir nur vollst¨andige stochastische Basen betrachten.

2
KAPITEL 1. STOCHASTISCHE PROZESSE
Definition 1.3 Zu einer Filtrierung
{F
t
, t
T} definieren wir weitere Filtrierungen
{F
t+
, t
T} und {F
t-
, t
T} durch
F
t+
:=
sT ]t,[
F
s
bzw.
F
t-
:=
s[0,t[
F
s
f¨ur jedes t
T.
Definition 1.4 Eine Filtrierung
{F
t
, t
T} von F heißt rechtsseitig (bzw. linksseitig)
stetig genau dann, wenn
F
t
=
F
t+
(bzw.
F
t
=
F
t-
)
f¨ur alle t
T gilt.
1.2
Der Begriff des stochastischen Prozesses
H sei im folgenden ein Banachraum, versehen mit der Borel'schen -Algebra
H.
Definition 1.5 Ein H-wertiger stochastischer Prozeß X ist eine -- im allgemeinen ¨uber-
abz¨ahlbare -- Familie von Zufallsgr¨oßen
X
t
: (,
F
t
)
(H,H),
indiziert durch t
T. X ist damit auch eine Abbildung
t
X
t
: T
L
0
H
(,
F,P).
Gelegentlich schreibt man auch X =
{X
t
, t
T}.
Anmerkung. Ist X ein stochastischer Prozeß im Sinne obiger Definition, so wird mit-
unter auch die Abbildung
(, t)
X
t
() :
× T H
als stochastischer Prozeß bezeichnet.
Definition 1.6
a) Sei (,
F) ein meßbarer Raum und X ein H-wertiger stochastischer Prozeß. Der
stochastische Prozeß X heißt meßbar genau dann, wenn die Abbildung
(, t)
X
t
() : (
× T,F B(T)) (H,H)
meßbar ist (d. h. wenn f¨ur jedes A
H die Menge {(,t) × T : X
t
()
A} zur
-Algebra
F B(T) geh¨ort).

KAPITEL 1. STOCHASTISCHE PROZESSE
3
b) Sei (,
F,{F
t
, t
T}) eine stochastische Basis und X ein H-wertiger stochastischer
Prozeß. X heißt progressiv meßbar bez¨uglich der Filtrierung
{F
t
, t
T} von F genau
dann, wenn f¨ur jedes t
T die Abbildung
(, s)
X
s
() : (
× [0,t],F
t
B([0,t])) (H,H)
meßbar ist (d. h. wenn f¨ur jedes t
T und A H die Menge
{(,s) × [0,t[: X
s
()
A}
zur -Algebra
F
t
B([0,t]) geh¨ort).
Definition 1.7 Der zu
geh¨orige Pfad eines H-wertigen stochastischen Prozesses
X
ist die Abbildung
t
X
t
() : T
H.
Anmerkung.
Ist H ein Banachraum, so betrachtet man im allgemeinen anstelle
von
L
0
H
(,
F,P) die Menge L
0
H
(,
F,P) der P-
¨
Aquivalenzklassen von Elementen aus
L
0
H
(,
F,P). Entsprechend betrachtet man dann den stochastischen Prozeß X im Sinne
von
t
X
t
: T
L
0
H
(,
F,P).
und spricht von X gelegentlich mit dem Zusatz, daß X
"
nur bis auf Modifikation" definiert
ist (Zum Begriff der Modifikation: Siehe n¨achster Abschnitt).
In unseren Betrachtungen werden sehr h¨aufig Prozesse mit Pfaden auftreten, die halbseitig
stetig sind und zur anderen Seite wenigstens einen Grenzwert besitzen. Diese Erscheinun-
gen wollen wir in Zukunft mit abk¨
urzenden Begriffen bezeichnen:
Definition 1.8 Sei H ein Banachraum.
a) Eine Funktion f : T
H heißt cadlag, wenn sie rechtsseitig stetig ist und f¨ur jedes
t
T \ {0} der linksseitige Grenzwert lim
st
f
(s) existiert.
Entsprechend heißt f caglad, wenn f linksseitig stetig ist und f¨ur jedes t
T \ {t
m
}
der rechtsseitige Grenzwert lim
st
f
(s) existiert.
b) Ein H-wertiger stochastischer Prozeß X heißt cadlag (bzw. caglad) genau dann, wenn
P
-fast alle Pfade von X cadlag (bzw. caglad) sind.
1.3
Modifikation und P - ¨
Aquivalenz
Definition 1.9 Seien (,
F,P) ein Wahrscheinlichkeitsraum und X, Y zwei H-wertige
stochastische Prozesse.
a) Y heißt eine Modifikation von X (oder umgekehrt) genau dann, wenn gilt:
P
(
{ : X
t
() = Y
t
()
}) = 1 f¨ur jedes t T.

4
KAPITEL 1. STOCHASTISCHE PROZESSE
b) X und Y heißen ununterscheidbar oder P -¨aquivalent genau dann, wenn gilt:
P
(
{ : X
t
() = Y
t
() f¨ur alle t
T}) = 1.
c) X und Y heißen gleich genau dann, wenn f¨ur alle (, t)
× T X
t
() = Y
t
() gilt.
Bemerkung 1.10 Die in obiger Definition unter a), b), c) aufgef¨uhrten Relationen zwi-
schen stochastischen Prozessen sind ¨
Aquivalenzrelationen.
Anmerkung.
Der Leser beachte in Definition 1.9 den Unterschied zwischen a) und
b): Sind zwei stochastische Prozesse X und Y Modifikationen voneinander, so bedeutet
dies, daß X
t
und Y
t
ur jedes t
T P-fast sicher ¨ubereinstimmen. Sind X und Y jedoch
P
-¨aquivalent, so haben X und Y P -fast sicher dieselben Pfade: Eigenschaft b) ist st¨arker.
Definition 1.11 (nach [12, S. 4])
a) Ein stochastischer Prozeß X : T
L
0
H
(,
F,P) heißt evaneszent genau dann, wenn
P
(
{ : X
t
() = 0 f¨ur alle t
T}) = 1
ist, d. h. wenn er P -¨aquivalent zum Null-Prozeß ist.
b) Eine Menge A
×T heißt evaneszent genau dann, wenn der stochastische Prozeß
1
A
evaneszent ist.
Definition 1.12 Seien
X
: T
L
0
H
(,
F,P) und Y : T L
0
H
(,
F,P)
zwei stochastische Prozesse. X und Y besitzen dieselben endlichdimensionalen Verteilungen
genau dann, wenn f¨ur jedes n
IN und t
1
< t
2
< . . . < t
n
mit
{t
1
, . . . t
n
} T und f¨ur
jedes A
B(H
n
)
P
((X
t
1
, X
t
2
, . . . X
t
n
)
A) = P((Y
t
1
, Y
t
2
, . . . Y
t
n
)
A)
gilt.
Lemma 1.13 Seien X, Y zwei H-wertige stochastische Prozesse. Ist Y eine Modifikation
von X und besitzen X und Y f¨ur P -fast alle
rechtsseitig stetige Pfade, so sind X
und Y ununterscheidbar.
Beweis. Wir definieren die Mengen
C
X
:=
: lim
st
X
s
() = X
t
() f¨
ur alle t
T und
C
Y
:=
: lim
st
Y
s
() = Y
t
() f¨
ur alle t
T .

KAPITEL 1. STOCHASTISCHE PROZESSE
5
Nach Voraussetzung ist P (C
X
) = P (C
Y
) = 1, ferner ist P (
{ : X
t
() = Y
t
()
}) = 1
ur jedes t
T, also P({ : X
t
() = Y
t
()
}) = 0 f¨ur jedes t T. Somit ist auch die
Menge
{ : X
r
() = Y
r
() f¨
ur ein r
T IQ}
als abz¨ahlbare Vereinigung von P -Nullmengen selbst eine P -Nullmenge. Also ist
P
(
{ : X
r
() = Y
r
() f¨
ur alle r
T IQ}) = 1.
Da jede reelle Zahl als Limes einer monoton fallenden Folge rationaler Zahlen darstellbar
ist, gilt
{ : X
t
() = Y
t
() f¨
ur alle t
T}
{ : X
r
() = Y
r
() f¨
ur alle r
T IQ} C
X
C
Y
;
letztere ist eine Menge vom P -Maß 1.
1.4
Adaptierte stochastische Prozesse
Definition 1.14 Sei (,
F,{F
t
, t
T}) eine stochastische Basis. Ein H-wertiger sto-
chastischer Prozeß X heißt an die Filtrierung
{F
t
, t
T} von F adaptiert genau dann,
wenn
X
t
: (,
F
t
)
(H,H)
f¨ur jedes t
T eine Zufallsgr¨oße ist, also F
t
-
H-meßbar ist.
Definition 1.15 Die durch
F
X
t
:= X
-1
s
(A) : s
[0,t],A H , t T,
gegebene Filtrierung
{F
X
t
, t
T} von F heißt die durch den stochastischen Prozeß X
erzeugte Filtrierung von
F.
Bemerkung 1.16 Sei (,
F,{F
t
, t
T}) eine stochastische Basis. Der H-wertige sto-
chastische Prozeß X sei an die Filtrierung
{F
t
, t
T} von F adaptiert. Dann ist F
X
t
F
t
f¨ur alle t
T.
Beweis. F¨
ur jedes t
T ist F
X
t
die gr¨obste -Algebra, bez¨
uglich der X
t
eine Zufallsgr¨oße
ist.
Definition 1.17 Sei X ein an die selbst erzeugte Filtrierung
{F
X
t
, t
T} adaptierter
H-wertiger Prozeß.
a) Ist dann die Erwartungsfunktion (vgl. [2, S.380])
t
EX
t
: T
H
konstant, so heißt X driftfrei, andernfalls heißt X mit Drift behaftet. Ein driftfreier
Prozeß heißt auch ein Prozeß mit zentrierten Zuw¨achsen, da die Driftfreiheit ¨aquiva-
lent ist zur Eigenschaft
E(X
t
- X
s
) = 0
f¨ur alle s, t
T.

6
KAPITEL 1. STOCHASTISCHE PROZESSE
b) X heißt ein Prozeß mit unabh¨angigen Zuw¨achsen genau dann, wenn f¨ur alle s, t
T
mit s
t die Zufallsgr¨oße X
t
- X
s
stochastisch unabh¨angig von der -Algebra
F
X
s
ist. Hierzu ¨aquivalent ist folgende Eigenschaft:
F¨ur alle s
1
, t
1
, s
2
, t
2
T mit s
1
< t
1
, s
2
< t
2
und ]s
1
, t
1
]
]s
2
, t
2
] =
sind X
t
1
- X
s
1
und X
t
2
- X
s
2
voneinander stochastisch unabh¨angig.
1.5
Die -Algebra der vorhersagbaren Mengen
Im folgenden werden Mengen und Mengenringe auf
× T eingef¨uhrt, die eine dominante
Rolle in der stochastischen Integrationstheorie spielen.
Definition 1.18
a) Der Mengenhalbring
R der Rechteckmengen auf × (T \ {0}) bez¨uglich der Filtrie-
rung
{F
t
, t
T} ist gegeben durch
R := {F×]s,t] :]s,t] T,F F
s
}.
b) Mit
A bezeichnen wir dann den von R auf × (T \ {0}) erzeugten Mengenring
(Boole'schen Ring).
c)
P := (R) heißt die -Algebra der vorhersagbaren Mengen auf × (T \ {0}) bez¨uglich
der Filtrierung
{F
t
, t
T}.
d) Ein H-wertiger stochastischer Prozeß X heißt vorhersagbar bez¨uglich der Filtrierung
{F
t
, t
T} genau dann, wenn die Abbildung
(, t)
X
t
() : (
× T,P) (H,H)
meßbar ist.
Jede Menge des Mengenrings
A besitzt folgende wichtige Zerlegungseigenschaft
1
:
Lemma 1.19 Zu jedem A
A existiert eine endliche Familie (A
i
)
iI
mit A
i
R f¨ur
i
I, die eine Partition von A bildet.
Beweis. Sei
A das Mengensystem aller A A, die eine endliche Familie (A
i
)
iI
, mit
A
i
R f¨ur i I, als Partition besitzen.
Gewiß ist
R A A , und wenn A ein Mengenring ist, so muß, da A von R
erzeugt ist, auch
A A gelten, also insgesamt A = A . Im folgenden zeigen wir, daß A
ein Mengenring ist.
Unmittelbar klar ist, daß mit A, B
A auch A B A ist. Zu zeigen ist demnach
nur noch, daß mit A, B
A auch A \ B A ist.
Seien nun also A, B
A . Dies bedeutet nach Definition von A , daß jeweils endliche
Familien von Mengen aus
R existieren, die Partitionen von A bzw. B darstellen. Sei nun
1
Siehe auch [5, Lemma 1.20 ­ 1.22]

KAPITEL 1. STOCHASTISCHE PROZESSE
7
(B
i
)
1in
R eine endliche disjunkte Familie mit B =
n
i=1
B
i
.
Wir definieren nun C
1
, C
2
, . . . C
n+1
rekursiv durch
C
1
:= A, C
i+1
:= C
i
\ B
i
ur i = 1, . . . n.
Dann ist
C
n+1
= A
\
n
i=1
B
i
= A
\ B.
Hierbei wird deutlich, daß der Beweis fertig ist, wenn gilt:
D
A B
i
R = D \ B
i
A .
Dies ist aber klar, da D =
jJ
D
j
mit einer endlichen, disjunkten Familie (D
j
)
jJ
R
gilt und die Differenz zweier Rechteckmengen als disjunkte Vereinigung von maximal 4
Rechteckmengen dargestellt werden kann.
Bemerkung 1.20 Seien A
i
R f¨ur i {1,2}, also A
i
= F
i
×]s
i
, t
i
] mit F
i
F
s
i
.
Aus A
1
A
2
=
folgt dann sofort
F
1
F
2
=
]s
1
, t
1
]
]s
2
, t
2
] =
.
Lemma 1.21 Die -Algebra
P der vorhersagbaren Mengen bez¨uglich der Filtrierung
{F
t
, t
T} stimmt mit der -Algebra P
+
der vorhersagbaren Mengen bez¨uglich der Fil-
trierung
{F
t+
, t
T} ¨uberein.
Beweis. Wegen
F
t
F
t+
ur t
T gilt f¨ur die entsprechenden Systeme der Rechteck-
mengen
R R
+
und daher schließlich
P P
+
.
Zur umgekehrten Inklusion: Seien s, t
T und F F
s+
. F¨
ur Rechteckmengen aus
R
+
gilt dann
F
×]s,t] =
kIN
F
× s +
1
k
, t .
Und weil F
F
s+
F
s+
1
k
ur alle k
IN ist, geh¨oren alle F×]s +
1
k
, t
] zu
R, somit ist
F
×]s,t] (R) = P. Also ist R
+
P, und damit folgt auch
P
+
= (
R
+
)
P.

KAPITEL 2. ZUFALLSZEITEN
9
Kapitel 2
Zufallszeiten
In diesem Kapitel wollen wir mit den Zufallszeiten Werkzeuge einf¨
uhren, die wir im sp¨ate-
ren Verlauf -- n¨amlich in der Theorie der stochastischen Integration (Kapitel 4­6) --
gewinnbringend einsetzen k¨onnen.
2.1
Zufallszeiten: Definition und allgemeine Eigen-
schaften
Definition 2.1 Sei (,
F,P) ein Wahrscheinlichkeitsraum. Eine Zufallszeit u ist eine
Zufallsvariable
u
: (,
F,P) (T {},B(T {})).
Definition 2.2 Eine Zufallszeit u : (,
F,P) (T {},B(T {})) heißt einfach
genau dann, wenn u() nur endlich viele Elemente enth¨alt.
Definition 2.3
a) Eine Zufallszeit u heißt (P -fast sicher) endlich genau dann, wenn u() <
f¨ur
(P -fast) alle
gilt.
b) Eine Zufallszeit u heißt beschr¨ankt genau dann, wenn es ein M
0 gibt, so daß
u
() < M f¨ur alle
gilt.
2.2
Stoppzeiten
Definition 2.4 Sei (,
F,{F
t
, t
T}) eine stochastische Basis. Eine Zufallszeit u heißt
eine Stoppzeit bez¨uglich der Filtrierung
{F
t
, t
T} genau dann, wenn f¨ur alle t T gilt:
{ : u() t} F
t
.
Bemerkung 2.5 Sind u und v zwei Stoppzeiten bez¨uglich der Filtrierung
{F
t
, t
T}, so
sind auch u
v und u v Stoppzeiten bez¨uglich der Filtrierung {F
t
, t
T}.

10
KAPITEL 2. ZUFALLSZEITEN
Definition 2.6 Sei (,
F,{F
t
, t
T}) eine stochastische Basis und u eine Stoppzeit
bez¨uglich der Filtrierung
{F
t
, t
T}. Die zu u assoziierte -Algebra F
u
wird definiert
durch
F
u
:=
{A F : F¨ur alle t T ist A { : u() t} F
t
}.
Bemerkung 2.7 Ist f¨ur alle
u() = s T, so ist F
u
=
F
s
.
Definition 2.8 Seien u und v zwei
{F
t
, t
T}-Stoppzeiten. Mit [u,v[ sei folgende Teil-
menge von
× T bezeichnet:
[u, v[:=
{(,t) × T : u() t < v()}.
Analog lassen sich Mengen [u, v], ]u, v[ etc. definieren. Alle diese Teilmengen von
× T
werden als stochastische Intervalle bezeichnet.
Anmerkung. Es ist dem jeweiligen Kontext zu entnehmen, ob durch ]
·,·] etc. ein reelles
oder ein stochastisches Intervall bezeichnet wird.
Notation 2.9 Der Graph von u, also [u, u] :=
{(,t) × T : u() = t}, wird kurz mit
[u] bezeichnet.
Lemma 2.10 (Siehe auch Definition 1.18. Vgl. [13, S. 6 f.]) Sei
A der von den stochasti-
schen Intervallen ]u, v] mit einfachen
{F
t
, t
T}-Stoppzeiten u,v erzeugte Mengenring.
Dann gilt
A = A.
Beweis.
1. Inklusion
A A .
Es gen¨
ugt zu zeigen:
R A ; dann folgt bereits A A . Sei also
B
:= F
×]s,t] R, also s,t T und F F
.
Wir definieren einfache Stoppzeiten u, v durch
u
() :=
s
ur
F
t
ur
\ F
und v() := t f¨
ur
;
dann ist B =
{(,t) × T : u() < t v()} =]u,v] A , also R A .
2. Inklusion
A A.
Sei u eine einfache Stoppzeit. Dann existieren nach Definition eine endliche, monoton
wachsende Folge (t
k
)
1kn
T und eine endliche Familie (F
k
)
1kn
F, die eine
Partition von bildet und f¨
ur die zus¨atzlich F
k
F
t
k
ur k = 1, . . . n gilt, so daß
u
=
n
k=1
1
F
k
t
k
ist. Offensichtlich ist, wenn wir nun f¨
ur beliebiges, festes a
T mit a > u
B
k
:= F
k
×]t
k
, a
] setzen, (B
k
)
1kn
eine Partition von ]u, a]. Also ist ]u, a]
A,
und wenn v eine weitere einfache Stoppzeit mit v > u ist, so gilt f¨
ur alle a
T mit
a
v ]u,v] =]u,a]\]v,a] A. Somit ist A A, d. h. insgesamt A = A.

KAPITEL 2. ZUFALLSZEITEN
11
Mit diesem Lemma ist klar, daß f¨
ur einfache
{F
t
, t
T}-Stoppzeiten u die Menge ]0,u]
zu
A geh¨ort. F¨ur praktische F¨alle und auch f¨ur Beweise ist aber interessant, mit welchen
Rechteckmengen die Zerlegung nach Lemma 1.19 besteht. Dazu dient
Bemerkung 2.11 Sei u eine einfache
{F
t
, t
T}-Stoppzeit, also
u
=
iI
1
B
i
s
i
,
wobei I =
{0,...n} mit n := |u()\{0}|, 0 = s
0
s
1
...s
n
T und außerdem (B
i
)
iI
eine Partition von derart ist, daß B
i
F
s
i
f¨ur alle i
I ist. Dann besitzt ]0,u] A
eine Partition aus
R der Gestalt
]0, u] =
n
i=1
B
i
×]0,s
i
]
und eine weitere Partition aus
R der Gestalt
]0, u] =
n
i=1
F
i-1
×]s
i-1
, s
i
]
mit F
i
:=
\
i
j=0
B
j
f¨ur i < n.
Beweis. Zur ersten angegebenen Partition ist nichts weiter zu sagen. Daß die zweite an-
gegebene Partition tats¨achlich eine Partition von ]0, u] ist und nur Mengen aus
R enth¨alt,
sieht man so: Offenbar ist F
i
F
s
i
als Komplement einer in
F
s
i
liegenden Vereinigung,
so daß die zu untersuchende Partition nur Mengen aus
R enth¨alt. Von der ersten angege-
benen Partition ausgehend, k¨onnen wir nun schreiben:
]0, u] =
n
i=1
B
i
×]0,s
i
] =
n
i=1
i
j=1
B
i
×]s
j-1
, s
j
] =
n
j=1
n
i=j
B
i
×]s
j-1
, s
j
]
=
n
j=1
\
j-1
i=0
B
i
×]s
j-1
, s
j
] =
n
j=1
F
j-1
×]s
j-1
, s
j
],
womit alles gezeigt ist.
Satz 2.12 (aus [13, S. 7])
a) Zu jeder (beschr¨ankten)
{F
t
, t
T}-Stoppzeit u gibt es eine Folge (u
n
)
nIN
einfacher
(bzw. einfacher beschr¨ankter)
{F
t
, t
T}-Stoppzeiten mit u
n
> u
auf
{ :
u
() <
}, die monoton gegen u f¨allt.
b) Ist u eine
{F
t
, t
T}-Stoppzeit, so ist der reelle Prozeß 1
]0,u]
vorhersagbar bez¨uglich
{F
t
, t
T}.
c) Jeder Banachraum-wertige, caglad
{F
t
, t
T}-adaptierte Prozeß ist vorhersagbarer
bez¨uglich
{F
t
, t
T}.

12
KAPITEL 2. ZUFALLSZEITEN
Beweis. (nach [13, S. 7])
a) Wir definieren zu vorgegebenem u die Zufallszeiten u
n
durch
u
n
() :=
n 2
n
-1
k=0
(k + 1) 2
-n
1
{:k 2
-n
u()<(k+1) 2
-n
}
auf
{ : u() < n}
+
auf
{ : u() n}
Offensichtlich sind die u
n
, n
IN Stoppzeiten, wobei ein einzelnes u
n
beschr¨ankt ist,
sobald u durch n beschr¨ankt ist, und trivialerweise konvergiert die Folge (u
n
)
nIN
monoton fallend gegen u, mit u
n
> u
.
b) Wegen
]0, u] =
k0 nk
]0, u
n
k]
und ]0, u
n
k] A ist ]0,u] P, also ist 1
]0,u]
vorhersagbar bez¨
uglich
{F
t
, t
T},
da die Urbilder dieses Prozesses in
P liegen.
c) Sei X ein beliebiger Banachraum-wertiger, caglad
{F
t
, t
T}-adaptierter Prozeß.
Wir definieren nun Prozesse X
n
durch
X
n
t
() :=
kIN
0
X
k 2
-n
() 1
]k 2
-n
,(k+1) 2
-n
]
(t) + X
0
()1
{0}
(t).
Da jede Zufallsgr¨oße X
k 2
-n
im Sinne der punktweisen Konvergenz auf durch
einfache
F
k 2
-n
-meßbare Zufallsgr¨oßen approximiert werden kann, sind die Prozesse
X
k 2
-n
1
]k 2
-n
,(k+1) 2
-n
]
vorhersagbar. Also ist jedes X
n
, n
IN, vorhersagbar bzgl.
{F
t
, t
T}. Aus der linksseitigen Stetigkeit von X folgt, daß X
n
t
() f¨
ur alle
und t gegen X
t
() konvergiert. Und hieraus ergibt sich die Vorhersagbarkeit von X
bez¨
uglich
{F
t
, t
T}.
Definition 2.13 Eine
{F
t
, t
T}-Stoppzeit u heißt vorhersagbar bzgl. {F
t
, t
T} ge-
nau dann, wenn eine monoton wachsende Folge (u
n
)
nIN
von
{F
t
, t
T}-Stoppzeiten so
existiert, daß
lim
n
u
n
() = u() f¨ur alle
(punktweise Konvergenz) und
u
n
() < u() f¨ur alle
mit u() > 0
gilt.
Definition 2.14
a) Eine monoton wachsende Folge (u
n
)
nIN
von
{F
t
, t
T}-Stoppzeiten heißt eine
sup T -Folge von Stoppzeiten genau dann, wenn gilt:
lim
n
P
(
{ : u
n
() < t
}) = 0 f¨ur jedes t T.

KAPITEL 2. ZUFALLSZEITEN
13
b) Eine sup T -Folge beschr¨ankter Stoppzeiten wollen wir auch eine stochastische Zerle-
gung von T nennen.
Definition 2.15 Eine Doppelfolge (v
n,k
)
n,kIN
von Stoppzeiten heißt eine Folge stochasti-
scher Zerlegungen von T mit gegen Null strebender Feinheit genau dann, wenn
(i) f¨ur jedes n
IN die Folge (v
n,k
)
kIN
eine stochastische Zerlegung von T ist und
(ii) f¨ur P -fast alle
gilt:
lim
n
sup
kIN
(v
n,k+1
()
- v
n,k
()) = 0.
Solche Doppelfolgen werden wir in Kapitel 4­6 beim Studium der Variationsprozesse und
bei der Herleitung der Ito-Formel ben¨otigen.
2.3
Lokalisierung und Pr¨
alokalisierung
Definition 2.16
a) Sei u eine T -wertige Zufallszeit und X ein stochastischer Prozeß. Der stochastische
Prozeß X
u
, definiert f¨ur t
T durch
X
u
t
() :=
X
t
()
f¨ur t
u()
X
u()
() f¨ur t > u()
,
heißt der bei der Zufallszeit u gestoppte Prozeß.
b) Sei u eine
{F
t
, t
T}-wertige Stoppzeit und X ein stochastischer Prozeß. Der
stochastische Prozeß X
u
, definiert f¨ur t
T durch
X
u
t
() :=
X
t
()
f¨ur t < u()
X
u()-
() f¨ur t
u()
,
heißt der unmittelbar vor der Stoppzeit u gestoppte Prozeß.
Definition 2.17 Seien X ein stochastischer Prozeß und (u
n
)
nIN
eine sup T - Folge von
Stoppzeiten.
a) Man bezeichnet dann (X
u
n
)
nIN
als Lokalisierung und (X
u
n
)
nIN
als Pr¨alokalisierung
von X.
b) Haben die stochastischen Prozesse X
u
n
(bzw. X
u
n
) f¨ur alle n
IN eine Eigenschaft
E, so sagt man: X besitzt lokal (bzw. pr¨alokal) die Eigenschaft E.
Bemerkung 2.18 Durch Umschreiben der Definition 2.16 erh¨alt man die Beziehungen

14
KAPITEL 2. ZUFALLSZEITEN
a) X
u
t
= X
u
+ 1
[0,u]
(
·,t)(X
t
- X
u
) und
b) X
u
t
= X
u-
+ 1
[0,u[
(
·,t)(X
t
- X
u-
).
Bemerkung 2.19 Aus Definition 2.16 folgt direkt die Beziehung
X
u
t
()
- X
u
t
() = 1
[0,t]
(u()) X
u()
()
- X
u()-
()
beziehungsweise
X
u
t
- X
u
t
= (1
- 1
[0,u[
(t)) (X
u
- X
u-
).

KAPITEL 3. MARTINGALE
15
Kapitel 3
Martingale, bedingte Erwartung und
Dol´
eans-Funktionen
In diesem Kapitel lernen wir nun eine besonders wichtige Klasse stochastischer Prozesse
kennen, n¨amlich die Martingale. Zur Charakterisierung der Martingale benutzen wir die
Begriffe der bedingten Erwartung und der Dol´eans-Funktion, die wir zu Beginn dieses
Kapitels einf¨
uhren wollen.
3.1
Die bedingte Erwartung
Satz 3.1 (aus [16, S. 125]) Seien (,
F,P) ein Wahrscheinlichkeitsraum und H ein se-
parabler Banachraum. Weiter sei
G F eine -Algebra.
Dann existiert genau ein stetiger linearer Operator
E(
·|G) : L
1
H
(,
F,P) L
1
H
(,
G,P)
derart, daß f¨ur jede Zufallsgr¨oße X
L
1
H
(,
F,P) und jedes G G
1
G
E(X
|G)dP =
1
G
X dP
gilt.
Beweis.
Wir betrachten zun¨achst den Operator der skalaren bedingten Erwartung
~
E(
·|G) : L
1
IR
(,
F,P) L
1
IR
(,
G,P), den wir definieren durch
1
G
~
E(Y
|G)dP =
1
G
Y dP
ur jede Zufallsgr¨oße Y
L
1
IR
(,
F,P) und jedes G G. Die Existenz und Wohldefiniert-
heit dieses Operators folgt aus dem Satz von Radon-Nikodym (siehe [16, S. 27] und [3, S.
116 ff.]) in Verbindung mit Satz 17.11 aus [3, S. 118 f.].

16
KAPITEL 3. MARTINGALE
Sei X nun eine einfache Zufallsgr¨oße
1
aus L
1
H
(,
F,P), d. h. sei
X
=
n
k=1
h
k
1
F
k
mit h
k
H und F
k
F f¨ur k {1,...n}.
Dann setzen wir
^
E(X
|G) :=
n
k=1
h
k
~
E(1
F
k
|G),
wobei wir bemerken, daß wegen der Linearit¨at von ~
E(
·|G) diese Definition nicht von der
Darstellung von X abh¨angt. Offenbar gilt f¨
ur einfache Zufallsgr¨oßen X und alle G
G
1
G
^
E(X
|G)dP =
n
k=1
h
k
1
G
~
E(1
F
k
|G)dP =
1
G
n
k=1
h
k
1
F
k
dP
=
1
G
X dP.
Ferner ist ^
E(
·|G) stetig und linear; die Operatornorm betr¨agt 1. Daher besitzt
^
E(X
|G)
nach dem Fortsetzungssatz f¨
ur stetige Operatoren (Satz 41.4 in [8, S. 251 f.]) genau eine
stetige lineare Fortsetzung
E(
·|G) : L
1
H
(,
F,P) L
1
H
(,
G,P).
Sei nun X
L
1
H
(,
F,P), und sei (X
n
)
nIN
eine Folge einfacher H-wertiger Zufallsgr¨oßen
mit
lim
n
X
n
= X
in L
1
H
(,
F,P), d. h.
lim
n
X
n
- X
L
1
H
(,F ,P )
= 0.
Dann haben wir wegen der Stetigkeit von E(
·|G)
1
G
E(X
|G)dP =
1
G
E( lim
n
X
n
|G)dP
=
1
G
lim
n
E(X
n
|G)dP
=
lim
n
1
G
E(X
n
|G)dP
=
lim
n
1
G
X
n
dP
=
1
G
lim
n
X
n
dP
=
1
G
X dP
ur alle G
G.
Jetzt ist nur noch nachzupr¨
ufen, daß E(
·|G) der einzige stetige lineare Operator mit
dieser Eigenschaft ist. Sei dazu ein Y
L
1
H
(,
G,P) mit
1
G
Y dP
= 0 f¨
ur alle G
G
1
Die einfachen Zufallsgr¨oßen liegen dicht in L
1
H
(,
F,P)

KAPITEL 3. MARTINGALE
17
gegeben. Dann ist f¨
ur beliebiges f
L(H, IC) = H
1
G
f
Y dP =
1
G
e(f
Y )dP + i
1
G
e(f
Y )dP = 0 f¨ur alle G G,
und da die Nullfunktion G-meßbar ist, muß nach Satz 17.11 aus [3, S. 118 f.]
e(f
Y ) =
m(f
Y ) = 0 und damit auch
f
Y = 0 P-fast sicher
sein. Da dies f¨
ur alle f
L(H, IC) gilt und H separabel ist, folgt hieraus
Y
= 0 P -fast sicher.
Damit ist E(
·|G) der einzige stetige lineare Operator mit der Eigenschaft, daß f¨ur jede
Zufallsgr¨oße X
L
1
H
(,
F,P) und jedes G G
1
G
E(X
|G)dP =
1
G
X dP
gilt.
Definition 3.2
a) Der nach Satz 3.1 existierende und eindeutig bestimmte Operator E(
·|G) :
L
1
H
(,
F,P) L
1
H
(,
G,P) heißt Operator der bedingten Erwartung bzgl. der
-Algebra
G.
b) E(X
|G) heißt die bedingte Erwartung der Zufallsgr¨oße X L
1
H
(,
F,P) bzgl. der
-Algebra
G.
Anmerkung. Operatoren der bedingten Erwartung auf L
1
H
(,
F,P) existieren also f¨ur
jeden Banachraum H. Es gilt aber nicht in jedem Banachraum der Satz von Radon-
Nikodym! Siehe hierzu [16, S.120 ff.].

18
KAPITEL 3. MARTINGALE
3.2
Die Dol´
eans-Funktion stochastischer Prozesse
Definition 3.3
a) Sei X : T
L
1
H
(,
F,P) ein an die Filtrierung {F
t
, t
T} adaptierter stocha-
stischer Prozeß mit Werten in einem Banachraum H. Sei d
X
:
A H diejenige
additive Mengenfunktion, die f¨ur A = F
×]s,t] R durch
d
X
(A) := E (1
F
(X
t
- X
s
))
gegeben ist. Dann heißt d
X
die Dol´eans-Funktion des Prozesses X.
b) Wenn d
X
zus¨atzlich nichtnegativ reell ist und eine -additive Fortsetzung von d
X
auf
P existiert, so heißt diese Fortsetzung das Dol´eans-Maß des Prozesses X und
wird mit
X
bezeichnet.
3.3
Martingale, Submartingale und
Supermartingale
Definition 3.4 (nach [13, S. 9])
a) Sei X : T
L
1
H
(,
F,P) ein an die Filtrierung {F
t
, t
T} von F adaptierter
stochastischer Prozeß mit Werten in einem Banachraum H. X heißt ein
{F
t
, t
T}-
Martingal genau dann, wenn gilt:
E(X
t
|F
s
) = X
s
f¨ur alle s, t
T mit s < t.
b) Im Falle H = IR heißt X ein
{F
t
, t
T}-Submartingal (bzw. {F
t
, t
T}-Super-
martingal) genau dann, wenn gilt:
E(X
t
|F
s
)
X
s
(bzw. E(X
t
|F
s
)
X
s
) f¨ur alle s, t
T mit s < t.
Bemerkung 3.5
a) Martingale besitzen keine Drift und haben somit zentrierte Zuw¨achse.
b) Ist ein an eine Filtrierung
{F
t
, t
T} adaptierter Prozeß X ein {F
t
, t
T}-
Martingal, so ist er auch ein
{F
X
t
, t
T}-Martingal.
Beweis. Sei X ein
{F
t
, t
T}-Martingal, und seien s,t T mit s t. Dann gelten
a) EX
t
= E(E(X
t
|F
s
)) = EX
s
und
b) E(X
t
|F
X
s
) = E(E(X
t
|F
s
)
|F
X
s
) = E(X
s
|F
X
s
) = X
s
.
Satz 3.6 Sei X : T
L
1
H
(,
F,P) wieder ein an die Filtrierung {F
t
, t
T} adaptierter
stochastischer Prozeß mit Werten in einem Banachraum H. Dann gilt:

KAPITEL 3. MARTINGALE
19
a) X ist ein
{F
t
, t
T}-Martingal genau dann, wenn d
X
(A) = 0 f¨ur alle A
A ist.
b) Ist speziell H = IR, so ist X ein
{F
t
, t
T}-Submartingal (bzw. -Supermartingal)
genau dann, wenn d
X
(A)
0 (bzw. d
X
(A)
0) f¨ur alle A A ist.
Beweis.
a) Sei X ein Martingal. Da A
A als endliche disjunkte Vereinigung von Mengen
A
i
= F
i
×]s
i
, t
i
]
R mit F
i
F
s
i
(i
I, I endliche Indexmenge) darstellbar ist, ist
d
X
(A) =
iI
E(1
F
i
(X
t
i
- X
s
i
)) =
iI
E(E(1
F
i
(X
t
i
- X
s
i
)
|F
s
i
))
=
iI
E(1
F
i
E(X
t
i
- X
s
i
|F
s
i
)) =
iI
E(1
F
i
0) = 0.
Sei nun umgekehrt d
X
(A) = 0 f¨
ur alle A
A. Dann gilt dies insbesondere f¨ur Recht-
eckmengen A = F
×]s,t], mit s,t T und F F
s
; somit ist E(1
F
(X
t
- X
s
)) = 0
ur jedes s
T und alle t T mit t > s und F F
s
. Nun ist
0 = E(1
F
(X
t
- X
s
)) = E(E(1
F
(X
t
- X
s
)
|F
s
))
= E(1
F
E(X
t
- X
s
|F
s
)) =
1
F
E(X
t
- X
s
|F
s
) dP
ur jedes s
T und alle t T mit t > s und F F
s
, also haben wir nach der
Definition der bedingten Erwartung
E(X
t
- X
s
|F
s
) = 0 P -fast sicher f¨
ur alle s, t
T mit s < t.
Da X
s
F
s
-meßbar ist, ist somit in L
1
H
(,
F,P)
E(X
t
|F
s
) = X
s
ur alle s, t
T mit s < t,
d. h. X ist ein Martingal bez¨
uglich
{F
t
, t
T}.
b) Der Nachweis l¨auft v¨ollig analog zu a); es sind lediglich die jeweiligen Ungleichungen
als Ausgangspunkt zu nehmen.
Lemma 3.7 Sei H ein Hilbertraum und M ein H-wertiges quadratintegrierbares
{F
t
, t
T
}-Martingal. Dann gelten:
a) M
2
H
ist ein nichtnegatives
{F
t
, t
T}-Submartingal, und es ist
E( M
t
- M
s
2
H
|F
s
) = E( M
t
2
H
- M
s
2
H
|F
s
)
f¨ur s, t
T mit s t.
b) F¨ur s, t
T mit s t ist
E((M
t
- M
s
)
|F
s
) = E(M
t
- M
s
|F
s
)
und
E((M
t
- M
s
)
|F
s
) = E(M
t
- M
s
|F
s
).

20
KAPITEL 3. MARTINGALE
c) F¨ur s, t
T mit s t ist (siehe Definition F.5)
Cov(M
t
- M
s
) = Cov(M
t
)
- Cov(M
s
).
Ferner ist die Funktion t
Cov(M
t
) : T
HS(H) monoton wachsend im Sinne
der Halbordnung auf den positiven symmetrischen Hilbert-Schmidt-Operatoren
von H.
Beweis.
a) Allein aus der Martingal-Eigenschaft von M ergibt sich
E( M
t
- M
s
2
H
|F
s
)
= E( M
t
2
H
+ M
s
2
H
- M
t
|M
s H
- M
s
|M
t H
|F
s
)
= E( M
t
2
H
+ M
s
2
H
- M
s
2
H
- M
s
2
H
|F
s
)
= E( M
t
2
H
- M
s
2
H
|F
s
)
ur s, t
T mit s t, wie behauptet. Und hieraus erh¨alt man nun wegen
M
t
- M
s
2
H
0 sofort
E( M
t
2
H
|F
s
)
M
s
2
H
ur alle s, t
T mit s t,
d. h. M
2
H
ist ein (nichtnegatives)
{F
t
, t
T}-Submartingal.
b) Wiederum erh¨alt man nur aus der Martingal-Eigenschaft von M
E((M
t
- M
s
)
|F
s
)
= E(M
t
+ M
s
- M
t
M
s
- M
s
M
t
|F
s
)
= E(M
t
+ M
s
- M
s
- M
s
|F
s
)
= E(M
t
- M
s
|F
s
)
ur s, t
T mit s t. Analog l¨auft der Beweis der entsprechenden Behauptung
¨
uber das gemischte Tensorquadrat von M .
c) Es ist
Cov(M
t
) = E((M
t
- EM
t
)
)
= E M
t
- EM
t
M
t
- M
t
EM
t
+ (EM
t
)
= E(M
t
)
- (EM
t
)
= E(M
t
)
- (EM
0
)
,
da M nach Bemerkung 3.5 keine Drift hat. F¨
ur s, t
T mit s < t haben wir damit
Cov(M
t
)
- Cov(M
s
) =
E(M
t
)
- (EM
0
)
- E(M
s
)
- (EM
0
)
= E(M
t
- M
s
) = E((M
t
- M
s
)
) nach Teil b),
und da die Zuw¨achse nach Bemerkung 3.5 zentriert sind, ist letzterer Ausdruck gleich
Cov(M
t
- M
s
). Ferner ist die Kovarianz einer Hilbertraum-wertigen Zufallsgr¨oße

KAPITEL 3. MARTINGALE
21
nach Lemma F.6 stets ein positiver symmetrischer nuklearer Operator, so daß f¨
ur
t > s
stets
Cov(M
t
)
- Cov(M
s
) = Cov(M
t
- M
s
)
0
ist, d. h. die Funktion t
Cov(M
t
) : T
HS(H) ist monoton wachsend im Sinne
der Halbordnung auf den positiven symmetrischen Hilbert-Schmidt-Operatoren
von H.
Korollar 3.8 Mit den Bezeichnungen aus Lemma 3.7 gilt f¨ur s, t
T mit s t und f¨ur
alle F
F
s
a) E 1
F
( M
t
- M
s
2
H
) = E 1
F
( M
t
2
H
- M
s
2
H
) ,
b) E (1
F
((M
t
- M
s
)
)) = E 1
F
(M
t
- M
s
) und
c) E 1
F
((M
t
- M
s
)
) = E 1
F
(M
t
- M
s
) .
Beweis.
Alle drei Behauptungen folgen sofort aus Lemma 3.7, wenn man jeweils
EX = E(E(X
|F
s
)) schreibt (X ist hierbei eines der sechs obigen E-Argumente) und die
F
s
- Meßbarkeit von F ber¨
ucksichtigt.
Satz 3.9 (Dol´eans-Maß eines nichtnegativen Submartingals, siehe [13, S. 14])
Sei X ein nichtnegatives
{F
t
, t
T}-Submartingal auf T = [0,t
m
] mit
lim
st
E(X
s
- X
t
) = 0
f¨ur jedes t
[0,t
m
[.
(3.1)
Dann hat die Dol´eans-Funktion von X eine -additive Fortsetzung auf
P, d. h. nichtne-
gative Submartingale besitzen ein Dol´eans-Maß.
Bevor wir diesen Satz beweisen, verifizieren wir
Bemerkung 3.10 Es gelten die Voraussetzungen von Satz 3.9. Dann gilt f¨ur jedes A
A
mit A
H×]0,t
m
]
d
X
(A)
E(1
H
(X
t
m
- X
u
)),
wobei u() := inf
{t T : (,t) A} t
m
ist.
Beweis von Bemerkung 3.10.
A
A mit A ×]0,t
m
] ist im stochastischen Intervall ]u, t
m
] enthalten. Offenbar ist
]u, t
m
]
P, und wenn A H×]0,t
m
] ist, dann ist u() = t
m
ur jedes
\ H. Daher
ist
X
t
m
- X
u
= 1
H
(X
t
m
- X
u
).
Sei d
X
die Dol´eans-Funktion von X. Da
d
X
([u, t
m
]) = E(1
H
(X
t
m
- X
u
))

22
KAPITEL 3. MARTINGALE
ist, folgt aus der Nichtnegativit¨at von d
X
d
X
(A)
E(X
t
m
- X
u
) = E(1
H
(X
t
m
- X
u
)).
Beweis von Satz 3.9.
Wir zeigen nun, daß die nichtnegative additive Mengenfunktion d
X
eine -additive Fort-
setzung auf
P hat. Daf¨ur ist es ausreichend zu zeigen, daß f¨ur jede monoton fallende Folge
(A
n
)
nIN
aus
A mit
nIN
A
n
=
lim
n
d
X
(A
n
) = 0
ist. Zu jedem vorhersagbaren Rechteck F
×]s,t] betrachten wir auch die Mengen
F
× s +
1
n
, t
F × s +
1
n
, t
F×]s,t],n IN,
und nach Voraussetzung (3.1) ist dabei
lim
n
d
X
F
× s +
1
n
, t
= d
X
(F
×]s,t])
Daher k¨onnen wir zu jedem > 0 eine Folge (A
n
)
nIN
A und eine Folge (C
n
)
nIN
von
Teilmengen von
×]0,t
m
] finden mit folgenden Eigenschaften f¨
ur n
IN:
- A
n
C
n
A
n
,
- d
X
(A
n
\ A
n
)
2
-n
,
- C
n
() :=
{t T : (,t) C
n
} ist kompakt f¨ur jedes .
Aus
nIN
A
n
=
und der Eigenschaft der C
n
folgt
nIN
H
n
=
, wobei H
n
:=
:
kn
C
k
() =
.
(3.2)
Da
kn
A
k
H
n
×]0,t
m
] ist, zeigt Bemerkung 3.10, daß
d
X
(
kn
A
k
)
H
n
X
t
m
dP
ist. Aus Gl.(3.2) erhalten wir daher lim
n
d
X
(
kn
A
k
) = 0, w¨ahrend andererseits
d
X
(A
n
\
kn
A
k
)
kn
2
-k
2 ist. Somit ist
lim
n
d
X
(A
n
)
2 f¨ur jedes > 0, d.h. lim
n
d
X
(A
n
) = 0,
und damit ist der Satz bewiesen.

KAPITEL 3. MARTINGALE
23
3.4
Orthogonalinkrement-Prozesse
Definition 3.11 Ein stochastischer Prozeß X heißt Orthogonalinkrement-Prozeß genau
dann, wenn er unabh¨angige, zentrierte Zuw¨achse besitzt.
Satz 3.12 Jeder Orthogonalinkrement-Prozeß X ist ein Martingal bez¨uglich der von ihm
selbst erzeugten Filtrierung
{F
X
t
, t
T}.
Beweis. Seien s, t
T mit s < t. Da X unabh¨angige Zuw¨achse besitzt, ist X
t
- X
s
stochastisch unabh¨angig von der -Algebra
F
X
s
, und somit haben wir
E(X
t
- X
s
|F
X
s
) = E(X
t
- X
s
) = 0,
letzteres, weil die Zuw¨achse von X zentriert sind. Also ist
E(X
t
|F
X
s
) = X
s
ur alle s, t
T mit s < t,
d. h. X ist ein
{F
X
t
, t
T}-Martingal.

KAPITEL 4. STOCHASTISCHE INTEGRATION I
25
Kapitel 4
Stochastische Integration I.
Einf¨
uhrung in die stochastische
Integration
In diesem Kapitel wollen wir m¨oglichst allgemein das
"
stochastische Integral" eines Pro-
zesses Y (den Integranden) gegen einen anderen Prozeß X (den Integrator),
Z
t
=
[0,t]
Y
s
dX
s
=
T
1
[0,t]
Y
s
dX
s
,
definieren und erarbeiten, wobei es
"
unstig" ist, dies nur f¨
ur vorhersagbare Prozesse
Y
L
2
L
(
× T,P,) und cadlag-Prozesse X mit X
t
L
0
J
(,
F
t
, P
) zu versuchen (Zu den
genauen Voraussetzungen siehe sp¨ater). Der Unterschied zu den gew¨ohnlichen Lebesgue-
Integralen oder Lebesgue-Stieltjes-Integralen, an die die obige Zeile stark erinnert, liegt
darin, daß stochastische Integrale auch f¨
ur Prozesse mit Pfaden von nicht-endlicher Va-
riation einen Sinn haben -- und dies macht gerade die Bedeutung der stochastischen In-
tegration aus. Der Beziehung zwischen Lebesgue-Stieltjes-Integralen und stochastischen
Integralen ist ein Abschnitt gewidmet.
Die folgende Darstellung orientiert sich an [13, S.20 ff.] und beginnt -- wie bei neuen
Integralbegriffen ¨
ublich -- mit der Definition des Integrals von Treppenfunktionen.
4.1
Stochastische Integration von
Treppenfunktionen
Im folgenden sei T = [0, t
m
], t
m
<
; ferner sei (,F,{F
t
, t
T},P) eine rechtsseitig
stetige stochastische Basis mit Wahrscheinlichkeitsmaß P , d. h. es ist
F
t
=
F
t+
ur alle t
T.
Weiter seien J und K Banachr¨aume. Mit L(J, K) sei die Menge aller auf J definierten,
beschr¨ankten linearen Operatoren mit Werten in K bezeichnet. L sei immer ein Unter-
Banachraum von L(J, K).

26
KAPITEL 4. STOCHASTISCHE INTEGRATION I
Die Beschr¨ankung auf einen Unterraum von L(J, K) ist z. B. im Hilbertraum-Fall
notwendig, da L(J, K) genau im Falle J = I
C (bzw. IR) oder K = I
C (bzw. IR) selbst ein
Hilbertraum ist. (Achtung : Im endlichdimensionalen Fall stimmen L(J, K) und HS(J, K)
zwar als Vektorr¨aume ¨
uberein, unterscheiden sich jedoch im allgemeinen in ihrer Norm!)
Definition 4.1
a) Ein stochastischer Prozeß Y : T
L
0
L
(,
F,P) heißt eine A-Treppenfunktion genau
dann, wenn endliche Familien
(a
i
)
iI
J und (A
i
)
iI
A (I IN endliche Indexmenge)
existieren, so daß Y in der Form
Y
=
iI
a
i
1
A
i
dargestellt werden kann.
b) Mit S(
A,L) bezeichnen wir den Vektorraum aller L-wertigen A-Treppenfunktionen.
Bemerkung 4.2 Da nach Lemma 1.19 zu jedem B
A eine endliche Familie (B
i
)
iI
mit B
i
R f¨ur i I existiert, die eine Partition von B bildet, ist eine kanonische
Darstellung eines jeden Y
S(A,L) in Definition 4.1 a) m¨oglich : Wir k¨onnen dort
die endliche Familie (A
i
)
iI
so w¨ahlen, daß die A
i
in
R liegen und paarweise disjunkt
sind.
Definition 4.3 (Stochastisches Integral f¨
ur Treppenfunktionen) Wir definieren f¨ur t
T
eine lineare Abbildung
I
t
: S(
A,L) L
0
K
(,
F,P)
durch die Festsetzung
I
t
(Y ) := 1
F
a
(X
st
- X
rt
)
f¨ur alle Y
S(A,L) der speziellen Gestalt
Y
= a1
A
mit a
L und A = F×]r,s] R.
Nach dem bisher Gesagten (siehe insbesondere Bemerkung 4.2) ist dann I
t
auf S(
A,L)
wohldefiniert. F¨ur ein bestimmtes Y
S(A,L) wird I
t
(Y ) als stochastisches Integral von
Y
¨
uber [0, t] bez¨uglich X bezeichnet, in Zeichen:
I
t
(Y ) =
[0,t]
Y dX
=
[0,t]
Y
s
dX
s
.
F¨ur t = t
m
wollen wir statt I
t
m
einfach I schreiben.
Bemerkung 4.4 F¨ur einfache
{F
t
, t
T}-Stoppzeiten u und v ist 1
]u,v]
S(A,L).
Beweis. Die Behauptung folgt direkt aus Lemma 2.10.

KAPITEL 4. STOCHASTISCHE INTEGRATION I
27
4.2
Stochastische Integration bez¨
uglich (L,J,K)-L
2
-
primitiver Integratoren. Der Begriff des dominie-
renden Maßes
Ab jetzt geht es darum, die Definition des stochastischen Integrals auch auf Integranden
außerhalb von S(
A,L) auszudehnen. Es wird sich zeigen, daß dies nicht ohne zus¨atzliche
Bedingungen an den Integrator m¨oglich ist.
Definition 4.5 (nach [13, S. 20])
Ein stochastischer Prozeß X mit X
t
L
0
J
(,
F
t
, P
) heißt (L, J, K)-L
2
-primitiv genau dann,
wenn zu X auf dem meßbaren Raum (
× T,P) ein endliches, positives Maß existiert,
das auf evaneszenten Mengen (siehe Definition 1.11) verschwindet und folgende Eigen-
schaft besitzt:
F¨ur alle Y
S(A,L) gilt
E
T
Y dX
2
K
×T
Y
2
L
d <
oder -- anders ausgedr¨uckt --
T
Y dX
2
L
2
K
(,F ,P )
Y
2
L
2
L
(×T,P,)
<
Ein solches Maß heißt ein dominierendes Maß f¨ur X bez¨uglich der kanonischen bilinea-
ren Abbildung L
× J K.
Anmerkung. Im allgemeinen besitzt ein (L, J, K)-L
2
-primitiver stochastischer Prozeß
unendlich viele verschiedene dominierende Maße. Siehe hierzu Satz 4.10.
Bemerkung 4.6 L
2
L
(
× T,P,) ist die Vervollst¨andigung von S(A,L) bez¨uglich der
Norm
Y
×T
Y
2
L
d
1
2
Von nun an wollen wir uns immer dann, wenn ein dominierendes Maß existiert, den
Raum S(
A,L) mit dieser Norm versehen denken. Durch Anwendung des Fortsetzungs-
satzes f¨ur stetige Operatoren (siehe z. B. Satz 41.4 in [8, S.251 f.]) k¨onnen wir dann
zahlreiche f¨ur den -- nunmehr normierten -- Raum S(
A,L) gewonnene Ergebnisse auf
L
2
L
(
× T,P,) ¨ubertragen.
Ist L ein Hilbertraum, so ist auch L
2
L
(
× T,P,) ein Hilbertraum, und S(A,L)
L
2
L
(
× T,P,) ist dann, mit der obigen Norm versehen, ein Pr¨ahilbertraum.

28
KAPITEL 4. STOCHASTISCHE INTEGRATION I
Satz 4.7 Sei X ein (L, J, K)-L
2
-primitiver stochastischer Prozeß mit dominierendem Maß
. Dann ist die lineare Abbildung I : S(
A,L) L
0
K
(,
F,P) aus Definition 4.3, gegeben
durch I(Y ) =
T
Y dX
f¨ur Y
S(A,L), stetig -- f¨ur die Operatornorm gilt I
op
1 --
und besitzt somit eine eindeutige, stetige lineare Fortsetzung
^
I
: L
2
L
(
× T,P,) L
0
K
(,
F,P).
Beweis.
Aus Definition 4.5 ergibt sich unmittelbar I
op
1, d. h. I : S(A,L) L
2
K
(,
F,P) ist
eine stetige lineare Abbildung und besitzt, da S(
A,L) dicht in L
2
L
(
×T,P,) liegt, nach
dem Fortsetzungssatz f¨
ur stetige Operatoren (Satz 41.4 in [8, S. 251 f.]) eine eindeutige,
stetige lineare Fortsetzung ^
I
: L
2
L
(
× T,P,) L
0
K
(,
F,P).
Definition 4.8 Auch die Fortsetzung ^
I
bezeichnen wir als stochastisches Integral ¨uber T
bez¨uglich X. Das Bild von Y
L
2
L
(
× T,P,) unter
^
I
wird mit
^
I
(Y ) =
T
Y dX
=
T
Y
s
dX
s
bezeichnet und heißt stochastisches Integral von Y ¨uber T bez¨uglich des (L, J, K)-L
2
-primi-
tiven Prozesses X.
Lemma 4.9 Sei X ein (L, J, K)-L
2
-primitiver stochastischer Prozeß mit irgendeinem do-
minierendem Maß .
a) Sei : S(
A,L) [0,[ definiert durch
(Y ) := E
T
Y dX
2
K
1
2
=
T
Y dX
2
L
2
K
(,F ,P )
f¨ur Y
S(A,L).
Dann ist eine Halbnorm auf S(
A,L). Ist L ein Hilbertraum, so wird S(A,L) durch
-- anstelle der kanonischen Norm aus Bemerkung 4.6 -- zu einem Halbinnen-
produktraum.
b) Mit obiger Definition des stochastischen Integrals l¨aßt sich der Definitionsbereich
von auf L
2
L
(
× T,P,) ausweiten, und wird zu einer Halbnorm auf ganz
L
2
L
(
× T,P,), f¨ur jedes dominierende Maß .
c) F¨ur alle dominierenden Maße und jedes Y
L
2
L
(
× T,P,) gilt
(Y )
Y
L
2
L
(×T,P,)
.
Beweis.
a) --.
b) --.

KAPITEL 4. STOCHASTISCHE INTEGRATION I
29
c) Nach Definition 4.5 gilt (Y )
Y
L
2
L
(×T,P,)
ur alle Y
S(A,L). Und da auf
L
2
L
(
× T,P,) offensichtlich stetig bzgl. der kanonischen Norm ist, besteht diese
Ungleichung somit auch auf ganz L
2
L
(
× T,P,).
Satz 4.10 (nach [13, S. 21])
Sei X ein (L, J, K)-L
2
-primitiver stochastischer Prozeß mit dominierenden Maßen
1
und
2
. Dann stimmen die Fortsetzungen der auf S(
A,L) definierten, linearen Abbildung
Y
T
Y dX
: S(
A,L) L
0
K
(,
F,P)
bez¨uglich beider Maße auf L
2
L
(
× T,P,
1
)
L
2
L
(
× T,P,
2
) ¨uberein.
Beweis. (nach einer Mitteilung von P.C. Kunstmann)
Wir zeigen zun¨achst
L
2
L
(
× T,P,
1
)
L
2
L
(
× T,P,
2
) =
L
2
L
(
× T,P,
1
+
2
).
Bezeichne
M(µ;L) den Raum der µ-meßbaren, L-wertigen Funktionen und N(µ) den
Mengenring der µ-Nullmengen. Dann gen¨
ugt es,
M(
1
; L)
M(
2
; L) =
M(
1
+
2
; L)
zu zeigen. Dabei ist wegen
N(
1
+
2
)
N(
1
)
N(
1
)
und der Positivit¨at der Maße die Inklusion
M(
1
+
2
; L)
M(
1
; L)
M(
2
; L)
klar. Um die umgekehrte Inklusion zu zeigen, betrachten wir nun ein beliebiges f
M(
1
; L)
M(
2
; L). Dann existieren Folgen (g
n
)
nIN
und (h
n
)
nIN
aus S(
A,L) und
Nullmengen N
i
N(
i
), i
{1,2}, derart, daß f auf N
c
1
punktweiser Limes von
(g
n
)
nIN
und auf N
c
2
punktweiser Limes von (h
n
)
nIN
ist. Dabei lassen sich N
1
und N
2
(gegebenenfalls durch Vergr¨oßern) so w¨ahlen, daß N
1
, N
2
(A) = P sind. Also sind
1
N
c
1
,
1
N
1
\N
2
M(
1
+
2
; I
C). Damit liegt die durch
f
n
:= g
n
1
N
c
1
+ h
n
1
N
1
\N
2
,
n
IN,
definierte Folge in
M(
1
+
2
; L) und konvergiert außerhalb der
1
+
2
-Nullmenge punkt-
weise gegen f , so daß also f
M(
1
+
2
; L) ist.
Seien nun die Fortsetzungen der linearen Abbildung
Y
T
Y dX
: S(
A,L) L
2
K
(,
F,P)

30
KAPITEL 4. STOCHASTISCHE INTEGRATION I
bez¨
uglich der Maße
1
,
2
und
1
+
2
mit I
1
, I
2
beziehungsweise I
3
bezeich-
net. Sei Y
L
2
L
(
× T,P,
1
)
L
2
L
(
× T,P,
2
). Nach dem oben Gezeigten ist dann
Y
L
2
L
(
× T,P,
1
+
2
). W¨ahle nun eine
L
2
L
(
× T,P,
1
+
2
)-Approximationsfolge
(Y
n
)
nIN
aus S(
A,L) f¨ur Y , d. h. mit
lim
n
×T
Y
n
- Y
2
L
d
(
1
+
2
) = 0.
Dann ist (Y
n
)
nIN
auch eine
L
2
L
(
× T,P,
i
)-Approximationsfolge, i
{1,2}, und es gilt
I
1
(Y ) = I
2
(Y ) = lim
n
Y
n
dX
= I
3
(Y ),
womit die Behauptung bewiesen ist.
Korollar 4.11 Sei D die Menge aller dominierenden Maße f¨ur X, und sei
L
2
(X; L, K) :=
D
L
2
L
(
× T,P,),
ausgestattet mit der Halbnorm . Sei L
2
(X; L, K) der Raum der ¨
Aquivalenzklassen aus
L
2
(X; L, K) bzgl. . Dann existiert eine stetige Fortsetzung der Abbildung
Y
T
Y dX
: S(
A,L) L
0
K
(,
F,P)
auf L
2
(X; L, K).
Nun wollen wir einen Satz betrachten zur gleichm¨aßigen Approximation beliebiger stocha-
stischer Integralprozesse bez¨
uglich (L, J, K)-L
2
-primitiver Integratoren durch eine Folge
von Prozessen, die durch jeweilige Bildung des Integralprozesses aus einer konvergenten
Folge von S(
A,L)-Treppenfunktionen hervorgeht. Hierf¨ur ben¨otigen wir noch folgendes
kleines Lemma:
Lemma 4.12 Seien X (L, J, K)-L
2
-primitiv, Y
L
2
L
(
× T,P,), und Z := Y dX.
Ferner sei v eine einfache
{F
t
, t
T}-Stoppzeit. Dann gilt
Z
v
=
T
1
]0,v]
Y
s
dX
s
.
Beweis. Sei v eine einfache
{F
t
, t
T}-Stoppzeit, also
v
=
iI
1
B
i
s
i
,

KAPITEL 4. STOCHASTISCHE INTEGRATION I
31
wobei I =
{0,...n} mit n := |v()\{0}|, 0 = s
0
s
1
...s
n
T und außerdem (B
i
)
iI
eine Partition von derart ist, daß B
i
F
s
i
ur alle i
I ist. Dann ist
Z
v
=
iI
1
B
i
Z
s
i
=
iI
1
B
i
]0,s
i
]
Y
s
dX
s
=
iI
1
B
i
T
1
]0,s
i
]
Y
s
dX
s
=
T
iI
1
B
i
×]0,s
i
]
Y
s
dX
s
=
T
1
]0,v]
Y
s
dX
s
.
Satz 4.13 (nach [13, S. 22 f.])
Seien J, K, L Banachr¨aume und sei L
L(J,K). X sei ein (L,J,K)-L
2
-primitiver stocha-
stischer Prozeß mit dominierendem Maß . Sei Y
L
2
L
(
× T,P,), und sei (Y
n
)
nIN
eine Folge aus L
2
L
(
× T,P,), die gegen Y in folgendem Sinne konvergiert: Es existie-
ren eine monoton fallende Nullfolge (
n
)
nIN
und eine Nullfolge (
n
)
nIN
aus [0,
[ mit
nIN
n
<
und
nIN
n
<
derart, daß f¨ur alle n IN
Y
n
- Y
2
L
2
L
(×T,P,)
n
2
n
(4.1)
gilt. Sei Z
n
eine cadlag-Modifikation
1
von
Y
n
dX
f¨ur jedes n
IN.
Dann konvergieren die Pfade Z
n
(,
·) f¨ur P-fast alle gleichm¨aßig auf jedem in
T
\ {t
m
} enthaltenen abgeschlossenen Intervall gegen die Pfade einer cadlag-Modifikation
von
Y dX
.
Beweis. (nach [13, S. 22 f.]) F¨
ur einfache Stoppzeiten v ist
Z
n
v
=
T
1
[0,v]
Y
n
s
dX
s
P
-fast sicher nach Lemma 4.12.
Damit erhalten wir f¨
ur jede Wahl von n
IN
Z
n
v
- Z
n+1
v
2
L
2
K
(,F ,P )
= E
Z
n
v
- Z
n+1
v
2
K
= E
T
1
[0,v]
(Y
n
- Y
n+1
) dX
2
K
×T
1
[0,v]
Y
n
- Y
n+1 2
L
d
Y
n
- Y
n+1 2
L
2
L
(×T,P,)
2
n
2
n
Diese Absch¨atzung ist unabh¨angig von der speziellen Wahl von v, und da die Z
n
cadlag
sind und jede Stoppzeit nach Satz 2.12 a) Limes einer monoton fallenden Folge einfacher
Stoppzeiten ist, gilt f¨
ur jede Stoppzeit v und alle n
IN
Z
n
v
- Z
n+1
v
2
L
2
K
(,F ,P )
2
n
2
n
1
Diese existiert, wenn der Integratorprozeß eine cadlag-Modifikation besitzt. Siehe Lemma 4.15

32
KAPITEL 4. STOCHASTISCHE INTEGRATION I
Nun definieren wir uns spezielle Stoppzeiten u
n
, n
IN, durch
u
n
() := inf t
T : Z
n
t
()
- Z
n+1
t
()
K
n
t
m
und Mengen G
n
, n IN, durch
G
n
:=
{ : u
n
() < t
m
}.
Wegen der cadlag-Eigenschaft der Z
n
ist dann gewiß
Z
n
u
n
()
()
- Z
n+1
u
n
()
()
2
K
2
n
ur alle
mit u
n
() < t
m
,
d. h. es ist
G
n
: Z
n
u
n
()
()
- Z
n+1
u
n
()
()
2
K
2
n
ur alle n
IN
.
Dadurch k¨onnen wir nun Z
n
u
n
- Z
n+1
u
n
2
L
2
K
(,F ,P )
wie folgt nach unten absch¨atzen:
Z
n
u
n
- Z
n+1
u
n
2
L
2
K
(,F ,P )
= E
Z
n
u
n
- Z
n+1
u
n
2
K
=
Z
n
u
n
- Z
n+1
u
n
2
K
dP
G
n
Z
n
u
n
- Z
n+1
u
n
2
K
dP
2
n
G
n
dP
=
2
n
P
(G
n
).
Insgesamt haben wir also f¨
ur alle n
IN die Ungleichung
P
(G
n
)
2
n
Z
n
u
n
- Z
n+1
u
n
2
L
2
K
(,F ,P )
2
n
2
n
;
somit f¨
ur das Maß von G
n
:
P
(G
n
)
2
n
, n
IN.
Wir definieren G :=
kIN nk
G
n
und fragen: Welche Bedeutung hat die Menge
\ G?
Zun¨achst ist
nk
G
n
=
:
nk
u
n
() < t
m
.
Dann ist
G
=
kIN nk
G
n
=
kIN
:
nk
u
n
() < t
m
=
:
kIN nk
u
n
() < t
m
=
{ : F¨ur unendlich viele n IN ist u
n
() < t
m
}

KAPITEL 4. STOCHASTISCHE INTEGRATION I
33
Das Komplement dieser Menge ist
\ G = :
n
0
IN
u
n
() = t
m
ur alle n
n
0
=
:
n
0
IN nn
0
Z
n
t
()
- Z
n+1
t
()
K
<
n
ur alle t
[0,t
m
[
=
:
n
0
IN nn
0
sup
t[0,t
m
[
Z
n
t
()
- Z
n+1
t
()
K
n
=
:
n
0
IN
n
n0
k
IN
sup
t[0,t
m
[
Z
n
t
()
- Z
n+k
t
()
K
n+k-1
=n
=
: (Z
n
t
())
nIN
ist eine Cauchyfolge und konvergiert
gleichm¨aßig auf abgeschlossenen Teilintervallen von [0, t
m
[ .
Nun ist nach Voraussetzung
nIN
P
(G
n
) = 2
nIN
n
<
, und das Borel-Cantelli-Lemma
(siehe z. B. [2, S. 74 f.]) zeigt nun, daß P (G) = 0 sein muß, also P (
\ G) = 1. Wir
definieren nun
Z
t
() :=
lim
n
Z
n
t
() f¨
ur
\ G
0
ur
G
und haben also gefunden, daß (Z
n
t
())
nIN
ur alle
\ G gleichm¨aßig auf jedem
in t
T \ {t
m
} enthaltenen abgeschlossenen Intervall gegen Z
t
() konvergiert. Wegen
der gleichm¨aßigen Konvergenz der Z
n
ist auch Z cadlag. Und schließlich konvergieren die
[0,t]
Y
n
s
dX
s
in L
2
K
(,
F,P) gegen
[0,t]
Y
s
dX
s
nach Satz 4.10 b), so daß f¨
ur jedes t
T \{t
m
}
P
-fast sicher
Z
t
=
[0,t]
Y
s
dX
s
gilt. Also ist Z eine Modifikation von
Y dX
.
Korollar 4.14 (nach [13, S. 23 f.]) Sei X ein (L, J, K)-L
2
-primitiver Prozeß mit dominie-
rendem Maß . Sei (Y
n
)
nIN
eine Folge aus L
2
L
(
×T,P,), die in L
2
L
(
×T,P,) gegen
Y konvergiert. Sei weiter Z
n
eine cadlag-Modifikation von
Y
n
dX
f¨ur jedes n
IN. Dann
existiert eine Teilfolge (n
r
)
rIN
nat¨urlicher Zahlen so, daß f¨ur P -fast alle
die Folgen
der Pfade (Z
n
r
())
rIN
gleichm¨aßig gegen die Pfade Z() einer cadlag-Modifikation Z von
Y dX
konvergieren.
Beweis. Die Teilfolge muß lediglich so gew¨ahlt werden, daß die Konvergenzbedingung f¨
ur
die Y
n
aus Satz 4.13 erf¨
ullt ist, und dies ist offensichtlich immer m¨oglich.

34
KAPITEL 4. STOCHASTISCHE INTEGRATION I
Lemma 4.15 (nach [13, S. 24]) Besitzt der (L, J, K)-L
2
-primitive Prozeß X mit domi-
mierendem Maß eine cadlag (bzw. stetige oder vorhersagbare) Modifikation, so auch der
Integralprozeß Z :=
Y dX
f¨ur alle Y
L
2
L
(
× T,P,).
Beweis. Sei zun¨achst Y
S(A,L), also (I endliche Indexmenge)
Y
=
iI
a
i
1
A
i
mit paarweise disjunkten A
i
R,
wobei f¨
ur i
I A
i
= F
i
×]s
i
, t
i
] mit F
i
F
s
i
sei. Dann ist
[0,t]
Y
s
dX
s
=
iI [0,t]
a
i
1
A
i
(s,
·)dX
s
=
iI
a
i
1
F
i
(X
t
i
t
- X
s
i
t
).
Und hieran liest man direkt ab : Ist X cadlag bzw. stetig oder vorhersagbar oder hat X
eine cadlag, stetige oder vorhersagbare Modifikation, so gilt dies auch f¨
ur den Prozeß Z.
Sei nun Y
L
2
L
(
× T,P,) beliebig. Sei weiter (Y
n
)
nIN
eine Folge aus S(
A,L), die
in L
2
L
(
× T,P,) gegen Y konvergiert. Nach Korollar 4.14 existiert eine Teilfolge (Y
n
r
),
so daß die Folge der Pfade der zugeh¨origen Z
n
r
P
-fast sicher gleichm¨aßig gegen die Pfade
von Z konvergieren. Und ist X cadlag bzw. stetig oder vorhersagbar, oder besitzt X eine
solche Modifikation, so muß dies, da dies nach obigen Betrachtungen f¨
ur alle Z
n
r
gilt,
auch f¨
ur Z gelten (Die Vorhersagbarkeit ist lediglich eine Meßbarkeits-Eigenschaft).
Das folgende Lemma zeigt, daß sich unter gewissen Voraussetzungen auch die L
2
-
Primitivit¨at vom Integrator- auf den Integralprozeß ¨ubertr¨agt:
Lemma 4.16 (nach [13, S. 33]) Seien J, K, K Banachr¨aume und L
L(J,K) bzw. L
L(K, K ) Unter-Banachr¨aume. Ferner sei L der Abschluß der Menge
{uv : v L,u L }
in L(J, K ).
Sei X :
× T J cadlag und (L,J,K)-L
2
- sowie (L, J, K )-L
2
-primitiv, jeweils mit
dominierendem Maß bzw. . Seien ferner Y
L
2
L
(
× T,P,) und Z eine cadlag-
Modifikation von
Y dX
.
Dann ist Z ein (L , K, K )-L
2
-primitiver Prozeß mit dominierendem Maß , gegeben
durch
(G) =
G
Y
2
L
d
f¨ur alle G
× T.
Beweis. Aufgrund unserer Voraussetzungen ist die Existenz einer cadlag-Modifikation Z
von
Y dX
durch Satz 4.13 und Lemma 4.15 verb¨
urgt. Die (L, J, K )-L
2
-Primitivit¨at von
X
bedeutet nach Definition 4.5, daß ein Maß auf (
× T,P) existiert, so daß f¨ur alle
Y
S(A,L)
E
T
Y dX
2
K
×T
Y
2
L
d <

Details

Seiten
Erscheinungsform
Originalausgabe
Jahr
1992
ISBN (eBook)
9783836638098
DOI
10.3239/9783836638098
Dateigröße
1.3 MB
Sprache
Deutsch
Institution / Hochschule
Christian-Albrechts-Universität Kiel – Mathematisch-Naturwissenschaftliche Fakultät
Erscheinungsdatum
2009 (November)
Note
1,0
Schlagworte
integration ito-formel lineare kontrolltheorie kalman bucy filter brownsche bewegung
Zurück

Titel: Das lineare Filterproblem in separablen Hilberträumen
Cookie-Einstellungen