Lade Inhalt...

Bootstrap-Verfahren bei der Berechnung von Prognosen in (G)ARCH-Modellen

©2008 Diplomarbeit 76 Seiten

Zusammenfassung

Inhaltsangabe:Einleitung:
Die Zeitreihenanalyse wird für ein breites Spektrum an Aufgabenstellungen, wie z. B. die Abschätzung von Zusammenhängen, die empirische Überprüfung von aus der wirtschaftswissenschaftlichen Theorie gewonnenen Hypothesen, angewendet, eine ihrer bedeutendsten Aufgaben ist jedoch die Erstellung von Prognosen. Dabei ist man bestrebt, anhand von in der Vergangenheit beobachteten Daten Aussagen über zukünftige Ereignisse zu gewinnen. Hierbei wird ein Modell für den beobachteten Prozess unterstellt. Dadurch wird es möglich, die bestimmten Charakteristika dieses Prozesses, wie z. B. die vergangenheitsbedingten Erwartungswerte bzw. Varianzen, zu schätzen und auf diese Weise Prognosen zu gewinnen.
Zu dieser Aufgabe werden oft parametrische Modelle, wie beispielsweise Autoregressive-Moving-Average-Modelle (ARMA-Modelle) herangezogen, welche die funktionalen Abhängigkeiten der Beobachtungen von ihren Vorgängern beschreibt. ARMA-Modelle haben zum Ziel, den bedingten Erwartungswert zu erklären. Beim Schätzen solcher Modelle wird meist unterstellt, dass aufgrund der Unabhängigkeit und identischen Verteilung der Störvariablen die Varianz der Störgrößen im Zeitablauf immer konstant bleibt. Diese Unterstellung trifft aber auf viele Zeitreihen nicht zu. Als Beispiel können die Preisänderungsraten (Renditen) auf spekulativen Märkten genannt werden, bei denen beobachtet werden kann, dass sie zwar häufig um einen konstanten Mittelwert schwanken, ihre Variabilität jedoch im Zeitablauf nicht konstant bleibt: Marktphasen mit extremen Aufschlägen, nach denen die Varianz nur langsam auf das Ausgangsniveau abklingt, wechseln sich mit ruhigen Perioden mit geringer Varianz ab. Für die Modellierung von Zeitreihendaten dieser Art ist es erforderlich, die Annahme einer konstanten Varianz aufzugeben.
Heteroskedastie setzt genau an diesem Punkt an. Sie besagt nämlich, dass sich die Varianzen der Störterme im Zeitablauf ändern. Im Jahre 1982 wurde von Engle das ARCH-Modell eingeführt, welches die in bestimmten Zeitreihen beobachtbare Heteroskedastizität abzubilden erlaubt. Das englische Akronym ARCH steht für Autoregressive Conditional Heteroskedasticity. Das Modell erklärt die sogenannte bedingte Varianz, die von den in der Vorperiode aufgetretenen Störgrößen abhängt.
Eine der wichtigsten Erweiterungen des ARCH-Modells wurde 1986 von Bollerslev vorgeschlagen. Er hat das Generalized-ARCH- (oder GARCH-) Modell eingeführt, bei welchem die bedingte Varianz […]

Leseprobe

Inhaltsverzeichnis


Marianna Jaskewitz
Bootstrap-Verfahren bei der Berechnung von Prognosen in (G)ARCH-Modellen
ISBN: 978-3-8366-3402-1
Herstellung: Diplomica® Verlag GmbH, Hamburg, 2009
Zugl. Ruhr-Universität Bochum, Bochum, Deutschland, Diplomarbeit, 2008
Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte,
insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von
Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der
Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen,
bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung
dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen
der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik
Deutschland in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich
vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des
Urheberrechtes.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in
diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme,
dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei
zu betrachten wären und daher von jedermann benutzt werden dürften.
Die Informationen in diesem Werk wurden mit Sorgfalt erarbeitet. Dennoch können
Fehler nicht vollständig ausgeschlossen werden und der Verlag, die Autoren oder
Übersetzer übernehmen keine juristische Verantwortung oder irgendeine Haftung für evtl.
verbliebene fehlerhafte Angaben und deren Folgen.
© Diplomica Verlag GmbH
http://www.diplomica.de, Hamburg 2009

_______________________________________________________________
II
Inhaltsverzeichnis
ABBILDUNGSVERZEICHNIS ...IV
ABKÜRZUNGSVERZEICHNIS ...V
SYMBOLVERZEICHNIS...VI
1
EINLEITUNG ... 1
2
THEORETISCHE GRUNDLAGEN ... 5
2.1
Zeitreihen als stochastische Prozesse...5
2.2
Spezielle stochastische Prozesse...8
2.2.1
White-Noise...8
2.2.2
ARMA-Prozesse...8
2.3
Bedingte und unbedingte Verteilungen und Momente höherer
Ordnung...10
3
MODELLIERUNG
VON
RENDITEZEITREIHEN
MITTELS
(G)ARCH-MODELLEN ... 12
3.1
Charakteristika von Renditezeitreihen...12
3.2
Grundmodelle der (G)ARCH-Modellfamilie...16
3.2.1
Engle's ARCH-Modell...16
3.2.1.1
Darstellung und Parameterrestriktionen...16
3.2.1.2
Eigenschaften von ARCH-Prozessen...19
3.2.1.3
Grenzen von ARCH-Modellen...23
3.2.2
Bollerslev's GARCH-Modell...24
3.2.2.1
Darstellung,
Repräsentationen
und
Parameterrestriktionen von GARCH-Modellen...25
3.2.2.2
Eigenschaften von GARCH-Prozessen...27
3.3
Kritik und Optimierungsmöglichkeiten der Grundmodelle...28

_______________________________________________________________
III
3.4
Parameterschätzung in (G)ARCH-Modellen...29
3.5
Prognosen mittels (G)ARCH-Modellen...32
4
BOOTSTRAP-VERFAHREN... 36
4.1
Definition und Anwendungsgebiete...36
4.2
Grenzen theoretischer Statistik und Bootstrap-Verfahren als
Lösungsansatz...37
4.3
Konsistenz der Boostrap-Schätzungen...41
4.4
Anwendung des Bootstrap-Verfahrens auf die Zeitreihen...42
5
ANWENDUNG
DES
BOOTSTRAP-VERFAHRENS
IN
KOMBINATION
MIT
(G)ARCH-MODELLEN
BEI
PROGNOSEERSTELLUNGEN ... 45
5.1
Verteilungsprognose für Renditen und Volatilität...45
5.2
Anwendung des Bootstrap-Verfahens bei der Berechnung von
Value-at-Risk...50
5.3
Kritische Würdigung der Anwendung des Bootstrap-Verfahrens
bei der Berechnung von Prognosen in (G)ARCH-Modellen...56
6
ZUSAMMENFASSUNG... 58
LITERATURVERZEICHNIS... 60

_______________________________________________________________
IV
Abbildungsverzeichnis
Abbildung 1:
Russischer Aktienindex RTS 1997-2007, dazugehörige
börsentägliche Log-Renditen und quadrierte Log-Renditen...15
Abbildung 2:
Histogramm der Log-Renditen: Aktienindex RTS 1997-
2007...16

_______________________________________________________________
V
Abkürzungsverzeichnis
AR
autoregressiv
ARCH
autoregressive conditional Heteroskedasticity
ARMA
autoregressive Moving-Average
bzw.
beziehungsweise
d. h.
das heißt
f.
folgende
ff.
fortfolgende
GARCH
generalized autoregressive conditional
Heteroskedasticity
Hrsg.
Herausgeber
MA
Moving-Average
ML
Maximum-Likelihood
QML
Quasi-Maximum-Likelihood
RTS
Russian Trading System
S.
Seite(n)
VaR
Value-at-Risk
vgl.
vergleiche
z. B.
zum Beispiel

_______________________________________________________________
VI
Symbolverzeichnis
Im Allgemeinen werden Zufallsvariablen durch Großbuchstaben dargestellt,
Realisationen durch Kleinbuchstaben. Eine Ausnahme stellen die
Zufallsvariablen, die einem White-Noise-Prozess folgen, dar, nämlich:
, u,
.
In diesem Fall wird nicht zwischen Realisationen und Variablen
unterschieden, weswegen keine Unterscheidung bezüglich Groß- und
Kleinschreibung erfolgt. Gleiches gilt für die bedingte Varianz
2
t
h
. Die im
Text benutzten Symbole sind in diesem Symbolverzeichnis entsprechend
ihrem Auftreten im Text nach Kapiteln geordnet.
Kapitel 2
( )
t
X
stochastischer Prozess
t,
Zeitindizes
T
Zeitreihenlänge
Teilmenge von
Menge der natürlichen Zahlen
Menge der ganzen Zahlen
ist Element von
:=
definitionsgemäß gleich
g
Ordnung eines Momentes
E( )
Erwartungswert
X
Zufallsvariable
für alle
µ
Mittelwert, Erwartungswert einer Verteilung
µ
( )
Mittelwertfunktion
2
( ), V( )
Varianzfunktion

_______________________________________________________________
VII
( ), Cov ( )
Autokovarianzfunktion
( )
Autokorrelationsfunktion
k, s, p, q
Ordnung von ARMA(k,s)- und GARCH(p,q)-Modellen
Absolutglied in ARMA-Modellen
d
i
, y
j
Parameter in ARMA-Modellen
cP
(L)
charakteristisches Polynom
L
Lag-Operator
ist verteilt nach
D
Art der Verteilung
Verteilungsparameter
F
Informationsmenge
Kapitel 3
R
t
diskrete Rendite
P
t
Preis eines Vermögenswertes
r
t
Log-Rendite
ln
natürlicher Logarithmus
u
t
Zufallsvariable eines bedingten heteroskedastischen
Prozesses
2
t
h
bedingte Varianz in (G)ARCH-Modellen
c
Absolutglied in (G)ARCH-Modellen
a
i
,b
i
Parameter in (G)ARCH-Modellen
t
unabhängig und identisch verteilte Zufallsvariable mit
dem Erwartungswert Null und der Varianz Eins
N(.,.)
Normalverteilung mit den Parametern Erwartungswert
und Varianz

_______________________________________________________________
VIII
t
h
bedingte Standardabweichung in (G)ARCH-Modellen
t
unerwartete Innovation in den bedingten Varianzen
w
i
Gewichte zur Schätzung bedingter Varianz
max
{ }
Maximumfunktion; wählt den Wert aus, welcher
betragsmäßig am größten ist
a
Parametersumme eines (G)ARCH-Prozesses
^
Parameterschätzwert
L
( )
Likelihoodfunktion
f
( )
bedingte Dichtefunktion
Modellparametervektor
exp(x)
e
x
l
( )
Log-Likelihoodfunktion
^x
Schätzung einer Größe
Pr
Probability (Wahrscheinlichkeit)
Implikation, wenn..., so...
-Quantil
1
-
inverse Standardnormalverteilungsfunktion
Kapitel 4
Verteilungsparameter
n
Anzahl der Stichprobenwerte
F
Verteilungsfunktion
F
n
empirische Verteilungsfunktion
x
*
Wert, der mittels Bootstrap-Verfahrens generiert wurde
B
Anzahl der Bootstrap-Nachbildungen

_______________________________________________________________
IX
b
Index der Bootstrap-Nachbildungen
eine beliebige reelle Zahl
I
O
Indikatorfunktion der Menge O
Menge der reellen Zahlen
Mittelwert der Bootstrap-Parameter
strebt zu
Kapitel 5
^
T
F
empirische Verteilungsfunktion zentrierter Residuen
^
Mittelwert standardisierter Residuen
Zeitindex
^
beobachtete Fehlerhäufigkeit
i
Zeitpunkt
M
Zeitfensterlänge

_______________________________________________________________
1
1
Einleitung
Die Zeitreihenanalyse wird für ein breites Spektrum an Aufgabenstellungen,
wie z. B. die Abschätzung von Zusammenhängen, die empirische
Überprüfung von aus der wirtschaftswissenschaftlichen Theorie gewonnenen
Hypothesen, angewendet, eine ihrer bedeutendsten Aufgaben ist jedoch die
Erstellung von Prognosen. Dabei ist man bestrebt, anhand von in der
Vergangenheit beobachteten Daten Aussagen über zukünftige Ereignisse zu
gewinnen. Hierbei wird ein Modell für den beobachteten Prozess unterstellt.
Dadurch wird es möglich, die bestimmten Charakteristika dieses Prozesses,
wie z. B. die vergangenheitsbedingten Erwartungswerte bzw. Varianzen, zu
schätzen und auf diese Weise Prognosen zu gewinnen.
1
Zu dieser Aufgabe werden oft parametrische Modelle, wie beispielsweise
Autoregressive-Moving-Average-Modelle (ARMA-Modelle) herangezogen,
welche die funktionalen Abhängigkeiten der Beobachtungen von ihren
Vorgängern beschreibt. ARMA-Modelle haben zum Ziel, den bedingten
Erwartungswert zu erklären. Beim Schätzen solcher Modelle wird meist
unterstellt, dass aufgrund der Unabhängigkeit und identischen Verteilung der
Störvariablen die Varianz der Störgrößen im Zeitablauf immer konstant
bleibt. Diese Unterstellung trifft aber auf viele Zeitreihen nicht zu. Als
Beispiel können die Preisänderungsraten (Renditen) auf spekulativen Märkten
genannt werden, bei denen beobachtet werden kann, dass sie zwar häufig um
einen konstanten Mittelwert schwanken, ihre Variabilität jedoch im Zeitablauf
nicht konstant bleibt: Marktphasen mit extremen Aufschlägen, nach denen die
Varianz nur langsam auf das Ausgangsniveau abklingt, wechseln sich mit
ruhigen Perioden mit geringer Varianz ab. Für die Modellierung von
Zeitreihendaten dieser Art ist es erforderlich, die Annahme einer konstanten
Varianz aufzugeben.
2
1
Vgl. Franke/Härdle/Hafner (2004), S. 207 und Streitberg/Schlittgen (1999), S. 191.
2
Vgl. Jacobi (2005), S. 1.

_______________________________________________________________
2
Heteroskedastie setzt genau an diesem Punkt an. Sie besagt nämlich, dass sich
die Varianzen der Störterme im Zeitablauf ändern. Im Jahre 1982 wurde von
Engle
das ARCH-Modell eingeführt, welches die in bestimmten Zeitreihen
beobachtbare Heteroskedastizität abzubilden erlaubt. Das englische Akronym
ARCH steht für Autoregressive Conditional Heteroskedasticity. Das Modell
erklärt die sogenannte bedingte Varianz, die von den in der Vorperiode
aufgetretenen Störgrößen abhängt.
1
Eine der wichtigsten Erweiterungen des ARCH-Modells wurde 1986 von
Bollerslev
vorgeschlagen. Er hat das Generalized-ARCH- (oder GARCH-)
Modell eingeführt, bei welchem die bedingte Varianz nicht nur von den
vergangenen Störgrößen, sondern auch von den bedingten Varianzen der
Vorperioden abhängt. Dies erlaubt eine sehr viel sparsamere Parametrisierung
als das reine ARCH-Modell. Da das GARCH-Modell als Spezialfall ein
ARCH-Modell enthält, können diese beiden Modelle und ihre Erweiterungen
zu einer Modellklasse zusammengefasst werden, für die des Weiteren die
Bezeichnung (G)ARCH-Modelle verwendet wird. Im Mittelpunkt dieser
Modelle steht, im Unterschied zu den ARMA-Modellen, nicht der bedingte
Erwartungswert, sondern die bedingte Varianz.
2
(G)ARCH-Modelle finden ihre breite Anwendung in der Zeitreihenanalyse.
Besonders erfolgreich erwies sich jedoch ihre Anwendung zur Abbildung von
bestimmten Finanzmarktzeitreihen. Diese Modellklasse ist fähig, die
wichtigsten
empirischen
Eigenschaften
der Renditezeitreihen von
verschiedenen Vermögenswerten zu beschreiben und kann deswegen zur
Prognose von Renditen eingesetzt werden. Der Anwendung der (G)ARCH-
Modelle zur Renditevorhersage gilt deswegen das Augenmerk dieser Arbeit.
3
Zur Prognose von Renditen werden oft ARMA- und GARCH-Modelle
kombiniert. Dabei wird gleichzeitig der bedingte Erwartungswert und die
bedingte Varianz modelliert. Man kann bei diesem Ansatz sowohl eine
Punktprognose für Renditen als auch für ihre Variabilität berechnen.
1
Vgl. Engle (1982), S. 987-1007.
2
Vgl. Bollerslev (1986), S. 307-327.
3
Vgl. Engle (2001), S. 158.

_______________________________________________________________
3
Bei dem Prognostizieren von Renditen ist es von Interesse, für einige
praktische Fragestellungen nicht nur die Punktprognose, sondern auch die
gesamte Verteilung des Prognosewertes zu kennen. Die Verteilung der
prognostizierten Renditen ist aber unbekannt und analytisch schwer zu
bestimmen. Bekannte theoretische Verteilungen können diese unbekannte
Verteilung oft entweder nur unzureichend approximieren oder sind zu
kompliziert für die Implementierung in der Praxis.
1
Eine einfachere Lösung für dieses Problem wäre die Approximation der
Verteilung mittels des Bootstrap-Verfahrens, das auf die empirische
Verteilung der Daten zurückgreift. Die Wurzeln dieses Verfahrens gehen
einige Jahrhunderte zurück, aber die Idee fand Ihre breite Anwendung erst in
den letzten drei Jahrzehnten, nachdem sie von Efron entwickelt und
popularisiert wurde. Bei diesem Verfahren wird die mathematische und
statistische Analyse mit einer simulationsbasierten Rekonstruktion von
originalen Daten ersetzt. In Kombination mit (G)ARCH-Modellen erlaubt der
Einsatz des Bootstrap-Verfahrens, die Verteilungen von Prognosewerten für
Renditen, ihre Volatilität und andere Parameter von Interesse zu erhalten,
ohne dass auf strenge parametrische Annahmen zurückgegriffen werden
muss.
2,
3
Dieser Ansatz zur Prognoseberechnung (Kombination des (G)ARCH-Modells
mit dem Bootstrap-Verfahren) kann ihre Anwendung beispielsweise im
Risikomanagement der Finanzinstitutionen finden. Ausgehend von der durch
den Bootstrap gewonnenen Prognose für die Renditeverteilung, können
bestimmte Quantile dieser Verteilung zur Ableitung von Risikomesszahlen
verwendet werden. Auch die genaue Prognose für Renditevolatilität ist
wichtig. Die Volatilität ist ein entscheidender Faktor in vielen Modellen der
Optionsbewertung und Portfolioallokation. Es besteht deswegen ein Interesse,
zur Abschätzung der Genauigkeit einer Punktprognose die Verteilung des
Prognosewertes für die Volatilität zu bestimmen. Dies ist von Bedeutung für
1
Vgl. Hartz/Mittnik/Paolella (2006), S. 5.
2
Der Name ,,Bootstrap" stammt von der amerikanischen Redewendung ,,to pull oneself up by
one's bootstrap", was frei übersetzt ,,sich selbst helfen ausgehend von den eigenen
Ressourcen" bedeutet.
3
Vgl. Efron (1979), S. 1-26 und Dowd (2005), S. 105.

_______________________________________________________________
4
die Implementierung und Evaluierung sowohl von Theorien, die den
Modellen der Optionsbewertung und Portfolioallokation zugrunde liegen, als
auch von Handels- und Hedging-Strategien.
1
Nachdem die Motivation und die praktische Bedeutung der Anwendung des
Bootstrap-Verfahrens in (G)ARCH-Modellen zur Prognoseberechnung
dargestellt wurde, soll in den weiteren Kapiteln der Arbeit eine ausführlichere
Beschreibung dieses Ansatzes gegeben werden. Dazu werden in Kapitel 2
einige theoretische Grundlagen der Zeitreihenanalyse aufgeführt. In Kapitel 3
werden zunächst ausgewählte empirische Merkmale der Renditezeitreihen
beschrieben und dann die theoretischen Eigenschaften der (G)ARCH-
Modellklasse dargestellt. Durch Vergleich der empirischen Merkmale der
Renditezeitreihen und der Eigenschaften der (G)ARCH-Prozesse wird die
Eignung dieser Prozesse zur Abbildung der Renditezeitreihen aufgezeigt. Das
Kapitel 4 ist dem Bootstrap-Verfahren gewidmet, wobei zuerst auf die
Grenzen der analytischen Statistik hingewiesen und das Bootstrap-Verfahren
als ein möglicher Lösungsansatz für die Aufgabenstellungen, die für die
analytische Statistik zu kompliziert wären, dargestellt wird. In Kapitel 5 wird
anhand ausgewählter Beispiele die Prognoseerstellung mittels Bootstrap-
Verfahrens in GARCH-Modellen erläutert. Die Beispiele demonstrieren, wie
mittels dieses Ansatzes die Verteilungen bestimmter Prognosewerte berechnet
werden können. Es beschließt diese Arbeit eine Zusammenfassung in Kapitel
6.
1
Vgl. Ruiz/Pascual (2002), S. 288.

_______________________________________________________________
5
2 Theoretische Grundlagen
2.1 Zeitreihen als stochastische Prozesse
In der klassischen Zeitreihenanalyse wird unter einer Zeitreihe eine Folge von
festen reellen Zahlen verstanden. Die modernen Ansätze gehen davon aus,
dass jeder einzelne Zeitreihenwert durch Zufall beeinflusst wird. Mit anderen
Worten, es liegt jeder Zeitreihe ein datengenerierender stochastischer Prozess,
das heißt ein dynamischer Vorgang mit Zufallscharakter, zu Grunde.
1
Ein stochastischer Prozess ist ein System von zeitlich geordneten
Zufallsvariablen (X
t
) mit t T
. T steht für eine beliebige, aber nicht zufällige
Indexmenge, und enthält für Zeitreihen die Zeitpunkte der Beobachtungen.
Der beobachtete Wert der Zeitreihe zum Zeitpunkt t wird jeweils als eine
Realisation der Zufallsvariablen eines stochastischen Prozesses mit der
jeweiligen Verteilung in t betrachtet. Ein diskreter stochastischer Prozess
enthält endlich viele Elemente mit T oder T, ein stetiger stochastischer
Prozess enthält hingegen unendlich viele Elemente. In dieser Arbeit werden
Modelle für die Tagesrenditen betrachtet (d.h. dass die Zufallsvariablen
diskret beobachtet werden können) und es wird unterstellt, dass die
entsprechende Zeitreihe der Beobachtungen einen festen Anfangswert hat,
folglich ist t .
2
Ein stochastischer Prozess lässt sich durch die Verteilungsfunktionen seiner
Zufallsvariablen bzw. durch die gemeinsame Verteilungsfunktion vollständig
beschreiben. Für die praktischen Anwendungen reicht in der Regel die
Angabe der ersten und zweiten Momente seiner Zufallsvariablen.
3
1
Vgl. Schlittgen/Streitberg (1999), S. 90.
2
Vgl. Neumann (2000), S. 76 und Rinne (1997), S. 435f.
3
Vgl. Schira (2005), S. 569.

_______________________________________________________________
6
Als Momente einer Verteilung werden die Erwartungswerte von Potenzen der
Zufallsvariablen bezeichnet. Der Erwartungswert der g-ten Potenz
: E(
),
g
g
Moment
X
=
(2.1)
heißt das g-te Moment der Verteilung, vorausgesetzt er existiert. Der
Erwartungswert der g-ten Potenz der Abweichung vom Mittelwert
: E (
)
Zentr
g
g
Moment
X
µ
=
-
(2.2)
heißt g-tes zentrales Moment.
1
Die Momente stochastischer Prozesse sind grundsätzlich vom Zeitindex t T
abhängig, und deswegen werden sie als Funktionen definiert:
2
( ) : E(
)
t
t
X
µ
=
ist die Mittelwertfunktion des Prozesses
( )
t
X
,
(
)
2
2
( ) : E
V(
)
t
t
t
t
X
X
µ
=
-
=
ist die Varianzfunktion des Prozesses
( )
t
X
und
(
)(
)
(
)
( ,
) : E
Cov
,
t
t
t
t
t
t
t t
X
X
X X
µ
µ
+
+
+
+
=
-
-
=
ist
die
Autokovarianzfunktion des Prozesses
( )
t
X
.
Diese Funktionen existieren jedoch nicht notwendigerweise für jeden
stochastischen Prozess.
Um von einer Zeitreihe auf einen zugrundeliegenden stochastischen Prozess
schließen zu können, wird man sich a priori auf stochastische Prozesse
beschränken, bei welchen nicht jede Zufallsvariable andere Verteilungen bzw.
Momente hat. Die Momente müssen über die Zeit als konstant angenommen
werden, da ansonsten keine Schätzung dieser Momente möglich ist. Die
Ursache hierfür ist, dass zu jedem Zeitpunkt nur eine Realisation der
jeweiligen Zufallsvariable vorliegt. Der Prozess soll also eine gewisse
zeitliche Stabilität aufweisen, um analysiert werden zu können.
3
1
Vgl. Schira (2005), S. 289.
2
Vgl. Rinne (1997), S. 437.
3
Vgl. Schira (2005), S. 572.

_______________________________________________________________
7
Geht man davon aus, dass sich die gemeinsame Verteilungsfunktion des
stochastischen Prozesses durch eine zeitliche Verschiebung nicht ändert, wird
von einem streng stationären Prozess gesprochen. Zumeist ist es nicht
möglich, Zeitreihen auf strenge Stationarität zu untersuchen. Man greift auf
eine wenig restriktive Definition der Stationarität zurück. Ein Prozess heißt
schwach stationär, wenn er sowohl mittelwert- als auch kovarianzstationär ist.
Mittelwertstationarität ist gegeben, falls
( )
t
µ
µ
=
, t
.
(2.3)
Kovarianzstationarität bedeutet, dass die Kovarianz zwischen zwei
Zufallsvariablen
t
X
und
t
X
+
des Prozesses nur vom zeitlichen Abstand
abhängt:
( ,
)
( )
t t
+
=
,
(2.4)
Aus der Kovarianzstationarität folgt für
0
= die Varianzstationarität.
1
Anhand der Autokovarianzen ist es kaum möglich, die Abhängigkeitsstruktur
der Zufallsvariablen eines stochastischen Prozesses zu beurteilen, da sie von
den
jeweiligen
Maßeinheiten
abhängig
sind.
Um
zu
einer
maßstabsunabhängigen Größe zu gelangen, werden die Autokovarianzen mit
der Varianz normiert und man erhält die Autokorrelationsfunktion. Sie lautet
für schwach stationäre Prozesse
2
(
)(
)
(
)
2
E
( )
( )
,
(0)
E
t
t
t
X
X
X
µ
µ
µ
+
-
-
=
=
-
.
(2.5)
Die Autokorrelations- sowie die Autokovarianzfunktion können auch
Korrelations- bzw. Kovarianzfunktion genannt werden. Das Präfix ,,Auto"
weist darauf hin, dass es sich um ein und denselben stochastischen Prozess
handelt.
3
1
Vgl. Rinne (1997), S. 437.
2
Vgl. Kirchgässner/Wolters (2006), S. 15.
3
Vgl. Schira (2005), S. 570.

Details

Seiten
Erscheinungsform
Originalausgabe
Jahr
2008
ISBN (eBook)
9783836634021
DOI
10.3239/9783836634021
Dateigröße
756 KB
Sprache
Deutsch
Institution / Hochschule
Ruhr-Universität Bochum – Wirtschaftswissenschaften, Wirtschaftswissenschaften
Erscheinungsdatum
2009 (August)
Note
1,0
Schlagworte
garch bootstrap value risk zeitreihenanalyse prognose
Zurück

Titel: Bootstrap-Verfahren bei der Berechnung von Prognosen in (G)ARCH-Modellen
Cookie-Einstellungen