Lade Inhalt...

Approximation der Historischen Simulation durch analytische Value at Risk

Ansätze mittels Sensitivitätskennzahlen

©2001 Diplomarbeit 100 Seiten

Zusammenfassung

Inhaltsangabe:Gang der Untersuchung:
Das Senior Management legt für die Gesamtbanksteuerung in der Regel den Value at Risk (VaR) zugrunde. Die dezentral arbeitenden Händler benutzen ihrerseits Sensitivitätskennzahlen für die eigene Risikoabschätzung. Diese Arbeit hat das Ziel, diese verschiedene Risikomaße ineinander zu überführen, um das Gesamtbankergebnis zu optimieren.
Im ersten Kapitel dieser Arbeit werden zunächst die Risikomaße VaR und Sensitivitäten vorgestellt. Insbesonders wird gezeigt, wie man mit Sensitivitäten spezielle Hedging-Strategien (z.B. Delta-, Gamma-, Vegahedge) durchführen kann.
Im zweiten Kapitel werden verschiedene Methoden zur Risikoquantifizierung des VaR beschrieben. Dazu wird als erstes die VaR-Berechnung mit der Historischen Simulation dargestellt. Als zweites wird die Kovarianzmethode verwendet. Hier werden Methoden der VaR-Berechnung erläutert, die auf Sensitivitäten beruhen. Explizit werden ausführlich die Delta-Normal und die Delta-Gamma Methode beschrieben. Um dem Anspruch einer praxisorientierten Arbeit gerecht zu werden, werden diese Methoden immer anhand von gängigen Finanzinstrumenten (z.B. Swap, Cap, Floor, Future, FRA, Bond, Floater) finanzmathematisch ausführlich dargestellt.
Im dritten Kapitel wird eine empirische Studie durchgeführt. Diese soll herausfinden, wie die Risikomaße des VaR und der Delta-Normal bzw. der Delta-Gamma Methode ineinander zu überführen sind. Dazu werden verschiedene Auswertungen, auf Basis der Korrelationsanalyse, durchgeführt. Als Zusatz wird noch ein Verfahren dargestellt, wie man die Zuverlässigkeit der benutzten Kovarianzmatrix überprüfen kann.
Diese Auswertungen werden im Anhang, durch ausführliche Statistiken, erweitert.

Inhaltsverzeichnis:Inhaltsverzeichnis:
InhaltsverzeichnisI
AbkürzungsverzeichnisIII
SymbolverzeichnisIV
AbbildungsverzeichnisV
TabellenverzeichnisVI
Einleitung1
A.Risikomaße2
1.Value at Risk2
2.Sensitivitätskennzahlen4
2.1Greeks5
2.2Hedging-Strategien8
B.Methoden zur Risikoquantifizierung14
1.Historische Simulation14
1.1Allgemeine Vorgehensweise14
1.2Value at Risk der Historischen Simulation15
2.Kovarianzmethode18
2.1Delta-Normal Methode19
2.1.1Annahmen und Definitionen19
2.1.2Risikofaktoren21
2.1.3Deltavektor24
2.1.4Value at Risk der Delta-Normal Methode29
2.2Delta-Gamma Methode30
2.2.1Annahmen31
2.2.2Gammamatrix32
2.2.3Cornish-Fischer Approximation36
2.2.4Value at Risk der Delta-Gamma Methode38
C.Empirische Überprüfung der […]

Leseprobe

Inhaltsverzeichnis


Inhaltsverzeichnis

Abkürzungsverzeichnis

Symbolverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Einleitung

A. Risikomaße
1. Value at Risk
2. Sensitivitätskennzahlen
2.1. Greeks
2.2. Hedging-Strategien

B. Methoden zur Risikoquantifizierung
1. Historische Simulation
1.1. Allgemeine Vorgehensweise
1.2. Value at Risk der Historischen Simulation
2. Kovarianzmethode
2.1. Delta-Normal Methode
2.1.1. Annahmen und Definitionen
2.1.2. Risikofaktoren
2.1.3. Deltavektor
2.1.4. Value at Risk der Delta-Normal Methode
2.2. Delta-Gamma Methode
2.2.1. Annahmen
2.2.2. Gammamatrix
2.2.3. Cornish-Fischer Approximation
2.2.4. Value at Risk der Delta-Gamma Methode

C. Empirische Überprüfung der Methoden
1. Approximative Näherung
1.1. Beschreibung der Methodik
1.2. Testportfolios
1.3. Multiple lineare Regression
1.4. Auswertung
2. Funktionaler Zusammenhang
2.1. Beschreibung der Methodik
2.2. Testportfolio
2.3. Auswertung

Resumee

Anhang
A-1 Anrechenbares Eigenkapital - Grundsatz I
A-2 Finanzinstrumente
A-3 Konservativer Schätzer der Standardabweichung
A-4 Daten und Graphiken zur approximativen Näherung
A-5 Statistiken zum funktionalen Zusammenhang

Literaturverzeichnis

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abb. 1: Fehler durch Delta-Hedging

Abb. 2: Zinssätze der USD-Government- und Swapkurve per

Abb. 3: Das Prinzip des Cash-Flow-Mapping

Abb. 4: Delta-Normal VaR mit einer Normal- und einer t-Verteilung

Abb. 5: Eine linksschiefe P&L-Verteilung der Delta-Gamma Methode

Abb. 6: Gammamatrix eines Cap mit insgesamt 7 Risikofaktoren

Abb. 7: Graphische Darstellung der VaR-Größen des Euro-Gov Portfolios

Abb. A1: Delta-Normal und HS VaR des Euro-Gov Portfolios

Abb. A2: Delta-Normal und HS VaR des Euro-Swap Portfolios

Abb. A3: Delta-Normal und HS VaR des CHF-Swap Portfolios

Abb. A4: Delta-Normal und HS VaR des GBP-Gov Portfolios

Abb. A5: Delta-Normal und HS VaR des GBP-Swap Portfolios

Abb. A6: Delta-Normal und HS VaR des USD-Gov Portfolios

Abb. A7: Delta-Normal und HS VaR des USD-Swap Portfolios

Abb. A8: Delta-Normal und HS VaR des JPY-Swap Portfolios

Abb. A9: Delta-Normal und HS VaR des Euro-Cap-Floor Portfolios

Abb. A10: Delta-Gamma und HS VaR des Euro-Cap-Floor Portfolios

Tabellenverzeichnis

Tab. 1: Einteilung der Testportfolios bei der approximativen Näherung

Tab. 2: Performance und Volatilität der Approximationen im Vergleich zur HS

Tab. 3: Korrelationskoeffizienten aus der Residualanalyse

Tab. 4: Multiple Regressionskoeffizienten, vor Signifikanztests

Tab. 5: Multiple Regressionskoeffizienten, nach Signifikanztests

Tab. A1: Zusammensetzung der Eigenmittel nach Grundsatz I

Tab. A2: Konservativer Schätzer für das USD-Swap Portfolio

Tab. A3: Konservativer Schätzer für das GBP-Gov Portfolio

Tab. A4: Gemeinsamer konservativer Schätzer für beide Portfolios

Tab. A5: Abweichungen zwischen den konservativen Schätzern

Tab. A6: Konservativer Schätzer für das Euro-Cap-Floor Portfolio

Tab. A7: Vergleich der VaR-Werte von Delta-Normal und Delta-Gamma

Tab. A8: Statistik ohne Spread-Risiken, vor Signifikanztests

Tab. A9: Statistik ohne Spread-Risiken, nach Signifikanztests

Tab. A10: Statistik mit Spread-Risiken, vor Signifikanztests

Tab. A11: Statistik mit Spread-Risiken, nach Signifikanztests

Tab. A12: Statistik der Delta-Normal Nachbildung... 84

Einleitung

Alle größeren Finanzinstitute sind heute durch eine dezentrale Geschäftssteuerung gekennzeichnet. Es existieren verschiedene Ebenen, vom Senior Management, über die internen Abteilungen, bis zu den am Markt operierenden Händlern. Damit wird ein solches Finanzinstitut durch eine Vielzahl von dezentralen Entscheidungen charakterisiert. Das Senior Management gibt dabei die strategische Ausrichtung der Bank vor, die Umsetzung muss jedoch durch die Mitarbeiter im Markt geschehen. Damit diese dezentralen Entscheidungen kontrolliert werden können, ist es notwendig den Marktmitarbeitern Handlungsspielräume zur Verfügung zu stellen, in denen sie autark handeln können. Im Bereich des Risikomanagements bestehen diese Handlungsspielräume i. d. R. aus Vorgaben, in welcher Höhe gewisse Risiken eingegangen werden dürfen. Das Problem besteht oft darin, dass Senior Management und Händler in unterschiedlichen Risikomaßen denken. Das Senior Management legt für die Gesamtbanksteuerung den Value at Risk (VaR) zugrunde. Die Händler arbeiten ihrerseits mit Sensitivitäten. Eine Aufgabe besteht also darin, diese beiden Größen zusammenzuführen, mit dem Ziel, ein optimales Ergebnis der Bank unter Einhaltung von Risikoaspekten zu erreichen.

Diese Arbeit versucht durch empirische Methoden einen Zusammenhang zwischen VaR und Sensitivitätskennzahlen zu finden. In Kapitel A werden zunächst diese beiden Risikomaße vorgestellt und die Möglichkeit des Risikomanagements mit Sensitivitäten dargestellt. Im Kapitel B werden verschiedene Möglichkeiten der VaR Berechnung vorgestellt. Dazu wird zuerst die Historische Simulation und dann die beiden, auf Sensitivitäten basierenden Risikomaße, Delta-Normal und Delta-Gamma Methode erläutert. Das Kapitel C ist der praktische Teil dieser Arbeit. In diesem Kapitel werden verschiedene empirische Auswertungen vorgenommen. Der Sinn dieser Auswertungen ist es, unter betriebswirtschaftlichen Aspekten, mögliche Lösungen für eine Approximation des VaR der Historischen Simulation durch Sensitivitäten zu finden.

A. Risikomaße

Das Ziel dieser Arbeit ist die Approximation des VaR der Historischen Simulation durch ein lineares bzw. quadratisches Risikomaß. Dieses Kapitel soll dazu dienen, die Grundlagen für diese Approximation zu schaffen. Als erstes wird das Konzept des VaR in einem Finanzinstitut dargestellt. Der zweite Abschnitt erklärt den Begriff der Sensitivitätskennzahlen. Dieser Begriff ist ein zentraler Bestandteil der verwendeten linearen und quadratischen Risikomaße. Es wird im besonderen darauf eingegangen, wie man mit Sensitivitäten Risikomanagement betreiben kann. Dafür werden entsprechende Hedging-Strategien dargestellt.

1. Value at Risk

An der Börse oder im OTC-Bereich werden heute in allen Asset-Klassen z. T. hochkomplexe Finanzinstrumente gehandelt. Damit diese Instrumente nachgefragt werden, müssen sie eine gewisse Rendite generieren. Dabei korrespondiert die Höhe der Rendite mit dem eingegangen Risiko. Das heißt in der Regel, je höher das Risiko, desto höher ist die Chance.[1] Einem Finanzinstitut wird unterstellt, dass es einen rationalen Umgang mit Risiken anstrebt.[2] Um ein bestimmtes Risiko, dass aus Positionen in den Handelsbüchern resultiert[3], eingehen zu können, bedarf es aber laut dem Grundsatz I des Bundesaufsichtsamt für das Kreditwesen (BaKred)[4] einer Unterlegung mit Eigenmitteln.[5] Um dieses knappe Gut der Finanzinstitute optimal auf die verschiedenen Geschäfte der Bank aufteilen zu können, bedarf es der Messung des eingegangen Risikos. Das Risiko ist allgemein definiert, als die Volatilität eines unerwarteten Ergebnisses.[6] Ein Ergebnis ist z. B. der Preis eines Bonds oder einer Option. Dabei ist zu berücksichtigen, dass als Risiko nur die negativen Abweichungen gelten.[7] Es gibt verschiedene Arten von Risiko.[8] Diese Arbeit beschäftigt sich mit den Marktpreisrisiken. Die Marktpreisrisiken entstehen durch Schwankungen der Preise von Finanzinstrumenten in Abhängigkeit ihrer zugrundeliegenden Risikofaktoren, aus ungesicherten bzw. nicht perfekt korrelierten Marktpositionen.[9] Ein Marktfaktor ist dann ein Risikofaktor, wenn er den Kurs eines Finanzinstrumentes entscheidend beeinflusst. In dieser Arbeit werden besonders die Veränderungen von Zinssätzen, Währungskursen und Volatilitäten beobachtet. Um diese Marktpreisrisiken messen zu können, bedarf es eines Risikomaßes. Ein mögliches Risikomaß ist dabei der VaR. Der VaR ist der größtmögliche erwartete Verlust, über einen bestimmten Zeitraum, auf einem bestimmten Konfidenzniveau, unter normalen Marktbedingungen.[10] Der VaR kann allgemein als eine Funktion von drei Variablen definiert werden:[11]

Abbildung in dieser Leseprobe nicht enthalten

V ist der Wert des VaR, als abhängige Variable. P ist ein beliebiges Portfolio, dass aus n Instrumenten besteht (n ³ 1). T ist der angestrebte Zeithorizont in Tagen[12]. Za ist ein Quantil der Standardnormalverteilung, abhängig vom Konfidenzniveau a.[13] Die genaue formale Bestimmung des VaR ist abhängig von den zugrundeliegenden Annahmen. Es gibt drei Methoden den VaR zu berechnen. Erstens, die nichtparametrischen Verfahren. Hiermit sind im allgemeinen die Historischen Simulationen gemeint. Als zweitens die parametrischen Verfahren. Hierzu zählen unter anderem die Delta-Normal und die Delta-Gamma Methode. Sowohl die nichtparametrischen, als auch die parametrischen Verfahren sind Bestandteil dieser Arbeit und werden in Kapitel B ausführlich erläutert. Aus Gründen der Vollständigkeit sollen auch noch die semiparametrischen Verfahren erwähnt werden, dass sind die Monte-Carlo Simulationen.[14] Auf diese Methode wird im weiteren Verlauf der Arbeit nicht weiter eingegangen.

Der VaR für ein einzelnes Instrument, für ein Portfolio oder für die Gesamtbank, ist eine Größe die hauptsächlich vom Senior Management eines Finanzinstituts verwendet wird. Der Grund liegt darin, dass das Management in einer kompakten Zahl, das Risiko der Bank übersehen kann.[15] Eine andere Sichtweise benötigt ein Händler, der ein Bankportfolio managt. Er muss wissen, wie „sein“ Risiko sich verändert, wenn er Positionen abstößt oder zukauft bzw. sich die Risikofaktoren im Zeitablauf ändern. Dieser Händler legt dabei weniger den VaR, als vielmehr Sensitivitäten zugrunde.[16]

2. Sensitivitätskennzahlen

Wenn ein Finanzinstitut standardisierte Finanzinstrumente an einer Börse kauft, besteht immer eine einfache Form der Risikoabsicherung. Es wird die gegenläufige Long- bzw. Short- Position eingegangen. Damit ist dann das Exposure abgesichert. Geschieht allerdings der Handel im OTC-Bereich, wie es für strukturierte Finanzprodukte der Firmenkunden sehr oft der Fall ist, besteht diese Möglichkeit nicht. Hier ist es notwendig, andere Methoden anzuwenden, um das Risiko eines Finanzinstituts abzusichern.

2.1. Greeks

Ein Händler managt i. d. R. ein Portfolio mit einer Anzahl von vielen Hundert Instrumenten. Damit er sein Portfolio unter Risikoaspekten betrachten kann, benötigt der Händler Kennzahlen, wie sein Portfolio auf Veränderungen in der Markstruktur reagiert. An jeden Tag wird für jeden Risikofaktor eine Kennzahl, eine Sensitivität, berechnet. Eine Sensitivität eines Finanzinstruments bzgl. eines Risikofaktors ist die Zahl, die multipliziert mit einer marginalen Parameteränderung im betrachteten Risikofaktor, die dadurch bewirkte Preisänderung des Instrumentes angibt.[17] Diese Tatsache lässt sich als Funktion der Preisänderung formal darstellen:[18]

Abbildung in dieser Leseprobe nicht enthalten

Die Sensitivitäten sind jeweils nach einem Buchstaben des griechischen Alphabets benannt und werden deshalb auch die „Greek Letters“ bzw. kurz die „Greeks“ genannt. Im folgenden wird ein kurzer Überblick über die meist gebrauchten Greeks gegeben.[19]

Das Delta (D) eines Finanzinstrumentes ist definiert, als die Preisänderung des Instruments bzgl. der Veränderung des Underlyings. Delta ist die erste partielle Ableitung der Bewertungsfunktion nach dem Underlying. Die formale Darstellung ist:

Abbildung in dieser Leseprobe nicht enthalten

Dabei ist B die jeweilige Bewertungsfunktion des Instrumentes und S das jeweilige Underlying, für das die Sensitivität berechnet wird.[20]

Das Gamma (G) eines Finanzinstruments gibt die Sensitivität des Deltas aufgrund einer Veränderung des Underlyings an.[21] Damit ist Gamma die zweite partielle Ableitung der Bewertungsfunktion nach dem Underlying. Formal lautet Gamma folgendermaßen:

Abbildung in dieser Leseprobe nicht enthalten.

Das Vega (J) eines Finanzinstruments gibt die Preisänderung, aufgrund der Änderung der Volatilität des Underlyings, an. Es ist damit die erste partielle Ableitung der Bewertungsfunktion nach der Volatilität s. Formal bedeutet dies:

JAbbildung in dieser Leseprobe nicht enthalten.

Das Rho (r) eines Finanzinstruments gibt die Preisänderung, aufgrund einer Änderung des Zinssatzes r, an. Damit ist Rho die erste partielle Ableitung der Bewertungsfunktion nach dem Zinssatz r. Die formale Darstellung lautet:

Abbildung in dieser Leseprobe nicht enthalten.

Als letzter Greek wird Theta (q) eingeführt. Das Theta eines Finanzinstruments gibt die Preisänderung, aufgrund einer Änderung der Restlaufzeit, an. Es ist die erste partielle Ableitung der Bewertungsfunktion nach der Zeit t. Theta stellt sich formal folgendermaßen dar:

Abbildung in dieser Leseprobe nicht enthalten.

Mit diesen definierten Greeks kann man eine näherungsweise Wertänderung eines beliebigen Finanzinstruments, durch eine Taylorentwicklung der Bewertungsfunktion darstellen:[22]

Abbildung in dieser Leseprobe nicht enthalten

Dabei ist dB die Wertänderung, die das Instrument, aufgrund der Änderung der Marktfaktoren erfährt. Die Wertänderung lässt sich auch durch eine Funktion der Greeks darstellen:

Abbildung in dieser Leseprobe nicht enthalten

Damit sind alle linearen Risiken, aus Änderungen des Underlying, des Zinses, der Volatilität und der Zeit berücksichtigt.[23] Da diese lineare Änderung nur für entsprechend kleine Parameteränderungen gilt, wird zusätzlich die quadratische Änderung, als Gamma, berücksichtigt. Mit dieser Beziehung (Glg. 9) kann der Händler Risikomanagement betreiben.[24] Generell gilt, je größer die Sensitivitäten eines Instruments sind, desto riskanter ist es.[25] Aus diesen Greeks lassen sich verschiedene Hedging-Strategien ableiten. Ziel ist es, jeweils ein bestimmtes Risiko bzw. alle Risiken gemeinsam zu neutralisieren. Man spricht dabei von delta-, vega- und gammaneutralen Portfolios oder von Portfolios, die alle diese Risiken gemeinsam ausschalten. Das Theta wird dagegen nicht abgesichert. Da zwar Unsicherheit über die Kurse in der Zukunft, aber keine Unsicherheit über die Zeit selber besteht. Die Zeit ist daher deterministisch[26] und spielt deswegen im Risikomanagement eine untergeordnete Rolle.

2.2. Hedging-Strategien

Um ein Portfolio deltaneutral zu gestalten, wird ein Delta-Hedge durchgeführt. Ziel ist es, das zugrundeliegende Portfolio gegen kleine Änderungen des Underlyings abzusichern. Das Portfolio soll nach dem Hedge ein Delta von Null haben.[27] Um das Portfolio gegen Delta-Risiken absichern zu können, muss zunächst das Portfolio-Delta, gemäß Glg. 3 und der Additivitätseigenschaft der Sensitivitäten[28], berechnet werden. Da ein Zinsinstrument i. d. R. mehrere Stützstellen in der Zinsstrukturkurve anspricht, muss für jede Stützstelle ein eigenes Delta ausgewiesen werden. Es entsteht ein Vektor des Greeks Delta für jedes Portfolio. Jedes Element dieses Vektors, ist dann entsprechend durch eine Position im Underlying, mit in der Summe gegenläufigem Delta abzusichern. Die Absicherung soll an einem Bsp. erläutert werden.

Eine Bank geht in einer europäischen Call-Option auf einen Bond short.[29] Damit hat die Bank eine netto Short-Position in der Option. Es soll die Sensitivität bzgl. marginal fallender Zinsen abgesichert werden.[30] Eigentlich müsste jetzt eine Sensitivität für jede Stützstelle, die der Bond anspricht, ausgewiesen werden. Um die Beispiele übersichtlich zu gestalten, wird die Annahme gemacht, dass lediglich in einer Stützstelle ein Basispunkt-Shift vorgenommen wird. Dies reduziert das multiple Hedging-Problem auf eine Dimension. Wenn also im folgenden von Delta, Gamma oder Vega der Bondoption gesprochen wird, ist damit die Sensitivität bzgl. eines Risikofaktors gemeint. Der Preis der Option beträgt 10 € und das Delta dieser Option ist -0,4 (gem. Glg. 3). Dieses ist negativ, da bei fallenden Zinsen die Kurse steigen. Mit einer Option können 1.000 € Barwert des Bonds gehandelt werden. Damit beträgt das gesamte Deltarisiko der Bank, für diese Option, - 400 € (-0,4 × 1.000 €). Um dieses Risiko deltaneutral abzusichern benötigt die Bank Positionen mit einem Delta von + 400 €. Das Deltarisiko einer Short-Call-Bondoption, bzgl. eines Risikofaktors, wird durch eine Long-Position in einem Zerobond abgesichert.[31] Die Laufzeit des Zerobonds entspricht der angesprochenen Stützstelle. Theoretisch müssten nun, für jede angesprochene Stützstelle Zerobond-Positionen in das Portfolio aufgenommen werden. Diese Positionen ergeben dann die positiven Deltawerte. Wie viel Barwert pro Zerobond gekauft werden muss, ist aus der entsprechenden Bewertungsfunktion des Bonds abzuleiten. Alternativ besteht die Möglichkeit, das Portfolio durch Swaps gegen Delta-Risiken abzusichern. Durch die Swapgeschäfte wird erreicht, dass das Portfolio effektiv nur noch aus variablen Zinspositionen besteht, die gegen Kursschwankungen durch Zinsänderungen unempfindlich sind.[32]

Wenn ein Portfolio durch Hedging deltaneutral ist, gilt diese Absicherung nur für kleine Änderungen des Underlyings und damit i. d. R. nur für kurze Zeit (s. Abb. 1). Steigt jetzt der Kurs des Bonds von S0 auf S1, so würde bei einem Delta-Hedge ein Kursanstieg der Option von C0 auf C1 angenommen. Laut der tatsächlichen Bewertungsfunktion der Option wäre aber C2 der exakte Preis. Die Näherung über Delta führt also zu einem Hedging-Fehler der Strecke C2 nach C1.[33]

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1: Fehler durch Delta-Hedging[34]

Es gibt nun zwei Möglichkeiten, diesen Fehler zu korrigieren. Die erste Möglichkeit besteht darin, bei größeren Abweichungen der Kurswerte des Bonds ein neues Delta zu berechnen.[35] Für dieses neue Delta, sind dann entsprechend wieder zusätzliche Zerobond-Positionen aufzubauen. Dieses Vorgehen, ist bei jeder signifikanten Änderung des Bondkurses zu wiederholen. Es entspricht dem sog. „Rebalancing“.[36] Je öfter dieses Rebalancing vorgenommen wird, desto besser ist das Portfolio gegen Delta-Risiken geschützt. Optimal wäre ein stetiges Rebalancing. Allerdings ist dabei, ein Tradeoff zwischen den Transaktionskosten des Absicherns und den ausgeschalteten Risiken zu beachten. Im allgemeinen ist festzuhalten, dass aufgrund von anfallenden Transaktionskosten des Hedgings, niemals einzelne Positionen eines Portfolios, sondern immer das gesamte Portfolio abgesichert wird. Man spricht hier von einem „Makro Hedge“. Die zweite Möglichkeit den Hedging-Fehler zu korrigieren, ist die zusätzliche Betrachtung des Gammas.

Während ein deltaneutrales Portfolio eine Absicherung gegen marginale Änderungen des Underlyings darstellt, ist ein gammaneutrales Portfolio gegen größere Änderungen des Underlyings gesichert. Dies ist darauf zurückzuführen, dass eine quadratische Näherung die tatsächliche Bewertungsfunktion der Option lokal besser approximiert.[37] Das Gamma macht also nur Sinn, wenn auch quadratische Risiken in einem Portfolio existieren, also insbesondere bei Optionsportfolios. Um einen Gamma-Hedge durchzuführen, ist es notwendig, durch Aufbau zusätzlicher Long-Positionen in Optionen ein Gamma von Null zu erreichen.[38]

Wie viele zusätzliche Optionen zu kaufen sind, lässt sich über folgende Beziehung herleiten:[39]

Abbildung in dieser Leseprobe nicht enthalten.

Dabei ist G der Gamma-Betrag des Portfolios. GT das Gamma einer Option und wT ist die Anzahl, der potentiell zu kaufenden Optionen, um ein G von Null zu erreichen. Der Gamma-Hedge soll wiederum an einem Bsp. erläutert werden.

Das Portfolio der Bank hat ein G von –600 €. Das Delta des Portfolios ist zur Zeit Null. Es wird eine Long-Call-Bondoption zugrundegelegt, mit DT = 0,4. Das GT dieser Option beträgt 1,5 €. Dies bedeutet, gem. Glg. 10 muss die Bank 400 zusätzliche Call-Bondoptionen kaufen. Dann ist das Portfolio gammaneutral. Durch die zusätzliche Long-Position in der Option, ist jetzt aber wieder das Delta von Null verschieden. Es beträgt nach dem Kauf der Optionen 160.000 € (400 × 0,4 × 1.000 €).[40] Dieses Delta-Risiko kann jetzt, genau wie im obigen Beispiel, durch einen Delta-Hedge neutralisiert werden. Jetzt ist aber eine zusätzliche Short-Position in dem angesprochenen Zerobond einzugehen, da ein positives Deltarisiko abzusichern ist.[41] Somit ist das Portfolio gegen lineare und quadratische Risiken des Underlyings abgesichert.

Neben dem Underlying, ist die Volatilität einer Option größter Einflussfaktor auf den Kurs. Daraus folgt, dass auch zumindest das lineare Risiko bzgl. der Volatilität abgesichert werden sollte. Dies entspricht einem Vega-Hedge. Das Vega des Underlyings ist Null.[42] Das bedeutet, damit ein Portfolio veganeutral wird, müssen wieder zusätzliche Long-Positionen in Call-Optionen aufgebaut werden. Die Beziehung ist dabei wie folgt:[43]

Abbildung in dieser Leseprobe nicht enthalten.

Das J ist der Vega-Betrag des Portfolios. Das JT ist das Vega der Option und wT ist definiert wie oben. Der Vega-Hedge funktioniert analog wie der Gamma-Hedge, wenn JT bekannt ist.

Interessanter ist ein Hedge, der gleichzeitig Delta-, Gamma-, und Vegarisiken ausschaltet. Da in diesem Fall gemeinsam zunächst Gamma und Vega neutralisiert werden sollen, ist für den Hedge nicht eine Long-Call-Option, sondern sind zwei Long-Call-Optionen notwendig. Dies wird deutlich, wenn man das Gleichungssystem zur Lösung des Hedges betrachtet. Es hat zwei Gleichungen mit zwei Unbekannten:

Abbildung in dieser Leseprobe nicht enthalten.

G und n wurden bereits definiert. GTi (i=1,2) ist das Gamma der Option i. Das JTi ist das Vega der Option i. Die Anzahl, der potentiell zu kaufenden Optionen ist wi . Nachdem die Anzahl, der zu kaufenden Optionen bestimmt worden ist, kann dann wieder ein Delta-Hedge durchgeführt werden. Das gesamte Vorgehen soll wieder an einem Bsp. mit Bondoptionen gezeigt werden.

Die erste Bondoption wird aus den obigen Beispielen übernommen, d.h. DT1 = 0,4; GT1 = 1,5 und JT1 soll 2 sein. Zusätzlich wird nun eine zweite Bondoption gehandelt. Diese hat folgende Greeks: DT2 = 0,5; GT2 = 1,8 und JT2 = 1,4.[44] Das absolute Gamma (G) des Portfolios ist wieder –600 und das absolute Vega (J) soll –1.000 sein. Delta ist zur Zeit abgesichert und beträgt Null. Als Ergebnis (gem. Glg. 12) ergibt sich w1 = 160 und w2 = 200. Das bedeutet, der Händler muss noch 160 Stück der ersten Call-Option und 200 Stück der zweiten Call-Option kaufen, damit das Portfolio gamma- und veganeutral ist. Anschließend ist wieder das, durch die neuen Optionen entstandene Delta-Risiko zu hedgen.

Diese Beispiele zeigen, dass Sensitivitäten, als Risikokennziffern benutzt werden können. Es besteht die Möglichkeit diese mit Limiten zu versehen. Damit hat ein Händler einen Rahmen, in dem er mit seinem Portfolio handeln kann. Die Schwierigkeit besteht nun darin, diese Limite auf VaR-Größen des Senior Management umzurechnen. Die Sensitivitäten sollen also in eine Beziehung zum VaR gesetzt werden. Im folgenden werden VaR-Berechnungen dargestellt, die auf Sensitivitäten basieren.

B. Methoden zur Risikoquantifizierung

In diesem Kapitel werden Methoden aufgezeigt, mit denen man den VaR eines Finanzinstituts messen kann. Zunächst wird kurz die Historische Simulation (HS) als Vertreter der nichtparametrischen Verfahren dargestellt. Diese Methode der Full-Valuation[45] dient später als Vergleichsmaßstab für die Approximationen. Anschließend wird die Delta-Normal Methode als ein lineares und die Delta-Gamma-Methode als ein quadratisches Risikomaß dargestellt.

1. Historische Simulation

Die HS ist ein nichtparametrisches Verfahren der VaR-Messung. Sie wird häufig in Finanzinstituten eingesetzt und vom BaKred als internes Risikomodell akzeptiert.[46] Die Funktionsweise der HS und insbesondere die VaR-Berechnung durch dieses Verfahren, wird im folgenden dargestellt.

1.1. Allgemeine Vorgehensweise

Bei der HS soll aus den historischen Reihen von Risikofaktoren und der gegebenen Portfoliostruktur, auf potentielle Wertänderungen des Portfolios geschlossen werden. Dazu wird eine relative Häufigkeitsverteilung der Wertänderungen aufgestellt. Diese wird als Wahrscheinlichkeitsverteilung für zukünftige Wertänderungen gesehen.[47] In dieser Arbeit wird der Faktoransatz der HS beschrieben.[48] Der große Vorteil der HS besteht darin, dass kein stochastisches Modell unterstellt werden muss.[49] Sie ist somit ein nichtparametrisches Schätzverfahren, bei dem keine Annahmen über Verteilungen der Risikofaktoren gemacht werden müssen.[50] Die HS benötigt damit auch keine Kovarianzmatrix.[51] Sie arbeitet mit impliziten Volatilitäten der Risikofaktoren. Nicht-Linearitäten können somit exakter einbezogen werden, als bei Approximationen durch parametrische Verfahren. Der große Nachteil der HS ist, dass sie als Full-Valuation-Methode sehr rechenaufwendig ist. Zur Implementierung muss eine ausreichend große Anzahl historischer Beobachtungen der Risikofaktoren vorhanden sein. Ein weiterer Nachteil ist, dass sie nur eine schwache statistische Grundlage besitzt.[52] Im nächsten Abschnitt wird explizit gezeigt, wie mit der HS der VaR berechnet wird.

1.2. Value at Risk der Historischen Simulation

Für jeden Risikofaktor j werden n historische Beobachtungen durchgeführt:

Abbildung in dieser Leseprobe nicht enthalten.

Es wird eine Variable k definiert. Diese gibt den Liquidationszeitraum an, für den der VaR gemessen werden soll.[53]

Es gibt zwei Möglichkeiten, wie man für jeden Risikofaktor Szenarien generiert, um den VaR zu berechnen. Welche Möglichkeit angewendet wird, hängt vom entsprechenden Risikofaktor ab.[54]

Die erste Methode ist die Differenzenmethode. Hier werden aus den historischen Zeitreihen der Risikofaktoren die absoluten Differenzen gebildet. Diese historischen Differenzen gelten als potentielle zukünftige Änderungen des Risikofaktors.[55] Sie werden zur Generierung der Szenarien benutzt. Formal bedeutet dies:

Abbildung in dieser Leseprobe nicht enthalten.

Dj,i gibt die i-te Differenz bzgl. des j-ten Risikofaktors an.[56] So erhält man n-k Differenzen. Durch diese Differenzen werden anschließend für jeden Risikofaktor Szenarien definiert. Dies geschieht folgendermaßen:

Abbildung in dieser Leseprobe nicht enthalten.

Auf den Gegenwartswert des j-Risikofaktors (Rj,0 ) wird jeweils eine Differenz Dj,i addiert. Daraus ergeben sich für diesen Risikofaktor n-k Szenarien. Die Differenzenmethode wird angewendet, wenn empirisch beobachtbar ist, dass die absoluten Differenzen einer gemeinsamen Verteilung entstammen.[57] Dies ist bei Zinssätzen der Fall.

Die zweite Methode ist die Quotientenmethode. Hier sind die historischen Änderungsraten potentielle Werte für zukünftige Änderungsraten und werden zur Generierung der Szenarien benutzt. Dies bedeutet formal:

Abbildung in dieser Leseprobe nicht enthalten.

Qj,i gibt also den i-ten Quotient bzgl. des j-ten Risikofaktors an. Allgemein erhält man auch hier n-k Quotienten.

Jetzt werden durch diese Differenzen n-k Szenarien für jeden Risikofaktor erzeugt:

Abbildung in dieser Leseprobe nicht enthalten.

Auch hier entstehen n-k Szenarien für jeden Risikofaktor. Die Quotientenmethode wird angewendet, wenn empirisch beobachtbar ist, dass die relativen Differenzen einer gemeinsamen Verteilung entstammen. Dies ist bei Währungen und Volatilitäten der Fall.

Anschließend werden die verschiedenen Risikofaktoren, der jeweils selben Szenarien zu einem Vektor (V) zusammengeführt:

Abbildung in dieser Leseprobe nicht enthalten.

Dabei können in diesem Vektor durchaus, sowohl Szenarien aus der Differenzen- und der Quotientenmethode sein. Mit diesen Szenario-Vektoren der Risikofaktoren kann anschließend das Portfolio bewertet werden, denn die Instrumente in einem Portfolio hängen von diesen Vektoren ab:

Abbildung in dieser Leseprobe nicht enthalten.

B steht allgemein für eine Bewertungsfunktion des Portfolios.[58] Jetzt hat man n-k Bewertungen für das Portfolio über einen Liquidationszeitraum k erhalten. Es wird nun die Ordnungsstatistik für die Bewertungen erstellt.[59] In Abhängigkeit vom Konfidenzniveau a wird der m-te Wert der Ordnungsstatistik angesprochen.[60] Die Differenz zwischen dem aktuellen Marktwert des Portfolios und dem m-ten Wert der Ordnungsstatistik, ist der VaR der HS.

In den folgenden Kapiteln wird dieser VaR der HS als Vergleich zur Gütemessung der Approximationsverfahren herangezogen.

2. Kovarianzmethode

Die Kovarianzmethode (KM) zur Berechnung des VaR ist ein parametrisches Verfahren. Sie ist die bekannteste Methode der VaR-Methodologie.[61] Sie bedarf einer Annahme über die P&L-Verteilung.[62] Die KM benötigt eine Kovarianzmatrix.[63] Diese wird benötigt, da die einem Finanzinstrument zugrundeliegenden Risikofaktoren nicht alle unkorrelierte Random Walks sind.[64] Damit hängt die Volatilität der P&L-Verteilung von den Varianzen und Kovarianzen der Risikofaktoren des Portfolios, sowie den Sensitivitäten der einzelnen Instrumente ab.[65] Mit der Kovarianzmatrix und den Sensitivitäten kann der VaR eines Portfolios in linearer bzw. quadratischer Näherung berechnet werden. Ein großer Vorteil dieser Methode besteht darin, dass die Daten, Volatilitäten und Sensitivitäten, in einem Finanzinstitut bereits größtenteils vorhanden sind und die Methode deshalb relativ leicht implementiert werden kann.[66] Ein großer Nachteil besteht darin, dass durch die zugrundeliegenden Annahmen der Methode ein u. U. großes Modellrisiko entsteht.[67]

2.1. Delta-Normal Methode

Die Delta-Normal Methode ist ein lineares Risikomaß. Sie betrachtet ausschließlich die linearen Risiken eines Instruments.[68] Es werden nur die Sensitivitäten erster Ordnung und nicht etwa der Greek Gamma zur VaR-Berechnung betrachtet. Diese Methode wird zur VaR-Berechnung benutzt, wenn die Liquidationsdauer der Instrumente sehr klein ist.[69] Sie kommt damit zur Anwendung, Intraday für Händlerportfolios oder als „Quick and Dirty“-Methode zur VaR-Berechnung, falls die Instrumente größtenteils lineare Bewertungsfunktionen haben.[70]

2.1.1. Annahmen und Definitionen

Die Delta-Normal Methode ist ein Vertreter der parametrischen Verfahren. Damit benötigt sie eine Annahme über die P&L-Verteilung, um den VaR zu berechnen.

Als erstes wird die Annahme getroffen, die absoluten bzw. relativen Änderungen der Risikofaktoren (DS) sind multivariat normalverteilt.

Annahme 1: Abbildung in dieser Leseprobe nicht enthalten

Dabei ist m der Vektor der Mittelwerte der Veränderungen der Risikofaktoren. Dieser wird üblicherweise bei „kurzer“ Liquidationsdauer als Nullvektor interpretiert. S ist die Kovarianzmatrix, die noch zu definieren ist. Das Dt stellt die Liquidationsdauer dar.[71]

Die zweite Annahme betrifft die P&L-Verteilung, bzw. die ihr zugrundeliegenden Portfolio-Renditen. Diese Portfolio-Renditen sind in dieser Methode normalverteilt und somit ist auch die P&L-Verteilung der Delta-Normal Methode normalverteilt.

Annahme 2: Abbildung in dieser Leseprobe nicht enthalten

Hier ist DP eine eindimensionale normalverteilte Zufallsvariable, mP ist die erwartete Rendite des Portfolios und sP dessen Standardabweichung.

Annahme 3: Wenn die Annahme eins gilt, dann gilt Annahme zwei nur, wenn die Bewertungsfunktionen der Instrumente linear in den Veränderungen der jeweiligen Underlyings sind.[72] Und wenn diese Bewertungsfunktionen linear in den Veränderungen der Underlyings sind, können diese durch eine Taylorentwicklung erster Ordnung approximiert werden.

Damit gilt für die Delta-Normal Methode folgende Beziehung:[73]

Abbildung in dieser Leseprobe nicht enthalten.

Dabei ist dT der transponierte m-dimesionale Vektor der Portfolio-Sensitivitäten erster Ordnung, mit m als Anzahl der zugrundeliegenden Risikofaktoren. DS ist der m-dimensionale Vektor der Änderungen der Risikofaktoren.

Jetzt sind alle grundlegenden Annahmen der Delta-Normal Methode getroffen. Im folgenden werden noch zwei Definitionen festgelegt.

Als erstes wird die bereits erwähnte Kovarianzmatrix definiert. Formal bedeutet dies:

Abbildung in dieser Leseprobe nicht enthalten.

Diese Kovarianzmatrix beinhaltet alle Varianzen und Kovarianzen der Risikofaktoren. Dabei ist si die historische Volatilität des i-ten Risikofaktors und rij, die Korrelation zwischen dem i-ten und dem j-ten Risikofaktor.[74]

Die zweite Definition betrifft die Notation der Bewertungsfunktionen der Instrumente. Diese werden im folgenden, insb. für Zinsinstrumente, als Funktion von Diskontfaktoren dargestellt. Dabei ist ein Diskontfaktor (DF):

Abbildung in dieser Leseprobe nicht enthalten.

In dieser Notation ist z(t,T) der Nullkuponzins für die Periode von t bis T. Dabei ist zi im folgenden die Kurzschreibweise für Abbildung in dieser Leseprobe nicht enthalten. Damit kann die Delta-Normal Methode beschrieben werden, was nun noch fehlt ist die Definition, welche Risikofaktoren in den Vektor DS eingehen.

2.1.2. Risikofaktoren

In Kapitel A wurde ein Risikofaktor als ein Marktfaktor definiert, der den Kurs eines Finanzinstruments entscheidend beeinflusst. Es wurde auch erwähnt, dass in dieser Arbeit das Marktpreisrisiko von Zinsen, Währungen und Volatilitäten beschrieben wird. In diesem Abschnitt sollen diese Risikofaktoren explizit erläutert werden.

Zuerst werden die Zinsen, als Risikofaktoren, betrachtet. Zinsinstrumente reagieren im allgemeinen mit ihrem Kurs auf Änderungen des zugrundeliegenden Zinses. Aber unterschiedliche Zinsinstrumente reagieren auch auf unterschiedliche Zinssätze. So reagiert ein Treasury Bond auf Änderungen in der Government-Zinskurve, aber ein Corporate Bond auf Änderungen in der Swap-Zinskurve. Dabei ist nicht die jeweilige Kurve, sondern jede Stützstelle der entsprechenden Zinsstrukturkurve als einzelner Risikofaktor zu sehen.[75] Es ist also wichtig, den richtigen Risikofaktor für ein Instrument Zugrundezulegen und nicht allgemein von Zinsrisiko zu sprechen. Der Unterschied zwischen Government- und Swapkurve ist in Abb. 2 dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2: Zinssätze der USD-Government- und Swapkurve per 02.08.2001[76]

Als zweites werden die Währungen, als Risikofaktoren, betrachtet. Der VaR eines Portfolios wird in einer bestimmten Währung ausgedrückt, im Euroraum üblicherweise in Euro. Deshalb ist es notwendig, Instrumente, die auf fremde Währung lauten, z. B. Bonds, Währungsswaps, in die heimische Währung umzurechnen. Dadurch entsteht ein Kursrisiko durch Wechselkursschwankungen. Ein Wechselkurs ist somit ein Risikofaktor.

Als drittes werden die impliziten Volatilitäten von Optionen, als Risikofaktoren, betrachtet. Die Volatilität ist der wichtigste Parameter von Bewertungsmodellen für Optionen, wie das Black-Scholes bzw. das Black-Modell. Dabei ist diese der einzigste Parameter, der nicht direkt beobachtbar ist.[77] Deshalb muss die Volatilität, als Risikofaktor, aus am Markt existierenden Instrumenten extrahiert werden. Dabei ist darauf zu achten, dass es sich um liquide Optionen handelt.[78] Dies ist deshalb der Fall, da bei großer Liquidität im Markt ein geringer Bid-Ask Spread existiert und der genaue Optionspreis so festgestellt werden kann. Das bedeutet, wenn alle den Preis einer Option beeinflussenden Risikofaktoren, bis auf die Volatilität bekannt sind, kann über ein Preismodell, die Volatilität einer Option berechnet werden. Die Volatilität kann aber nicht unmittelbar aus der Black-Scholes bzw. Black-Formel ermittelt werden, sondern muss über ein iteratives Verfahren berechnet werden.[79] Sie ist, in gegen der Annahme des Black-Scholes Modell, nicht konstant. Implizite Volatilitäten von Optionen werden als Funktion von Optionslaufzeit und relativem Strike-Preis ausgedrückt. Dadurch entstehen Volatilitätsoberflächen. Bei Zinsinstrumenten kommt noch eine weitere unabhängige Variable hinzu, die Restlaufzeit des Underlyings. Aus den ermittelten Volatilitätsoberflächen der liquiden Optionen, lassen sich anschließend Volatilitäten zur Bewertung von OTC-Instrumenten ableiten.

Damit sind die Elemente des Vektors der Risikofaktoränderungen DS beschrieben worden. Nun kann der Deltavektor genauer betrachtet werden.

2.1.3. Deltavektor

Der Begriff Deltavektor ist zunächst zu erläutern. Es handelt sich hierbei nicht, um eine Aneinanderreihung mehrerer Greeks Delta (gem. Glg. 3), von verschiedenen Finanzinstrumenten in einem Vektor. Der Deltavektor (d) ist nämlich der Vektor der ersten partiellen Ableitungen der Bewertungsfunktion, hinsichtlich aller zugrundeliegenden Risikofaktoren. Dies bedeutet formal:

Abbildung in dieser Leseprobe nicht enthalten.

Dieser Vektor d, ist der Gradient der Bewertungsfunktion B. Ri ist der i-te Risikofaktor von B (i=1,...,m). Der Deltavektor ist damit ein m–dimensionaler Vektor.[80] Reagiert z. B. ein Corporate Bond auf 20 Stützstellen der Swap-Kurve, so ist der Deltavektor ein 20–dimensionaler Vektor. Während also der Greek Delta im Black-Scholes Sinne eine eindimensionale Größe ist, ist das Delta im Sinne der Delta-Normal Methode ein m-dimensionaler Vektor. Dieser beinhaltet neben dem Greek Delta, auch die anderen Greeks der ersten Ordnung, nämlich Vega und Rho. Damit deckt dieser Vektor alle, im vorherigen Abschnitt angesprochenen Risikofaktoren erster Ordnung ab. Diese finden so, über den Vektor, Einfluss in die Delta-Normal Methode. Im folgenden soll zunächst an einem Swap als linearem Instrument und dann an einem Cap als nichtlinearem Instrument, der Deltavektor erläutert werden.

Als erstes wird ein Plain-Vanilla-Swap betrachtet. Ein Swap ist sensitiv bzgl. Zinsänderungen in der Swap-Kurve. Um diesen zu bewerten, müssen lediglich seine variablen und seine fixen Zinszahlungen berechnet werden. Diese beiden Zahlungsströme lassen sich formal folgendermaßen darstellen:[81]

Abbildung in dieser Leseprobe nicht enthalten,

Abbildung in dieser Leseprobe nicht enthalten.

Das ti gibt die Länge der Zinsperiode (ti+1 – ti) an. Abbildung in dieser Leseprobe nicht enthalten ist der zum Bewertungszeitpunkt bereits gefixte Kupon des Floaters für die Dauer, bis zur nächsten Zinsanpassung in t1 und C ist der Kupon des festverzinslichen Bonds. N ist der Nominalbetrag. Es wird ein Payer-Swap betrachtet.[82] Bei einem Payer-Swap zahlt man einen festen und erhält einen variablen Zins, damit kann dieser folgendermaßen dargestellt werden:

Abbildung in dieser Leseprobe nicht enthalten.

Die partiellen Ableitungen nach Zinsänderungen der einzelnen Stützstellen lauten:

Abbildung in dieser Leseprobe nicht enthalten.

Der Payer-Swap ist also sensitiv auf alle angesprochenen Stützstellen. Besonders sensitiv ist er auf der Stützstelle bei t2 und tn, da dort jeweils die Nominalbeträge ihren Einfluss ausüben. Damit hat der Payer-Swap einen n-dimensionalen Deltavektor:

Abbildung in dieser Leseprobe nicht enthalten.

Eine Zinsstrukturkurve wird diskret durch ihre Stützstellen determiniert. Die große Mehrheit der am Markt existierenden Zinsinstrumente hat aber Zins- bzw. Rückzahlungstermine, die von heute an gesehen, nicht genau auf eine der Stützstellen lauten. In diesem Fall ist eine lineare Interpolation der Nullkuponzinssätze durchzuführen, um die Cash-Flows des Instruments einer Stützstelle zuordnen zu können. Dies entspricht dem Cash-Flow-Mapping. Das Prinzip wird in Abb. 3 verdeutlicht.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 3: Das Prinzip des Cash-Flow-Mapping[83]

Als zweites Instrument wird ein Cap betrachtet.[84] Ein Cap besteht aus mehreren Caplets. Das Auszahlungsprofil eines Caplets lautet:

Abbildung in dieser Leseprobe nicht enthalten.

Dabei ist N der Nominalbetrag, ti die Dauer der Absicherungsperiode, R der Referenzzinssatz und X der Basiszins bzw. der Strike-Preis.

Jedes dieser Caplets ist sensitiv auf Veränderungen der Forward-Rate (fi), die seine Absicherungsperiode eingrenzt. Diese Forward-Zinssätze werden dabei aus der Swap-Kurve abgeleitet. Eine Forward-Rate für den Zeitraum von ti bis ti+1 lässt sich, als Funktion von Diskontfaktoren, darstellen:

Abbildung in dieser Leseprobe nicht enthalten.

Damit kann man die Bewertungsfunktion eines Caplet ebenfalls als Funktion von Diskontfaktoren bzw. Nullkuponzinssätzen darstellen:[85]

Abbildung in dieser Leseprobe nicht enthalten.

Hier sind jetzt durch Anwendung der Kettenregel, die partiellen Ableitungen nach zj zu bilden:

Abbildung in dieser Leseprobe nicht enthalten.

Der erste Teil der Glg. 36 (die partielle Ableitung nach fi) ist der Greek Delta (gem. Glg. 3). Dieser kann formal aus der Black-Scholes-Formel abgeleitet werden.[86] Der zweite Teil der Gleichung ist die partielle Ableitung der Forward-Rate nach zj. Damit ist ein einzelnes Caplet sensitiv auf die beiden Stützstellen, die durch ihre Forward-Rate die Absicherungsperiode determinieren. Der Deltavektor eines Caplets ist somit zweidimensional:

[...]


[1] Als theoretisches Beispiel dient z. B. das CAPM, wenn nur das vom Markt akzeptierte Risiko „vergütet“ wird, vgl. Perridon & Steiner, 1997, S. 258ff..

[2] D. h., dass es bei zwei Alternativen mit gleichem durchschnittlichen (erwarteten) Ertrag, die Alternative mit dem geringeren Risiko vorzieht, vgl. Zimmermann, 1996, S. 8.

[3] Vgl. Crouhy, 2000, S. 177.

[4] Vgl. BaKred, Grundsatz I (neu), 2000, § 2.

[5] Die Eigenmittel sind im Grundsatz I definiert, s. Anhang A-1, S. 56.

[6] Vgl. Jorion, 1996, S. 3.

[7] Der Begriff Volatilität (Standardabweichung) berücksichtigt nämlich auch Ausreißer nach oben.

[8] Vgl. Jorion, 1996, S. 14ff..

[9] Vgl. Crouhy, 2000, S. 177.

[10] Vgl. Jorion, 1996, S. 19.

[11] Vgl. Hull, 2000, S. 342.

[12] Für die Berechnung des VaR bei Banken werden in der Regel 1 bzw. 10 Tage verwendet.

[13] Za ist 1,65 für ein Konfidenzniveau von a=95% und 2,33 für ein Konfidenzniveau von a=99%.

[14] Vgl. J.P.Morgan/Reuters, 1996, S. 149ff..

[15] Vgl. Hull, 2000, S. 342.

[16] Vgl. Hull, 2000, S. 342.

[17] Vgl. Eller & Deutsch, 1998, S. 103.

[18] Vgl. Eller & Deutsch, 1998, S. 103.

[19] Für eine ausführliche Darstellung der Greeks, vgl. Hull, 2000, S. 307ff..

[20] Im weiteren Verlauf wird der Greek „Rho“ eingeführt, als Sensitivität bzgl. des Zinssatzes. Diese Definition gilt in Anlehnung an Hull für Optionen. Für Zinsinstrumente gilt der Zinssatz, als das entscheidende Underlying. Deshalb wird bei diesen eine Veränderung des Zinssatzes als Delta ausgewiesen.

[21] Vgl. Eller & Deutsch, 1998, S. 104.

[22] Vgl. Eller & Deutsch, 1998, S. 105.

[23] Die Greeks Delta und Vega gelten dabei als wichtigste Einflussgrößen.

[24] Vgl. Hull, 2000, S. 307.

[25] Vgl. Eller & Deutsch, 1998, S. 104.

[26] Vgl. Hull, 2000, S. 321.

[27] Es handelt sich hierbei um eine approximative Näherung gegen Null. Ein Delta von exakt Null wird i. d. R. nicht erreicht.

[28] Die Sensitivitäten sind additiv bzgl. des gleichen Underlyings, für das Portfolio-Delta gilt: . Dabei sind wi Gewichte (Swi=1) und Di die Deltas der einzelnen Instrumente.

[29] Die Bewertung dieser Bondoption erfolgt gemäß der Black-Formel, vgl. Hull, 2000, S. 531. F0 wird dabei als Funktion der Nullkuponzinssätze dargestellt.

[30] Dieses Szenario der marginal fallenden Zinsen, gilt im weiteren Verlauf für alle dargestellten Beispiele.

[31] Dies ergibt sich daraus, dass eine Long-Position in einem Zerobond durch fallende Zinsen und dadurch steigende Kurse, an Wert gewinnt. Das entspricht positiven Deltas.

[32] Die Unempfindlichkeit gegen Zinsänderungen gilt eigentlich nur genau für den Zinsanpassungstermin. Zwischen diesen Terminen besteht weiterhin ein Kursrisiko durch Zinsänderungen.

[33] Vgl. Hull, 2000, S. 322.

[34] In leichter Abänderung, vgl. Hull, 2000, S. 322.

[35] Graphisch bedeutet dies, im Punkt (S1,C2) eine neue Tangente an die Bewertungsfunktion der Bondoption zu legen. Die Steigung dieser Tangente ist das neue Delta.

[36] Vgl. Hull, 2000, S. 311.

[37] Statt von Delta und Gamma, kann man für reine Zinsinstrumente auch von Duration und Convexity sprechen.

[38] Es wird hier die Annahme gemacht, die Bank ist in einer Netto-Short-Position in Optionen. Dies entspricht einem negativen Gamma, vgl. Jorion, 1996, S. 191.

[39] Vgl. Hull, 2000, S. 324.

[40] Hier das Delta der Option positiv (+0,4), weil es sich um eine Long-Call und nicht um eine Short-Call Position handelt.

[41] Dies ergibt sich daraus, dass eine Short-Position in einem Zerobond, durch fallende Zinsen und dadurch steigende Kurse an Wert verliert. Das entspricht negativen Deltas. Hier wird die Annahme gemacht, der Händler hat die entsprechenden Zerobond Positionen ausreichend in seinem Portfolio. Er verkauft also nur Positionen und geht nicht eine Netto-Short Position in den Zerobonds ein, was einer Neuemission entsprechen würde.

[42] Vgl. Hull, 2000, S. 327.

[43] Vgl. Hull, 2000, S. 327.

[44] Beide Optionen haben wieder ein positives Delta, da es sich um Long-Call-Optionen handelt. Diese sind notwendig, um die bestehende Netto-Short Position der Bank in den Optionen zu hedgen.

[45] „Full-Valuation“ bedeutet, die Instrumente werden täglich mit allen Risikofaktoren „voll“ bewertet. Es werden also keine Approximationen vorgenommen.

[46] Vgl. BaKred, Grundsatz I (neu), 2000, § 32.

[47] Vgl. Huschens, 2000, S. 4.

[48] Die Alternative ist der Portfolioansatz, vgl. Huschens, 2000, S. 6.

[49] Vgl. Huschens, 2000, S. 1.

[50] Vgl. Broadie & Glasserman, 1999, S. 204.

[51] Vgl. Eller & Deutsch, 1998, S. 235.

[52] Bei z. B. 254 Differenzen wird der 97,5%-VaR nur durch die sechs kleinsten Werte gestützt, bei einer Monte-Carlo-Simulation mit z. B. 10.000 Szenarien, wird dieser VaR durch 250 Werte gestützt, vgl. Eller & Deutsch, 1998, S. 235.

[53] Es gilt k=1 für den Eintages-VaR und k=10 für den Zehntages-VaR.

[54] Theoretisch ist diese Frage nicht zu beantworten, sondern hängt von dem empirisch beobachtbaren Verhalten des Risikofaktors ab, vgl. Huschens, 2000, S. 12.

[55] Vgl. Huschens, 2000, S. 9.

[56] Wenn z. B. für einen Risikofaktor 100 historische Beobachtungen vorliegen und man den Eintages-VaR (k = 1) berechnen will, bildet man zunächst die Differenz von Beobachtung -99 und Beobachtung -98, dann von Beobachtung -98 und Beobachtung -97 und so weiter. Man erhält schließlich 99 Differenzen (Dj,i).

[57] Vgl. Huschens, 2000, S. 12. Statistisch werden oft Gauss’sche Zinsmodelle unterstellt, dort werden die zufälligen Änderungen der Zinsen durch eine Normalverteilung approximiert.

[58] Diese Bewertungsfunktion des Portfolios, ist als Summe der Bewertungsfunktionen der einzelnen Instrumente zu sehen.

[59] B(1) < B(2) < ... < B(n). Für eine ausführliche Darstellung von Ordnungsstatistiken, vgl. Büning & Trenkler, 1980, S. 55ff..

[60] Bei 255 historischen Beobachtungen und a=97,5% ist m=6.

[61] Vgl. Venkat & Malhotra, 1998, S. 85.

[62] P&L steht für „Profit and Loss“.

[63] Vgl. Eller & Deutsch, 1998, S. 226.

[64] Vgl. Eller & Deutsch, 1998, S. 208.

[65] Vgl. Alexander, 1999, S. 125.

[66] Vgl. Rouvinez, 1997, S. 5.

[67] Vgl. Venkat & Malhotra, 1998, S. 85.

[68] Vgl. Wilson, 1999, S. 80.

[69] Vgl. Wilmott, 1999, S. 551.

[70] Vgl. Wilson, 1999, S. 84.

[71] Für Dt wird in der Praxis zur VaR Berechnung üblicherweise 1 bzw. 10 angenommen.

[72] Vgl. Wilson, 1999, S. 83.

[73] Vgl. Rouvinez, 1997. S. 5.

[74] Für die genaue Vorgehensweise zur Schätzung der historischen Volatilität, vgl. Taleb, 1997, S. 92ff..

[75] Dies führt bei 20 Stützstellen pro Kurve zu 40 Risikofaktoren für eine Währung. Betrachtet man, wie in dieser Arbeit, fünf Währungen, sind es schon 200 Risikofaktoren, nur durch Zinsen. Diese entsprechen natürlich 200 Sensitivitäten, die in den Deltavektor eingehen.

[76] Die Swapkurve entspricht den Zinssätzen des Interbankenhandels für die jeweilige Laufzeit, in einer Währung. Es existiert i. d. R. ein positiver Spread bzgl. der Government-Kurve, der je nach Stützstelle und Bonität variiert.

[77] Vgl. Hull, 2000, S. 255.

[78] Vgl. Eller & Deutsch, 1998, S. 272.

[79] Vgl. Hull, 2000, S. 255.

[80] Vgl. Wilson, 1999, S. 83.

[81] Für die Herleitung der Zahlungsströme, s. Anhang A-2, S. 61.

[82] Für einen Receiver-Swap, s. Anhang A-2, S. 61ff..

[83] Vgl. J.P.Morgan/Reuters, 1996, S.10.

[84] Für eine ausführliche Darstellung weiterer Finanzinstrumente, s. Anhang A-2, S. 57ff..

[85] Dabei ist . Im folgenden wird B für geschrieben.

[86] Für eine ausformulierte Darstellung des Deltavektors eines Caplet, s. Anhang A-2, S. 64ff..

Details

Seiten
Erscheinungsform
Originalausgabe
Erscheinungsjahr
2001
ISBN (eBook)
9783832449865
ISBN (Paperback)
9783838649863
DOI
10.3239/9783832449865
Dateigröße
836 KB
Sprache
Deutsch
Institution / Hochschule
Universität Siegen – Wirtschaftswissenschaften
Erscheinungsdatum
2002 (Februar)
Note
1,3
Schlagworte
kovarianzmethode risikomanagement hedging
Produktsicherheit
Diplom.de
Zurück

Titel: Approximation der Historischen Simulation durch analytische Value at Risk
book preview page numper 1
book preview page numper 2
book preview page numper 3
book preview page numper 4
book preview page numper 5
book preview page numper 6
book preview page numper 7
book preview page numper 8
book preview page numper 9
book preview page numper 10
book preview page numper 11
book preview page numper 12
book preview page numper 13
book preview page numper 14
book preview page numper 15
book preview page numper 16
book preview page numper 17
book preview page numper 18
book preview page numper 19
book preview page numper 20
book preview page numper 21
100 Seiten
Cookie-Einstellungen