Lade Inhalt...

Chaostheoretische Betrachtungen zur Prognostizierbarkeit von Aktienkursen

©2002 Diplomarbeit 120 Seiten

Zusammenfassung

Inhaltsangabe:Einleitung:
In den letzten Jahrzehnten wurden für die Erklärung und Prognose von Wertpapierkursen standardmäßig klassische Bewertungsmethoden herangezogen. Es hat sich aber gezeigt, dass diese nur eine unzureichende Beschreibung der am Kapitalmarkt vorherrschenden Preismechanismen liefern können. Es ist empirisch erwiesen, dass Finanzmarktdaten Nichtlinearitäten aufweisen und sich so einer Erklärung durch herkömmliche Methoden verschließen müssen. Weil die klassische Modellierung der Preisbildungsprozesse nicht in der Lage ist, wesentliche Verhaltenscharakteristika realer Kursverläufe abzubilden, wird versucht, die Kursverläufe als nichtlinearen deterministischen dynamischen Prozess aufzufassen und in Abhängigkeit von verschiedenen Parametern nachzubilden. An dieser Stelle setzt die Chaostheorie an und offenbart mit ihrem nichtlinearen deterministischen Ansatz ein erweitertes Betätigungsfeld. Da die drei Eigenschaften chaotischer Systeme: Sensitivität, Mixing und Periodizität adäquat zu den empirisch nachgewiesenen Eigenschaften am deutschen Aktienmarkt sind, wird sie dem im Wirtschaftsleben vorhandenen realen Begebenheiten gerechter als die klassischen Gleichgewichtsmodelle.
Die vorliegende Diplomarbeit beschäftigt sich verständlich und fundiert mit der Frage, ob durch die Anwendung chaotischer Verfahren gute Prognoseergebnisse für Aktienkursverläufe gewonnen werden können. Inhaltlich stellt sie die geschichtliche Entwicklung der Chaostheorie von ihren Anfängen bis zur Gegenwart dar und veranschaulicht den Einfluss der chaostheoretischen Erkenntnisse auf das Kausalitätsprinzip. Es wird untersucht, ob Kapitalmärkte ineffizient sind und somit eine Voraussetzung darstellen, Wertpapierkurse prognostizieren zu können. Es werden klassische und neuere Bewertungsmethoden vorgestellt um einen späteren Vergleich zu den chaotischen Verfahren zu ermöglichen. Im praktischen Teil der Diplomarbeit werden sechs ausgewählte CDAX-Indizes auf vorhandene Strukturen untersucht. Anschließend erfolgt eine Kursprognose mit unterschiedlichen Methoden. Die Ergebnisse werden miteinander verglichen und ausgewertet.

Inhaltsverzeichnis:Inhaltsverzeichnis:
AbbildungsverzeichnisIII
TabellenverzeichnisVI
SymbolverzeichnisVII
AbkürzungsverzeichnisVIII
LiteraturverzeichnisIX
1.Einleitung1
2.Zur Entstehung der Chaostheorie3
2.1Paradigmenwechsel in den Naturwissenschaften4
2.2Das Kausalitätsprinzip6
3.Kapitalmarkteffizienz und Erklärungsansätze zur […]

Leseprobe

Inhaltsverzeichnis


Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Symbolverzeichnis

Abkürzungsverzeichnis

Literaturverzeichnis

Ehrenwörtliche Erklärung

1. Einleitung

2. Zur Entstehung der Chaostheorie
2.1 Paradigmenwechsel in den Naturwissenschaften.
2.2 Das Kausalitätsprinzip.

3. Kapitalmarkteffizienz und Erklärungsansätze zur Kursbildung
3.1 Informationseffizienz des Kapitalmarktes...
3.2 Klassische Bewertungsmethoden
3.2.1 Die Random-Walk-Hypothese.
3.2.2 Die Fundamentalanalyse..
3.2.3 Die Technische Aktienanalyse.
3.3 Neuere Bewertungsansätze..

4. Chaostheorie in Wirtschaft und Börse
4.1 Die fraktale Geometrie
4.2 Grundbegriffe der Systemlehre...
4.3 Qualitative Dynamik
4.3.1 Die Bewegung der Attraktoren im Phasenraum..
4.3.2 Der Attraktor
4.3.3 Iterierte Funktionssysteme...
4.3.4 Die logistische Gleichung nach Verhulst

5. Empirischer Teil
5.1 Datenmaterial
5.2 Testen auf vorhandene Strukturen.
5.2.1 Testen auf Normalverteilung
5.2.2 Testen auf lineare Abhängigkeit (white noise).
5.2.3 Testen auf nichtlineare Abhängigkeit (strict white noise)
5.2.4 Testen auf chaotisches Verhalten.
5.3 Prognose von CDAX-Kursen mit mehreren Verfahren
5.4 Fehlerbetrachtung

6. Zusammenfassung

Abbildungsverzeichnis

Abb. 1 Schwache Kausalität

Abb. 2 Starke Kausalität

Abb. 3 Verletzung starker Kausalität

Abb. 4 Unterteilung der Fundamentalanalyse bei Aktien

Abb. 5 Kopf-Schulter-Formation

Abb. 6 Zweischichten-Perceptron mit Vorwärts-Informationsfluss

Abb. 7 Die ersten vier Konstruktionsschritte der Koch-Kurve

Abb. 8 Überdeckung der Koch-Kurve durch Kreise

Abb. 9 Sierpinski-Dreieck

Abb. 10 Julia-Kurven

Abb. 11 Mandelbrot-Menge

Abb. 12 Die gewöhnliche und fraktale Selbstähnlichkeit

Abb. 13 Statistische Selbstähnlichkeit

Abb. 14 Allgemeine Systemdarstellung

Abb. 15 Zustandsraum

Abb. 16 Normaldarstellung der chaotischen Iteration

Abb. 17 Werte im Phasenbild

Abb. 18 Arbeitslosenquote in den USA von 1974 – 1993

Abb. 19 Phasendiagramm zur Arbeitslosenquote in den USA von 1974 – 1993

Abb. 20 Phasendiagramm eines reibungsfreien Pendels

Abb. 21 Phasendiagramm eines Pendels mit Reibung

Abb. 22 Grenzzyklus eines angeregten reibungsfreien Pendels

Abb. 23 Zusammenschluss zweier Grenzzyklen zu einem Torus

Abb. 24 Der Lorenz-Attraktor für r = 28, s = 10 und b = 8/3

Abb. 25 Die Iterationsmaschine

Abb. 26 Einwärtstreppe

Abb. 27 Auswärtstreppe

Abb. 28 Einwärtsspirale

Abb. 29 Auswärtsspirale

Abb. 30 Iteration von x0

Abb. 31 Entwicklung des Fehlerintervalls

Abb. 32 Phasendiagramm von f(x) =2,8 x (1- x)

Abb. 33 Phasendiagramm von f(x) =3,2 x (1- x)

Abb. 34 ¥ - periodisches Verhalten der logistischen Funktion bei a = 4

Abb. 35 Verzweigungskaskade der logistischen Abbildung

Abb. 36 Beispiele für Verteilungen mit positivem und negativem dritten Moment

Abb. 37 Leptokurtische Verteilung und Normalverteilung

Abb. 38 Korrelationswerte des CDAX – Automobile bei verschiedenen lags

Abb. 39 Korrelationswerte des CDAX – Banks bei verschiedenen lags

Abb. 40 Korrelationswerte des CDAX – Insurance bei verschiedenen lags

Abb. 41 Korrelationswerte des CDAX – Pharma & Healthcare bei verschiedenen lags

Abb. 42 Korrelationswerte des CDAX – Telecommunication bei verschiedenen lags

Abb. 43 Korrelationswerte des CDAX – Transportation & Logistics bei verschiedenen lags

Abb. 44 Algorithmus von Wolf zur Bestimmung des größten Lyapunov-Exponenten

Abb. 45 CDAX-Automobile Prognose mittels MKQ

Abb. 46 CDAX-Automobile Prognose mittels Exponentieller Glättung

Abb. 47 CDAX-Automobile Prognose mittels Chaos-Modell

Abb. 48 CDAX-Banks Prognose mittels MKQ

Abb. 49 CDAX-Banks Prognose mittels Exponentieller Glättung

Abb. 50 CDAX-Banks Prognose mittels Chaos-Modell

Abb. 51 CDAX- Insurance Prognose mittels MKQ

Abb. 52 CDAX- Insurance Prognose mittels Exponentieller Glättung

Abb. 53 CDAX- Insurance Prognose mittels Chaos-Modell

Abb. 54 CDAX- Pharma & Healthcare Prognose mittels MKQ

Abb. 55 CDAX- Pharma & Healthcare Prognose mittels Exponentieller Glättung

Abb. 56 CDAX- Pharma & Healthcare Prognose mittels Chaos-Modell

Abb. 57 CDAX- Telecommunication Prognose mittels MKQ

Abb. 58 CDAX- Telecommunication Prognose mittels Exponentieller Glättung

Abb. 59 CDAX- Telecommunication Prognose mittels Chaos-Modell

Abb. 60 CDAX- Transportation & Logistics Prognose mittels MKQ

Abb. 61 CDAX- Transportation & Logistics Prognose mittels Exponentieller Glättung

Abb. 62 CDAX- Transportation & Logistics Prognose mittels Chaos-Modell

Abb. 63 Zeitpfad der logistischen Gleichung für x0 = 0.3 , Po = 100 und a =

Tabellenverzeichnis

Tab. 1 Darstellung der zu analysierenden CDAX-Indizes

Tab. 2 Werte der Schiefe und Kurtosis für die sechs betrachteten CDAX-Indizes

Tab. 3 Signifikante Autokorrelationswerte für die sechs CDAX-Indizes

Tab. 4 Werte für Hurst-Exponent und Hausdorff-Dimension der sechs CDAX-Indizes

Tab. 5 Lyapunov-Exponenten für die sechs CDAX-Indizes

Tab. 6 Parameterwerte ao und a1 für die Methode der kleinsten Quadrate

Tab. 7 Parameterwerte a0 und a1 für die Exponentielle Glättung

Tab. 8 Startwerte für das Chaos-Modell von Frank und Stengos

Symbolverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

Im 20. Jahrhundert wurden die drei tragenden Stützpfeiler der klassischen Physik: die Abso-lutheit von Raum und Zeit, die Begreifbarkeit aller physikalisch-naturwissenschaftlichen Vorgänge und die exakte Berechenbarkeit der Zukunft wie der Vergangenheit, von revolutionären wissenschaftlichen Theorien erschüttert. Albert Einstein führte mit seiner 1905 veröffentlichten speziellen Relativitätstheorie[1] die Relativität von Raum und Zeit ein. Als Werner Heisenberg seine Unschärferelation und Niels Bohr die Dualität des Lichtes formu-lierte, wurde ersichtlich, dass sich die Vorgänge im Mikrokosmos nicht vorhersagen lassen.[2] Die Quantenmechanik besagt dabei, dass sich nur die Wahrscheinlichkeiten mit denen bestimmte Ereignisse eintreten, angeben lassen. Obwohl diese beiden Theorien außerordentliche Erfolge bei der Erklärung unterschiedlicher Phänomene[3] vorweisen können, beinhalten sie einen linearen Ansatz und vermögen es so nicht, komplexe nichtlineare Dyna-miken zu beschreiben.[4]

Hier setzt die Chaostheorie an. Sie besagt, dass die theoretisch beherrschbaren Phänomene eher die Ausnahme bilden und die meisten Systeme zu komplex sind, um sie mit Theorien beschreiben zu können.[5] Ein Ziel ist es, chaotische von zufälligen Datenreihen zu unterschei-den. Beiden Arten scheinen eindeutige Verhaltensmuster zu fehlen, obwohl der chaotischen Zeitreihe eine mathematische Formel zugrunde liegt, die grundsätzlich entdeckt werden kann[6]. Daher wird auch vom deterministischen Chaos gesprochen. Die Erklärung der irregulären Entwicklungen einzelner Systemgrößen erfolgt endogen, ohne auf exogene stochastische Argumente zurückgreifen zu müssen.[7]

In den Naturwissenschaften konnten mit den bisher entwickelten Testverfahren viele Phänomene als chaotisch identifiziert werden.[8] Da die drei Eigenschaften chaotischer Systeme: Sensitivität, Mixing und Periodizität adäquat zu den empirisch nachgewiesenen Eigenschaften am deutschen Aktienmarkt sind, ist die Chaostheorie stärker in das Blickfeld der empirischen Kapitalmarktforschung gerückt.[9] Weil die klassische Modellierung der Preisbildungsprozesse nicht in der Lage ist, wesentliche Verhaltenscharakteristika realer Kursverläufe abzubilden,[10] wird versucht, die Kursverläufe als nichtlinearen deterministischen dynamischen Prozess aufzufassen und in Abhängigkeit von verschiedenen Parametern nachzubilden. Das Wissen, ob die Zeitreihen chaotischer oder zufälliger Natur sind, kann zu einer Verbesserung der kurzfristigen Prognosegenauigkeit beitragen und ermöglicht wertvolle Einsichten in die Schlüsselmerkmale des Systems und seine Funktionsweise.[11]

Die vorliegende Arbeit beschäftigt sich unter anderem mit der Frage, ob durch die Anwen-dung chaotischer Verfahren gute Prognoseergebnisse für Aktienkursverläufe gewonnen wer- den können. Als Grundlage dient das dynamisches System von Frank und Stengos, welches ein deterministisches Bildungsgesetz beinhaltet und zur Erzeugung von Zeitreihen verwen-det wird. Das zweite Kapitel stellt die geschichtliche Entwicklung der Chaostheorie von ihren Anfängen bis zur Gegenwart dar. Die weiterführenden Betrachtungen veranschaulichen den Einfluss der chaostheoretischen Erkenntnisse auf das Kausalitätsprinzip. Im dritten Kapitel geht es um die Klärung, ob Kapitalmärkte ineffizient sind und somit eine Vorraussetzung darstellen, Wertpapierkurse prognostizieren zu können. Es werden klassische und neuere Bewertungsmethoden vorgestellt um einen späteren Vergleich zu den chaotischen Verfahren zu ermöglichen. Um die Darstellung der grundlegenden Mittel und Verfahren, derer sich die Chaostheorie bedient, geht es in Kapitel vier. Diese werden dann auf die Aktienmärkte angewendet und Parallelen aufgezeigt. Im fünften Kapitel werden Tests vorgestellt, mit denen sechs ausgewählte CDAX-Indizes auf vorhandene Strukturen untersucht werden. Anschließend erfolgt eine Kursprognose mit unterschiedlichen Verfahren. Die Ergebnisse werden miteinander verglichen und ausgewertet.

2. Zur Entstehung der Chaostheorie

In seiner Theogonia versicherte Hesiod[12] seinen Lesern: „Das erste aller Dinge war das Chaos. Das nächste die breitbrüstige Erde.“ Viele Kulturen stellten sich einen Anfangszustand vor, in dem Chaos oder Nichts vorherrschten und woraus dann die Wesen und Dinge entstanden. Einer chinesischen Schöpfungsgeschichte zufolge, entspringt ein Strahl reinen Lichts, Ying, dem Chaos und errichtet den Himmel, während das zurückbleibende schwere Trübe, Yang, die Erde bildet. Das weibliche Ying und das männliche Yang erschaffen dann die „zehntausend Dinge“, beinhalten aber noch die Eigenschaften des Chaos in sich, welches bei einem Ungleichgewicht zurückgebracht wird.[13]

Der eigentliche Begriff „Deterministisches Chaos“ (von lat. determinare, bestimmen, festlegen, und gr. c ao s formlos, konfus) welcher der zentrale Betrachtungspunkt in dieser Arbeit ist, beinhaltet der Interpretation nach eine „Bestimmte Formlosigkeit“ oder „festgelegte Konfusion“. Dies stellt aber in der ursprünglichen Bedeutung des Wortes einen Widerspruch dar.[14] Gemeint ist hier das irreguläre Verhalten eines nichtlinearen Systems, dessen zeitliche Entwicklung durch mathematische Gleichungen eindeutig beschrieben wird, wobei diese aber nicht in einer geschlossenen analytischen Form angegeben werden.[15] Es gibt eine mehr oder weniger komplizierte Ordnung im deterministischen Chaos. Carrier und Mittelstraß deuten darauf, dass aufgrund dieses Phänomens „aus der Kombination einfacher Grundelemente hochkomplexe und überraschende Erscheinungen hervorgehen können.“[16]

Die gängigen Chaosdefinitionen lassen sich hinsichtlich des verwandten Ansatzes in zwei Grundtypen unterteilen. Einerseits lässt sich Chaos über den topologischen Ansatz definieren und zum anderen geschieht diese Definition mittels statistischer Maße wie dem Vorhandensein von positiven Lyapunov-Exponenten.

Gerade der letzte Ansatz spielt für die ökonometrische Behandlung ökonomischer Zeitreihen eine besondere Bedeutung.[17] Die Definition vom „Deterministisches Chaos“ wird in dieser Arbeit noch genauer betrachtet. Folgend wird die geschichtliche Entwicklung der Chaostheorie aufgezeigt und zunächst ein Einstieg gegeben.

2.1 Paradigmenwechsel in den Naturwissenschaften

Im Jahre 1687 erschien Newtons[18] Werk „Philosophiae naturalis principia mathematica“. Hierin vereinigte er die von Johannes Kepler[19] aufgestellten Gesetze der Planetenbewegung mit den Erkenntnissen Galileo Galileis[20] über die Mechanik irdischer Körper, zu einem Weltbild von „ ... bestechender Einfachheit ...“.[21] Dabei kreierte er die „Fluxionsrechnung“[22], um Bewegungsprobleme als Differentialgleichungen formulieren und lösen zu können.[23]

Diese Arbeit stellte einen Wendepunkt in der Geschichte der Wissenschaft dar. Von nun an wurde es zum erklärten Ziel der Naturphilosophie, alle Vorgänge in der Natur auf die Newtonsche Mechanik zurückzuführen. Die Welt wurde als Maschine gesehen, in der alle Systeme streng deterministischen Gesetzen unterliegen und der Ablauf der Ereignisse durch die Bewegungsgleichungen und die Anfangsbedingungen für alle Zeiten vorgegeben sind. Dieser „vorhersagbaren“ Naturwissenschaft gelang es immer mehr aus scheinbar willkürlichen Erscheinungen eine streng definierte Ordnung und Gesetzmäßigkeit herauszulesen. Viele Bereiche der Mechanik wie die Akustik, Optik und Hydrostatik konnten mit ihr erklärt werden. Es setzte ein Aufschwung der Technik ein, in deren Folge später die Dampfmaschine konstruiert wurde.

Der radikalste Vertreter dieses deterministisch-mechanistischen Materialismus war Pierre Simon de Laplace.[24] Er äußerte in Form des „Laplaceschen Dämon“ 1814 die Vermutung, dass eine Intelligenz, welche für einen gegebenen Augenblick alle in der Natur wirkenden Kräfte sowie die gegenseitige Lage der sie zusammensetzenden Elemente kenne, alle Ereignisse in der Zukunft und Vergangenheit berechnen könne.[25]

Henri Poincaré[26] wandte sich aber von dieser rein linear ausgerichteten Forschungssicht ab und konzentrierte seine Aufmerksamkeit auf die nichtlinearen Zusammenhänge. Er beschäftigte sich mit der Frage nach der Stabilität des Sonnensystems, für dessen Antwort 1887 von dem schwedischen König Oscar II ein Preisgeld ausgesetzt war. Poincaré begann mit dem Dreikörperproblem. Es gelang ihm zu zeigen, dass es keine speziellen mathematischen Funktionen gab, welche die Bahnen der Körper beschreiben konnten.[27] Er entdeckte hierbei zum ersten Mal Chaos und wies darauf hin, dass durch Rückkopplung winzigste Effekte anwachsen können und so selbst ein simples System explosionsartig in schockierende Komplexität überzugehen vermag.[28] Es war zwar möglich, das Verhalten der Himmelskörper für die nächste Zukunft zu bestimmen, aber für die fernere Zukunft blieb es unbestimmt. Poincarés Analyse naturwissenschaftlicher Problemstellungen offenbarte also aufgrund der vorhandenen Nichtlinearitäten im Vergleich zu linearen Systemen wesentlich komplexere Verhaltensweisen.[29]

Dies musste auch Edward Lorenz erkennen, der als Meteorologe am Massachusetts Institut of Technology daran arbeitete, die Wettervorhersage zu verbessern. Zu diesem Zweck entwickelte er 1962 ein Modell aus drei nichtlinear gekoppelten Differentialgleichungen[30], die mit Hilfe der neu aufgekommenen Computer numerisch gelöst werden sollten.

Um seine Ergebnisse zu überprüfen, gab er Zwischenwerte aus seiner Lösung als neue Startwerte ein und ließ erneut rechnen. Der Rechner prognostizierte aber nun eine ganz andere Wetterlage als zuvor. Lorenz stellte fest, dass es die Kombination aus Nichtlinearität und Iteration gewesen war, die den winzigen Unterschied zwischen den beiden Computerläufen so sehr verstärkt hatte.[31] Demnach reagierte die Lösung der Differentialgleichungen äußerst sensibel auf kleine Änderungen in den Anfangswerten.[32] Dieser Effekt der unendlichen Sensitivität wurde populärwissenschaftlich auch als „Schmetterlingseffekt“[33] beschrieben, bei dem der Schlag eines Schmetterlings heute das Wetter von morgen verändern kann.[34]

Nichtstabilitäten bei vielen dynamischen Prozessen zeigen, dass die Welt durch deterministische Gleichungen beschreibbar sein mag, die Lösungen dieser Gleichungen aber nicht anzugeben sind und die Zukunft daher nicht vorrausgesagt werden kann. Wenn nämlich die kleinsten Abweichungen die Lösung in eine ganz andere Richtung drängen können, dann beeinflussen die Unwägbarkeiten der Quantenmechanik[35] wie auch die Rundungen in den Berechnungen der Computer instabile dynamische Prozesse so stark, dass jede Voraussage unmöglich wird. Diese Erkenntnis erschütterte eine der Säulen des bisherigen wissenschaftlichen Denkens: die Kausalität.[36]

2.2 Das Kausalitätsprinzip

Die Kausalität beschreibt den Zusammenhang zwischen Ursache und Wirkung (Kausalnexus). Der griechische Philosoph Aristoteles unterschied zwischen vier Typen von Ursachen: 1. die causa materialis (= Materialursache); 2. die causa formalis (= Formursache);

3. die causa finalis (= End- oder Zweckursache); 4. die causa efficiens (= Antriebs- oder Wirkursache). Diejenige, die heute mit dem Terminus Ursache gleichgesetzt wird, ist die causa efficiens, die Ursache des Bewirkens.[37]

Hinsichtlich der Kausalität lässt sich in schwache und starke Kausalität differenzieren. Die schwache Kausalität besagt, dass gleiche Ursachen gleiche Wirkungen haben. Demgegenüber besitzen bei starker Kausalität ähnliche Ursachen ähnliche Wirkungen.[38] „Das starke Kausalitätsprinzip schließt das schwache mit ein und besagt, dass Ursachen, die in der Nähe eines Ursachenpunktes liegen, Wirkungen nach sich ziehen, die in der Nähe des zugeordneten Wirkungspunktes liegen.“[39]

Zur Beschreibung der Anwendbarkeit der schwachen Form der Kausalität lässt sich ein Zitat des englischen Physikers J.C. Maxwell[40] heranziehen, der meinte: „Es ist eine metaphysische Doktrin, dass gleiche Ursachen gleiche Wirkungen haben. Niemand kann sie widerlegen. Ihr Nutzen ist aber sehr gering in dieser Welt, in der gleiche Ursachen niemals wieder eintreten und nichts zum zweitenmal geschieht. Das entsprechende physikalische Axiom lautet: Ähnliche Ursachen haben ähnliche Wirkungen. dabei sind wir aber von der Gleichheit übergegangen zur Ähnlichkeit, von absoluter Genauigkeit zu mehr oder weniger grober Annäherung.“[41]

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1 Schwache Kausalität[42]

Die starke Kausalität bildet die Grundlage aller Experimentalwissenschaften, denn eine ihrer grundlegenden Forderungen lautet, dass ein Experiment jederzeit wiederholbar sein muss, sich also unter leicht abgeänderten Bedingungen ein ähnliches Ergebnis einstellen muss. Jeder Experimentator weiß um die grundsätzliche Unmöglichkeit, exakt identische Wiederholungen der Versuchsbedingungen zu reproduzieren.[43]

Fast alle Wissenschaften basieren dabei in ihrem deduktionistisch-logischen Entwicklungen auf diesem Kausalitätsprinzip.[44]

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2 Starke Kausalität[45]

Im Jahre 1876 wies James Clark Maxwell darauf hin, dass es auch im Rahmen einer deterministischern Physik Fälle von instabilen Systemen gibt, bei denen eine infinitesimale Variation des Anfangszustandes in endlicher Zeit eine makroskopische Veränderung des Endzustandes mit sich bringt: „Es ist ganz offensichtlich, dass die Existenz instabiler Bedingungen die Vorhersage künftiger Ereignisse unmöglich macht, wenn unser Wissen über den gegenwärtigen Zustand nur ein angenähertes und kein genaues ist ...“[46]

Diese Ansicht bestätigte 1908 auch der französische Mathematiker Henri Poincaré. Bei seinen Arbeiten zum Drei-Körper-Problem stieß er über das Maß, um das die Bahn der Erde um die Sonne durch den Einfluss der anderen Planeten gestört wurde. Das von dem Meteorologen Edward N. Lorenz 1962 entdeckte Modell der Atmosphäre spiegelte ein dynamisches System- verhalten wider, das:

(i) den Naturgesetzen zu gehorchen schien,
(i) dem schwachen Kausalitätsprinzip genügte, jedoch
(ii) das starke Kausalitätsprinzip verletzte und lieferte damit einen weiteren Hinweis für die Verletzung des starken Kausalitätsprinzip.[47]

Abbildung in dieser Leseprobe nicht enthalten

Abb. 3 Verletzung starker Kausalität[48]

Die Erkenntnisse im Quantenbereich haben zur Ungültigkeit des Kausalitätsbegriffs im Mikrokosmos geführt. Die Chaostheorie zeigt nun, dass auch im makroskopischen Bereich die Kausalität nicht mehr als eine Grundsäule wissenschaftlicher Argumentation betrachtet werden kann.[49]

3. Kapitalmarkteffizienz und Erklärungsansätze zur Kursbildung

Für die Analystenbranche ist die Frage nach der Prognostizierbarkeit von Preisentwicklungen an Kapitalmärkten eine elementare Frage, da sie aus der positiven Beantwortung, ihre Existenzberechtigung ableiten. Die Informationseffizienz des Kapitalmarktes ist bei der Vorhersage von Aktienkursen unabdingbare Vorraussetzung, da sie im Sinne einer schwachen und mittelstrengen Effizienz erst die Möglichkeiten zur Erzielung von Überrenditen aufzeigt und somit den Grundstein für die Rechtfertigung von Prognosen legt.[50] Anschließend an diese grundlegenden Betrachtungen zur Kapitalmarkteffizienz werden klassische und neuere Ansätze zur Kursbildung vorgestellt, um in Kapitel 4 die Unterschiede zwischen diesen linearen und den deterministischen nicht-linearen (chaotischen) Methoden zu verdeutlichen.

3.1 Informationseffizienz des Kapitalmarktes

Die Vertreter der Fundamental- und Chartanalyse gehen in ihren Betrachtungen von einer Ineffizienz des Kapitalmarktes aus und rechtfertigen den Einsatz ihrer Analysemethoden, um Strukturen und Muster in Aktienkursen zu erkennen und sich diese für eine Prognose nutzbar zu machen. Für die Fundamentalanalysten gelten zwei Vorraussetzungen:

(1) Es muss Fehlbewertungen (Ineffizienzen) an den Märkten geben. Das heißt, der aktuelle Kurs/Preis spiegelt nicht die gegenwärtigen und zukünftigen fundamentalen Größen wider.
(2) Mittel – bis langfristig nähert sich der Kurs dem Wert an, der durch die fundamentalen Daten gerechtfertigt ist.

Der Fundamentalanalyst sucht somit Fehlbewertungen aufgrund von Fundamentaldaten wie Gewinnschätzungen und leitet aus den ermittelten Über- bzw. Unterbewertungen seine Verkaufs- bzw. Kaufempfehlungen ab. Bei der technischen Analyse wird versucht, durch Trendanalyse, Trendfolgemodellen und Fehlbewertungen im Trend (Über- bzw. Untertreibungen) Handlungsentscheidungen herzuleiten. Sollten sich also Kursverläufe in Trends bewegen, würde dies eine Ineffizienz des Marktes darstellen.

Im Gegensatz zu diesen Annahmen schließen die Vertreter der Random Walk Theorie die Möglichkeit einer Vorhersage grundsätzlich aus, da ihrer Meinung nach der Aktienkurs bereits alle relevanten Informationen widerspiegelt und nur ein bisher unbekanntes Ereignis, welches aber rein zufällig auftritt, eine sofortige Kursbewegung auslöst. Der Aktienmarkt ist in ihrem Sinne effizient. Die Frage nach der generellen Möglichkeit der Prognostizierbarkeit von Aktienkursen lässt sich also nur durch eine Überprüfung der Markteffizienz beantworten.[51] Die Kapitalmarkteffizienz bezieht sich auf die Informationsverarbeitung an den Kapitalmärkten und wird auch als Informationseffizienz bezeichnet.[52] Als effizient werden solche Märkte bezeichnet, in denen die jeweils aktuellen Preise alle verfügbaren Informationen widerspiegeln, die diesen Markt betreffen.

Einige Bedingungen müssen erfüllt sein, um von einem vollkommenen Kapitalmarkt sprechen zu können:

- Nichtexistenz von Transaktionskosten
- kostenlose Verfügbarkeit aller Informationen für alle Interessenten
- homogene Erwartungen der Anleger über die Implikationen der Informationen für den gegenwärtigen Kurs und die zukünftigen Kurse.

Hinsichtlich dem in den Kursen zum Ausdruck kommenden Informationsumfang werden in der Kapitalmarkttheorie drei Grade von Informationseffizienz unterschieden, welche sich gegenseitig nicht ausschließen, sondern die jeweils niedrigere Effizienzstufe beinhalten:[53]

(1) Informationseffizienz im schwachen Sinne liegt dann vor, wenn die Marktpreise jederzeit alle Informationen über das Marktgeschehen in der Vergangenheit zum Ausdruck bringen.

Gilt diese Annahme, lassen sich durch die Technische Analyse keine Überrenditen erzielen, da das Kursbild der Vergangenheit längst im Wertpapierkurs berücksichtigt wird und sich ein veränderter Chart unverzüglich auf den Preis des Wertpapierkurses auswirkt. Hieraus folgt die Random Walk Theorie mit ihren jeweiligen Erweiterungen.

(2) Informationseffizienz im mittelstrengen Sinne besteht, wenn sich in den Marktpreisen jederzeit alle öffentlich verfügbaren Informationen ausdrücken.

Es ließe sich eine Überrendite lediglich durch Insiderinformationen erwirtschaften, da jede öffentlich werdende Information der fundamentalen Auswertung sofort in dem Wertpapierkurs berücksichtigt würde. Diese Form der Effizienz hat erhebliche Bedeutung, da sie zur Bildung homogener Erwartungen (wichtig bei CAPM, APT) bei den Anlegern beiträgt.

(3) Informationseffizienz im strengen Sinne liegt vor, wenn in den Marktpreisen jederzeit alle überhaupt verfügbaren Informationen enthalten sind.

Die zu erwartende Rendite eines Investors entspricht der Gleichgewichtsrendite gemäß dem Risiko der Anlage, da weder die Technische Analyse, noch die Fundamentalanalyse noch die Kenntnis von Insiderinformationen eine Möglichkeit zur Erzielung von Überrenditen bietet.[54]

Es wurden zahlreiche empirische Untersuchungen durchgeführt, welche die These vom informationseffizienten Kapitalmarkt genauer spezifizieren sollte. Dabei wurde anhand von Aktienmärkten überprüft, bis zu welchem Grade diese als effizient angesehen werden können.

Die Überprüfung der schwachen Markteffizienzhypothese für den deutschen Aktienmarkt erfolgt überwiegend in Form von Korrelations- und Vorzeichentests. Die Vorzeichentests (sog. Run-Tests) versuchen Regelmäßigkeiten in den Zeitreihen aufzudecken, indem die Anzahl und Länge der Abschnitte (Runs) gleichen Vorzeichens der Zeitreihe untersucht wird. Daraus lassen sich dann Schlüsse über die zufällige Verteilung der Daten ziehen bzw. bestimmte Tendenzen aufzeigen. Die Ergebnisse dieser Tests besagen, dass „ ... zwar keine serielle Korrelation von Null besteht, jedoch das gewinnbringende Ausnutzen allenfalls nur kurzfristig bestehender Trends bei Berücksichtigung von Transaktionskosten nicht möglich ist.“[55] Außerdem wird ein reiner Random Walk-Prozess als unwahrscheinlich erachtet.

Nach Steiner / Bruns treten in der Diskussion um die halb-strenge Effizienzhypothese heftige Kontroversen auf.[56] Die Schwierigkeit der empirischen Überprüfung dieser Annahme besteht in den zugrundeliegenden Renditemodellen (i.d.R. CAPM und das Marktmodell), die zur Feststellung, ob fundamentale Informationsauswertung Überrenditen erbringt, herangezogen werden. Da aber deren Validität nicht eindeutig festgestellt werden kann, würde eine Vorgabe falscher Renditen somit auch die Beurteilung um die Richtigkeit der halb-strengen Markteffizienz in Frage stellen. Testergebnisse konnten dennoch einige Anomalien, wie Kalenderzeiteffekte[57], auf den Kapitalmärkten aufdecken, welche im Widerspruch zur These eines halb-strengen informationseffizienten Kapitalmarkt stehen.[58] Thoma weist aber darauf hin, dass in der Praxis (für die USA), eine halbstarke Effizienz einigermaßen gegeben ist, da der Kapitalmarkt schnell auf Neuigkeiten reagiert, und die Händler den Preis für die Wertpapiere bei positiven Meldungen bereits anheben, bevor erste Geschäfte zustande kommen.[59]

Zusammenfassend lässt sich sagen, dass Kapitalmärkte keine einheitlichen Effizienzgrade aufweisen. Differenzierungen hinsichtlich der verschiedenen Länder, Märkte und Marktsegmente sind erforderlich. Obwohl viele heute gängigen Theorien in den Wirtschaftswissenschaften (wie das Optionspreismodell von Black/Scholes) auf die Annahme der Markteffizienz aufbauen, kann diese nicht eindeutig bewiesen werden.[60]

3.2 Klassische Bewertungsmethoden

Die klassischen Bewertungsmethoden wurden in den vergangenen Jahrzehnten standardmäßig für die Erklärung und Prognose von Wertpapierkursen herangezogen und beinhalten die Random-Walk-Theorie sowie die Fundamental- und Technische Analyse.[61] Im folgenden werden diese gängigen Verfahren detailliert vorgestellt.

3.2.1 Die Random Walk-Hypothese

Die Random Walk-Hypothese ist eine Konsequenz aus der Theorie effizienter Kapitalmärkte. In diesem Rahmen wird davon ausgegangen, dass die Kurse um ihren fundamental gerechtfertigten Wert schwanken. Kursänderungen ergeben sich lediglich im Fall von neuen kursrelevanten Informationen. Zukünftige Kurse sind aber unbekannt und nicht vorhersehbar. Wenn also allein die zukünftigen Informationen Einfluss auf die Aktienkurse besitzen, aber nicht bestimmt werden kann, ob diese positiv oder negativ wirken, dann kann keine Kursprognose getroffen werden. Aufgrund dieser Argumentation wird angenommen, dass die Aktienkurse einem Zufallspfad (Random Walk) folgen. Zeitlich aufeinanderfolgende Kurse sind also unabhängig voneinander.[62] Die Formel (1) gibt diesen Zusammenhang mathematisch wieder:

Abbildung in dieser Leseprobe nicht enthalten (1)

Eine Erweiterung stellt das Martingale-Modell der Random Walk-Hypothese dar, da es auf das Vorliegen einer Normalverteilung bei Kursänderungen verzichtet. Es wird lediglich auf die Erwartungswerte der Kursveränderungen Unabhängigkeit gefordert.[63]

Das Submartingale-Modell der Random Walk-Hypothese impliziert noch die Annahme, dass sich das eingesetzte Kapital im Zeitablauf systematisch gemäß seinem Risiko verzinst. Dabei ergibt sich der zukünftige Wertpapierkurs aus dem gegenwärtigem Aktienkurs zuzüglich des Zufallsterm und einer erwartbaren risikoadäquaten Kursänderung E (ΔK):

Abbildung in dieser Leseprobe nicht enthalten (2)

Eine derartige Modellierung erscheint realitätsnaher, da Aktien bei sehr langfristiger Betrachtung einen empirisch beobachtbaren stetigen Aufwärtstrend aufweisen.[64]

Das Konzept des Random Walk hat in der modernen Finanzwelt eine enorme Bedeutung erlangt. Die meisten Optionspreismodelle wie z.B. das Black-Scholes-Modell[65] und viele Methoden des modernen Risikomanagements wie die Varianz–Kovarianz-Methode[66] und die Monte-Carlo-Simulationen[67] beruhen auf der Annahme, dass sich die in Kursentwicklungen enthaltenen Zufallskomponenten als Random Walk darstellen lassen.[68]

3.2.2 Die Fundamentale Aktienanalyse

Die Fundamentalanalyse stellt unter den verschiedenen Konzeptionen der Aktienanalyse die am weitesten Verbreiteste dar. Sie stützt sich auf die Annahme, dass der Kurs einer Aktie durch verschiedene fundamentale Faktoren des Unternehmens und seiner Umwelt bestimmt wird[69]. „Die Fundamentale Aktienanalyse versucht deshalb, bewertungsrelevante Faktoren zu identifizieren und einen Zusammenhang zwischen diesen Faktoren und den zu beobachtbaren Börsenkursen herzustellen.“[70] Aus den gewonnenen Erkenntnissen werden dann Modelle hergeleitet, die in möglichst großer Übereinstimmung die tatsächliche Marktbewertung widerspiegeln sollen.[71] Die Bestimmung des inneren Wertes einer Aktie ist hierbei das zentrale Anliegen der Fundamentalen Aktienanalyse.

Aus den auf den Börsenkurs Einfluss nehmenden Faktoren lässt sich der innere Wert einer Aktie herleiten, der zur Beurteilung der Vorteilhaftigkeit der Aktie mit ihrem Börsenkurs verglichen wird.[72] Diese Faktoren lassen sich nach externen und internen und weiter nach qualitativen und quantitativen Faktoren unterscheiden.[73] Als externe Faktoren sind diejenigen anzusehen, die durch das Unternehmen nicht beeinflussbar sind und das politische und ökonomische Umfeld repräsentieren.[74] Auf die internen Faktoren hat das Unternehmen selbst Einfluss.[75] Zu den qualitativen Faktoren gehören beispielsweise die Position eines Unternehmens in seiner Branche; zu den Quantitativen Gewinne und Umsätze.[76]

Bei der Ermittlung des inneren Wertes von Aktien werden alle als relevant angesehenen fundamentalen Daten miteinbezogen. Der Analyserahmen umfasst daher auch die gesamtwirtschaftliche und branchen- und länderspezifische Lage. Ebenso wird die Angebots- und Nachfragesituation betrachtet, welche sich unter anderem nach dem vorhandenen Geldvermögen der Anleger, oder nach der Attraktivität alternativer Anlagen, wie z.B. Anleihen richtet.[77]

Als Methodik der Fundamentalanalyse hat sich die Top-Down Technik weitgehend durchgesetzt, bei der sukzessive von höheren zu niedrigeren Betrachtungsebenen übergegangen wird. Daher werden zuerst die übergeordneten ‚Fundamentals’ analysiert, bevor einzelwirtschaftliche Analysen angestellt werden. Folgende Grafik verdeutlicht die einzelnen Gliederungsschritte.[78]

Abbildung in dieser Leseprobe nicht enthalten

Abb. 4 Unterteilung der Fundamentalanalyse bei Aktien[79]

„Barwertmodelle stellen den ältesten theoriegeleiteten Versuch dar, das Aktienbewertungsproblem zu lösen.“[80] Das klassische Modell der Fundamentalen Aktienanalyse geht hierbei auf WILLIAMS (1938) zurück. Er bestimmte den Wert einer Aktie als den Barwert der zukünftig aus ihr resultierenden Zahlungsströme, den Dividenden.[81] Diesen Ansatz begründete er mit der Aussage, dass ein Wertpapier nur das wert ist, was es dem Investor zukünftig an Zahlungen verspricht.[82] Der Barwert, auch als Present Value (PV) bezeichnet, stellt die Summe aller auf den Betrachtungszeitpunkt abgezinsten zukünftigen Zahlungen dar, die mit einer Aktienanlage verbunden sind. Der Formelmäßige Zusammenhang lautet:

Abbildung in dieser Leseprobe nicht enthalten (3)

Unsicherheit besteht aber im allgemeinen über Höhe und Zeitpunkt zukünftiger Zahlungen, da sie vom Eintritt bestimmter Umweltzustände abhängen. Die Berechnung und Schätzung der Gewinne erfolgt von Analysten, die in Deutschland nach dem DVFA/SG-Schema[83] die Gewinne pro Aktie der einzelnen Aktiengesellschaften bestimmen. Das CAPM (Capital Asset Pricing Model) ermöglicht die Berechnung des Kalkulationszinsfuß (Abzinsungsrate), welcher aus der Rendite einer sicheren Anlagemöglichkeit zuzüglich eines der betrachteten Aktie angemessenen Risikozuschlags besteht.[84] Ferner ist auch das Arbitrage Pricing Model (APM) anwendbar.

Capital Asset Pricing Model (CAPM)

Das CAPM nimmt eine zentrale Stellung innerhalb der Kapitalmarkttheorie ein und wird deshalb häufig auch als „das Kapitalmarktmodell“ tituliert. Es wurde in den sechziger Jahren von Sharpe, Lintner und Mossin, aufbauend auf der Portfoliotheorie, unabhängig voneinander entwickelt. Sie erweiterten die Portfoliotheorie nach Markowitz um die gesamtmarktbezogene Perspektive, wonach gefragt wird, welche Marktpreise sich für die risikobehafteten Vermögensgüter ergeben, wenn sich alle Anleger nach den Grundsätzen der Portfoliotheorie verhalten.[85]

Für das Capital Asset Pricing Model gelten folgende Annahmen:

(A1) Am Kapitalmarkt werden n Finanztitel gehandelt, die beliebig teilbar sind. Es existieren keine Transaktionskosten oder andere Friktionen des Wertpapierhandels.
(A2) Der Planungszeitraum der Investoren beschränkt sich auf eine Periode.
(A3) Die Investoren sind risikoscheu und treffen ihre Anlageentscheidungen auf der Grundlage von Erwartungswerten und Varianzen der Portfoliorenditen.
(A4) Die Investoren haben homogene Erwartungen über die Rückflüsse am Periodenende und die Kovarianz der Rückflüsse zweier beliebiger Wertpapiere.
(A5) Es existiert eine risikolose Verzinsung, zu der Kapital unbeschränkt angelegt und aufgenommen werden kann.[86]

Das CAPM stellt ein Gleichgewichtsmodell dar, aus dem sich bei Gültigkeit für jedes Wertpapier bzw. Wertpapierportefeuille dessen risikoadäquater Gleichgewichtspreis ableiten lässt.[87] „Die Kernthese des CAPM besagt, dass die Opportunitätskosten des Eigenkapitals der Rendite risikofreier Wertpapiere plus dem Marktpreis des Risikos (Risikoprämie), multipliziert mit dem systematischen Risiko (beta) des Unternehmens, entsprechen.“[88] Das gesamte Risiko eines Wertpapiers wird also in das unsystematische (wertpapierspezifisch, z.B. Managementfehler) und das systematische (Marktrisiko, z.B. Konjunktur) Risiko zerlegt. Die Formel lautet:

Abbildung in dieser Leseprobe nicht enthalten (4)

Da dieses Marktportfolio theoretisch sämtliche Kapitalanlagen einer Volkswirtschaft enthält, ist das gesamte Diversifikationspotential ausgeschöpft. Bei dem Risiko des Marktportfolios handelt es sich demzufolge ausschließlich um systematisches Risiko.

Arbitrage Pricing Model (APM)

Das Arbitrage Pricing Model kann als eine multifaktorielle Variante des CAPM betrachtet werden. Es wurde von Ross als Alternative zum CAPM entwickelt.

Der für die Finanzierungstheorie grundlegende Risiko-Rendite-Zusammenhang wird in diesem Modell durch mehrere explizit, erfasste Risikoquellen erklärt. Hierbei sind zwei zentrale Prämissen zu beachten:

(A1) Aktienrenditen werden durch ein Mehrfaktorenmodell erzeugt.

(A2) Märkte sind arbitragefrei.[89]

Im Gegensatz zum CAPM, welches die Renditen von Wertpapieren als Funktion eines Faktors, des Marktindex, erklärt, berücksichtigt das APM statt eines Maßes für das systematische Risiko, mehrere. Jedes beta misst hierbei die Sensitivität der Aktienrendite hinsichtlich eines einzelnen wirtschaftlichen Faktors:

Abbildung in dieser Leseprobe nicht enthalten (5)

mit: rmk = Erwartungswert der Rendite eines Portefeuilles, der vom k-ten Faktor abhängt und

unabhängig von allen anderen Faktoren ist

ßk = Sensitivität der Aktienrendite gegenüber dem k-ten Faktor

Empirische Untersuchungen deuten auf fünf grundlegende Faktoren hin:

(i) Index der industriellen Produktion, der die Leistungsfähigkeit einer Volkswirtschaft hinsichtlich der tatsächlichen industriellen Güterproduktion misst;
(ii) kurzfristiger Realzins, gemessen als Differenz zwischen der Rendite von Schatzwechseln und dem Index der Verbraucherpreise;
(iii) kurzfristige Inflation, gemessen durch unerwartete Veränderungen des Index der Verbraucherpreise;
(iv) langfristige Inflation, gemessen als Differenz zwischen Umlaufrendite lang- und kurzfristiger Staatsanleihen; und
(v) Ausfallrisiko, gemessen als Differenz zwischen den Renditen langfristiger Industrieobligationen mit einem Aaa- bzw. Baa-Rating.[90]

Es wurde nachgewiesen, dass das APM die erwarteten Renditen besser erklärt als das einfaktorielle CAPM und einen genaueren Aufschluss über relevante Risikokomponenten erlaubt.[91] Nach Laser ist die Fundamentalanalyse nur bedingt zur Kursprognose geeignet. Er zieht zwei Gründe für diese Feststellung heran:

(i) „Die Fundamentalanalyse versucht einen nach objektiven Kriterien definierten fairen Preis für eine Aktie zu ermitteln. Die hierfür benötigten Informationen werden in der Regel aber selektiv wahrgenommen, geben also kein objektives Bild wieder.

(ii) Entscheidend für den Anlageerfolg auf Basis einer fundamentalen Analyse ist der Eskomptierungsgrad[92] der zugrunde gelegten Informationen. Je größer er ist, desto geringer sind die Erfolgschancen auf eine überdurchschnittliche Rendite. In der Regel wird bzw. kann dieser Eskomptierungseffekt aber nicht ermittelt werden.“[93]

Es hat sich aber gezeigt, dass die Fundamentale Aktienanalyse wertvolle Einblicke in die Beurteilung der Preiswürdigkeit von Aktien gibt und wichtige Hinweise über die künftige Entwicklung des Unternehmens liefert.[94] Unklarheit besteht allerdings in der Wahl des richtigen Zeitpunkts des Aktienerwerbs oder –verkaufs. Die Technische Analyse liefert Lösungsansätze für dieses Timing-Problem, die Festlegung des genauen Handelszeitpunktes.[95]

3.2.3 Die Technische Aktienanalyse

Die Technische Aktienanalyse verzichtet auf die Bestimmung des Aktienkurses unter fundamentalen Gesichtspunkten, da der innere Wert einer Aktie nur mit großer Unsicherheit zu schätzen ist. Sie basiert auf der These, dass sich Aktienkurse grundsätzlich in Trends bewegen. Es gelten folgende Grundlagen:

(i) Alle Marktbewegungen werden im Kurs reflektiert. Die Chartisten sind der Meinung, dass alle Faktoren die die Kursentwicklung beeinflussen, wie fundamentale, politische, psychologische oder andere Faktoren, bereits im aktuellen Kurs wiedergegeben werden. Daraus folgt, dass eine Analyse der Kursbewegungen hinreichend ist.
(ii) Die Kurse bewegen sich in Trends, so dass nur außergewöhnliche Ereignisse zu einer Trendumkehr führen können.
(iii) Die „Geschichte“ wiederholt sich. Einige Preismuster kehren im Zeitablauf wieder.[96]

Die nach Charles H. Dow benannte Dow-Theorie gilt als eine der ältesten Theorien zur Erklärung des Geschehens auf den Aktienmärkten aufgrund markttechnischer Hypothesen. Sie wurde von ihm in einer Serie von Leitartikeln im Wall Street Journal in den Jahren 1900 – 1902 begründet und nach seinem Tode (1902) von seinen Nachfolgern zu einer Theorie aggregiert. Die Basisannahme dieser Theorie besagt, dass sich die Mehrheit aller Aktien an der Börse in gleicher (ähnlicher) Weise verhält, während nur wenige Aktien ein grundsätzlich anderes Verhaltensmuster aufweisen. Diese Annahme impliziert die Möglichkeit, den Gesamtmarkt durch einen „Index“ darzustellen. Die Dow-Theorie besteht aus verschiedenen Annahmen, welche unter anderem besagen, dass sich die Aktienkursentwicklung in der Zukunft aus dem vergangenen Marktgeschehen ableiten lässt. Weiterhin werden bei der Indexentwicklung drei Trendkomponenten unterstellt: der Primärtrend (Auf- und Abwärtsbewegungen mit einer Dauer von einem bis zu mehreren Jahren), der Sekundärtrend (kurzfristige Schwankungen mit drei oder mehreren Monaten, bis zu einem Jahr) und der Tertiärtrend (kurzfristige Fluktuationen von wenigen Tagen bis zu zwei Monaten).[97]

Steiner / Bruns differenzieren die technische Analyse ähnlich dem Top-Down-Approach bei der Fundamentalen Aktienanalyse, in die Gesamtmarkt- und Einzelwertanalyse. Demzufolge gibt es Unterschiede in dem Betrachtungsobjekt und der methodischen Vorgehensweise. Da aber eine Vielzahl charttechnischer Analysemethoden in beiden Bereichen Verwendung findet, wird im folgenden eine andere Einteilung bevorzugt.[98]

Bei der klassischen Vorgehensweise der Technischen Aktienanalyse unterscheiden Schumann / Lohrbach zwischen den zwei Ansätzen: (1) reine Chartanalyse und (2) der technischen Analyse im engeren Sinne.[99]

Die Charts sind die Hauptanalyseinstrumente der Technischen Aktienanalyse. Sie sind als die grafische Abbildung einer oder mehrerer Zeitreihen, insbesondere Aktienkurszeitreihen zu verstehen. Die Charts sind in der Regel so aufgebaut, dass die Abszisse die Zeit abbildet, während auf der Ordinate die beobachtete Kurshöhe abgetragen wird. Nach der Art der Darstellung und der dafür benötigten Aufbereitung der Daten kann zwischen drei verschiedenen Chartformen unterschieden werden: Das Linien-, das Bar- und das Point & Figure-Chart.

Im Linienchart werden die beobachteten Werte (z.B. die ermittelten Kassakurse) für jedes relevante Datum (Börsentag. Wochen- oder Monatsultimo) im Chart eingetragen und durch eine Gerade verbunden. Kursbewegungen innerhalb eines Tages können aber nicht betrachtet werden. Das Barchart (auch Balkenchart genannt) stellt die jeweiligen Tiefst- und Höchstkurse (Kursspannweite) für die betreffende Zeiteinheit (Tag, Woche, Monat), verbunden durch eine senkrechte Linie, dar. Der Schlusskurs wird in der entsprechenden Höhe durch einen kurzen horizontalen Strich nach rechts dargestellt. Innerhalb eines Tages ist diese Art der Darstellung nur für variabel gehandelte Aktien möglich, während für wöchentliche bzw. monatliche Kursentwicklungen auch Kassakurse herangezogen werden können.[100] Beim Point & Figure-Charts soll es angesichts des Verzichts auf die Abbildung unwichtiger Kursbewegungen eher möglich sein, klare Kurstrends zu identifizieren.[101] Die Ordinate wird dazu in gleich große Kästchen aufgeteilt, und jedem Kästchen ein bestimmter Wert (DM-Betrag) zugeordnet. Die waagerechte Ausdehnung wird durch die Häufigkeit des Trendwechsels bestimmt. Zur Kennzeichnung einer aufwärts gerichteten Kursbewegung wird das Symbol „X“ verwendet, für einen Abwärtstrend „O“.[102]

Die reine Chartanalyse hat zum Ziel, anhand der graphischen Darstellung der Kurse »Bilder« zu identifizieren, die Anzeichen für eine Umkehr oder Fortsetzungsformation eines Trends erkennen lassen.

Daraus leitet der Analyst weitere Schlussfolgerungen über die Entwicklung des Kurses ab.[103] Da in der Praxis eine Vielzahl solcher »Bilder« existieren, wird im folgenden nur auf einige kurz eingegangen, um die Herangehensweise zu verdeutlichen.

Das Konzept von Unterstützung und Widerstand basiert auf massenpsychologischen Faktoren. Eine Unterstützungslinie liegt vor, wenn eine Aktienkursbewegung trotz längerem Versuch nicht unter ein bestimmtes Niveau sinkt. Eine Widerstandslinie dagegen markiert das obere Kursniveau, welches trotz mehrmaliger Anläufe nicht durchbrochen wird. Die Diagnose von Unterstützungs- und Widerstandslinien erlaubt Hinweise bezüglich des Kurspotentials nach unten (Unterstützungslinien) und nach oben (Widerstandslinien). Dabei können sich diese Linien auch nach durchbrechen, in ihr Gegenteil verkehren.[104]

Trendlinien werden dadurch gewonnen, dass im steigenden Markt aufeinanderfolgende Tiefpunkte des Kursverlaufs, im fallenden Markt aufeinanderfolgende Hochpunkte miteinander verbunden werden.[105] Ein Trendkanal entsteht, wenn sich die obere und untere Trendlinie nahezu parallel zueinander bewegen, also die Kursverläufe nach oben und unten ungefähr den gleichen Ausschlag besitzen.[106] Ein Chartsignal entsteht bei einem durchbrechen der Trendlinie nach unten (weiterer Abwärtstrend) bzw. nach oben (weiteres Ansteigen der Kurse).[107]

Die Kopf-Schulter-Formation ist im Chart als eine symmetrische Figur zu erkennen, die einem Kopf mit zwei Schultern gleicht. Die durch eine Linie verbundenen Tiefpunkte der Schultern bilden dabei die Nackenlinie. Ein Durchbrechen dieser Nackenlinie wird als Verkaufssignal gewertet. Den Umsätzen wird dabei besondere Aufmerksamkeit geschenkt. Bei der Ausbildung der linken Schulter sind diese relativ hoch, fallen dann aber stark ab. Bei der Ausbildung des Kopfes erholen sie sich nur schwach und sinken im weiteren Verlauf erneut. Steigen die Umsätze beim Durchbrechen der Nackenlinie indiziert dies die Zuverlässigkeit des Verkaufssignals.[108] Eine umgekehrte Kopf-Schulter-Formation steht für einen beginnenden Aufwärtstrend.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 5 Kopf-Schulter-Formation bei der reinen Chartanalyse[109]

Die technische Analyse im engeren Sinne verwendet die Erkenntnisse der Chartanalyse und berechnet mit Hilfe mathematischer Transformationen sogenannte Marktstrukturindikatoren. Mit deren Hilfe kann der Charakter des Marktes beschrieben werden, was Aufschluss über die weitere Entwicklung gibt. Dieses Vorgehen ist im Vergleich zu der reinen Chartanalyse besser operrationalisierbar und in geringerem Maße subjektiven Einflüssen unterworfen.[110] Durch die Trendermittlung soll die grundlegende Tendenz des Zeitreihenverlaufs ermittelt werden. Hierzu werden die periodischen Schwankungen und die irregulären Restschwankungen ausgeschaltet. In der Praxis werden unterschiedliche Indikatoren verwendet, um Aufschluss über die künftige Kursentwicklung zu erhalten. Dazu gehören z.B. die Gleitenden Durchschnitte, die Exponentielle Glättung, die Kleinst-Quadrate-Methode, relative Stärke und das Momentum.

Die Gleitenden Durchschnittslinien sind ein Verfahren zur Glättung einer Zeitreihe. Kurzfristige, zufällige Schwankungen sollen gedämpft und der Trend dadurch sichtbar gemacht werden.[111] Sie werden als arithmetisches Mittel aus einer bestimmten Anzahl von Aktienkursen der Vergangenheit berechnet. Bei der Berechnung muss unterschieden werden, ob eine gerade Anzahl von Werten in die Beobachtung einbezogen wird oder eine ungerade Anzahl:

[...]


[1] Es wird zwischen spezieller und allgemeiner Relativitätstheorie unterschieden. Die spezielle Relativitätstheorie liefert Aussagen über Körper, die sich mit Geschwindigkeiten nahe der Lichtgeschwindigkeit bewegen. Sie besagt z.B., dass die Masse eines Körpers mit der Geschwindigkeit zunimmt. Die allgemeine Relativitätstheorie ist eine Theorie der Gravitation und z.B. voraus, dass das Licht eines Sterns, das nahe an der Sonne vorbeigeht, von dieser abgelenkt wird. (vgl. Meyers-Lexikon, 1991, S. 488)

[2] vgl. Kinnebrock, 1999, S. 111

[3] Die Quantentheorie ist eine der wichtigsten Theorien der modernen Physik, weil sie durch ihre Fähigkeit, Vorgänge in der atomaren Welt korrekt zu beschreiben, viele technische Entwicklungen erst möglich gemacht hat, wie z.B. Kernenergie, Laser, Kernspintomographie und den Halbleitertransistor. (vgl. Microsoft Encarta 98 Enzyklopädie. © 1993 – 1997 Microsoft Corporation)

[4] vgl. Buzug, 1994, S. 5

[5] vgl. Kinnebrock, 1999, S. 111

[6] vgl. Ormerod, 1995, S. 230

[7] vgl. Loistl / Betz, 1996, S. 3

[8] Als Beispiele sind anzugeben: dieTropfgeschwindigkeit undichter Wasserhähne, Turbulenzen in einer aufsteigenden Rauchsäule und auch der menschliche Herzschlag. (vgl. Microsoft Encarta 98 Enzyklopädie. © 1993 – 1997 Microsoft Corporation)

[9] Nähere Ausführungen finden sich in Kapitel 4.2.

[10] vgl. Elsner, 1996, S. 3

[11] vgl. Ormerod, 1995, S. 230

[12] Hesiod (geboren um 700 v.Chr.), griechisch Hesiodos, der erste mit Namen zeichnende griechische Dichter der Geschichte. Er gilt als Begründer der griechischen Lehrdichtung und nimmt mit seinen lyrisch veranschaulichten Moralprinzipien und seiner Forderung nach „Wahrheit“ in der Dichtung einen einmaligen Platz in der griechischen Literatur ein. Als eine Art „Schöpfungsbericht“ erzählt die Theogonia, in die auch vorgriechische Mythen miteinbezogen sind, von der Erschaffung der Erde aus dem Chaos und der Geburt der Götter. Darüber hinaus werden auch deren Abenteuer beschrieben. (vgl. Microsoft Encarta 98 Enzyklopädie. © 1993 – 1997 Microsoft Corporation)

[13] vgl. Briggs / Peat, 1990, S. 21 f.

[14] vgl. Morfill / Scheingraber, 1993, S. 7

[15] vgl. Morfill / Scheingraber, 1993, S. 270

[16] Breuer (Hrsg), 1993, S. 222

[17] vgl. Loistl / Betz, 1996, S. 37

[18] Newton, Sir Isaac (1642-1727), englischer Mathematiker und Physiker, gilt als der Begründer der klassischen theoretischen Physik und damit der exakten Naturwissenschaften. Die Entdeckung der universellen Gravitation, nach der alle Körper im Weltraum und auf der Erde unter der Wirkung einer Kraft, der so genannten Schwerkraft stehen, brachten Newton den größten Ruhm ein. (vgl. Microsoft Encarta 98 Enzyklopödie. .© 1993 – 1997 Micosoft Corporation)

[19] Kepler, Johannes (1571-1630), deutscher Astronom und Naturphilosoph, formulierte und bestätigte die drei Gesetze der Planetenbewegung, heute bekannt als keplersche Gesetze. Er entwickelte in der Mathematik ein System der Infinitesimalen, das als Vorläufer der Infinitesimalrechnung gilt.

[20] Galilei, Galileo (1564-1642), italienischer Physiker, Mathematiker, Philosoph und Astronom. Galileis größte wissenschaftliche Leistung bestand darin, dass er die Physik mit exakten Messungen anstatt mit metaphysischen Prinzipien und formaler Logik begründete. (vgl. Microsoft Encarta 98 Enzyklopädie. © 1993 – 1997 Microsoft Corporation)

[21] vgl. Morfill / Scheingraber , 1993, S. 26

[22] Mit der Fluxionsrechnung begründete Newton die heute als Infinitesimalrechnung bekannte Form der Mathematik. 1675 entwickelte Leibniz unabhängig von Newtons Arbeit nahezu die gleiche Methode, die er Differentialrechnung nannte. Nachdem Leibniz bis zur Veröffentlichung der Newtonschen Infinitesimalrechnung (1704) als Begründer der Differentialrechnung galt, entbrannte in späteren Jahren zwischen Newton und Leibniz ein langanhaltender Prioritätsstreit. Heute gilt als erwiesen, dass die beiden Wissenschaftler ihre Theorien unabhängig voneinander entwickelten. (vgl. Microsoft Encarta 98 Enzyklopädie. © 1993 – 1997 Microsoft Corporation)

[23] vgl. Heuser, 1995, S. 45

[24] Laplace, Pierre Simon Marquis de (1749-1827), französischer Mathematiker und Astronom. Seine Schriften umfassen unter anderem Studien zur Wahrscheinlichkeitstheorie.

[25] vgl. Heuser, 1995, S. 45

[26] Poincaré, Henri (1854-1912), Mathematiker, Professor in Paris und Vetter von Raymond Poincaré, dem französischen Staatspräsidenten, während des ersten Weltkrieges. Er wurde durch seine Arbeiten zur Stabilität des Sonnensystems zum Urvater der Chaostheorie, wenngleich er das Wort Chaos in diesem Zusammenhang sicherlich nicht benutzt hätte. (vgl. Kinnebrock, 1999, S. 115)

[27] vgl. Kinnebrock, 1999, S. 115

[28] vgl. Briggs / Peat, 1990, S. 37

[29] vgl. Elsner, 1996, S. 6

[30] Diese Gleichungen des Lorenzeschen Modells sollten die Erdatmosphäre modellieren und standen synonym für Temperatur, Luftdruck und Windrichtung. (vgl. Peat, 1990, S. 96)

[31] vgl. Briggs / Peat, 1990, S. 97

[32] vgl. Kinnebrock, 1999, S. 116 f.

[33] Dieser Begriff entstand durch Zufall, da ohne Wissen von Lorenz ein von ihm eingereichter Vortrag im Jahre 1979 die Überschrift enthielt: „Kann das Schlagen des Flügels eines Schmetterlings in Brasilien in Texas einen Tornado auslösen ?“ (vgl. Turnheim, 1993, S. 241)

[34] Alexander Michailowitsch Ljapunov hatte allerdings schon einen wichtigen Beitrag zur Stabilitätsanalyse der Lösungsfunktionen von Differentialgleichungs-Systemen gemacht. (vgl. Morfill / Scheingraber , 1993, S. 51)

[35] Die Kernaussage der Quantentheorie ist, dass Vorgänge in der Natur nicht kontinuierlich sondern sprunghaft erfolgen. Ferner sind diese Vorgänge nicht beliebig genau vorhersagbar, sondern es sind nur Aussagen über die Wahrscheinlichkeit des Eintreten gewisser Ereignisse möglich. Diese Quantisierung tritt jedoch erst bei der Beobachtung molekularer, atomarer oder subatomarer Systeme in Erscheinung. (vgl. Microsoft Encarta 98 Enzyklopädie. © 1993 – 1997 Microsoft Corporation) Die angesprochenen Unwägbarkeiten beziehen sich auf die Heisenbergsche Unschärferelation, die besagt, dass der Impuls eines Körpers unbestimmt wird, wenn wir seinen Ort sehr genau messen, umgekehrt wird sein Ort unbestimmt, wenn wir uns auf seinen Impuls konzentrieren. Es ist also nicht möglich, ein Quantenteilchen auf einen bestimmten Ort im Zustandsraum festzulegen. Doch ohne einen solchen Ausgangspunkt sind wir nicht in der Lage, die Bahn des Quantenteilchens zu berechnen oder seine Zukunft genau vorherzusagen. (vgl. Peat, 1992, S. 77)

[36] vgl. Kinnebrock, 1999, S. 118

[37] vgl. Argyris / Faust / Haase, 1994, S. 16 f.

[38] vgl. Loistl / Betz , 1993, S. 6 ff.

[39] Kinnebrock, 1999, S. 119

[40] Maxwell, James Clerk (1831-1879), britischer Physiker. Maxwells Forschungsarbeiten und Schriften auf dem Gebiet des Elektromagnetismus ließen ihn zu einem der bedeutendsten Wissenschaftler des 19.Jahrhunderts werden. Weitere wichtige Beiträge leistete er mit der kinetischen Gastheorie, die die physikalischen Eigenschaften und das Wesen der Gase erklärte, und mit seinen Untersuchungen zur Farbwahrnehmung und den Prinzipien der Thermodynamik. (Microsoft Encarta 98 Enzyklopödie. © 1993 – 1997 Micosoft Corporation)

[41] vgl. Morfill / Scheingraber , 1993, S. 42f.

[42] Abb. 1 entnommen aus: Loistl / Betz, 1996, S. 8; Diese Abbildung besagt, dass auf eine bestimmte Ursache nur eine bestimmte Wirkung eintritt.

[43] vgl. Argyris / Faust / Haase, 1994, S. 21

[44] vgl. Kinnebrock, 1999, S. 119

[45] Abb. 2 entnommen aus: Loistl / Betz, 1996, S. 8; Diese Darstellung verdeutlicht die Annahme ähnlicher Wirkungen bei ähnlichen Ursachen. Als Beispiel sei ein Bogenschütze genannt, der bei einer kleinen Abweichung der Anvisierung der Mitte einer Zielscheibe immer noch die Mitte treffen kann.

[46] vgl. Peitgen / Jürgens / Saupe, 1994, S. 5

[47] vgl. Loistl, 1996, S. 9

[48] Abb. 3 entnommen aus: Loistl / Betz, 1996, S. 8; Deterministisch chaotische Systeme gehorchen genau vorhersagbaren Gesetzen. Da aber nie alle Informationen über das System bekannt sind, impliziert dies eine generelle Unmöglichkeit der Vorhersage. Die sensitive Abhängigkeit des Systems von den Anfangsbedingungen verhindert, dass Ursache und Wirkung in Verbindung gesetzt werden können. (vgl. internet http://www.Chaos-Theorie.de 24.01.02)

[49] vgl. Kinnebrock, 1999, S. 119

[50] Obwohl Kostolany (prominenter Börsenmakler) die Aussagekraft solcher Prognosen bestritt (“Was gestern gültig war, ist heute vielleicht ohne Berechtigung.“ und „Auch der beste Wirtschaftswissenschaftler kann die Börsentendenz nicht richtig analysieren. Börse und Wirtschaft laufen ... nicht parallel.“) betrachtete er vor seinen Anlageentscheidungen die Kursverläufe ausgesuchter Aktien („Ich schaue mir gerne Charts über eine längere Zeitspanne (mindestens sechs bis zwölf Monate) an ... Die Charts sind die Fieberkurven einer Aktie, die mir über ihren Zustand in den letzten Wochen und Monaten Auskunft geben. Das ist schon eine gewisse Basis für die Beurteilung – auch für die Zukunft.“) (Zitate vgl. Kostolany, 1999, S. 85 f., 100 f.)

[51] vgl. Schmielewski (Hrsg.), 1995, S. 10

[52] vgl. Steiner / Bruns, 1995, S. 36

[53] vgl. Barth, 1996, S. 5

[54] vgl. Steiner / Bruns, 1995, S. 37 ff.

[55] Steiner / Bruns, 1995, S. 40

[56] Steiner / Bruns, 1995, S. 40

[57] Der bekannteste Kalenderzeiteffekt ist der Januar-Effekt, der eine regelmäßige Überperformance von kleinen Unternehmen im Januar verglichen mit anderen Monaten aufweisen kann. Darüber hinaus wären noch der ‚day of the week‘ und der ‚neglected-firm‘-Effekt zu nennen. (vgl. Steiner / Bruns, 1995, S. 41)

[58] vgl. Steiner / Bruns, 1995, S. 41

[59] vgl. Thoma, 1996, S. 20 f.

[60] vgl. Thoma, 1996, S. 22

[61] vgl. Steiner / Bruns, 1995, S. 270 ff.

[62] Die Entwicklung spekulativer Preise als einen reinen Zufallsprozess zu interpretieren, geht auf Bachelier zurück. Das einfache stochastische Zeitreihenmodell sagt aus, dass aufeinanderfolgende Kursänderungen statistisch unabhängige, identisch verteilte Zufallsvariablen sind. Das Erklärungsmodell basiert auf der Arithmetischen Brown’schen Bewegung, welche ursprünglich die Bewegung von Teilchen in einer Flüssigkeit beschreibt. (vgl. Natusch, 1995, S. 109)

[63] vgl. Steiner / Bruns, 1995, S. 271

[64] vgl. Steiner / Bruns, 1995, S. 272

[65] Das Black/Scholes Modell von Fisher Black und Myron Scholes dient zur Berechnung theoretischer Preise von börsengehandelten Optionen. Grundlage des Modells bildet die Überlegung, dass auf einem vollkommenen Kapitalmarkt (Kapitalmarkteffizienz) mit jedem risikolosen Investment beliebiger Zusammensetzung eine bestimmte Rendite, und zwar genau der marktübliche Zinssatz (r) für risikolose Anlagen (risikoloser Zinssatz), erzielt wird. (vgl. Hielscher, 1992) Werden die dem Modell zugrundeliegenden Annahmen verletzt, müssen sich die berechneten Optionswerte nicht zwangsläufig einstellen. (vgl. Doll / Neuroth, 1991, S. 53)

[66] Die Varianz-Kovarianz-Methode benutzt Kovarianzen (d.h. Volatilitäten und Korrelationen) der Risikofaktoren und die Sensitivitäten (Delten) der im Portfolio enthaltenen Risikofaktoren, um den Value at Risk in linearer Näherung zu berechnen. Der Value at Risk eines Portfolios für den Zeitraum T-t gibt an, wie viel das Portfolio über diesen Zeitraum mit einer bestimmten Wahrscheinlichkeit an Wert verliert. (vgl. Eller / Deutsch, 1998, S. 201 ff.)

[67] Mit diesem Begriff ist das Erzeugen von Zufallszahlen gemeint. Der Name leitet sich aus der gleichnamigen Stadt in Monaco ab, weil dort sehr viele Spielbanken sind, die selbst zufällige Zahlenfolgen erzeugen.

[68] vgl. Eller / Deutsch, 1998, S. 16

[69] In der Literatur gibt es im Detaillierten unterschiedliche Ansätze die Fundamentale Aktienanalyse zu definieren. Laut Uhlig geht sie davon aus, dass Anlageentscheidungen rational begründet sind, und dass die Investoren Anlagerisiko und Ertragsaussicht gegeneinander abwiegen, bevor die Entscheidung für oder gegen ein Anlagemedium getroffen wird. (vgl. Uhlig, 1999, S. 118). Loistl weist ferner darauf hin, dass die Entwicklung der Ertragskraft eines Unternehmens letztlich auch die Entwicklung der Aktienkurse bestimmt. Steigende Aktienkurse beruhen hierbei auf der dank hoher Ertragskraft steigenden Vermögenssubstanz. (vgl. Loistl, 1992, S. 185) Auf weiterführende Literatur im Anhang sei hiermit verwiesen.

[70] Dornbusch, 1998, S. 29

[71] vgl. Dornbusch, 1998, S. 29

[72] Die Fundamentalanalyse gibt Hinweise , ob Aktien über- oder unterbewertet sind. Liegt der Börsenkurs unter dem inneren Wert einer Aktie (unterbewertet), sollte sie gekauft werden. Ist der Börsenkurs aber höher als der innere Wert (überbewertet), sollte die Aktie verkauft werden.

[73] Dornbusch, 1998, S. 31 zit. nach Schulz, 1972, S. 142 ff.

[74] Externe Daten können hierbei sein: erwartete konjunkturelle Entwicklungen, allgemeine Gewinn- und Zinserwartungen, die erwartete Liquiditätsentwicklung, Branchenerwartungen in der Branche des zu analysierenden Unternehmens. (vgl. Grill / Perczynski, 1998, S. 241)

[75] Interne Daten des Unternehmens sind z.B. die Ertragskraft, die Kapitalstruktur, die Vermögensstruktur, die Arbeitsproduktivität, die Qualität des Managements und die Marktstellung auf den Absatzmärkten. (vgl. Grill / Perczynski, 1998, S. 241)

[76] vgl. Dornbusch, 1998, S. 31

[77] vgl. Steiner / Bruns, 1995 , S. 243

[78] Der Vorteil im Gegensatz zur Bottom-Up-Technik besteht unter anderem darin, dass durch die übergeordneten Daten bezüglich der generellen Entwicklung der zu betrachtenden Aktie schon eine Prognose gewagt werden kann. (vgl. Steiner / Bruns, 1995, S. 274)

[79] Abb. 4 entnommen aus: Steiner / Bruns, 1995, S. 274

[80] Steiner / Uhlir, 2001, S. 112

[81] Dieses Modell lässt sich nur unter bestimmten Annahmen theoretisch herleiten. Es werden die Sicherheit, bei der alle zukünftigen Zahlungsströme bekannt sind, und der Ausschluss von Transaktionskosten unterstellt. (vgl. Dornbusch, 1998, S. 47)

[82] vgl. Dornbusch, 1998, S. 47

[83] DVFA steht für D eutsche V ereinigung für F inanzanalyse und A nlageberatung e.V. und SG für S chmalenbach- G esellschaft, Deutsche Gesellschaft für Betriebswirtschaft e.V.. (vgl. Steiner / Bruns, 1995 , S. 284)

[84] vgl. Steiner / Bruns, 1995 , S. 283

[85] Das heißt, die Marktteilnehmer verhalten sich rational und sind Portfoliooptimierer im Sinne von Markowitz, sie halten also nur solche Portfolios, die zu einem vorgegebenen Risiko eine maximale Rendite bzw. zu einer vorgegebenen Rendite ein minimales Risiko erwarten lassen. Die Portfoliotheorie besagt, dass alle Kombinationen eines risikobehafteten Portfolio im μ-σ-Diagramm auf einer Geraden liegen (Kapitalmarktlinie).

[86] vgl. Wallmeier, 1997, S. 60

[87] Steiner / Uhlir, 2001, S. 186

[88] Copeland, 1998, S. 277

[89] vgl. Wallmeier, 1997, S. 60

[90] vgl. Copeland, 1998, S. 284 ff.

[91] vgl. Copeland, 1998, S. 284 ff.

[92] Gemeint ist hier, wie sich das Börsenverhalten auf eine erwartete finanzpolitische oder andere Maßnahme einstellt.

[93] Schmielewski (Hrsg.), 1995, S. 29

[94] Uhlig schreibt, dass sich mit fundamentalen Daten mittel- bis langfristige Vorhersagen besser treffen lassen als kurzfristige, da kurzfristige Zufallsschwankungen dominieren, während mittel- und langfristig sich die wirtschaftlichen Rahmendaten durchsetzen. (vgl. Uhlig, 1999, S. 120)

[95] vgl. Loistl, 1992, S. 238

[96] vgl. Natusch, 1995, S. 108

[97] vgl. Loistl, 1992, S. 52 ff. (Hier sind alle 7 Annahmen der Dow-Theorie gut erklärt dargestellt)

[98] vgl. Steiner / Bruns, 1995, S. 293

[99] vgl. Schumann / Lohrbach, 1995, S. 616

[100] vgl. Loistl, 1992, S. 66 f.

[101] vgl. Steiner / Bruns, 1995, S. 293

[102] vgl. Loistl, 1992, S. 68

[103] vgl. Schumann / Lohrbach, 1995, S. 616

[104] vgl. Steiner / Bruns, 1995, S. 296

[105] Dabei sollten die Trendlinien die Kursverläufe nicht schneiden.

[106] vgl. Loistl, 1992, S. 93

[107] vgl. Steiner / Bruns, 1995, S. 301

[108] vgl. Loistl, 1992, S. 84

[109] Abb. 5 entnommen aus: Grill / Perczynski, 1998, S. 241

[110] vgl. Schumann / Lohrbach, 1995, S. 616

[111] vgl. Loistl, 1992, S. 71

Details

Seiten
Erscheinungsform
Originalausgabe
Jahr
2002
ISBN (eBook)
9783832478858
ISBN (Paperback)
9783838678856
DOI
10.3239/9783832478858
Dateigröße
2.1 MB
Sprache
Deutsch
Institution / Hochschule
Hochschule Wismar – Wirtschaft
Erscheinungsdatum
2004 (April)
Note
1,6
Schlagworte
börse chaostheorie aktienanalyse kapitalmarkt wirtschaft
Zurück

Titel: Chaostheoretische Betrachtungen zur Prognostizierbarkeit von Aktienkursen
book preview page numper 1
book preview page numper 2
book preview page numper 3
book preview page numper 4
book preview page numper 5
book preview page numper 6
book preview page numper 7
book preview page numper 8
book preview page numper 9
book preview page numper 10
book preview page numper 11
book preview page numper 12
book preview page numper 13
book preview page numper 14
book preview page numper 15
book preview page numper 16
book preview page numper 17
book preview page numper 18
book preview page numper 19
book preview page numper 20
book preview page numper 21
book preview page numper 22
book preview page numper 23
book preview page numper 24
book preview page numper 25
120 Seiten
Cookie-Einstellungen