Lade Inhalt...

Behavioral Risk Management

Diplomarbeit 2007 125 Seiten

BWL - Unternehmensführung, Management, Organisation

Leseprobe

Inhaltsverzeichnis

1 Einleitung

2 Risikobegriff und Risiko Management
2.1 Risikobegriff und Risikoarten
2.1.1 Risikobegriff
2.1.2 Risikoarten
2.2 Risiko Management

3 Grundzüge der rational-basierten Entscheidungstheorie
3.1 Rationalität als Grundannahme
3.2 Klassische Entscheidungstheorien
3.2.1 Erwartungswert
3.2.2 Erwartungsnutzen
3.3 Axiomatik der Erwartungsnutzentheorie

4 Wahrnehmung von Risikoinformationen
4.1 Urteilsheuristik – Definition und Begriffsabgrenzung
4.2 Verfügbarkeitsheuristik
4.2.1 Definition
4.2.2 Erfahrungsbedingte Verfügbarkeit
4.2.3 Gedächtnisbedingte Verfügbarkeit
4.2.4 Vorstellungskraftbedingte Verfügbarkeit
4.2.5 Scheinkorrelationen
4.3 Repräsentativitätsheuristik
4.3.1 Definition
4.3.2 Vernachlässigung der Basisrate
4.3.3 Mangelnde Berücksichtigung der Stichprobengröße
4.3.4 Fehlwahrnehmung von Zufälligkeiten
4.3.5 Fehlbewertung verknüpfter Ereignisse
4.3.6 Vernachlässigung der Aussagekraft von Informationen
4.3.7 Vernachlässigung der Regression zum Mittelwert
4.3.8 Beurteilung der persönlichen Repräsentativität
4.4 Ankerheuristik
4.4.1 Definition
4.4.2 Mangelhafte Anpassung des expliziten Ankerwerts
4.4.3 Mangelhafte Anpassung des impliziten Ankers
4.4.4 Überschätzung der Wahrscheinlichkeit verknüpfter Ereignisse
4.4.5 Übersteigerte Urteilssicherheit / Overconfidence
4.4.6 Ankereffekte in Gruppen
4.5 Mentale Buchführung
4.6 Vermeidung kognitiver Dissonanz
4.7 Zusammenfassung und Einordnung

5 Risikobewertung und psychologische Bedürfnisse bei der Entscheidungsfindung
5.1 (Experimentelle) Hintergründe der Prospect Theory
5.1.1 Gewissheitseffekt
5.1.2 Spiegelungseffekt
5.1.3 Wahrscheinlichkeitsbedingte Versicherung
5.1.4 Isolierungseffekt
5.2 Prospect Theory
5.2.1 Bearbeitung und Evaluation von Informationen
5.2.2 Wertfunktion v
5.2.3 Wahrscheinlichkeitsgewichtungsfunktion Abbildung in dieser Leseprobe nicht enthalten
5.2.4 Cumulative Prospect Theory
5.3 Nachweis der Prospect Theory im Entscheidungsverhalten
5.3.1 Einführung
5.3.2 Eigenkapitalprämie
5.3.3 Dispositionseffekt
5.3.4 Status Quo Bias, Verlustaversion und Besitztumseffekt
5.3.5 End-Of-The-Day Effekt
5.3.6 Sunk Cost Effekt
5.4 Framing: Der Einfluss des Handlungsrahmens
5.4.1 Definition
5.4.2 Kontextbezogenes Framing
5.4.3 Aufgabenbezogenes Framing
5.4.4 Hedonic Editing
5.5 Vermeidung von Ambiguität
5.6 Enttäuschung, Reue und Angst
5.6.1 Disappointment Theory
5.6.2 Regret Theory
5.6.3 Risiko als Emotion, insbesondere Angst
5.7 Selbst-Kontrolle
5.8 Herdenverhalten und Informationskaskaden
5.9 Zusammenfassung und Einordnung

6 Versicherungsmärkte im Lichte behavioralistischer Theorien
6.1 Einführung
6.2 Urteilsfehler und –verzerrungen bei der Risikoeinschätzung
6.3 Übersteigerte Urteilssicherheit bei Versicherungsnehmern
6.4 Ambiguität in Versicherungsunternehmen
6.4.1 Ambiguität hinsichtlich Verlustwahrscheinlichkeiten
6.4.2 Ambiguität hinsichtlich Verlustwahrscheinlichkeiten und -höhen
6.5 Ausgestaltung von Versicherungsverträgen

7 Unternehmerisches Risiko Management im Lichte behavioralistischer Theorien
7.1 Einordnung von Risiko Management
7.1.1 Überblick
7.1.2 Urteilsverzerrungen: Das Beispiel von Sony
7.1.3 Verhalten von Finanzanalysten
7.2 Handlungsmöglichkeiten und -empfehlungen
7.2.1 Aufbau und Relevanz eines Behavioral Risk Management Systems
7.2.2 Empfehlungen für die Entwicklung von Entscheidungsregeln

8 Zusammenfassung

Literaturverzeichnis

Ehrenwörtliche Versicherung

„Der Fehler des rationalen Modells liegt nicht in seiner Logik, sondern darin, dass es ein besonderes menschliches Gehirn voraussetzt. Wer könnte aber ein Gehirn entwerfen, das den Erfordernissen dieses Modells entspräche? Da müsste ja jeder von uns alles vollständig und auf einmal wissen und verstehen!“[1]

1 Einleitung

Wir leben in einer komplexen Welt und werden jeden Tag von einer unglaublichen Anzahl von Informationen überflutet. Die rationale Entscheidungstheorie nimmt an, dass Menschen all diese Informationen verarbeiten und auf ihrer Basis objektiv Entscheidungen treffen können. Die menschliche Fähigkeit zur Informationsverarbeitung ist jedoch quantitativ beschränkt und die notwendigen Vereinfachungen um das Leben effizienter zu meistern, können in Abweichungen von der Rationaltheorie oder ihren Annahmen resultieren. Diese Abweichungen können bei allen Urteilen und Entscheidungen des täglichen Lebens geschehen, besonders relevant sind sie jedoch in risikobehafteten Urteils- und Entscheidungssituationen.

Die allgemeine Erkenntnis der Irrationalitäten des menschlichen Entscheidungsverhaltens basiert auf einer Vielzahl anekdotischer, experimenteller und psychologischer Erkenntnisse, sowie abstrahierenden Entscheidungsmodellen. Diese Erkenntnisse sind bisher mit Hinsicht auf das Risiko Management jedoch kaum systematisch betrachtet und eingeordnet worden.

Zentrales Ziel dieser Diplomarbeit ist es daher, die für das Risiko Management aus dem individuellen, irrationalen Urteils- und Entscheidungsverhalten erwachsenden relevanten Erklärungsansätze und Theorien zu identifizieren, diese im menschlichen Urteils- und Entscheidungsprozess einzuordnen und so ein fundiertes, theoretisches Gerüst zu schaffen. Eine umfassende Darstellung des theoretischen Gerüsts, wie sie als Grundlage weiterer Forschung und zur wertgenerierenden Anwendung der Erkenntnisse im individuellen und unternehmerischen Risiko Management benötigt wird, liegt bislang nicht vor.

Ein Einblick in die Implikationen des dargestellten Theoriengerüsts wird am Ende dieser Diplomarbeit zur Erklärung des Verhaltens auf Versicherungsmärkten genutzt. Da der Einfluss verhaltenswissenschaftlicher Theorien für Versicherungsmärkte in einem weitaus höheren Maße erforscht ist, als für das unternehmerische Risiko Management, wird für Unternehmen betrachtet, durch welche Vorgehensweisen sie Risiken aus Urteils- und Entscheidungsfehlern erkennen und minimieren können.

Die Betrachtung beginnt mit der Beschreibung der Grundzüge des Risiko Managements (Kapitel 2) und der rationalen Entscheidungstheorie (Kapitel 3). Anschließend wird die Basis jeder Entscheidungsfindung, nämlich die Wahrnehmung und Beurteilung von Informationen, in Kapitel 4 betrachtet. Kapitel 5 beschreibt die menschliche Vorgehensweise bei der Entscheidungsfindung und dabei den Einfluss psychologischer Bedürfnisse. Aus den im Schwerpunkt dieser Arbeit stehenden Erkenntnissen zur Informationswahrnehmung, -bewertung und Entscheidungsfindung werden anschließend Implikationen für den Versicherungsmarkt (Kapitel 6) und für das Risiko Management von Unternehmen (Kapitel 7), welches durch das Urteils- und Entscheidungsverhalten der ausführenden Personen bestimmt wird, abgeleitet. Kapitel 8 fasst die Ergebnisse dieser Diplomarbeit zusammen.

2 Risikobegriff und Risiko Management

2.1 Risikobegriff und Risikoarten

2.1.1 Risikobegriff

Der Begriff ‚Risiko’ beschreibt grundsätzlich Situationen in denen Unsicherheit bezüglich des Ergebnisses herrscht. Allgemein wird Risiko als Varianz des Ergebnisses vom Erwartungswert definiert.[2] Durch die Definition von Risiko als Abweichung vom Erwartungswert stellen sowohl positive, als auch negative Abweichungen vom Erwartungswert Risiko dar.

Oftmals findet diese allgemeine Definition von Risiko jedoch keine Anwendung. Risiko kann als erwarteter Verlust aus einer Situation definiert werden, d.h. dass eine Erhöhung des erwarteten Verlusts auch das Risiko erhöht. Der Risikobegriff besitzt häufig diese negative Konnotation, man spricht dann vom Downside Risk. Der Begriff Risiko wird aber auch für die Schwankungsbreite und –häufigkeit um den Erwartungswert benutzt. Umso größer die Schwankungsbreite bzw. Varianz, umso unsicherer bzw. riskanter wird das Ergebnis erachtet.[3] Kann man für ein Risiko den Erwartungswert berechnen und auch durch Maßnahmen des Risiko Managements reduzieren, spricht man auch von objektiven Risiken.[4]

2.1.2 Risikoarten

Ein Ansatz zur Kategorisierung von Risiken, denen Unternehmen ausgesetzt sind, besteht in der Einteilung in Preisrisiken (price risks), Kreditrisiken (credit risks) und Reine Risiken (pure risks).[5]

Preisrisiken (price risks) beschreiben dabei die Unsicherheit bezüglich der Entwicklung der Einkaufs- und Verkaufspreise. Unter Kreditrisiken (credit risks) versteht man insbesondere die aus Forderungen und Verbindlichkeiten erwachsenden Risiken für Unternehmen. Reine Risken (pure risks) stehen im Mittelpunkt des Risikomanagement vieler mittlerer und großer Unternehmen. Zu den reinen Risiken gehört das Risiko, dass Vermögensgegenstände des Unternehmens durch externe Einwirkungen Wert verlieren oder das Unternehmen schadenersatzpflichtig wird.[6]

Das Risikoprofil von Haushalten lässt sich in sechs Kategorien darstellen. Auf der Einkommenserzielungsseite steht das Einkommensrisiko, und auf der Einkommensverwendungsseite sammeln sich die Risiken aus medizinischen Ausgaben, Kreditverpflichtungen, dem Besitz physischer Vermögensgegenstände, als auch dem Besitz von Finanzvermögen und dem Problem der Langlebigkeit.[7]

2.2 Risiko Management

Gutes Risiko Management setzt sowohl für Unternehmen als auch für Individuen ein sinnvolles Vorgehen voraus. Das Vorgehen im Risiko Management kann in fünf Schritte gegliedert werden:

1. Identifizierung der signifikanten Risiken
2. Einschätzung der Verlustwahrscheinlichkeiten und –höhe
3. Entwicklung und Auswahl von Risiko Management-Methoden
4. Implementierung der ausgewählten Risiko Management-Prozesse
5. Regelmäßige Überwachung des Erfolgs und der Angemessenheit der Risiko Management-Maßnahmen[8]

Insbesondere in großen Unternehmen ist es jedoch sinnvoll Risiken nicht isoliert in einer Abteilung oder einer Tochtergesellschaft, sondern ganzheitlich bzw. integriert für das gesamte Unternehmen zu betrachten. Im Rahmen des Integrated Risk Management -Ansatzes spielen Einzelrisiken nicht die entscheidende Rolle, sondern ihr Beitrag zum Gesamtrisiko des Unternehmens.[9]

Das grundsätzliche Vorgehen beim Integrierten Risiko Management ähnelt dabei dem zuvor beschriebenen für das ‚isolierte’ Risiko Management.

Erster Schritt auf dem Weg zur Aufsetzung eines Integrierten Risiko Managements ist die Erfassung aller relevanten Risiken des Unternehmens. Im zweiten Schritt werden Auftretenswahrscheinlichkeit und Auswirkungen der Risiken analysiert und insbesondere im Lichte ihrer Interdependenzen und Korrelationen mit anderen Risiken betrachtet. Vor diesem Hintergrund soll das Gesamtrisiko, dem das Unternehmen ausgesetzt ist, ermittelt und ins Verhältnis zur Risikotragfähigkeit gesetzt werden.[10]

Anschließend wird die optimale Risiko Management-Strategie unter Berücksichtigung der Geschäftspolitik, der Kapitalstruktur und der Möglichkeiten zum Risikotransfer, ermittelt. Dies kann gleichzeitige Veränderungen der Geschäftspolitik, Kapitalstruktur und des durchgeführten Risikotransfers bedeuten, um Risiken zu managen.

Die ermittelte Risiko Management-Strategie ist abschließend umzusetzen. Insbesondere sind die Verantwortlichkeiten für die Teilbereiche des Integrierten Risiko Managements entsprechend zu hinterlegen, und das Risiko Management Konzept entsprechend zu kommunizieren.[11]

In den Kapiteln 3 und 4 folgt die Diplomarbeit dem Prozess des Risiko Managements in vereinfachter Form. Kapitel 3 betrachtet den Prozess der Identifikation und Analyse von Risiken. Von besonderer Bedeutung ist dabei das menschliche Vorgehen in Situationen, in denen keine Verlustwahrscheinlichkeiten und –höhen vorhanden sind und diese zuerst ermittelt werden müssen. Kapitel 4 betrachtet das Entscheidungsverhalten und psychologische Bedürfnisse in Risikosituationen.

3 Grundzüge der rational-basierten Entscheidungstheorie

3.1 Rationalität als Grundannahme

Beobachtungsgegenstand der Mehrheit ökonomischer Theorien ist das einzelne Individuum, welches eine rationale Auswahl aus einer Vielzahl von Alternativen zu treffen hat.[12] Ökonomisches Handeln wird also durch den Grundsatz der Rationalität geprägt[13], wobei rationale Entscheidungen als „bewusste, überlegte, begründbare und verstehbare Entscheidungen für diejenige Handlung aus einer Menge von Handlungsalternativen verstanden werden, durch die ein angestrebtes Ziel realisiert zu werden verspricht.“[14]

Das Entscheidungsproblem ist dabei durch Knappheit am Ressourcen charakterisiert, d.h. das Individuum kann nicht alle Alternativen gleichzeitig realisieren, sondern muss sich zwischen diesen Alternativen entscheiden.[15] Ziel des rationalen Entscheidungsprozesses ist es dabei die Alternative zu wählen, die dem Individuum den höchsten Grad an Bedürfnisbefriedigung verspricht.[16]

Die Entscheidungssituation ist dabei nicht zwangsläufig durch vollständige Information, aber zumindest durch das Vorliegen einer Vielzahl klarheitverschaffender und relevanter Informationen gekennzeichnet.[17]

Die Entscheidungssituation allgemein wird durch folgende Parameter beschrieben:

- Die Umweltzustände, deren Eintrittswahrscheinlichkeiten sicher sind oder unter Unsicherheit abgeschätzt werden können,
- Die Handlungsalternativen und ihre Ergebnisse, die vollständig beschrieben sind,
- Das Zielsystem des Entscheiders, welches die Handlungsalternativen hinsichtlich ihrer Ergebnisse bewertet.[18] Dabei wird angenommen, dass das Zielsystem durch konstante Präferenzen des Entscheiders charakterisiert ist.[19]

Der Entscheider ist in der Entscheidungssituation in der Lage alle vorliegenden Informationen in die oben genannte Struktur zu bringen und an Hand der Entscheidungsregeln sämtliche Berechnungen durchzuführen um entsprechend seines Zielsystems die Alternative, die den höchstmöglichen Wert bzw. Nutzen generiert, zu realisieren.[20]

Eine moderne Variante die Grundlagen rationalen Verhalten zu beschreiben, die sich gleichzeitig an das klassische Modell des strikt eigennutzmaximierenden homo oeconomicus anlehnt, und rationale Entscheider zu charakterisieren, ist das Resourceful, Evaluative, Maximizing Model (REMM), welches in Jensen / Meckling 1994 beschrieben wird.

Das REMM definiert rationales Verhalten über vier Postulate und ihre Ausprägungen, die folgend dargestellt werden:

1. Das Individuum interessiert sich für sämtliche Determinanten seiner Umwelt. Gekennzeichnet durch eine transitive Präferenzordnung[21] ist das Individuum bereit Handel und Tausche von materiellen und nicht-materiellen Gütern einzugehen.
2. Die individuellen Bedürfnisse des Individuums unterliegen keiner Sättigung: ‚Mehr ist immer besser’
3. Sowohl die Zahl bekannter Alternativen, als auch die individuellen Restriktionen (wie Ressourcen, Wissen und mangelnde Gelegenheiten) bestimmen den Handlungsraum, in dem das Individuum seinen Nutzen maximiert und so höchstmögliche Befriedigung seiner Bedürfnisse erfährt.[22]
4. Das Individuum erahnt potentielle Veränderungen in seiner Umwelt und reagiert darauf mit der Suche und ggf. Erschließung neuer, angepasster Handlungsalternativen. Die Zahl der zur Verfügung stehenden Alternativen kann so durch das Individuum vergrößert werden.[23]

Jensen / Meckling 1994 “describe people as Resourceful, Evaluative Maximizers—REMMs, for short—and argue that these three characteristics are effective in explaining much (though not all) human behavior.”[24]

3.2 Klassische Entscheidungstheorien

3.2.1 Erwartungswert

In jeder Entscheidungssituation steht das Individuum vor der Aufgabe unter Benutzung einer Entscheidungsregel die für ihn wertvollste Handlung aus seinen Handlungsalternativen zu wählen. Das Problem der Bewertung eines risikobehafteten Objekts wird oft am Beispiel einer Lotterie untersucht. Hierbei handelt es sich um eine Lotterie, die unter bekannten Wahrscheinlichkeiten unterschiedlich hohe, bekannte Auszahlungen erbringt.[25] Damit ist beispielsweise ein unternehmerisches Projekt bezüglich der Form mit einer Lotterie vergleichbar.

Die wohl älteste Form der Bewertung einer unsicheren Lotterie erfolgt über den Erwartungswert.[26] Der Erwartungswert berechnet sich durch die Multiplikation jeder möglichen Auszahlung mit der Anzahl von Situationen, in denen diese Auszahlung zu Stande kommt, wobei die Produkte anschließend aufsummiert werden und durch die Anzahl aller möglichen Umweltzustände dividiert werden.[27] Oder einfacher formuliert als Summe der mit ihren Wahrscheinlichkeiten Abbildung in dieser Leseprobe nicht enthaltengewichteten Auszahlungen Abbildung in dieser Leseprobe nicht enthaltender Lotterie:[28] Abbildung in dieser Leseprobe nicht enthalten

Die Berechnung des Erwartungswertes setzt also die Kenntnis der Auszahlungshöhen und -wahrscheinlichkeiten voraus.[29]

3.2.2 Erwartungsnutzen

Die Betrachtung des Erwartungswerts berücksichtigt nicht die persönliche Risikoeinstellung der Individuen. Die Bewertung einer Lotterie über den Erwartungswert unterstellt, dass zwei Personen einem identischen Risiko bzw. risikobehafteten Projekt wie einer Lotterie einen identischen Wert zumessen. Bernoulli 1954 bezieht die persönliche Risikoeinstellung von Individuen bei der Bewertung risikobehafteter Projekte ein. Persönliche Merkmale der Individuen, die nicht relevant für die Risikoeinstellung sind, sowie situationsabhängige Faktoren werden nicht beachtet.[30]

Grundgedanke von Bernoullis Erwartungsnutzenprinzip ist, dass „the determination of the value of an item must not be based on its price, but rather on the utility it yields“[31].

Der Erwartungsnutzen berechnet sich als Summe der Nutzen aus jeder Auszahlung multipliziert mit der Anzahl der Umweltzustände, in denen es zu dieser Auszahlung kommt, dividiert durch die Gesamtanzahl von Umweltzuständen.[32] Bzw. als Summe der mit den Auszahlungswahrscheinlichkeiten Abbildung in dieser Leseprobe nicht enthalten multiplizierten Nutzen der Auszahlung Abbildung in dieser Leseprobe nicht enthalten.[33] Abbildung in dieser Leseprobe nicht enthalten

Die Bewertung der Lotterie unterscheidet sich also interpersonal und hängt einerseits von der jeweiligen Nutzenfunktion und andererseits auch vom Vermögensstock des Individuums ab.[34]

Die individuelle Risikoeinstellung, die durch die individuelle Nutzenfunktion beschrieben wird, kann dabei durch Risikoneutralität, Risikoaversion oder Risikofreude gekennzeichnet sein. Während ein risikoneutrales Individuum jeder Lotterie einen Nutzen in Höhe des Erwartungswertes beimisst, bewertet ein risikoaverses Individuum den Nutzen einer mit Unsicherheit behafteten Lotterie geringer als den Erwartungswert.[35] Risikofreudige Individuen hingegen generieren aus einer Lotterie einen höheren Nutzen, als den Erwartungswert.[36] Ein Überblick über die Risikoeinstellungen wird in Grafik 1 gegeben.

Der Erwartungsnutzen kann jedoch nicht direkt die Frage beantworten, welchen montetären Wert die Lotterie für den Entscheider besitzt. Daher wird durch Bildung der Umkehrfunktion aus dem Erwartungsnutzen das Sicherheitsäquivalent berechnet.

Abbildung in dieser Leseprobe nicht enthalten

Das Sicherheitsäquivalent stellt dabei den Geldbetrag dar, bei dessen Zahlung der Entscheider zwischen Teilnahme und Nicht-Lotterie an der Lotterie, indifferent ist.[37] Möchte also jemand dem Entscheider sein Lotterielos abkaufen, muss er ihm mindestens einen Betrag in Höhe des Sicherheitsäquivalents bieten.

Die Bestimmung des Erwartungswertes, Erwartungsnutzen und Sicherheitsäquivalents wird in Grafik 2 dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Grafik 1: Risikoeinstellungen im Überblick

Quelle: Unser 1999, S. 26.

Abbildung in dieser Leseprobe nicht enthalten

Grafik 2: Erwartungswert, Erwartungsnutzen und Sicherheitsäquivalent

Quelle: in Anlehnung von z.B. Harrington / Niehaus 2003, S. 176f.

Die Erwartungsnutzentheorie bzw. das Prinzip der Maximierung des Erwartungsnutzens ist die vielen Finanztheorien unterliegende Entscheidungsregel.[38]

Die Maximierung des Erwartungsnutzens ist beispielsweise Zielsetzung bei Versicherungsentscheidungen, wobei Versicherungsverträge das gegensätzliche Risikoprofil einer Lotterie besitzen. Versicherungsverträge versuchen das Vermögen einer Person vor Verlusten zu schützen ohne dass es über den Verlustausgleich Zugewinnmöglichkeiten gibt. Bei einer Lotterie dominiert meist das Interesse der Vermögensmehrung und zur Teilnahme an der Lotterie kann bewusst ein Vermögensbetrag gezahlt und so ‚riskiert’ werden.[39]

Der Entscheidungsprozess der Erwartungsnutzentheorie wird in Grafik 3 dargestellt. Objektive Risikogrößen sind Grundlage eines objektiven Prozesses der Informationsbewertung, der in der letztendlichen Entscheidung resultiert.

Abbildung in dieser Leseprobe nicht enthalten

Grafik 3: Entscheidungsprozess der Erwartungsnutzentheorie

Quelle: Eigene Darstellung in Anlehnung an Loewenstein et al. 2001, S. 270.

3.3 Axiomatik der Erwartungsnutzentheorie

Die Betrachtung des Erwartungsnutzen zur Bewertung von risikobehafteten Objekten ist spätestens seit des Nachweises der Messbarkeit des Nutzens durch von Neumann und Morgenstern 1944 die wohl verbreitetste Entscheidungstheorie für unsicherheitsbehaftete Situationen.[40] Messbarkeit des Nutzens bedeutet dabei das Finden einer „real-valued, order-preserving, linear function“[41] für jedes Individuum, die die Präferenzen bezüglich der Lotterienauswahl aus einer Vielzahl von Lotterien beschreibt.

Die der Erwartungstheorie zu Grunde zu Grunde liegenden Axiome, die die Voraussetzungen für die Messbarkeit des Nutzens sind, werden im Folgenden kurz beschrieben.

- Ordnungsaxiom[42]: Jede individuelle Präferenzordnung ist durch Vollständigkeit und Transitivität gekennzeichnet. Betrachtet man ein aus zwei Lotterien u, v bestehendes Lotterienset U und es gilt entweder Abbildung in dieser Leseprobe nicht enthalten, Abbildung in dieser Leseprobe nicht enthalten, oder Abbildung in dieser Leseprobe nicht enthalten, besteht eine vollständige Ordnung. Für drei Lotterien u, v, w aus dem Lotterienset U besteht dann eine transitive Ordnung, wenn Abbildung in dieser Leseprobe nicht enthalten und Abbildung in dieser Leseprobe nicht enthalten, ist Abbildung in dieser Leseprobe nicht enthalten.[43] Der Entscheider kennt also das gesamte Lotterienset U und ist der Lage alle Lotterien paarweise zu vergleichen und in eine Präferenzordnung zu bringen.[44]
- Stetigkeitsaxiom[45]: Bei der Betrachtung von zwei Lotterien (Abbildung in dieser Leseprobe nicht enthalten) gilt, wenn Abbildung in dieser Leseprobe nicht enthalten ist, dass Abbildung in dieser Leseprobe nicht enthalten gilt. Betrachtet man drei Lotterien (Abbildung in dieser Leseprobe nicht enthalten) und es gilt die Präferenzordnung Abbildung in dieser Leseprobe nicht enthalten, gibt es ein Abbildung in dieser Leseprobe nicht enthalten für das gilt, dass Abbildung in dieser Leseprobe nicht enthalten.[46] Dies impliziert, dass der Entscheider für jede Lotterie ein Sicherheitsäquivalent, also einen sicheren Geldwert bei dessen Erhalt er indifferent zwischen Teilnahme und Nicht-Teilnahme bzw. Verkauf’ der Lotterie ist, anzugeben in der Lage ist.[47]
- Unabhängigkeitsaxiom: Das Unabhängigkeitsaxiom besagt, dass die Präferenzordnung zwischen zwei Lotterien (z.B. Abbildung in dieser Leseprobe nicht enthalten) nicht dadurch verändert werden darf, dass zu jeder der beiden Lotterien eine weitere Lotterie (z.B. w) addiert wird. Es muss gelten, dassAbbildung in dieser Leseprobe nicht enthalten. Die Unterschiede der Lotterien sind also Kriterium bei der Auswahl der Lotterien. Gemeinsamkeiten spielen bei der Entscheidung keine Rolle.[48]

In einem Lotterienset, das die genannten Axiome erfüllt und so die Messbarkeit des Nutzen gewährleistet ist[49], weist die Lotterie, die vom Individuum am stärksten präferiert wird, den größten Erwartungsnutzen auf. Handelt ein Entscheider gemäß den Axiomen, maximiert er zwangsläufig seinen Erwartungsnutzen durch die Auswahl zwischen den Lotterien. Jedes von den Axiomen abweichende Verhalten ist als irrational zu charakterisieren.[50]

4 Wahrnehmung von Risikoinformationen

4.1 Urteilsheuristik – Definition und Begriffsabgrenzung

Während sich die Entscheidungsfindung als ein Prozess der Selektion von Alternativen durch Auswahl oder Zurückweisung beschreiben lässt, beinhaltet der Urteilsprozess die kritische Bewertung von Informationen und Meinungsbildung. Urteile entstehen dabei häufig spontan und werden ohne Absicherung getroffen.

Die Vorgänge des Urteilens und Entscheidens stehen dabei in wechselseitiger Beziehung. Die Beurteilung einer Situation oder Person kann Entscheidungen hervorrufen.[51]

Als Heuristik werden kognitive Strategien bezeichnet, die Menschen bewusst oder unbewusst anwenden um Probleme zu lösen und Entscheidungen zu fällen. Heuristiken sind dabei aber kein Mittel zur Wahl der optimalen Entscheidung.[52] Die umfangreichen Denkprozesse um im Gehirn ein Optimierungsverfahren zu durchlaufen sind wegen Zeitmangelns und begrenzten Wissens zumeist nicht möglich.[53] So nutzt der Mensch Vereinfachungsregeln um schnelle und gute Entscheidungen treffen zu können.

Ein Arzt, der mit einem Herzinfarktpatienten konfrontiert wird, muss innerhalb kürzester Zeit entscheiden, ob es sich bei dem Patienten um einen Hoch-Risiko- oder Niedrig-Risiko-Patienten handelt. In dieser Situation wäre es aus rationaler Sicht notwendig alle verfügbaren Informationen und insbesondere Messwerte des Patienten zu betrachten, sowie statistisch und medizinisch auszuwerten und so eine Entscheidung zu fällen. Die Nutzung einer sogenannten „fast and frugal“[54] -Heuristik, wie z.B. der Einschätzung des Risikotyps über einen dreistufigen Entscheidungsbaum, in dem Ja- oder Nein-Entscheidungen zu treffen sind, kann dabei sogar bessere Entscheidungen hervorbringen, als die Auswertung aller verfügbaren statistischen Daten.[55]

Eine Heuristik lässt sich so als „eine allgemeine, einfach anwendbare, uns meistens aber nicht bewusste Regel, die es gestattet, Urteile und Entscheidungen auch unter ungünstigen Informationskonstellation einigermaßen schnell – unter bestimmten Randbedingungen - hinreichend treffsicher zu fällen“[56] definieren.

Die Heuristik als Entscheidungsregel kann für eine Vielzahl von Entscheidungssituationen verwendet werden. Sie benötigt weder externe Hilfsmittel, wie Taschenrechner, noch explizite kognitive Operationen, wie das Rechnen mit Formeln. Die Einfachheit von Heuristiken führt zur schnellen Generierung von Ergebnissen. Gleichzeitig sind sich Menschen der Verwendung von Heuristiken in Urteils- und Entscheidungsprozessen häufig nicht bewusst. Auf Basis der nicht-bewussten Anwendungen werden jedoch Urteile gefällt, die der Überlebensfähigkeit des Menschen zumeist zuträglich sind. Zudem ist der menschliche Wissenstand in Entscheidungssituationen oft begrenzt und Entscheidungen beinhalten somit ein hohes Maß an Unsicherheit.[57]

Heuristiken führen zwar in vielen Situationen zu schnellerer Entscheidungsfindung und guten Ergebnissen, der Einsatz von Heuristiken kann jedoch auch zur Urteilsfehlern und -verzerrungen führen.

Um einen Urteilsfehler handelt es sich, wenn ein Urteil „im Widerspruch zu einem allgemein anerkannten normativen Urteilsmodell steht.“[58]

Besteht für eine Situation keine eindeutige Referenz aus einem normativen Urteilsmodell, sondern es ist nur eine Relation zwischen Faktoren zu erwarten, spricht man im Falle einer Abweichung des Urteils von dieser erwarteten Relation von einer Urteilsverzerrung (bias). Ein Beispiel für eine Urteilsverzerrung ist ein Arzt, der die Erkrankung des vorherigen Patienten unbewusst bei der Diagnose des nächsten Patienten einsetzt, obwohl diese Informationen eigentlich irrelevant sind. Der Arzt trifft also unter Umständen eine Diagnose, die er nicht getroffen hätte, wenn ihm die irrelevanten Informationen aus der vorherigen Diagnose nicht vorgelegen hätten.[59]

Bei den in den folgenden Unterkapiteln dargestellten Heuristiken, Urteilsfehlern und –verzerrungen handelt es sich um Erkenntnisse aus dem „heuristics and biases program“[60], die von Daniel Kahneman, Amos Tversky und ihren Mitstreitern gesammelt wurden. Dabei wurden Fehler in der Urteils- und Entscheidungsfindung zwar identifiziert und anekdotisch nachgewiesen, jedoch wurde häufig der Wahrnehmungsprozess, der diese Fehler und Verzerrungen erzeugt, nicht oder nicht ausreichend untersucht. Es wurden lediglich Verhaltensabweichungen im Vergleich zu klassischen, rationalen Theorie identifiziert. Eine Erforschung der unterliegenden Prozesse erscheint für die Zukunft von hoher Relevanz. Den Gegensatz dazu stellt das Forschungsfeld der „ecologically rational heuristics“[61] dar, welches die Grundbausteine von durch die Forscher entwickelten Heuristiken und ihre Eignung für die Lösung bestimmter Problemsituationen untersucht.[62]

4.2 Verfügbarkeitsheuristik

4.2.1 Definition

Nutzt ein Mensch die Verfügbarkeitsheuristik orientiert er sich bei der Einschätzung von Wahrscheinlichkeiten und Klassengrößen an der Verfügbarkeit entsprechender Beispiele und Situationen in seinen Erinnerungen.[63] Die Verfügbarkeitsheuristik findet ebenso bei der Suche nach Handlungsmöglichkeiten Anwendung.[64]

Je leichter Beispiele und Einzelfälle in Erinnerung gerufen werden können, umso stärker beeinflussen sie die nachfolgende Alternativenauswahl bzw. umso größer werden die Klassen und Wahrscheinlichkeiten geschätzt.[65]

4.2.2 Erfahrungsbedingte Verfügbarkeit

Einen Einfluss auf die Schätzungen von Wahrscheinlichkeiten, Klassengrößen und die Auswahl von Handlungsalternativen hat die erfahrungsbedingte Verfügbarkeit von Informationen. [66]

In einem von Tversky / Kahneman 1973 durchgeführten Experiment wurden den Experimentteilnehmern Tonaufnahmen vorgespielt, auf denen eine Liste mit männlichen und weiblichen Namen verlesen wurde. Anschließend wurden die Teilnehmer danach befragt, ob mehr weibliche oder männliche Personen auf der verlesenen Liste standen.

Wurde eine Liste verlesen, auf der die Männernamen einen höheren Bekanntheitsgrad besaßen als die Frauennamen, wurde trotz ähnlich hohen Anteils der Namen auf der Liste, geurteilt, dass mehr Männernamen auf der Liste standen. Waren die verlesenen Frauennamen berühmter, würde vermutet, dass die Liste mehr Frauennamen beinhaltete. Berühmte Namen können leichter aus dem Gedächtnis abgerufen werden. Somit steht die Aussage, ob mehr Männer oder Frauen auf der Liste standen, in positiver Abhängigkeit zu der Berühmtheit der verlesenen männlichen und weiblichen Namen.

Ebenso konnten sich die Teilnehmer leichter die verlesenen Namen der berühmten Persönlichkeiten, als die der weniger berühmten Persönlichkeiten in Erinnerung rufen.[67]

Die Eindringlichkeit von Informationen besitzt einen Einfluss auf ihren späteren Abruf bzw. ihre Wahrnehmung. Ein Hausbrand in der Nachbarschaft beeinflusst auf Grund der persönlichen Erfahrung die Einschätzung der subjektiven Wahrscheinlichkeit eines Hausbrandes stärker, als das Lesen eines Artikels über Hausbrände in der Zeitung.[68] Somit kann auf Grund eines Hausbrands in der näheren Umgebung der Drang eine Brandversicherung abzuschließen ansteigen, obwohl die objektive Wahrscheinlichkeiten für einen Hausbrand unverändert ist.

4.2.3 Gedächtnisbedingte Verfügbarkeit

Ebenso beeinflusst die Tatsache, welcher Aufwand benötigt wird um Informationen abzurufen, die Beurteilung von Wahrscheinlichkeiten und Größenklassen.[69]

Tversky / Kahneman 1973 stellten im Rahmen eines Experiments Experimentteilnehmern die Frage, ob es in der englischen Sprache wahrscheinlicher ist, dass der Buchstabe ‚R’ an erster oder an dritter Stelle eines Wortes erscheint. Die Mehrheit der Experimentteilnehmer antwortet, dass die Wahrscheinlichkeit den Buchstaben ‚R’ an erster Stelle statt an dritter Stelle eines Wortes zu finden höher ist.

Zur Beantwortung der Frage ziehen die Experimentteilnehmer dabei die Einfachheit der erfolgreichen Suche als Kriterium heran. Wörter, die mit ‚R’ beginnen können schneller aus dem Gedächtnis abgerufen werden, d.h. sie sind verfügbarer, als Wörter, die ein ‚R’ an dritter Stelle besitzen. Durch die erhöhte Verfügbarkeit von mit ‚R’ beginnenden Worten, wird auch geschätzt, dass es mehr dieser Wörter gibt. Eine Aussage zur realen Häufigkeit des Buchstaben an erster Stelle im Vergleich zur dritten Stelle liegt jedoch nicht vor.[70]

Determinanten der gedächtnisbedingten Verfügbarkeit sind Aufmerksamkeit, Auffälligkeit, Lebhaftigkeit, Vertrautheit, sowie räumliche und zeitliche Nähe.[71]

Die gedächtnisbedingte Verfügbarkeit von Informationen führt laut Rothbart et al. 1978 auch dazu, dass die Einschätzung von großen Gruppen über die Gruppenmitglieder definiert wird, die im Gedächtnis am präsentesten sind. Ungewöhnliche Individuen innerhalb einer Gruppe bleiben dabei besonders in Erinnerung und determinieren, da die Informationen über sie am schnellsten und besten verfügbar sind, die Einschätzung der Gruppe, der sie angehören.

Der Recency Effect stellt ebenso eine Folge der gedächtnisbedingten Verfügbarkeit dar. Dies bedeutet, dass “more recent experiences are better remembered or are more influential in judgments about present situations”.[72] Der Recency Effect beruht jedoch auf der Aktualität von Informationen und nicht auf den allgemein im Gedächtnis vorhanden Informationen. Der Recency Effect tritt laut Jones / Sieck 2003 besonders stark auf, wenn sich ähnliche Informationen wiederholen.

Johnson et al.. 2003 zeigen, dass die gedächtnisbedingte Verfügbarkeit von terroristischen Akten im Flugverkehr dazu führt, dass Menschen für eine Versicherung gegen terroristische Akte eine höhere Zahlungsbereitschaft besitzen als für eine Versicherung gegen alle denkbaren Unfälle (inklusive terroristischer Akte) im Flugverkehr.[73]

4.2.4 Vorstellungskraftbedingte Verfügbarkeit

In Situationen, in denen keine konkreten Erinnerungen zur Bildung eines Wahrscheinlichkeitsurteils herangezogen werden können, spielt die einbildungskraftbedingte Verfügbarkeit von Ereignissen eine determinierende Rolle. Hierbei werden Situationen, die man sich leicht vorstellen kann, höhere Wahrscheinlichkeiten zugeordnet als schwer vorstellbaren Situationen.[74]

Die am einfachsten zu konstruierende Situation ist jedoch nicht immer die Situation mit der höchsten objektiven Wahrscheinlichkeit.

Die Abweichungen zwischen Schätzungen und dem tatsächlichen Ausmaß von Größenklassen untersuchen Tversky / Kahneman 1973 in einem Experiment. Die Experimentteilnehmer haben u.a. die Aufgabe zu schätzen, wie viele verschiedene r -köpfige Komitees sie aus einer Gruppe mit zehn Personen bilden können. Die rationale Lösung des Problem würde, bei gegebenem r, über den Binominalkoeffizienten erfolgen, d.h. Abbildung in dieser Leseprobe nicht enthalten.

Bei intuitivem Vorgehen ermitteln die Experimentteilnehmer bei r =2 etwa 70 Kombinationsmöglichkeiten, bei r =8 hingegen nur etwa 20 Kombinationsmöglichkeiten.[75]

Kombinationsmöglichkeiten mit r =2 sind dabei für die Experimentteilnehmer leichter vorstellbar, als Kombinationsmöglichkeiten mit r =8. Dabei kann mit r =2 und r =8 die gleiche Anzahl, nämlich 45 Teams gebildet werden „weil jedes gebildete 2-Personen-Team eindeutig ein 8-Personen-Team definiert, das nicht gebildet wurde“.[76]

Carroll 1978 konnte nachweisen, dass die im Rahmen eines Experiments ergangene Aufforderung sich eine bestimmte Situation vorzustellen Auswirkungen auf das Wahrscheinlichkeitsurteil der Experimentteilnehmer hat. Experimentteilnehmer, die sich vorstellen sollten, dass Jimmy Carter die damaligen amerikanischen Präsidentschaftswahlen gewinnt, schätzten die Wahrscheinlichkeit seines Wahlsieges höher ein, als die Experimentteilnehmer, die sich vorstellen sollten, dass Henry Ford diese Wahl gewinnt und umgekehrt.

4.2.5 Scheinkorrelationen

Ein weiterer Effekt der Verfügbarkeitsheuristik ist die Herstellung von Scheinkorrelationen zwischen Ereignissen bzw. das versehentliche Ziehen von Schlussfolgerungen.[77] Der Begriff der Scheinkorrelation beschreibt eine individuelle Beobachtung „of a correlation between two classes of events which, in reality, (a) are not correlated, or (b) are correlated to a lesser extent than reported”.[78]

So zeigen Chapman / Chapman 1969, dass psychologische Diagnosen häufig auf Scheinkorrelationen beruhen. Sowohl erfahrene Psychodiagnostiker, als auch Laien, überschätzen den Zusammenhang zwischen einer im Experiment vorgegebenen Diagnose und natürlichen Merkmalen des Patienten. Dabei übersehen beide Teilnehmergruppen häufig wissenschaftliche bestätigte Symptome für eine Diagnose.

4.3 Repräsentativitätsheuristik

4.3.1 Definition

Zur Beantwortung der Frage, ob Objekt A zur Klasse B gehört oder wie hoch die Wahrscheinlichkeit dafür ist, dass Objekt A zur Klasse B gehört, benutzen Menschen das Prinzip der Repräsentativität. Dabei vergleichen Menschen die grundlegenden Charakteristika des Objekts A und der Klasse B und beobachten so die grobe Ähnlichkeit zwischen A und B bzw. die Repräsentativität von A für B oder umgekehrt. Ist Objekt A dabei sehr repräsentativ für die Klasse B, wird die Wahrscheinlichkeit, dass A zu B gehört als hoch eingeschätzt. Umgekehrt verhält es sich, wenn die Ähnlichkeit gering ist.[79]

4.3.2 Vernachlässigung der Basisrate

Ein aus der Nutzung der Repräsentativitätsheuristik entstehender Fehler ist die mangelnde Berücksichtigung der Größenverhältnisse in der Grundgesamtheit beim Fällen von Wahrscheinlichkeitsurteilen (Base Rate Fallacy).

Kahneman / Tversky 1973 befragen Experimentteilnehmer zu ihren Schätzungen bezüglich der Verteilung von Studierenden über Studiengänge und lassen sie daraufhin die Zugehörigkeit einer Person zu den Studiengängen einschätzen. Bei der Einschätzung der Zugehörigkeit der einzelnen Person dominiert das Prinzip der Repräsentativität und produziert Urteilsergebnisse, die im Widerspruch zu den selbst geschätzten Studiengangs-Verteilungen in der Studierendenschaft stehen.

Die mangelnde Beachtung von gegebenen Wahrscheinlichkeiten wurde auch durch Grether 1980 bestätigt. Dabei wurde ebenfalls der Einfluss von monetären Anreizen auf die Entscheidungsfindung untersucht und dabei festgestellt, dass diese bei unbekannten Problemen keinen Einfluss auf das Problemlösungsverhalten haben. Dies bedeutet, dass Menschen in unbekannten Problemsituationen nicht der Maximierung des Erwartungsnutzen folgen. Für bekannte Probleme konnte kein eindeutiges Ergebnis gefunden werden.

4.3.3 Mangelnde Berücksichtigung der Stichprobengröße

Ebenso sorgt die Anwendung der Repräsentativitätsheuristik für die Nichtbeachtung der Stichprobengröße bei der Einschätzung der Aussagekraft einer Statistik. Bei der Beurteilung von Sachverhalten stützen sich Individuen nur auf die Größenverhältnisse innerhalb der Stichprobe. Sie beziehen jedoch die Stichprobengröße nicht als Kriterium zur Bewertung der Qualität der Stichprobe mit ein. Die Stichprobe wird also unabhängig von ihrer Größe als repräsentativ für die Grundgesamtheit angesehen.[80]

Kahneman / Tversky 1972 präsentieren Experimentteilnehmern folgendes Szenario: Eine Stadt besitzt zwei unterschiedlich große Krankenhäuser. Im großen Krankenhaus werden täglich 45 Babies und im kleinen Krankenhaus 15 Babies geboren. Bei den Babies sind im Durchschnitt 50% Jungen, wobei der Anteil von Jungen täglichen Schwankungen unterworfen ist.

Fragt man die Experimentteilnehmer, von welchem der beiden Krankenhäuser sie erwarten, dass es innerhalb eines Jahres mehr Tage gab an denen 60% oder mehr Jungen geboren werden, entscheidet sich die Mehrzahl der Experimentteilnehmer dafür, dass dies für beide Krankenhäuser ähnlich wahrscheinlich ist. Dies zeigt, dass Menschen die Ähnlichkeit der Krankenhäuser über die Durchschnittsstatistik bewerten. In Bezug auf die Durchschnittsstatistik sind die beiden Krankenhäuser identisch, also sollten auch an gleich viel Tagen pro Jahr 60% oder mehr Jungen geboren werden. Die zweithäufigste Antwort ist, dass die Wahrscheinlichkeit für 60% Geburten von Jungen im großen Krankenhaus höher ist, als im kleinen Krankenhaus. Seltenste Antwort ist, dass die Wahrscheinlichkeit im kleinen Krankenhaus am höchsten ist. Richtig wäre jedoch auf Grund der geringeren Anzahl täglicher Beobachtungen im kleinen Krankenhaus auf diese Antwort zu schließen.[81]

Dies bedeutet, dass Menschen Statistiken, die ihnen vorgelegt werden, als wahr annehmen, unabhängig davon, wie groß die unterliegende Stichprobe war und wie hoch somit die Qualität der statischen Kennzahl ist.

4.3.4 Fehlwahrnehmung von Zufälligkeiten

Die menschliche Erwartung, dass jede Stichprobe, unabhängig von ihrer Größe, repräsentativ für die Grundgesamtheit sein muss, führt ebenso zu Fehlurteilen z.B. in Spielsituationen. Statistische Regelmäßigkeiten, die bei unendlich vielen Beobachtungen gelten, werden nicht nur als repräsentative Charakteristika des Spiels an sich, sondern auch jedes Einzelspiels bzw. jeder Sequenz von Einzelspielen interpretiert. Spielt ein Mensch also das gleiche Spiel zwei oder mehrere Male, erwartet er eine stärkere Ähnlichkeit zwischen den Spielen, als die Wahrscheinlichkeitstheorie vorgibt. Das erste durchgeführte Spiel wird als repräsentativ für diesen Typ von Spielen angesehen und Menschen erwarten, dass das Gesetz der großen Zahlen auch für kleine Zahlen von Beobachtungen gilt.[82]

Den Glauben, dass Beobachtungen aus kleinen Stichproben repräsentativ sind, weisen Tversky / Kahneman 1971 dabei sowohl für Laien, als auch für Experten (in diesem Falle Psychologen) nach.

Stellt man wie Tune 1964 Experimentteilnehmer vor die Aufgabe jeweils eine Sequenzen von Münzwürfen zu schätzen, erkennt man, dass in den Schätzungen die Wahrscheinlichkeiten für Kopf bzw. Zahl nahe bei 50% liegen. Da eine 50-prozentige Wahrscheinlichkeit für Kopf bzw. Zahl als repräsentativ für eine Sequenz von Münzwürfen gilt, wird dies auch von einem Einzelspiel erwartet.

Verhalten sich die Spielergebnisse in einer realen Spielsituationen nicht entsprechend den Erwartungen der Repräsentativität erwarten Spieler häufig eine Gegenreaktion, so dass das Spiel wieder repräsentativ wird. Diese Fehleinschätzung wird als Gambler’s Fallacy bezeichnet. Sie zeigt sich etwa, wenn Spieler beim Roulette nach einer Sequenz roter Zahlen die Wahrscheinlichkeit für eine schwarze Zahl bei der nächsten Drehung als sehr hoch einschätzen. Spieler glauben, dass die unrepräsentative Folge roter Zahlen durch den Zufall korrigiert werden muss. Den Prozess der Annäherung an den Mittelwert interpretieren sie dabei fälschlicherweise als einen Korrekturprozess und nicht als Verwässerungseffekt über eine unendliche Zahl von Beobachtungen.[83]

Dieser Effekt zeigt sich ebenso im Glauben an die Hot Hand im Basketball. Gilovich et al. 1985 konnten den Glauben, dass die Wahrscheinlichkeit, dass ein Spieler nach einem erfolgreichen Wurf eher erneut trifft größer ist, als wenn er beim vorherigen Wurf nicht traf, statistisch falsifizieren. Es gibt zwischen aktuellen und vorherigen Wurf keine Korrelation. Somit verändert sich durch den Erfolg des vorherigen Wurfes auch die Wahrscheinlichkeit für den Erfolg des aktuellen Wurfes nicht, wie viele Fans jedoch glauben.

Die mangelnde Berücksichtigung der Stichprobengröße bei der Bewertung von Wahrscheinlichkeitsurteilen, als auch die Erwartung von Regelmäßigkeiten in Spielen u. ä. fußen auf einem mangelhaften Verständnis des Gesetzes der großen Zahlen. Fong et al. 1986 konnten in Experimenten zeigen, dass die Unterrichtung von Menschen über statistische Methoden zu einer verbesserten Wahrnehmung von Wahrscheinlichkeiten und einem geringeren Einfluss der Repräsentativitätsheuristik führte. Die statistischen Erkenntnisse waren zudem auch außerhalb von Unterrichtssituationen abruf- und anwendbar. Der menschliche Urteilsprozess kann also durch die Steuerung der angewendeten Regeln verändert werden.

4.3.5 Fehlbewertung verknüpfter Ereignisse

Die Überschätzung der Wahrscheinlichkeiten von Konjunktionen ist ebenfalls ein Ergebnis der Repräsentativitätsheuristik. Ist die Wahrscheinlichkeit von Ereignis A größer als von Ereignis B (Abbildung in dieser Leseprobe nicht enthalten), dann muss aus mathematischer Sicht auch die Wahrscheinlichkeit für das Auftreten von A größer sein, als die Wahrscheinlichkeit für das gleichzeitige Auftreten von Objekt A und Objekt B (Abbildung in dieser Leseprobe nicht enthalten). Auf Grund der Repräsentativitätsheuristik können Urteile aber entgegen dieser Regel ausfallen (Conjunction Fallacy). Ist eine Konjunktion A & B repräsentativer als das Auftreten eines einzelnen Ereignisses A, werden Menschen die Konjunktion als am wahrscheinlichsten beurteilen.[84]

Tversky / Kahneman 1983 präsentierten den Experimentteilnehmer die folgende Personenbeschreibung: „Linda is 31 years old, single, outspoken and very bright. She majored in philosophy. As a student, she was deeply concerned with issues of discrimination and social justice and also participated in anti-nuclear demonstrations”.[85] Die Experimentteilnehmer sollten daraufhin Linda hinsichtlich ihrer Aktivitäten und beruflichen Tätigkeit einschätzen. Zur Auswahl standen u.a. die Möglichkeiten, dass Lisa in der Frauenbewegung aktiv ist (F), in einer Bank arbeitet (B) oder in der Bank arbeitet und in der Frauenbewegung aktiv ist (B&F). Lindas Beschreibung ist durch Tversky / Kahneman 1983 so gewählt worden, dass sie repräsentativ für eine Feministin und unrepräsentativ für eine Bankerin ist. Experimentteilnehmer schätzten Abbildung in dieser Leseprobe nicht enthalten. Die Experimentteilnehmer geben der repräsentativsten Aussage (F) die höchste Wahrscheinlichkeit, sie ordnen der Konjunktion B & F aber fälschlicherweise eine höhere Wahrscheinlichkeit zu als B. Die Konjunktion B & F bildet Lindas Persönlichkeit besser ab und gilt somit als repräsentativer und wahrscheinlicher als B.[86]

Agnoli / Krantz 1989 überprüften die Behauptung, dass die Conjunction Fallacy in Ermangelung adäquater Problemlösungsmethoden bei Menschen entsteht. Sie konnten experimentell feststellen, dass das Training in statistischen und mathematischen Problemlösungsmethoden zu einer geringeren Zahl von Fehleinschätzungen von Konjunktionen führte. Daraus schließen Agnoli / Krantz 1989, dass der Einsatz Urteilsheuristiken durch die Unterrichtung in alternativen Problemlösungsstrategien vermindert werden kann.

4.3.6 Vernachlässigung der Aussagekraft von Informationen

Das Repräsentativitätsprinzip führt auch dazu, dass Menschen die Aussagekraft von Informationen nicht bei ihren Urteilen einbeziehen.

Kahneman / Tversky 1973 führen dazu ein Experiment durch, in dem die Experimentteilnehmer die Charakterbeschreibungen eines Kommilitonen erhalten und auf Basis dieser Charakterbeschreibungen einschätzen sollen, wie viele andere Kommilitonen (in Prozent) sie stärker beeindrucken. Gleichzeitig sollen die Experimentteilnehmer auch schätzen, wie viele Kommilitonen (in Prozent) am Jahresende eine bessere Note als die beschriebene Person erhalten.

Im Ergebnis stellen Kahneman / Tversky 1973 einen große Ähnlichkeit zwischen beiden Prozentzahlen fest. Aus statistischer Sicht ist dies jedoch unbegründet. Die Charakterbeschreibung stellt zwar eine gute Basis zur Einschätzung des beschriebenen Kommilitonen in Hinblick auf seine Wirkung dar, jedoch besitzt sie keinerlei Aussagekraft für die Studienergebnisse. Die Anwendung des Repräsentativitätsprinzips führt aber dazu, dass die Einordnung in die Studentenschaft mit Hinblick auf den Charakter für die Einordnung mit Hinblick auf die Abschlussnote übernommen wird. Die mangelnde Aussagekraft hätte aus statistischer Sicht zu einer Einschätzung des beschriebenen Kommilitonen um den Median führen müssen.[87] Auch wenn eine Person zum Beispiel als intelligent charakterisiert wird, hat dies längst keinen Einschluss auf die Abschlussnote seines Studiums.

Umso größer die Repräsentativität einer Charakterbeschreibung für einen bestimmten Output ist, umso höher ist das Vertrauen in die Richtigkeit der Schätzung bzw. des Urteils. Dies führt zu einem Anschein der Richtigkeit der auf Repräsentativität basierenden Urteile.[88]

Bei Inkonsistenzen innerhalb der Charakterbeschreibung sinkt laut Slovic 1966 sinkt das Vertrauen in repräsentativitätsbezogene Schätzungen. Das Vertrauen in die Richtigkeit von Informationen und den daraus entstehenden Urteilen steht jedoch laut Ziegler et al. 2005 in einem positiven Zusammenhang zur Vertrauenswürdigkeit der Informationsquelle, wobei die Präferenzen hinsichtlich der Quelle vom persönlichen Status abhängen. Beispielsweise vertraut ein Experte eher auf uneinheitliche Informationen, die von einem Experten stammen, als wenn sie von einem Laien stammen würden.

Smith et al. 2006 erforschten die Informationsverarbeitung von Individuen bei einer mehrfachen Gegenüberstellung einer Person, die zu einer Gruppe gehört. Dabei stellten sie fest, dass durch mehrmalige Konfrontation mit der Person individuelle Merkmale geringer berücksichtigt werden und die Person eher als Stereotyp der Gruppe wahrgenommen wird. Die Charakteristika bekannter Personen unterliegen also weniger häufiger systematischen Analyseprozessen, so werden Repräsentativitäts- und Ähnlichkeitsprinzipien angewandt.

Die Beurteilung einer Situation auf Grund ihrer Repräsentativität und unter mangelnde Berücksichtigung der Aussagekraft von Informationen kann im Rahmen des Risiko Managements zur Auswahl der falschen Handlungsalternative führen.

4.3.7 Vernachlässigung der Regression zum Mittelwert

Die Anwendung der Repräsentativitätsheuristik führt auch dazu, dass Menschen in ihren Urteilen die Regression zum Mittelwert vernachlässigen. Weicht bei zwei identisch verteilten Variablen X und Y die Ausprägung von X um k Einheiten vom Mittelwert ab, so wird die Ausprägung von Y weniger als k Einheiten vom Mittelwert abweichen.[89]

Wegen der Nutzung der Repräsentativitätsheuristik erwarten Menschen häufig keine Regression zur Mitte. Ebenso ist es für viele Menschen schwierig Regressionen gedanklich zu verarbeiten.[90]

[...]


[1] Kahneman in Bernstein 2004, S. 357.

[2] Vgl. Harrington / Niehaus 2003, S. 1f.

[3] Vgl. Harrington / Niehaus 2003, S. 1f.

[4] Vgl. Klotmann 2003, S. 18.

[5] Vgl. Harrington / Niehaus 2003, S. 4f.

[6] Vgl. Harrington / Niehaus 2003, S. 4f.

[7] Vgl. Harrington / Niehaus 2003, S. 5f.

[8] Vgl. Harrington / Niehaus 2003, S. 8f.

[9] Vgl. Bloos et al. 2005, S. 11.

[10] Vgl. Bloos et al. 2005, S. 12f.

[11] Vgl. Bloos et al. 2005, S. 12f.

[12] Vgl. Kirchgässner 2000, S. 12.

[13] Vgl. Simon 1955, S. 99f

[14] Vgl. Jungermann, H. 1977, S. 9

[15] Vgl. Kirchgässner 2000, S. 12.

[16] Vgl. Unser 1999, S. 10.

[17] Vgl. Simon 1955, S. 99f

[18] Vgl. Unser 1999, S. 10.

[19] Vgl. Simon 1955, S. 100

[20] Vgl. Unser 1999 , S. 10.

[21] (wenn A gegenüber B bevorzugt wird und B gegenüber C, wird auch C gegenüber A bevorzugt)

[22] Vgl. Jensen / Meckling 1994, S. 5f.

[23] Vgl. Jensen/Meckling 1994, S. 5f

[24] Jensen 1994, S. 42.

[25] Vgl. Doherty 2000, S. 19ff.

[26] Vgl. Schoemaker 1982, S. 538.

[27] Vgl. Bernoulli 1954, S. 23.

[28] Vgl. Doherty 2000, S. 21

[29] Vgl. Bernoulli 1954, S. 23.

[30] Vgl. Bernoulli, 1954, S. 24f.

[31] Bernoulli 1954, S. 24.

[32] Vgl. Bernoulli 1954, S.24.

[33] Vgl. Doherty 2000, S. 28.

[34] Vgl. Bernoulli 1954, S. 25ff.

[35] Vgl. Feess 2000, S.40.

[36] Vgl. Unser 1999, S. 26.

[37] Vgl. Unser 1999, S. 17.

[38] Vgl. Unser 1999, S. 104.

[39] Vgl. Doherty 2000, S. 29.

[40] Vgl. Unser 1999, S. 15.

[41] Herstein/Milnor 1953, S. 293.

[42] Vgl. Unser 1999, S. 17.

[43] Vgl. Neumann / Morgenstern 1961, S. 26f.

[44] Vgl. Unser 1999, S. 17.

[45] Vgl. Unser 1999, S. 17.

[46] Vgl. Neumann / Morgenstern 1961, S. 25, Herstein/Milnor 1953, S. 293ff.

[47] Vgl. Unser 1999, S. 17.

[48] Vgl. Unser 1999, S. 17f.

[49] Vgl. Herstein / Milnor 1953, S. 297.

[50] Vgl. Unser 1999, S. 18.

[51] Vgl. Zimbardo / Gerrig 1999, S. 303.

[52] Vgl. Dieckmann 2005, S. 6f.

[53] Vgl. Todd / Gigerenzer 2000, S. 727.

[54] Todd/Gigenerenzer 2000, S. 728.

[55] Vgl. Todd/Gigerenzer 2000, S. 727f.

[56] Stephan 1999, S. 103.

[57] Vgl. Stephan 1999, S.103f.

[58] Stephan 1999, S. 105.

[59] Vgl. Stephan 1999, S. 105ff.

[60] Dieckmann 2005, S. 7.

[61] Dieckamnn 2005, S. 7.

[62] Vgl. Dieckmann 2005, S. 7ff.

[63] Vgl. Tversky / Kahneman 1974, S.1127, Stephan 1999: S. 108, 118ff.

[64] Vgl. Stephan 1999, S. 108.

[65] Vgl. Stephan 1999, S. 108.

[66] Vgl. Stephan 1999, S. 118.

[67] Vgl. Tversky / Kahneman 1973; S. 220f.

[68] Vgl. Tversky / Kahneman 1974, S. 1127.

[69] Vgl. Stephan 1999, S. 123.

[70] Vgl. Tversky / Kahneman 1973), S. 211f.

[71] Vgl. Nisbett / Ross 1980 in Stephan 1999, S. 123.

[72] Jones / Sieck 2003, S. 626.

[73] Vgl. Johnson et al. 1993, S. 39.

[74] Vgl. Stephan 1999, S. 126, Tversky / Kahneman 1974, S. 1127f.

[75] Vgl. Stephan 1999, S. 126, Tversky / Kahneman 1973, S. 213ff, Tversky / Kahneman 1974, S. 1127f.

[76] Stephan 1999, S. 126.

[77] Vgl. Tversky / Kahneman 1974, S. 1128.

[78] Chapman 1967, S. 151.

[79] Vgl. Tversky 1974, S. 149f, Tversky / Kahneman 1974, S.1124.

[80] Vgl. Kahneman / Tversky 1972, S.430f., Tversky / Kahneman 1974, S. 1125.

[81] Vgl. Kahneman / Tversky 1972, S.443f.

[82] Vgl. Tversky / Kahneman 1971, S. 105ff., Tversky / Kahneman 1974, S. 1125f Kahneman / Tversky 1972, 434f.

[83] Vgl. Tversky / Kahneman 1974, S. 433f, Tversky / Kahneman 1971, S. 105f.

[84] Vgl. Tversky / Kahneman 1983, S. 293ff., Agnoli / Krantz 1989, S.515ff.

[85] Tversky / Kahneman 1983, S. 297.

[86] Vgl. Tversky / Kahneman 1983, S. 297.

[87] Vgl. Kahneman / Tversky 1973, S. 243f.

[88] Vgl. Kahneman / Tversky 1973, S. 243f., Tversky / Kahneman 1974, S.1126.

[89] Vgl. Tversky / Kahneman 1974, S. 1126f.

[90] Vgl. Tversky / Kahneman 1974, S. 1126f.

Details

Seiten
125
Erscheinungsform
Originalausgabe
Jahr
2007
ISBN (eBook)
9783836616638
Dateigröße
820 KB
Sprache
Deutsch
Katalognummer
v225990
Institution / Hochschule
Johann Wolfgang Goethe-Universität Frankfurt am Main – Wirtschaftswissenschaften, Betriebswirtschaftslehre
Note
1,7
Schlagworte
behavioral finance entscheidungsheuristik prospect theory corporate risk management experimental economics

Autor

Teilen

Zurück

Titel: Behavioral Risk Management