Lade Inhalt...

Neuer Kausalanalyseansatz auf Basis Neuronaler Netze als Instrument der Marketingforschung

Doktorarbeit / Dissertation 2001 293 Seiten

BWL - Marketing, Unternehmenskommunikation, CRM, Marktforschung, Social Media

Leseprobe

Gliederung

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1. Einleitung
1.1 Problemstellung
1.2 Zielsetzung und Abgrenzung
1.3 Gang der Untersuchung

2. Grundlegung
2.1 Kausalität in der Marketingforschung
2.1.1 Ziele der Marketingforschung
2.1.2 Der Kausalitätsbegriff
2.2 Die klassische Kausalanalyse
2.2.1 Ansatz der klassischen Kausalanalyse
2.2.2 Die LISREL-Methode
2.2.3 Erweiterungen des LISREL-Ansatzes
2.2.4 Weitere Ansätze der Kausalanalyse
2.3 Grenzen der heutigen Kausalanalyse
2.3.1 Beispiele für Problembereiche von LISREL
2.3.2 Charakteristiken realer Problemstellungen der Marketingforschung
2.3.3 Ableitung von allgemeinen Anforderungen an eine neue Kausalanalyse

3. Methodische Grundlagen für eine neue Kausalanalyse
3.1 Notwendige methodische Eigenschaften einer neuen Kausalanalyse
3.2 Theorie des Lernens
3.2.1 Vorbetrachtung: Gegenstand der Lerntheorie
3.2.1.1 Der Begriff des Lernens
3.2.1.2 Lernen als Funktionsschätzung
3.2.1.3 Generalisierungsfähigkeit als Kernzielstellung des Lernens
3.2.1.4 Die zwei statistischen Paradigmen des Lernens
3.2.2 Moderne frequentistische Lernkonzepte
3.2.2.1 „Frequentistische“ Neuronale Netze
3.2.2.2 Support-Vektor-Maschinen
3.2.3 Moderne bayes’sche Lernkonzepte
3.2.3.1 „Bayes’sche“ Neuronale Netze
3.2.3.2 Gauß’sche Prozessmodelle
3.2.4 Zusammenfassung: Vergleich moderner Lernkonzepte
3.2.4.1 Allgemeine Kriterien
3.2.4.2 Kriterium: Variablenselektion
3.3 Verfahren zur verständlicher Darstellung von aufzudeckenden Zusammenhängen
3.3.1 Verständlichkeit
3.3.1.1 Sprachverstehen (bzw. Textverstehen)
3.3.1.2. Darstellungsformen von Zusammenhängen
3.3.2 Einfach interpretierbare Lernverfahren
3.3.3 Verfahren zur ex-post Interpretation

4. Neural Structural Relationships
4.1 Der Ansatz NEUSREL
4.2 Aufbau eines NEUSREL-Systems
4.2.1 Vorverarbeitung
4.2.2 Faktoranalyse
4.2.3 Festlegung der A-Priori-Matrix
4.2.4 Ermittlung der Wirkzeiten
4.2.5 Lernverfahren
4.2.6 Präsentation
4.3 Empirische Analyse einer NEUSREL-Implementierung
4.3.1 Der Ansatz der Monte-Carlo-Simulation
4.3.2 Spezifikation der NEUSREL-Implementation
4.3.3 Analyse eines Unternehmenserfolg-Modells als dynamische Problemstellung
4.3.3.1 Die Problemstellung als Ausgangspunkt
4.3.3.2 Durchführung der Analyse
4.3.3.3 Ergebnisse
4.3.4 Analyse eines Außendienst-Modells als statische Problemstellung
4.3.4.1 Die Problemstellung als Ausgangspunkt
4.3.4.2 Durchführung der Analyse
4.3.4.3 Ergebnisse

5. Schlussbetrachtung
5.1 Abschließender Vergleich von LISREL und NEUSREL
5.2 Ausblick
5.3 Fazit

Literaturverzeichnis

Abbildungsverzeichnis

Abbildung 1.2-1: Würfel der Analyseverfahren

Abbildung 2.1.2-1: Sieben Interpretationen für eine Korrelation

Abbildung 2.1.2.-2: Nichtmonotone Beziehungen

Abbildung 2.2.1-1: Erkenntnisgewinn durch Strukturbetrachtung

Abbildung 2.2.1-2: Einschränkung möglicher Modelle durch Korrelation und Vorwissen

Abbildung 2.2.2.-1: Beispielkausalstruktur

Abbildung 2.2.2-2: Ein einfaches Kausalmodell

Abbildung 3.2.1.2-1: Modell der Funktionsschätzung; Quelle: Vapnik 1995, S. 16

Abbildung 3.2.1.3-1: Underfitting, Geralisierung und Overfitting

Abbildung 3.2.2.1-1: Symbolische Darstellung eines Neurons

Abbildung 3.2.2.1-2: Multi-Layer-Perceptron mit einer verdeckten Neuronenschicht

Abbildung 3.2.2.1-3: Ausgabe von Neuronalen Netzen bei zwei Input-Variablen

Abbildung 3.2.2.1-4: Beispiel eines (nichtlinearen und interaktiven) Zusammenhangs

Abbildung 3.2.2.1-5: Fehlerfunktion in Abhängigkeit von zwei Gewichten

Abbildung 3.2.2.1-6: Beliebiges Neuron als Notationshilfe

Abbildung 3.2.2.1-7: Probleme des Backpropagation-Algorithmus

Abbildung 3.2.2.1-8: Oszillieren im Fehlertal

Abbildung 3.2.2.2-1: Falsifizierbarkeit von Lernverfahren

Abbildung 3.2.2.2-2: Lösen von nichtlinearen Problemen mit Hyperebenen

Abbildung 3.2.3-1: Evidenz-Funktionen verschiedener Modelle

Abbildung 3.2.3-2: A priori und A-Posteriori-Verteilung der Gewichte.

Abbildung 3.2.3-3: Bayes’sches Lernen

Abbildung 3.2.3-4: Konfidenzintervall einer Regressionsfunktion

Abbildung 3.2.3-5: Entscheidungsgrenze und Konfidenzintervall eines Bayes’schen Klassifikatornetzwerkes

Abbildung 3.2.3.2-1: Funktionsschätzung durch Kernschätzer

Abbildung 3.2.3.2-2: Gemeinsame Verteilung der Ziehungen der abhängigen Variablen

Abbildung 3.2.3.2-3: Funktionen mit verschiedenen ARD-Kovarianz-Parametern

Abbildung 3.2.4.2-1: Overfitting durch irrelevante Variablen

Abbildung 3.2.4.2-2: Empirische Untersuchung des ARD-Verfahrens

Abbildung 3.3.1-1: Prozess des Sprachverstehens

Abbildung 3.3.1.2: Graph der Funktion F=m*a

Abbildung 3.3.2-1: Beispiel für einen Entscheidungsbaum

Abbildung 3.3.2-2: Funktion eines Entscheidungsbaums

Abbildung 3.3.3-1: Additive, zweidimensionale Funktion

Abbildung 3.3.3-2: Dekomposition der Varianzen

Abbildung 4.1-1: Beispiel eines NEUSREL-Pfaddiagramms

Abbildung 4.2-1: Ablauf des NEUSREL-Prozess

Abbildung 4.2.2-1: Drei Arten der Faktoranalyse

Abbildung 4.2.2-2: Nichtlineare Faktoranalyse mit einem MLP

Abbildung 4.2.2-3: Multiple, lineare Faktoranalyse mit einem MLP

Abbildung 4.2.4-1: Wirkzeitermittlung

Abbildung 4.3.2-1: Regressionsdatensatz

Abbildung 4.3.2-2: Klassifikationsdatensatz

Abbildung 4.3.2-3: Screenshots des „Projekt Anlegen“-Vorgangs

Abbildung 4.3.2-4: Screenshots des „Projekt rechnen“-Vorgangs

Abbildung 4.3.3.1-1: Simuliertes Beziehungsnetzwerk

Abbildung 4.3.3.2-1: Beziehung „D rel. Qualität auf D rel. Preis“

Abbildung 4.3.3.2-2: Beziehung „D rel. Preis auf D Marktanteil“

Abbildung 4.3.3.2-3: Beziehung „Drel. Qualität auf D Marktanteil“

Abbildung 4.3.3.2-4: Beziehung „D Marktanteil auf D rel. Kosten“

Abbildung 4.3.3.2-5: Beziehung „D rel. Qualität auf D rel. Kosten“

Abbildung 4.3.3.2-6: Beziehung „D rel. Preis auf D ROI“

Abbildung 4.3.3.2-7: Beziehung „D rel. Qualität auf D ROI“

Abbildung 4.3.3.2-8: Beziehung „D rel. Kosten auf D ROI“

Abbildung 4.3.3.2-9: Beziehung „D Marktanteil und Marktanteil auf D ROI“

Abbildung 4.3.3.3-1: Beziehung „D rel. Qualität auf D rel. Preis“

Abbildung 4.3.3.3-2: Beziehung „D rel. Preis auf D Marktanteil“

Abbildung 4.3.3.3-3: Beziehung „Drel. Qualität auf D Marktanteil“

Abbildung 4.3.3.3-4: Beziehung „D Marktanteil auf D rel. Kosten“

Abbildung 4.3.3.3-5: Beziehung „D rel. Qualität auf D rel. Kosten“

Abbildung 4.3.3.3-6: Beziehung „D rel. Preis auf D ROI“

Abbildung 4.3.3.3-7: Beziehung „D rel. Qualität auf D ROI“

Abbildung 4.3.3.3-8: Beziehung „D rel. Kosten auf D ROI“

Abbildung 4.3.3.3-9: Beziehung „D Marktanteil auf D ROI“

Abbildung 4.3.3.3-10: Beziehung „Marktanteil auf D ROI“

Abbildung 4.3.3.3-11: Beziehung „D Marktanteil und Marktanteil auf D ROI“

Abbildung 4.3.4.1: Außendienstmodell

Abbildung 4.3.4.2-1: Wirkbeziehung von ERO auf LO

Abbildung 4.3.4.2-2: Wirkbeziehung von AO und EXP auf LO

Abbildung 4.3.4.2-3: Wirkbeziehung von CO auf LO

Abbildung 4.3.4.2-4: Wirkbeziehung von ERO auf PO

Abbildung 4.3.4.2-5: Wirkbeziehung von AO auf PO

Abbildung 4.3.4.2-6: Wirkbeziehung von CO auf PO

Abbildung 4.3.4.2-7: Wirkbeziehung von LO auf PER

Abbildung 4.3.4.2-8: Wirkbeziehung von PO und EXP auf PER

Abbildung 4.3.4.3-1: Wirkung von ERO auf LO

Abbildung 4.3.4.3-2: Wirkung von CO auf LO

Abbildung 4.3.4.3-3: Wirkung von AO auf LO

Abbildung 4.3.4.3-4: Wirkung von EXP auf LO

Abbildung 4.3.4.3-5: Wirkung von AO und EXP auf LO

Abbildung 4.3.4.3-6: Wirkung von ERO auf PO

Abbildung 4.3.4.3-7: Wirkung von AO auf PO

Abbildung 4.3.4.3-8: Wirkung von CO auf PO

Abbildung 4.3.4.3-9: Wirkung von LO auf PER

Abbildung 4.3.4.3-10: Wirkung von PO auf PER

Abbildung 4.3.4.3-11: Wirkung von EXP auf PER

Abbildung 4.3.4.3-12: Wirkung von PO und EXP auf PER

Tabellenverzeichnis

Tabelle 3.2.1.1-1: Fachspezifische Begriffe für das Lernen

Tabelle 3.2.1.1-2: Data Mining-Definitionen

Tabelle 3.2.1.2-1: Drei gebräuchliche Fehlermaße

Tabelle 3.2.2.1: Fehlermaße

Tabelle 3.2.4.1-1: Universeller Funktionsapproximator

Tabelle 3.2.4.1-2: Generalisierungsfähigkeit

Tabelle 3.2.4.1-3: Interpretierbarkeit

Tabelle 3.2.4.1-4: Rechenzeit

Tabelle 3.2.4.1-5: Einbringen von Vorwissen

Tabelle 3.2.4.1-6: Konfidenzaussage

Tabelle 3.2.4.1-7: Bewertungsmatrix

Tabelle 3.3.1.2: Bewertung der Darstellungsarten für Zusammenhänge (+ positiv, o neutral, - negativ)

Tabelle 4.2.6-1: Maßzahlen

Tabelle 4.3.2-2: Ergebnisse der Testläufe

Tabelle 4.3.3.2-1: Einstellungen des Testlaufes

Tabelle 4.3.4.2-1: Einstellungen des Testlaufes

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

„Wir ertrinken in Informationen und

hungern nach Wissen.“

John Naisbitt

1.1 Problemstellung

Das Marketingmanagement steht heute vor größeren Herausforderungen als je zuvor. Um diesen gerecht zu werden, sind nach der Entstehung des Leitbildes der Kundenorientierung umfassendere Marketingkonzepte entwickelt worden, die in dem Ansatz eines gesellschaftsorientierten Marketing gipfeln (vgl. Wiedmann 1993). Ursächlich für die Notwendigkeit neuer Marketingkonzepte und –instrumente ist die zunehmende Komplexität und Dynamik von Managementproblemstellungen, die durch eine Vielzahl marktlicher, gesellschaftlicher und technologischer Entwicklungen verursacht werden:

Differenzierung der Kundenbedürfnisse: Der Wettbewerb hat in vielen Branchen zu der Entstehung einer enormen Variantenvielfalt geführt, welche auf Basis immer kleinerer Zielgruppensegmente dem Kunden ein möglichst bedürfnisgerechtes Angebot unterbreitet (vgl. Meffert 2000, S. 1043). Der Trend hin zum One-to-One Marketing auf Basis eines Mass Customization der Leistungserstellung belegt dies. Mit dem Begriff der „Anspruchsinflation“ wird der Trend bezeichnet, dass der Kunde zunehmend hohe Leistungsstandards gewohnt ist und diese daraufhin als Mindestleistung einfordert. Eine weitere Facette komplexer werdender Kundenbedürfnisse besteht im sogenannten „hybriden Konsumentenverhalten“, das beispielsweise darin zu beobachten ist, dass ein und der selbe Kunden sich in bestimmten Produktgruppen generös und in anderen geizig zeigt (vgl. Schmalen 1994).

Wertewandel und dessen Pluralisierung: Die Permanenz des Wandels von Werten und Normen stellt nicht nur in Hinblick auf die Ausgestaltung des Marketing, sondern ebenfalls bei der Aufgabe der Mitarbeiterführung eines Managers eine ständige Herausforderung dar. Darüber hinaus ist in den letzten Jahrzehnten eine Pluralisierung von Wertesystemen zu beobachten, die u.a. darin zu besteht, dass innerhalb einer Generation unterschiedliche Wertecluster zu beobachten sind (vgl. Wiedmann 1984, S. 45 ff).

Erosion von Hierarchien: Den Höhepunkt der industriellen Enthierarchisierung wurde in den 80er Jahren mit der Popularität des Konzepts eines „Business Process Reengeniering“ und eines „Lean Management“ erreicht. In jüngerer Zeit setzt sich die Erosion durch die zunehmende Verbreitung des Konzepts der Projektorganisation und der Entstehung von Virtuellen Unternehmen fort (vgl. Sydow 1995, S. 629 ff). In der Konsequenz führen die Entwicklungen zu breiteren und zugleich dynamischer ausgelegten Verantwortungsbereichen eines Managers, der sich dadurch vor wachsende und zugleich sich ändernde Anforderungen gestellt sieht.

Globalisierung der Märkte: Fallende Handelsschranken, fallende Migrationsbarrieren für Arbeitskräfte und die modernen Kommunikationsmöglichkeiten (dazu ausführlich im nächsten Absatz) haben zu einer weiter andauernden Internationalisierung der Märkte geführt. Die steigende Anzahl von Wettbewerbern führt auf vielen Märkten zu stetig steigendem Wettbewerbsdruck. Zudem verlangt die Globalisierung von einem Manager für das externe ebenso wie für das interne Marketing eine ausgeprägte interkulturelle Kompetenz (vgl. Holzmüller 1995).

Revolutionäre Technologiesprünge: Den vermutlich gravierendsten Beitrag zur steigenden Komplexität und Dynamik der Managementaufgabe liefern die Auswirkungen revolutionärer technologischer Entwicklungen insbesondere von Informations- und Kommunikationstechnologien (I&K). Beispielhaft seien im Folgenden sechs bedeutende Auswirkungen dargestellt:

Œ Steigende Markttransparenz: Insbesondere durch die Entwicklung des Internets ist es auf der einen Seite für den Kunden einfacher geworden, Anbieter zu vergleichen. Auf der anderen Seite ist es auch für Unternehmen einfacher geworden Konkurrenzanalysen durchzuführen und aktuelle Marktentwicklungen zeitnah aufzugreifen. Zudem helfen Informationsintermediäre durch die Sammlung und Auswertung von Informationen, die Transparenz der Märkte zu erhöhen. All dies führt zu einem höheren qualitativen und auch zeitlichen Wettbewerbsdruck (vgl. Wiedmann/Frenzel 2000).

 Neue Marktregeln: Die immer schnellere Verbreitung von Informationen, die zunehmende informatorische Vernetzung und der sich damit beschleunigende wissenschaftliche Fortschritt führt zu einer Entwicklung von der Effizienzorientierung hin zur Innovationsorientierung. Aufgrund der hohen Innovationsdynamik in der Zukunft wird eine Effizienzorientierung im Management zunehmend mit einer hocheffizienten Produktion von veralteten Gütern einhergehen. Weiterhin führt die weltweite Vernetzung durch das Internet zu einer steigenden Bedeutung von Netzeffekten, die es ermöglichen, steigende Skalenerträge zu generieren. Vormals undenkbare Marketingstrategien, die beispielsweise vorsehen, das Kernprodukt zu verschenken und aufbauend auf den dadurch entstandenen Standard, Zusatzleistungen zu verkaufen[1], bereichern das Handlungsspektrum sowohl für das Unternehmen als auch für seine Konkurrenten (vgl. Kelly 1999, S. 195ff).

Ž Exponentiell steigende „Datenberge“: Es gibt kaum noch Transaktionen im Wirtschaftsleben, die nicht durch I&K-Technologien unterstützt werden - ob es die Scannerkasse oder das Versenden von Paketen ist, dessen Versendestaus heute schon online abgefragt werden kann (vgl. Buxel 2001). Auf Websites, an Bankautomaten, an der Parkhausschranke, in all den hochtechnologischen Produktionsanlagen ebenso wie beim Telefonieren – überall fallen täglich nahezu unendlich viele digital speicherungsfähige Informationen an. Damit sind für zunehmend viele Bereiche der relevanten Umwelt Beobachtungsdaten vorhanden, woraus die Forderung an das Management abgeleitet wird, diese Informationen auszuwerten (vgl. Wiedmann/Buxel/Buckler 2001).

 Kürzere Produktlebenszyklen: Der technologische Fortschritt ermöglicht immer kürzere Entwicklungszeiten. Beispielsweise lag die Entwicklungszeit eines Automobils vor 20 Jahren bei ca. zwölf Jahren, wohingegen heutzutage ein Automobil in 2,5 Jahren entwickelt werden kann. Die kürzeren Produktlebenszyklen machen es u.a. notwendig, ein Produkt in einem kürzeren Zeitraum zu amortisieren (vgl. Zerdick u.a. 1999, S.16).

 Neue Benutzeranforderungen: Der technologische Fortschritt hat dazu geführt, dass sich nahezu an jedem Arbeitsplatz ein PC befindet, Mitarbeiter mit Office-Softwarepaketen genauso vertraut sein müssen wie mit Fax, E-Mail und virtuellen Konferenzen. Der permanente Druck, sich mit neuen Werkzeugen des Informationszeitalters auseinander zu setzen, erfordert ein beständiges Bemühen des Mitarbeiters ebenso wie des Managers um das Erlernen neuer Fähigkeiten. Zudem führen die neuen Werkzeuge wie z.B. die Textverarbeitung dazu, dass ein Manager zunehmend mehr Tätigkeitsbereiche mit übernehmen muss, die vormals speziellen Hilfskräften überlassen wurden (vgl. Bork 1994).

‘ Zunehmender Kommunikationsaufwand: Neue Telekommunikationsdienste (insbesondere E-Mail und Instant Messaging) ermöglichen es, eine Kommunikation unter sehr niedrigen transaktionsbedingten und sozialen Kosten zu initiieren. So gehört es heute schon zum Alltag der meisten Manager, täglich mindestens eine Stunde mit dem Überfliegen der E-Mails zu verbringen. Die Vorzüge der neuen Kommunikationsdienste werden mit höherem Kommunikationsaufwand und gestiegenen Erwartungen an die Antwortgeschwindigkeit erkauft (vgl. Müller 1999, S.75ff).

Die beschriebenen Beispiele für bestehende Trends im Konsumentenverhalten, für gesellschaftliche und ökonomische Trends sowie für die vielschichtigen Auswirkungen moderner I&K-Technologien zeigen anschaulich, wie die Anforderungen an das Marketingmanagement in ihrer Komplexität und Dynamik zunehmen.

Hinzu kommt, dass ein Manager nach wie vor den selben Zeitumfang zur Bewältigung seiner Aufgaben zur Verfügung hat und somit keine zusätzlichen kognitiven Ressourcen einbringen kann. Neben der in obigen Punkten  und ‘ beschriebenen zunehmenden Informationsüberlastung („Information Overload“) sieht Toffler das Hauptproblem der Informationsgesellschaft in einer Entscheidungsüberlastung („Decision Overload“). Weder ist genügend Zeit zur Auswahl von Entscheidungsalternativen vorhanden („Option Paralysis“), noch kann die steigende Anzahl an Entscheidungsproblemen bearbeitet werden (vgl. Toffler 2000).

Um den gestiegenen Anforderungen zu entsprechen, existieren zwei grundsätzliche Herangehensweisen. Eine Möglichkeit ist es, mehr Personal mit der Bearbeitung der Problemstellungen zu betrauen. Eine andere ist es, die kognitiven Ressourcen der Entscheidungsträger virtuell zu erhöhen, indem Systeme zur Entscheidungsunterstützung in Teilen gänzlich automatisiert Informationen verarbeiten und Erkenntnisse generieren, präsentieren und anwenden. Für die Errichtung von computergestützten Systemen zur Entscheidungsunterstützung spricht, dass Zusammenhänge ab einer bestimmten Komplexität nicht mehr vom Menschen verstanden werden können (vgl. Wiedmann/Buckler 2001, S. 69 ff).

Daher werden leistungsfähige Analyseverfahren benötigt, die selbständig Datensätze auswerten, Wissen extrahieren und Entscheidungsalternativen bewerten helfen.

Stand der Analyseverfahren

Die Statistik ist das wissenschaftliche Fachgebiet, welches sich vornehmlich mit der Entwicklung von Verfahren beschäftigt, die Sachverhalte anhand von Daten geeignet beschreiben (deskriptive Statistik) und Zusammenhänge aus Datensätzen schließen können (induktive Statistik). Verfahren der klassischen Statistik [2] sind jedoch wenig geeignet, um aus Datensätzen auf komplexe[3] Zusammenhänge zu schließen, ohne über diese Zusammenhänge erhebliches Vorwissen zu besitzen (vgl. Zimmermann 1994, S. 13 ff).

Aus der Notwendigkeit heraus für das Management komplexe Zusammenhänge aus Datensätzen entdecken zu müssen, ohne über diese Vorwissen zu besitzen, sind in den vergangenen Jahrzehnten die interdisziplinären Forschungsgebiete des Knowledge Discovery in Databases (KDD) und des Data Mining entstanden. Da es sich um noch junge Fachgebiete handelt, existieren verschiedene Begriffsdefinitionen. Die verbreitetsten Definitionen der Begriffe sind (Fayyad u.a. 1996)[4]:

„Knowledge Discovery in Databases (KDD) bezeichnet den nichttrivialen Prozess der Identifikation valider, neuartiger, potenziell nützlicher und klar verständlicher Muster in Daten.“

Data Mining ist ein Teilschritt des KDD-Prozesses, der aus bestimmten Algorithmen besteht, die in akzeptabler Rechenzeit aus einer vorgegebenen Datenbasis eine Menge von Mustern liefern“

Das Data Mining bezeichnet somit den Analyseprozess im engeren Sinne und greift auf eine Vielzahl von Lernalgorithmen (wie Neuronale Netze, Entscheidungsbäume, Assoziationsregeln und auch klassische statistische Verfahren) zurück. Das Wort „Muster“ in obigen Definitionen steht im weiteren Sinne für „Zusammenhänge“ bzw. „Wirkbeziehungen“. Die durch die Ergebnisse des Data Mining beschriebenen Kontingenzen lassen jedoch nicht immer einen Kausalschluss zu, so dass das Wort „Muster“ die Abwesenheit eines kausalen Anspruchs verdeutlicht. Auf der anderen Seite ist die Kausalität ein integraler Bestandteil einer Theorie. Bewusstes Handeln beruht grundsätzlich auf (subjektiven) Theorien über die relevante Umwelt. Zudem wird eine Kausalaussage benötigt, wenn die entdeckten Zusammenhänge mit Hilfe des menschlichen Bedeutungswissens durch deduktives Schließen weiterverwendet werden sollen. Daher ist die Untersuchung der Kausalaussage entdeckter „Muster“ ein wichtiger Schritt zur Ableitung von Handlungsempfehlungen für das Management. Im KDD-Prozess wird die Kausalinterpretation im letzten Prozessschritt (insofern möglich) auf der Basis von Vorwissen „rein manuell“ vorgenommen.

In der Statistik sind Verfahren der Kausalanalyse (LISREL, PLS etc.)[5] entwickelt worden. Diese sind jedoch aus der Tradition der klassischen Statistik entstanden und können daher keine komplexen Zusammenhänge nachbilden und erfordern ein hohes Maß an Vorwissen über die zu beschreibenden Zusammenhänge.

Die Verfahrensgruppe des Systems Dynamics können im Gegensatz zur klassischen Kausalanalyse komplexe Zusammenhänge darstellen und simulieren (vgl. Wiedmann 1985). In neueren Ansätzen ist es zudem möglich, System Dynamics-Systeme anhand von empirischen Daten zu validieren und Parameter anzupassen (vgl. Kuchenbacher 2000, S. 73ff). Jedoch fehlt dem erweiterten System Dynamics-Ansatz auch der entdeckende Charakter, der benötigt wird, wenn wenig Vorwissen über die gesuchten Zusammenhänge vorhanden ist.

1.2 Zielsetzung und Abgrenzung

Bislang fehlt es an einer Analysemethodik, die komplexe, dynamische Zusammenhänge bei Vorhandensein von nur wenig Vorwissen aus Datensätzen selbständig modellieren kann und dabei zudem eine Kausalinterpretation der Zusammenhänge gibt. Abbildung 1.2-1 veranschaulicht die Einordnung der oben erwähnten Verfahrensgruppen. Es ist ersichtlich, dass bislang keine Verfahrensgruppe existiert, die Problemstellungen des „rechten oberen Würfels“ lösen kann. In der Grundlegung in Abschnitt 2 wird gezeigt werden, dass aber genau diese Problemstellungen den typischen Eigenschaften von Problemstellungen der Marketingforschung entsprechen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.2-1: Würfel der Analyseverfahren

Ziel dieser Arbeit soll es sein, einen Methodenverbund zu entwickeln, der in der Lage ist, bei mittleren bis wenig vorhandenen Vorwissen aus Datensätzen selbständig Strukturen zu modellieren und verständlich zu präsentieren, die aus komplexen, dynamischen Kausalzusammenhängen bestehen.

Um die Zielsetzung zu präzisieren, sollten die in ihr vorkommenden Kernbegriffe näher beschrieben werden, so dass klarer gesagt werden kann, was nicht Zielsetzung ist:

- Die Entwicklung eines Methodenverbundes meint, dass ausgewählte Verfahren zusammengetragen, geeignet kombiniert und geändert werden. Es soll kein detaillierter Überblick über das Verfahrensspektrum insbesondere des Data Mining gegeben werden.
- Zu den Data Mining-Verfahren werden gelegentlich auch „halb-automatische“ Verfahren, wie die OLAP-Technologie[6] gezählt (die eine Datenbanktechnologie darstellt mit deren Hilfe ein manuelles interaktives Data Mining ermöglicht wird). Ziel dieser Arbeit soll es sein, keine manuelle Analysemethodik, sondern eine selbständig arbeitende Methodik zu entwickeln.
- Das Fachgebiet des Data Mining i.e.S. thematisiert ausschließlich die Analyseverfahren, wohingegen das KDD den Gesamtanalyseprozess beschreibt. Der zu entwickelnde Methodenverbund soll nicht ausschließlich die Analyseverfahren an sich, sondern Verfahren über alle Prozessstufen (von der Vorverarbeitung bis zur Präsentation) hinweg beinhalten. Dabei soll jedoch auf wichtige Aspekte verstärkt eingegangen werden, wohingegen grundlegende Aspekte, wie die Datenhaltung in Data Warehouses, nicht behandelt werden.
- Weiterhin spielt der Aspekt der organisatorischen Implementierung eines „kausalen Data Mining“ eine herausragende Rolle, wenn es darum geht, die Nutzenpotenziale der Methodik auszuschöpfen. Jedoch ist die Problemstellung der organisatorischen Implementierung auch eher ein genereller Aspekt der Datenanalyse als Unternehmensfunktion und soll daher hier nicht thematisiert werden (ausführlich dazu Wiedmann/Buckler 2001, S. 95 ff).

1.3 Gang der Untersuchung

In der Grundlegung in Abschnitt 2 soll ausgehend von einer Darstellung der Ziele der Marketingforschung der Kausalitätsbegriff im Detail beleuchtet werden. Nach einer Definition des Begriffs der Kausalanalyse wird der Ansatz der klassischen Kausalanalyse am Beispiel des LISREL-Ansatzes beschrieben und Erweiterungen des Ansatzes vorgestellt. Im Anschluss daran sollen die grundlegenden Eigenschaften von Problemstellungen der Marketingforschung anhand von Beispielen erarbeitet werden. Daraus wird ein Anforderungskatalog an eine neue Kausalanalyse abgeleitet.

Abschnitt 3 trägt die methodischen Grundlagen für eine neue Kausalanalyse zusammen. Dabei wird zunächst der Anforderungskatalog in dafür notwendige Eigenschaften der verwendeten Methoden transformiert. Es wird geschlußfolgert, dass die verwendete Methodik a) umfassendes Lernvermögen besitzen, b) insbesondere wichtige von unwichtigen Variablen unterscheiden und c) das erlernte Modell verständlich darstellen muss.

Aufbauend auf einer grundlegenden Darstellung des Gegenstandes des Lernens werden vier der leistungsfähigsten Lernverfahren im Detail beschrieben. Im nachfolgenden Vergleich (der anhand eines Bewertungsmodells durchgeführt wird) wird geschlußfolgert, dass zwei der vorgestellten Lernverfahren für eine neue Kausalanalyse geeignet sind. Die Darstellung der nichtgeeigneten Verfahren ist jedoch nützlich, da diese als Grundlage für geeignete Verfahren dienen bzw. im darauffolgenden Kapitel als Benchmark benötigt werden. Beim Vergleich der Lernverfahren werden diese in einem separaten Abschnitt auf ihre Fähigkeit untersucht, wichtige von unwichtigen Variablen unterscheiden zu können.

Daraufhin sollen in Abschnitt 3.3 Verfahren vorgestellt werden, die es ermöglichen, Analyseergebnisse verständlich darzustellen. Dazu wird zu Beginn des Abschnittes eine detaillierte Analyse des menschlichen Verstehensprozesses notwendig, um die Zieldimension der gesuchten Verfahren herausarbeiten zu können. Darauf aufbauend werden skizzenhaft Lernverfahren, die verständliche Ergebnisse produzieren, vorgestellt und argumentiert, dass diese nicht in ausreichendem Maße geeignet sind. Als Alternative werden Verfahren vorgestellt, die auf Basis des Ergebnisses eines Lernverfahrens verständliche Aussagen extrahieren können.

In Abschnitt 4 wird eine neue Methodik der Kausalanalyse vorgeschlagen und empirisch getestet. Aufbauend auf der Darstellung des grundlegenden Ansatzes werden alle Prozessstufen der als NEUSREL bezeichneten Analyse beschrieben und dabei definiert, welche Verfahren notwendig sind, um die gesetzten Anforderungen erfüllen zu können. Im darauffolgenden Abschnitt 4.3 wird eine Software-Implementation der dargestellten NEUSREL-Analyse vorgestellt und anhand von zwei simulierten Beispielproblemstellungen empirisch getestet. Dabei werden die im Rahmen der Simulationsanalyse generierten Daten durch Modelle realer Marketingproblemstellungen erzeugt, um zusätzlich zur Erklärungsgüte eine inhaltliche Validität gewährleisten zu können.

Die Schlussbetrachtung in Abschnitt 5 vergleicht den LISREL und den NEUSREL-Ansatz miteinander und gibt einen Ausblick über zukünftig notwendige Forschungsfelder der Kausalanalyse. Die Arbeit endet mit einem kompakten Fazit, welches die Kernergebnisse der Arbeit zusammenfasst.

2. Grundlegung

2.1 Kausalität in der Marketingforschung

2.1.1 Ziele der Marketingforschung

Der Begriff „Marketingforschung“ wird nicht immer eindeutig definiert, da sich Überschneidungen zu den Begriffen der Markt- und Meinungsforschung ergeben. Analog zum amerikanischen Begriff des Marketing Research kann Marketingforschung wie folgt definiert werden:

„Marketingforschung ist die systematische Anlage und Durchführung von Datenerhebungen sowie die Analyse und Weitergabe von Daten und Befunden, die in Marketingsituationen von Unternehmen benötigt werden.“ (Kotler/Bliemel 1992, S. 143) Danach wird insbesondere das systematische und prozessuale Vorgehen hervorgehoben und der Zweck der Marketingforschung darin gesehen, die Marketingentscheidungen informatorisch zu unterstützen. Marketing soll hier als Prozess der Planung und Durchführung der Konzeption, Preisgestaltung, Kommunikation und Distribution von Ideen, Güter und Dienstleistungen zum Zwecke eines Austausches, der die individielle und organisationale Ziele erfüllt, verstanden werden (o.V. 2001b). Im Gegensatz zur Marktforschung beschränkt sich die Marketingforschung nicht auf die Betrachtung von Absatz- und Beschaffungsmärkten, sondern bezieht das betriebliche und gesellschaftliche Umfeld mit ein (vgl. Baumgarth/Bernecker 1999, S. 1).

Der Marktingforschungsprozess verläuft idealtypischer Weise in fünf Phasen ab, zwischen denen in der Realität zahlreiche Rückkopplungen und Überlappungen existieren (vgl. Nieschlag u.a. 1997, S. 683 ff):

ΠDefinitionsphase: Problemstellung definieren, strukturieren und Forschungsziele definieren

 Designphase: Hypothesen gewinnen und Erstellung eines detaillierter Forschungsplans

Ž Feldphase: Organisation und Kontrolle der Datenerhebung, die primär oder sekundär durchgeführt werden kann.

 Analysephase: Vorverarbeitung der Rohdatenbasis zu auswertbaren Datensätzen, deskriptive und induktive Datenanalyse, Interpretation der Ergebnisse

 Kommunikationsphase: Erstellen des Forschungsberichtes und Präsentation der Forschungsergebnisse

Die Analysephase hat starke Ähnlichkeit mit dem in der Problemstellung (Abschnitt 1.1) definierten Begriff des „Knowledge Discovery in Databases“. Tatsächlich geht es in dieser Phase im Kern um die Gewinnung von Erkenntnissen, die bei der Lösung des Entscheidungsproblems nützlich sein können. Statistik bzw. Data Mining-Tools werden lediglich bei der Datenanalyse i.e.S. angewendet.

Bei der Darstellung der Problemstellung (Abschnitt 1.1) wurde ebenfalls argumentiert, dass durch die steigende Dynamik und Komplexität der Problemstellungen die Analysephase an Bedeutung gewinnt. Zunehmend ist es nicht mehr ausreichend, durch deskriptive Analyse Daten lediglich geeignet zu aggregieren. Vielmehr sind vermehrt schließende Analyseverfahren gefragt, die Erkenntnisse aus Erfahrungsdaten ableiten können.

Ziel der Marketingforschung ist es, Entscheidungsprobleme im Marketing informatorisch zu unterstützen. Ein Entscheidungsproblem besteht in der optimalen Wahl einer Entscheidungsalternative (vgl. Alex 1998, S. 68f). Basis dessen ist eine geeignete Bewertung der Alternativen. Eine geeignete Bewertung, die besagt, inwieweit eine Alternative zielführend ist, basiert grundsätzlich auf implizit oder explizit vorhandenen Hypothesen von Gesetzmäßigkeiten. Beispielsweise basiert die Entscheidung einer Erhöhung des Werbebudgets auf der Hypothese: „Höherer Werbeumfang führt unter gegebenen Randbedingungen zu höherem Umsatz“.

Hypothesen sind allgemeine Sätze, anhand derer besondere Sätze (i.S. einer Prognose für einen konkreten Einzelfall) abgeleitet werden können. Sofern Hypothesen sich mehrfach empirisch bewährt haben, eine isolierte Klasse von Ereignissen erklären und sich konsistent zu anderen Hypothesen verhalten, werden Hypothesen von einem wissenschaftlichen Standpunkt aus als gehaltvoll angesehen und dann als „nomologische Hypothesen“ bezeichnet (vgl. Hildebrandt 1999, S. 41). Die Anwendung von Hypothesen an einzelnen Beobachtungen wird als „kausale Erklärung“ bezeichnet und stellt die Ableitung einer Wirkung anhand von Randbedingungen (i.S.v. Ursachen) und einer Hypothese dar. Erklärungen besitzen immer eine Kausalaussage[7] (vgl. Popper 1994, S. 32f; Trommsdorff 1993, S. 23).

Im Idealfall ist es also wünschenswert, dass ein Analyseverfahren aus Erfahrungsdaten nomologische Hypothesen generieren kann, welche dann als Basis zur Bewertung von Entscheidungsalternativen verwendet werden könnten. Die Ergebnisse des idealen Analyseverfahrens sind demnach kausale Aussagen über relevante Zusammenhänge. Ein solches Verfahren würde umso wichtiger, je besser es in der Lage wäre, komplexe, dynamische Theorien zu bilden, was dem Menschen selbst mit zunehmender Komplexität unmöglich wird (vgl. Dörner 1992, S. 288 ff).

Es lässt sich zusammenfassen, dass ein Kernziel der Marketingforschung darin besteht, nomologische Hypothesen über entscheidungsrelevante Zusammenhänge zu generieren (Phase 1 bis 4) und diese Hypothesen so aufzubereiten, dass sie zielführend angewendet werden können (Phase 5).

2.1.2 Der Kausalitätsbegriff

Jedes bewusste Handeln basiert auf implizit oder explizit vorhandenen Hypothesen über Gesetzmäßigkeiten, denen eine Kausalannahme inhärent ist. Daraus lässt sich eine in der Literatur bislang nicht genügend gewürdigte grundlegende Bedeutung des Kausalitätsbegriffs ableiten (vgl. Bagozzi 1980).

Kausalität wird allgemein als ein zwingender Zusammenhang zwischen zwei Zuständen (Ursachen U und Wirkung W) beschrieben: ein Ereignis W tritt nicht ein, ohne dass vorher U gegeben ist bzw. nach dem Auftreten von A folgt immer B (vgl. Hillmer 1993, S. 32). Das sogenannte „Fundamentalproblem“ der Kausalität besteht darin, dass Kausalität streng genommen nicht nachweisbar ist: Dazu müssten in einem Experiment die Auswirkungen von zwei Zuständen der ursächlichen Größe zeitgleich beobachtet werden. Es ist jedoch unmöglich, etwas zu tun und es gleichzeitig nicht zu tun. Diese Bedingung muss gesetzt werden, um alle potenziellen Einflussgrößen zu kontrollieren und damit sicherzugehen, dass nur die variierte Größe ursächlich ist. Es kann lediglich in einem experimentellen Umfeld versucht werden, alle vermuteten Einflüsse zu kontrollieren, insbesondere indem diese konstant gehalten werden (vgl. Hillmer 1993, S.32).

Bei sozialwissenschaftlichen Problemstellungen besteht nur in wenigen Problemfällen die Möglichkeit zu wiederholten Experimenten. Dies gilt insbesondere für die Wirtschaftswissenschaften, deren Erkenntnisquelle insbesondere aus einmaligen historische Beobachtungen (mit komplexen, ständig ändernden Randbedingungen) bestehen. Beispielsweise ist es bei den sich ständig ändernden gesellschaftlichen, politischen oder wirtschaftlichen Randbedingung streng genommen unmöglich, den Unternehmenserfolg auf einzelne Managemententscheidungen kausal zurückzuführen. Daher wird der Begriff der Kausalität in den Sozialwissenschaften auch nicht in einem streng deterministischen Sinn, sondern in einem eher wahrscheinlichkeitstheoretischen Sinn ausgelegt und verwendet (Betzin 2000, S. 12). Weiterhin kann z.B. bei der Ursachenforschung für den Unternehmenserfolg kein Experiment durchgeführt werden, da prohibitiv hohe Kosten entstehen würden, zumal ein solches „Menschenexperiment“ gesellschaftlich nicht akzeptiert würde.

Daher ist man oft dazu gezwungen, ausschließlich aus Beobachtungen Kausalität abzuleiten. Das in diesem Zusammenhang bekannteste Problem stellt das der Scheinkorrelation dar. Dieses beschreibt, dass es nicht zulässig ist, aufgrund der Kovariation von X mit Y (d.h. eine Veränderung von Y geht immer mit einer gleichen Veränderung von X einher) auf Kausalität von X auf Y zu schließen.

Beispielsweise ist festgestellt worden, dass die Anzahl der neugeborenen Menschen in Gebieten mit hoher Storchpopulation höher liegt als in Gebieten mit geringer Storchpopulation. Tatsächlich wird dieses Phänomen darauf zurückgeführt, dass Störche sich vor allem in ländlichen Gegenden aufhalten, wohingegen die Anzahl der alleinlebenden Menschen beträchtlich geringer ist. Daher begünstigen nicht Störche, sondern das soziale Umfeld in ländlichen Gebieten die Geburtenraten.

Die Korrelation zweier Größen kann grundsätzlich auf drei unterschiedliche Weisen interpretiert werden, wie Abbildung 2.1.2-1 zeigt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.1.2-1: Sieben Interpretationen für eine Korrelation

Das Problem der Beobachtbarkeit von Kausalitätsrelationen wurde durch den Philosophen David Hume (1711-1776) als erstes thematisiert. Er vertrat die heute weitgehend akzeptierte Auffassung, dass Ursache-Wirkungsbeziehungen als solche nicht beobachtet, sondern nur gefolgert werden können. Insbesondere aus diesem Grunde teilt sich die heutige Statistik in die beschreibende und die schließende Statistik (vgl. Oestermeier 1999, S. 51). Nach Humes Auffassung zufolge kann beispielsweise beim Zusammenstoßen zweier Billardkugeln nur die zeitliche Priorität der Ursache vor der Wirkung und die raumzeitliche Nähe von Ursache und Wirkung beobachtet werden. Die Notwendigkeit, mit der die Wirkung (Bewegung) auf die Ursache (Stoß) folgt, ist hingegen eine Zutat, die aufgrund vorhergehender Erfahrungen in einzelne Ereignissequenzen hineininterpretiert wird (vgl. Oestermeier 1999, S. 50).

Bedingungen für Kausalität

In den Wirtschafts- und Sozialwissenschaften ist es anerkannt, dass Kausalität von x auf y angenommen werden kann, wenn folgende vier Bedingungen erfüllt sind (vgl. Trommsdorff 1998, S. 27f; Hildebrandt, L. 1999, S. 48f):

Œ Korrelation: Bei einer Veränderung von x muss regelmäßig eine Veränderung von y zu beobachten sein.

 Wirkzeit: Die Veränderung von y muss zeitlich nach der von x liegen.

Ž Keine Dritteinflüsse: Die Kovariation darf nicht ersichtlich auf einer der beiden Veränderungen zugrundeliegenden dritten Größe beruhen.

 Gestützt durch Vorwissen: Die Hypothese „x bedingt y“ muss durch Vorwissen (nomologische Hypothesen) gerechtfertigt sein.

Eine konkurierende Definition der Kausalität nach Granger stützt sich auf folgende drei Bedingungen (vgl. Granger 1980; Granger 1988, S. 199f):

Œ Informationsredundanz: Die ursächliche Größe enthält Informationen über die beeinflusste Größe

Wirkzeit: Die Ursache tritt vor der Wirkung auf.

Ž Keine Dritteinflüsse: Es kann (empirisch oder theoretisch) begründet werden, dass die Informationen des Wirkeffektes nicht von einer dritten Größen her stammt.

Die drei Bedingungen von Granger weisen Ähnlichkeit zu obigen vier Punkten auf, wobei Granger das Vorhandensein von theoretischem Vorwissen über den Zusammenhang nicht mehr als notwendige Bedingung zulässt. Insbesondere die Bedingungen 1 und 4 der ersteren anerkannten Kausaldefinition können durch schlagkräftige Argumente relativiert werden:

Zum einen erscheint die Bedingung der theoretischen Begründung wenig zweckmäßig, da im Falle des Vorhandenseins einer nomologischen Hypothese ja bereits Kausalität festgestellt wurde, d.h. Kausalität kann danach nur angenommen werden, wenn sie bereits angenommen worden ist[8]. Mit Bedingung vier ist lediglich das Widerlegen, jedoch nicht das Entstehen von Theorien möglich. Damit können die klassischen Kausalitätsbedingungen als praktisch nicht anwendbar bezeichnet werden.

Es ist eigentlich nicht notwendig, einen Zusammenhang a priori theoretisch zu begründen. Vielmehr genügt es, durch Vorwissen Dritteinflüsse und Wirkungsrichtungen soweit einzuschränken, so dass logisch gefolgert werden kann, dass die einzig verbleibende Wirkbeziehung kausal ist, wenn eine Informationsredundanz (z.B. Korrelation) festgestellt werden kann (vgl. Granger 1980, S.329). Können Wirkzeiten festgestellt werden, so müssen auch keine Wirkungsrichtungen mehr durch bestehende nomologische Hypothesen eingeschränkt werden - insofern das Axiom gilt, welches besagt, dass die Zukunft nicht die Vergangenheit beeinflussen kann.

In Bedingung 1 verwendet Granger statt „Korrelation“ bzw. „Kovarianz“ sinngemäß die Informationsredundanz. Zielsetzung hierbei ist es, nicht lediglich lineare Beziehungen (welche u.a. durch ein Korrelationsmaß gemessen werden), sondern auch nichtlineare Beziehung zwischen Ursache und Wirkung zuzulassen. Nichtlineare Wirkbeziehungen stellen das nichtlineare Transformieren der Informationen des ursächlichen Zustandes in die des beeinflussten Zustandes dar.

Der Kausalitätsbegriff von Granger stützt sich auf Basis der Einschränkung möglicher Wirkbeziehungen ausschließlich auf die informatorische Brauchbarkeit einer Ursache für die nachgelagerte Prognose einer Wirkung.

Kausalinterpretation durch nichtmonotone Wirkbeziehungen In einer Vielzahl realer Problemstellungen in der Marketingforschung ist es nicht möglich, die Zeitdifferenz zwischen dem Eintreten von Ursache und Wirkung zu erfassen. In solchen Fällen werden alle Zustände zum gleichen Zeitpunkt gemessen, womit die Kausalbedingung der Wirkzeit nicht mehr verwendet werden kann. Ohne eine Alternativbedingung kann in solchen statischen Problemstellungen Kausalität nur noch auf Basis von theoriebasierten Vorwissen bestätigt, jedoch nicht mehr gefolgert werden.

Das Problem der linearen Beziehungen besteht darin, dass anhand einer Korrelation zwischen zwei Größe A und B nicht gefolgert werden kann, welche Variable die ursächlich ist. Nach Kenntnis des Autors ist in der Literatur bislang noch nicht die Möglichkeit diskutiert worden, dass es Wirkbeziehungen gibt, bei denen dies nicht der Fall ist: Nichtmonotone[9] Beziehungen wie in Abbildung 2.1.2-2 dargestellt, zeichnen sich dadurch aus, dass von der beeinflussten Größe nicht mehr eindeutig auf einen Wert der ursächlichen Größe geschlossen werden kann, da es mindestens zwei ursächliche Zustände gibt, die ein und die selben Wirkung hervorrufen.

Da bei nichtmonotonen Beziehungen anhand von Beobachtungsdaten der ursächlichen Größe die beeinflusste Größe besser erklärt werden kann als umgekehrt, ist es somit möglich, rein empirisch eine Kausalhypothese der Wirkungsrichtung zwischen A und B abzuleiten.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.1.2.-2: Nichtmonotone Beziehungen

Schlussfolgerungen

Kausalzusammenhänge sind weder beweisbar noch beobachtbar. Vielmehr basiert das Ableiten von Kausalzusammenhängen auf den vorhandenen Beobachtungsdaten und dem aktuellen theoretischen Wissensstand. Insofern sind Kausalschlüsse grundsätzlich vorläufig. Die Kausalität sollte bei sozialwissenschaftlichen Problemstellungen in einem wahrscheinlichkeitstheoretischem Sinn, d.h. als ein Grad der Plausibilität dafür, dass Kausalität vorherrscht, verwendet werden[10].

Es kann demnach im Rahmen einer Kausalanalyse nicht um den Nachweis von Kausalität gehen, sondern vielmehr um das Aufstellen und Bewerten von Kausalhypothesen im Lichte des aktuellen vorhandenen Vorwissens[11]. Zur Annahme einer Kausalhypothese werden in dieser Arbeit folgende drei Bedingungen vorgeschlagen:

A. Prognostische Relevanz: Die ursächliche Größe X und die beeinflusste Größe Y enthalten gleiche Informationen. Sind diese Informationen auch in einer anderen Größe Z vorhanden, so trifft dies für Z in einem geringerem Unfang als für X zu, d.h. Z ist aufgrund der Verfügbarkeit von X nicht prognostisch relevant.

B. Vollständigkeit: In die Betrachtung werden alle relevanten Größen einbezogen.

C. a) Wirkzeit: Die Wirkung tritt nach der Ursache auf. Oder:

b) Nichtmonotonie: Die Wirkungsrichtung mit einer signifikant höheren prognostischen Relevanz wird als wahr angenommen Oder:

c) Vorwissen: Es bestehen Theorien, die Kausalzusammenhänge, z.B. eine bestimmte Wirkungsrichtung, ausschließen können.

Die prognostische Relevanz der Bedingung A geht über die Forderung nach Kovariation hinaus, da sie die Art des Zusammenhangs (ob nichtlinear oder interagierend) nicht einschränkt. Bei Ursachen beispielsweise, die nur unter bestimmten Randbedingungen eine Wirkung auslösen, besteht ein Zusammenhang mit interagierenden Ursachen. Die Einschränkung, dass es keine dritte Größe mit gleichen Informationen geben sollte, begründet sich in folgender Tatsache: Eine ursächliche Größe X, die neben einer direkten Wirkverbindung auch indirekt über eine Größe Z auf die beeinflusste Größe Y wirkt, verursacht zwei prognostisch relevante Größen X und Z. Insofern jedoch Z noch von einer anderen Größe beeinflusst wird (bekannte oder unbekannte (zufällige) Größen), enthält X unverfälschtere prognostisch relevante Informationen. Y ist also prognostisch unbrauchbar, da alle relevanten Informationen bereits in X vorhanden sind. Die Bedingung, dass Z noch einen anderen Einfluss haben muss, wird in der Realität nahezu immer erfüllt sein. Falls nicht, kann die wahre Ursache nur durch ein Experiment ermittelt werden: Dieses beinhaltet nichts anderes als das Einführen einer Einflussgröße für Z, welche Z im Experiment konstant hält.

Bedingung B entspricht der sogenannten „Closed World“-Annahme, nach der die Kausalableitungen nur unter der Bedingung gültig sind, dass es keine unbekannten beeinflussenden Größen gibt (vgl. Plach 1999, S.34). Diese Annahme dürfte in den Sozialwissenschaften nahezu nie gegeben sein, was wohl hauptsächlich zur Forderung nach einem wahrscheinlichkeitstheoretischen Kausalitätsbe-griff geführt hat. Je besser alle drei obigen Bedingungen erfüllt sind, um so plausibler ist der abgeleitete Kausalitätsschluss. Aufgabe zukünftiger Forschung wird es sein, ein quantitatives Maß für eine Kausalplausibilität zu entwickeln, das alle Aspekte der drei Bedingungen berücksichtigt.

2.2 Die klassische Kausalanalyse

2.2.1 Ansatz der klassischen Kausalanalyse

Die vorangestellte Diskussion der Kausalität basiert auf der Betrachtung einzelner Kausalzusammenhänge. Die Bedingung der Abwesenheit von Dritteinflüssen lässt bei der Interpretation von Korrelationen erahnen, dass kausales Schließen nur mit einer systemischen Betrachtung möglich ist. Das heißt, dass nur unter gleichzeitiger Beobachtung bzw. Kontrolle aller anderen Größen eines Systems eine Kausalinterpretation durchgeführt werden kann. Tatsächlich ist es so, dass durch die Betrachtung der Kovarianzen zwischen den Größen eines Systems bestimmte Wirkungsrichtungen und Zusammenhänge logisch ausgeschlossen werden können. Ein Beispiel illustriert die Abbildung 2.2.1-1.

Eine Korrelation zwischen zwei Größen kann anhand von drei grundlegenden Wirkungszusammenhängen (und ihren Kombinationen, wie in Abbildung 2.1.2-1 dargestellt) kausal interpretiert werden. Zieht man eine weitere Größe Z in die Betrachtung ein, die ebenfalls mit der Wirkung Y aber nicht mit der Ursache X korreliert, so ergibt sich rein logisch die in Abbildung 2.1.2-1 unter 3. dargestellte Kausalstruktur: Y kann nicht auf Z wirken, da Y sonst mit X korrelieren würde. Y kann nicht auf X wirken, da X sonst mit Z korrelieren würde. X kann nicht auf Z wirken, da sie nicht korrelieren[12].

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.2.1-1: Erkenntnisgewinn durch Strukturbetrachtung

Bei anderen Kausalstrukturen oder anderen Kovarianzen ergeben sich zwar nicht mehr zwingend genau eine resultierende Kausalstruktur, jedoch führt grundsätzlich das Einbeziehen aller Neben- und Verbundwirkungen eines System dazu, dass eine bestimmte Menge an möglichen Kausalstrukturen durch die Betrachtung der vorhandenen Kovarianzen ausgeschlossen werden kann. Je mehr relevante Größen in die Betrachtung einbezogen werden können, desto kleiner wird die Menge der Kausalstrukturen, aufgrund derer die empirischen Korrelationen entstanden sein könnten. Je komplexer das betrachtete Kausalmodell ist, desto wahrscheinlicher ist es, dass es nicht mit den empirischen Korrelationen im Einklang steht. Trifft dies doch zu, so können mit relativer Sicherheit auch ohne Messung von Zeitverschiebungen (Bedingung 2) und ohne „manuelle“ Betrachtung von Drittvariablen (Bedingung 3) Kausalschlüsse gezogen werden (vgl. Trommsdorff 1998, S.28).

Der Ansatz der klassischen Kausalanalyse ist es, a priori ein durch Vorwissen begründetes Strukturgleichungsmodell aufzustellen und dann anhand dafür entwickelter statistischer Verfahren (siehe nächster Abschnitt) zu prüfen, inwieweit diese Kausalstruktur mit den gemessenen Kovarianzen korrespondieren. Abbildung 2.2.1-2 veranschaulicht diesen Ansatz:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.2.1-2: Einschränkung möglicher Modelle durch Korrelation und Vorwissen

Die Menge b besteht aus allen Strukturmodellen, welche die gegebenen Korrelationen erklären könnten. Die Menge c besteht aus den Modellen aller möglicher Pfadkoeffizienten[13] einer auf Grund von Vorwissen a priori definierten Kausalstruktur. Innerhalb von c (dem Raum der theoretisch plausiblen Modelle) sucht ein Kausalanalyseverfahren die Pfadkoeffizienten, die am besten zu den empirischen Daten passen. Die Menge c’ entspricht einer Kausalstruktur, die abzulehnen ist.

Da in den meisten Problemstellungen der sozialwissenschaftlichen Praxis theoretische Konstrukte im Mittelpunkt stehen, die selbst nicht direkt beobachtbar sind (z.B. Zufriedenheit), müssen Kausalanalyseverfahren die Verwendung von latenten Variablen erlauben. Diese latenten Variablen, aus denen die Kausalstruktur im Kern besteht, werden anhand von dafür festgelegten Indikatorvariablen berechnet (z.B. Zufriedenheit aus Fluktuation, Krankenstand und Beschwerdeausmaß).

Es lässt sich zusammenfassen, dass es Ansatz der klassischen Kausalanalyse ist, alle miteinander verbundenen Beziehungen eines Systems in einem Strukturgleichungsmodell zu prüfen. Dies ist sinnvoll, da sich durch eine systemische Betrachtung eine Vielzahl von möglichen Kausalzusammenhängen ausschließen. Der Ansatz ist jedoch rein konfirmatorisch, da lediglich eine a priori vermutete Kausalstruktur anhand von empirischen Daten geprüft wird.

2.2.2 Die LISREL-Methode

Insbesondere in der Marketingforschung findet fast ausschließlich die LISREL-Methode (Li near S tructural Rel ationships) der Kausalanalyse, synonym auch als Kovarianzstrukturanalyse und Strukturgleichungsmethode bezeichnet, Anwendung (vgl. Hildebrandt 1994, S. 1125).

Ziel einer Kausalanalyse sollte es sein, zu bestimmen, in welchem Ausmaß Größen direkt aufeinander wirken. Abbildung 2.2.2.-1 zeigt beispielhaft eine Kausalstruktur.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.2.2.-1: Beispielkausalstruktur

An den Pfeilen der direkten Wirkungszusammenhänge sind zum einen die wahren Pfadkoeffizienten, die aussagen in welchem Maße die Ursache direkt auf die beeinflusste Größe wirkt, und zum anderen die empirisch ermittelten Korrelationskoeffizienten, angegeben. Es ist zu beobachten, dass die Korrelationskoeffizienten nicht das wahre Wirkungsausmaß beschreiben. Bei der Korrelation zwischen X und Y ist dies darauf zurückzuführen, dass die Korrelation sich durch die Addition des direkten, kausalen Effektes (0.4) und des indirekten, kausalen Effektes über Z (0.5*0.2) ergibt. Bei der Korrelation zwischen Z und Y ist die Diskrepanz von r und a darauf zurückzuführen, dass zusätzlich zum direkten, kausalen Effekt (0.2) noch eine gemeinsame Ursache auf Z und Y mit je 0.5 und 0.4 wirkt und so eine zusätzliche Scheinkorrelation von 0,2 erzeugt.

Das Problem besteht darin, dass zwar die Korrelationskoeffizienten sich aus den Pfadkoeffizienten, nicht aber die wahren Pfadkoeffizienten direkt aus den Korrelationswerten ermitteln lassen. Denn die Pfadkoeffizienten sind im Vorhinein ja nicht bekannt und sollen erst ermittelt werden. Im Folgenden soll der Ansatz der LISREL-Analyse nähergebracht werden, indem dargestellt wird, wie es der LISREL-Methode durch Einführen von Gleichungen für jeden postulierten Zusammenhang möglich ist, aus empirischen Korrelationswerten die Pfadkoeffizienten der direkten, kausalen Zusammenhänge zu bestimmen.

Ein einfaches Kausalmodell mit drei Kausalhypothesen und drei Messhypothesen für die latenten Variablen[14] ist in Abbildung 2.2.2-2 dargestellt[15]. Darin werden die latenten Variablen (X, Y, Z) mit großen Buchstaben, die Indikatorvariablen mit kleinen Buchstaben, alle zufälligen Störvariablen mit e und alle Pfadkoeffizienten mit a bezeichnet.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.2.2-2: Ein einfaches Kausalmodell

Ziel einer Kausalanalyse ist es nun, anhand der für alle Indikatorvariablen vorliegenden empirischen Daten die optimalen Ausprägungen der Parameter a zu bestimmen (vgl. Backhaus u.a. 1996, S. 352). Der Ansatz der LISREL-Methode zur Parameter-Schätzung ist es, die Parameter so festzulegen, dass die Korrelationen zwischen den Indikatorvariablen eines so spezifizierten Kausalmodells möglichst mit den empirischen Korrelationen übereinstimmen. Dieser Ansatz soll im Folgenden am Beispiel des Kausalmodells in Abbildung 2.2.2-2 veranschaulicht werden:

Die Korrelation zwischen zwei standardisierten[16] Variablen (hier x1 und y1) berechnet sich wie folgt (vgl. Backhaus u.a. 1996, S. 352):

Abbildung in dieser Leseprobe nicht enthalten Gl.1

N Fallzahl der Stichprobe

Da für die Indikatorvariablen empirische Daten vorliegen, kann für jedes Variablenpaar eine empirische Korrelation berechnet werden.

Diese empirische Korrelation soll nun möglichst der Korrelation entsprechen, die sich aus dem Kausalmodell mit einer bestimmten Ausprägung der Parameter a ergibt. In Abbildung 2.2.2-2 ist ersichtlich, dass alle Wirkbeziehungen mit einer Gleichung beschrieben werden können. So ist es möglich, diese Strukturgleichungen für die Ausprägungen der Indikatorvariablen in Gl.1 einzusetzen, sodass eine Gleichung einer geschätzten Korrelation entsteht, die nur von den Parametern a abhängig ist. Es ergibt sich, dass unter der Annahme, dass die Störvariablen e zu allen anderen Variablen unabhängig und damit unkorreliert sind, die Störvariablen e in einer solchen „synthetischen“ Korrelationsgleichung verschwinden.

Beispiel: Möchte man die Korrelation von x1 und y1 anhand der Parameter des Modells in Abbildung 2.2.2-2 berechnen, so kann x1 durch Gleichung Œ und y1 durch Gleichung “ berechnet werden:

Abbildung in dieser Leseprobe nicht enthalten Gl.2

Klammert man die Klammerterme in Gleichung 2 aus, so erhält man:

Abbildung in dieser Leseprobe nicht enthalten Gl.3

Die Summanden in der Klammer in Gl.3 stellen für sich (wie auch Gl.1) Korrelationsgleichungen dar. Da angenommen wird, das e mit allen Variablen unkorreliert ist, fallen die rechten drei Summanden weg. Setzt man nun für Y die Gleichung  von Abbildung 2.2.2-2 ein, so erhält man:

Abbildung in dieser Leseprobe nicht enthalten Gl.4

In Gleichung 4 fällt wieder der letzte Summand heraus. Da eine Variable zu sich selbst immer eine Korrelation von Eins ergibt, wird X*X gleich 1. Nun setzt man für Z die Gleichung  ein und erhält damit:

Abbildung in dieser Leseprobe nicht enthalten Gl.5

Der rechte Summand wird wieder zu Null und für X*X kann wieder eine 1 geschrieben werden. Damit sind alle Variablen, die im Summenterm addiert werden können, eliminiert. Es ergibt sich folgende Berechnungsformel:

Abbildung in dieser Leseprobe nicht enthalten Gl.6

Berechnungsformeln für die Korrelationen zwischen den Indikatorvariablen, die nur von den Parametern abhängig sind (wie Gl.6), lassen sich für jede Korrelation jedes Indikatorpaares angeben und werden in der sogenannten modelltheoretischen Korrelationsmatrix Abbildung in dieser Leseprobe nicht enthalten angeordnet. Die empirischen Korrelationen der Indikatorpaare werden in der empirischen Korrelationsmatrix R angeordnet. Ziel der LISREL-Methode ist es, die Parameter so zu bestimmen, dass Abbildung in dieser Leseprobe nicht enthalten sich möglichst gut an R annähert. Daher minimiert der Optimierungsalgorithmus eine Fehlerfunktion F=F(Abbildung in dieser Leseprobe nicht enthalten,R) und passt alle Parameter so an, dass das Gesamtfehlermaß minimal wird. Die Art des Fehlermaßes bestimmt sich durch die gewählte Schätzmethode. Die am häufigsten verwendeten Schätzverfahren sind die Maximum-Liklihood- (ML) und die General Least Squares- (GLS) Schätzmethode (vgl. Hildebrandt/Görz 1999, S.7). Die Fehlerfunktion wird in einem iterativen Prozess mit Hilfe eines Optimierungsverfahrens minimiert, indem die Parameter sukzessive verändert werden.

Wendet man Gl.6 (unter Weglassen der Messmodelle und damit a1, a6) auf das Eingangsbeispiel in Abbildung 2.2.2-1 an, so ist ersichtlich, dass die Pfadkoeffizienten a sich mit Hilfe der empirischen Koeffizienten berechnen lassen: Abbildung in dieser Leseprobe nicht enthalten. Zwar ist diese Gleichung allein nicht eindeutig lösbar; es können jedoch so viele Korrelationen gebildet werden, wie Parameter im Modell vorhanden sind, so ergibt sich durch ein Gleichungssystem eine eindeutige Lösung für jeden Parameter[17].

Anwendungsvoraussetzung

Wie jede statistische Methode ist die Anwendung der LISREL-Methodik ebenfalls an eine Reihe von Bedingungen geknüpft. Sind diese nicht gegeben, so erzeugt die Kausalanalyse suboptimale Ergebnisse. Das Ausmaß der Suboptimalität selbst kann meist nicht angegeben werden. Die Anwendungsvoraussetzungen für den LISREL-Ansatz sind (nach Backhaus u.a. 1996, S. 423):

1. Das Strukturmodell und beide Messmodelle basieren je auf einer gesicherten Theorie über die Zusammenhänge der Variablen. Alles vorhandene gesicherte Vorwissen geht in die Analyse ein.
2. Alle Zusammenhänge (im Struktur- und Messmodell) sind linear und verhalten sich additiv zu den weiteren Einflüssen einer Variable.
3. Die ML- und GLS-Verfahren zur Parameterschätzung setzen multi-normalverteilte Indikatorvariablen voraus. Andere Verfahren haben nicht diese Voraussetzungen jedoch andere Nachteile (ausführlicher in Homburg 1988, S. 164ff und Hildebrandt/Görz 1999, S. 10ff)
4. Die Störgrößen e (d.h. Residuen der latenten Variablen und Messfehler der Indikatorvariablen) sind mit allen anderen Variablen und Störgrößen unkorreliert (zu den Ausnahmen siehe Backhaus u.a. 1996, S. 371)
5. Das aufgestellte Kausalmodell ergibt in Zusammenhang mit der gewählten Schätzmethode ein eindeutig lösbares Gleichungssystem, d.h. zum einen muss die Anzahl der Gleichungen mindestens der Zahl der freien Parameter entsprechen (Indentifizierbarkeit). Zum anderen muss die modelltheoretische Kovarianz-Matrix positiv definit und damit invertierbar sein. Weiterhin ist ein Gleichungssystem nicht lösbar, wenn die Kausalstruktur zirkuläre Beziehungen, d.h. Effekte, die über mehrere Beziehung wieder auf sich selbst wirken, enthält.

Zusammenfassung

Ausgangspunkt einer Kausalanalyse ist die Hypothesenerstellung, die in Gleichungen ausgedrückt das Strukturmodell und die Messmodelle ergeben. Die Parameter der Strukturgleichungen werden so bestimmt, dass ein Modell mit diesen Parametern möglichst die gemessenen empirischen Korrelationen reproduzieren würde. Mit dem LISREL-Ansatz der Kausalanalyse werden insbesondere folgende Zielstellungen erreicht (nach Hildebrandt 1994, S. 1125):

ΠEmpirischer Test eines Theoriesystems, d.h. eines Netzwerks aus nomologischen Hypothesen unter Verwendung von latenten Variablen

 Kontrolle von Messfehlern und Validierung der Messungen theoretischer Konstrukte in einem Faktormodell (Die Messmodelle entsprechen dem Ansatz der konfirmatorischen Faktoranalyse).

ŽZerlegung der empirischen Korrelationen in direkte, kausale Bestandteile, indirekte, kausale Bestandteile und nichtkausale Bestandteile (vgl. Backhaus u.a. 1996, S. 341ff)

Diese Zielstellungen können nur optimal erreicht werden, wenn sehr restriktive Voraussetzungen erfüllt sind. Diese sind insbesondere das Vorhandensein gesicherter Theorien, die linear-additiven Beziehungen beschreiben, multivariat-normalverteilter Indikatorvariablen, unabhängiger Störvariablen und das Vorhandensein eines eindeutig lösbaren Gleichungssystems.

2.2.3 Erweiterungen des LISREL-Ansatzes

Die restriktiven Voraussetzungen des LISREL-Ansatzes machen in einer Vielzahl von praktischen Anwendungen die Nutzung dieser Kausalanalyse unmöglich. Daher richten sich Forschungsvorhaben im Zusammenhang mit der Kausalanalyse in den letzten Jahrzehnten auf die Entwicklung von Erweiterungen, die ein Abweichen von den Anwendungsvoraussetzungen ermöglichen.

Exploratorische Kausalanalyse

In der Mehrheit der Problemstellungen in der Marketingforschung ist leider der theoretische Reifegrad nicht so hoch, dass eindeutige Kausalmodelle aus der Theorie abgeleitet werden können (Homburg/Hildebrandt 1998, S. 30). Daher wird eine Methode benötigt, die anhand von empirischen Daten eine Kausalstruktursuche durchführt. Bislang entwickelte Ansätze lassen sich insbesondere in zwei Klassen einordnen: die iterative Modellselektion und der Vergleich alternativer Modellstrukturen.

Im Rahmen der iterativen Modellselektion wird von einem aus theoretischen Überlegungen plausiblen Anfangsmodell ausgegangen und dieses schrittweise verändert. Beispielsweise kann anhand der partiellen Ableitungen der Fehlerfunktion der Parameter bestimmt werden, dessen Einführung in das Modell den Fehler am besten reduzieren helfen würde. Ist das Modell auf diese Weise schrittweise mit Parametern angereichert worden, kann umgekehrt vorgegangen werden: Es werden die Parameter entfernt, bei denen der Fehler nur geringfügig steigt. Das Hauptproblem dieser Vorgehensweise liegt darin, dass das verbleibende Modell rein datengetrieben ohne theoretische Fundierung entstanden ist. Wie in Abschnitt 2.2.1 (Ansatz der Kausalanalyse) bereits veranschaulicht, schließen die Korrelationen zwischen den Strukturvariablen die Menge möglicher Modellstrukturen ein (Menge b). In realen Modellstrukturen gibt es jedoch viele Interpretationen einer Korrelationsstruktur. Eine iterative Modellselektion sucht in der Menge b das Modell mit der besten Übereinstimmung mit der Stichprobe ohne Berücksichtigung der theoretisch plausiblen Modelle der Menge c. Eine fundierte nachträgliche Interpretation ist meist von geringem Wert, da wenig Vorwissen zur Interpretation vorliegt und m.E. die Gefahr besteht, die Plausibilität der Vermutungen zu überschätzen[18]. Letztlich steht und fällt die Kausalinterpretation mit der theoretischen Fundierung des Strukturmodells (vgl. Homburg/ Hildebrandt 1998, S. 42).

Im Rahmen des Vergleichs alternativer Modellstrukturen werden mehrere theoretisch gleich plausible Modellstrukturen separat anhand des Datensatzes geschätzt und dann verglichen, welche Struktur am besten die empirische Kovarianzstruktur erklärt. Die Gefahr der Theorielosigkeit wird hier im Vorhinein dadurch eingegrenzt, dass nur Modellstrukturen verglichen werden, die bereits eine theoretische Fundierung besitzen. In Abbildung 2.2.1-2 ist dies gleichbedeutend mit dem Ausweiten der Menge c.

Mit steigender Anzahl der Freiheitsgrade (d.h. Parameteranzahl) des untersuchten Modells besteht die Gefahr, dass das spezifizierte Modell zu sehr auf die vorliegende Stichprobe optimiert ist und somit nicht mehr mit einer anderen Stichprobe korrespondieren würde. Um dies zu verhindern, sollten entweder Anpassungsmaße, welche die Anzahl der Freiheitsgrade berücksichtigen, Informationskriterien oder Kreuzvalidierungsansätze verwendet werden. Letztere überprüfen die Güte eines Modells anhand einer zweiten nicht in die Modellspezifikation einbezogenen Stichprobe (vgl. Homburg/Hildebrandt 1998, S. 31f).

Einbeziehen von Interaktionen

Die Ausprägung vieler Zusammenhänge der Realität sind von spezifischen Randbedingungen abhängig. Beispielsweise kann eine gute Geschäftsidee nur erfolgreich sein, wenn genügend Kapital zur Verfügung steht. Der Erfolg kann nicht durch Addition beider Bedingungen (Idee und Kapital) erklärt werden - der Zusammenhang ist interaktiv und kann somit nicht im LISREL-Modell abgebildet werden.

Der wichtigste Ansatz, um Interaktionen berücksichtigen zu können, ist der kausalanalytische Mehrgruppenvergleich. Hierbei wird die Stichprobe in mehrere Gruppen unterteilt, in denen die Objekte die gleiche Ausprägung der interagierenden Variablen besitzen (z.B. ungenügendes vs. genügend Startkapital). Für jede Stichprobengruppe wird separat ein LISREL-Modell berechnet und die betreffende Beziehung mit entsprechenden statistischen Tests (c2-Differenztest) auf Signifikanz der Unterschiede geprüft (vgl. Kohli u.a. 1998, S. 270). Dem Mehrgruppenvergleich stehen insbesondere zwei Kritikpunkte gegenüber: Ist die interagierende Variable nicht nominal skaliert, so muss sie „künstlich“ durch Einführen eines Schwellwertes (der z.B. definiert was „genügend Kapital“ ist) nominalisiert werden. Durch diese Transformation gehen Informationen verloren. Ein zweiter Problempunkt ist, dass durch die Aufteilung der Stichprobe in zwei (oder bei zwei interagierenden Variablen in vier) Substichproben die Schätzungen des Strukturmodelle selbst immer unsicherer werden (vgl. Jöreskog/Sörbom 1993, S. 227ff).

Der Ansatz des Interaktionsmodells von Kenny und Judd (1984) ist es, die Interaktion zweier latenter Variablen direkt in den Strukturgleichungen zu berücksichtigen. Dies wird erreicht, indem durch Multiplikation der Messmodelle von den interagierenden Variablen eine dritte latente Hilfsvariable gebildet wird. Da dies zu einer sehr komplexen Struktur des Fehlerterms führt, sind in diesem Ansatz maximal zwei interaktive Zusammenhänge praktikabel (vgl. Homburg/Hildebrandt 1998, S. 28). Ein weiteres Problem des Ansatzes besteht darin, dass lediglich Interaktionen multiplikativer Art modelliert werden können.

Einbeziehen der Wirkzeit

Das zeitliche Nacheinander ist ein Voraussetzung für Kausalität. In Problemstellungen, wo die zeitliche Verschiebung so groß ist, dass sie gemessen werden kann, ist es wichtig, das zeitliche Auseinanderfallen von Ursache und Wirkung zu berücksichtigen. Andernfalls würde das Kausalmodell aus theoretischer Sicht a priori bereits falsch sein. Auf der anderen Seite bieten Beobachtungswerte von zeitlichen Verschiebungen auch eine große Chance: Eine zwischen zwei zeitlich auseinanderfallenden Größen gemessene Korrelation besitzt lediglich noch zwei statt drei grundsätzlichen Interpretationsmöglichkeiten, da ein direkter, kausaler Einfluss nur in eine Richtung möglich ist[19]. Stichproben mit zeitlichen Informationen liegen in Längsschnittstudien und bei anderweitig anfallenden Zeitreihenmessungen vor.

[...]


[1] Beispielsweise hat ein führender Serversoftware-Hersteller eine Marktbeherschende Stellung erreicht indem er seine Software kostenlos zur Verfügung stellte. Umsätze werden durch den Verkauf des sehr teuren Handbuch erzielt (vgl. Kelly 1998, S. 93)

[2] Mit Verfahren der „klassischen Statistik“ sollen im Folgenden insbesondere sogenannte parametrische Verfahren bezeichnet werden, wie die lineare Regressionsanalyse, die Diskriminanzanalyse, die lineare Faktoranalyse oder parametrische Maximum-Likelihood-Dichteschätzer (mehr zu parametrischen Verfahren in Buckler 1998, S. 13 ff).

[3] Bislang wurde der Komplexitätsbegriff noch nicht definiert. Allgemein sollen hier mit „komplexen Zusammenhängen“ funktionale Beziehungen mit Nichtlinearitäten und Interaktionen verstanden werden (siehe ausführlich dazu Abschnitt 3).

[4] Vgl. zur Diskussion verschiedener Definitionsansätze Wiedmann/Buckler/Buxel 2001

[5] LISREL (Linear Structural Relationships) und PLS (Partial Least Squares) sind die verbreitetsten Kausalanalyseverfahren und werden im Abschnitt 2.2 vorgestellt.

[6] OLAP ist eine neuartige Datenbanktechnologie, welche Datensätze in mehrdimensionalen „Datenwürfeln“ vorhält, um damit durch sehr viel höhere Zugriffsraten anhand einer interaktiven Bedieneroberfläche Analysen durchführen zu können.

[7] Die Annahme von Kausalität entspricht einer im Vorhinein getroffenen Annahme, dass alles prinzipiell deterministisch erklärt werden kann. Das heisst es wird angenommen, dass stochastische Erklärungen nur temporäre Annahmen sind und damit durch „noch nicht erklärbar“ übersetzt werden. Diese Annahme stellt ein (nicht beweisbares) Axiom dar und ist Grundlage jeder wissenschaftlichen Forschung, da die Abkehr, die Abkehr von der Suche nach Erklärungen und damit die Abkehr vom Erkenntnisfortschritt bedeuten würde (vgl. Popper 1994, S. 33).

[8] Die Bedingung „Gestützt durch Vorwissen“ erhält lediglich im Kontext einer wahrscheinlichkeitstheoretischen Kausaldefinition (i.S.e. einer mehr oder weniger signifikanten Kausalität) eine gewisse Bedeutung. Insofern kann eine signifikante Theorie durch zusätzliche empirische Hinweise zu einer hoch signifikanten werden. In Abwesenheit einer Testtheorie für Kausalität (außer die von Granger (vgl. Granger 1980)) kann jedoch auch nicht gesagt werden, ab wann eine Theorie als kausal signifikant eingestuft werden kann. Wie Granger vorschlägt, sollten zukünftige Forschungsaktivitäten die Schaffung eines Bayes’schen Formalismus zum Nachweis von Kausalität anstreben, da in diesem das rechnerische Erfassen von theoretischem Vorwissen möglich sei.

[9] Eine Funktion ist nichtmonoton, wenn sie an manchen Bereichen steigt und an manchen fällt, d.h. wenn sie positive und negative Ableitungen besitzt.

[10] Nach evolutionstheoretischen Erkenntnissen ist es zudem ökonomischer, Ursachen in manchen Fällen auch dort zu vermuten, wo keine oder andere bestehen, als ganz darauf zu verzichten (vgl. Hecht 1999, S. 14). So hat Riedl (1995) dargelegt, wie sich im Laufe der Evolution Lernkonzepte wie die Klassische Konditionierung entwickelt haben, die sich dadurch auszeichnet, dass nahezu beliebige Ereignisse kausal verknüpft werden, solange diese nur eine gewisse zeitliche Verbindung besitzen.

[11] Nach Reichenbach (1930): „Denn Wahrheit oder Falschheit ... ist nicht die Alternative der Wissenschaft, sondern es gibt für wahrscheinliche Sätze nur stetige Wahrscheinlichkeitsstufen, deren unerreichbare Grenzen nach oben und unten Wahrheit und Falschheit sind.“ (Popper 1994, S. 5). Diese Erkenntnis basiert auf der Tatsache, dass die Induktion als „Mutter der Erkenntnis“ selbst nicht beweisbar ist, sondern ebenfalls auf Axiomen - den verwendeten Induktionsprinzipien - beruht.

[12] Annahme ist, dass alle Beziehungen linearer Natur sind.

[13] Ein Pfadkoeffizient gibt die kausale Stärke und Richtung eines Zusammenhanges an.

[14] Latente Variablen sind theoretische Konstrukte für nicht beobachtbare Größen, die anhand von sogenannten Indikatorvariablen, die von den latenten Variablen abhängig sind, definiert werden (vgl. Backhaus u.a. 1996, S. 190ff).

[15] Die Notation der Variablen weicht von der üblichen Notation ab. Da erfahrungsgemäß die Vielzahl von griechischen Buchstaben den nicht mit LISREL vertrauten Leser überfordert, soll hier möglichst darauf verzichtet werden (zumal dieses Kapitel von mit LISREL vertrauten Lesern übersprungen werden kann). Für ein detailliertes Einarbeiten in die LISREL-Methodik wird ein geeignetes Lehrbuch (insbesondere Backhaus u.a.1996, S. 322ff) empfohlen.

[16] Eine standardisierte Variable besitzt einen Mittelwert von Null und eine Varianz von Eins (vgl. Backhaus u.a. 1996, S. 337).

[17] Unter der Voraussetzung, dass die Gleichungen nicht linear abhängig voneinander sind.

[18] Ein Mittelweg bestünde darin, die iterative Suche nur auf die Hypothesen der Kausalstruktur auszudehnen über deren Relevanz der Forscher sehr unsicher ist.

[19] Autokorreliert eine latente Variable, so kann auch eine Korrelation von einer zeitlich vorgelagerten Wirkung mit seiner autokorrelierenden Ursache beobachtet werden. Die „wahre“, zeitlich nachgelagerte Wirkung ergibt jedoch eine höhere Korrelation, sodass die Wirkungsrichtung auch hier erkannt werden kann. Autokorrelierende Variablen sollten als Veränderungswert der Größe je Zeiteinheit statt als Absolutgröße eingehen (vgl. Karmann 1989, S. 6)

Details

Seiten
293
Erscheinungsform
Originalausgabe
Jahr
2001
ISBN (eBook)
9783836615259
Dateigröße
1.9 MB
Sprache
Deutsch
Katalognummer
v225905
Institution / Hochschule
Gottfried Wilhelm Leibniz Universität Hannover – Wirtschaftswissenschaften, Marketing II
Note
1,0
Schlagworte
kausalanalyse lisrel partial least squares data mining neuronales netz

Autor

Teilen

Zurück

Titel: Neuer Kausalanalyseansatz auf Basis Neuronaler Netze als Instrument der Marketingforschung