Lade Inhalt...

Präferenzmessung

Ein empirischer Vergleich eines adaptiven Self-Explicated Verfahrens mit der Adaptiven Conjoint Analyse

©2008 Diplomarbeit 99 Seiten

Zusammenfassung

Inhaltsangabe:Problemstellung:
Eine Produktgestaltung, die die Anforderungen und Bedürfnisse der Endkunden trifft, ist von hoher Relevanz für ein Unternehmen, um langfristig Umsatz und Ertrag zu sichern. Ein Produkt muss in diesem Sinne als Eigenschaftsbündel verstanden werden, welches durch die Bedürfnisbefriedigung des Kunden dem Unternehmen dient. Folglich ist wichtig für das Unternehmen, die Bedürfnisse der Kunden hinsichtlich der Eigenschaften des Produktes zu kennen. Als ein geeignetes Maß für die Bedürfnisse der Kunden kann dessen Präferenz herangezogen werden. Zur Messung von Präferenzen können kompositionelle sowie dekompositionelle Methoden verwendet werden.
Die Conjoint Analyse stellt als dekompositionelle Methode ein anerkanntes Verfahren zur Messung von Konsumentenpräferenzen dar. Dieses Verfahren umgeht die vermuteten Schwächen der kompositionellen Self-Explicated Verfahren.
Bisherige empirische Untersuchungen haben jedoch nicht eindeutig nachweisen können, dass Conjoint Analysen eine höhere Validität im Vergleich zu Self-Explicated Verfahren aufweisen. Teilweise ist bei den Self-Explicated Verfahren sogar eine höhere Validität festgestellt worden.
Ziel dieser Arbeit ist, eine Empfehlung über den Einsatz eines Verfahrens zur Messung von Konsumentenpräferenzen abzugeben. Dazu wird in dieser Arbeit an Hand einer empirischen Untersuchung die Validität einer geeigneten Conjoint Analyse mit einem geeigneten Self-Explicated Verfahren verglichen. Dabei wird der Kritik nachgegangen, dass nur eine begrenzte Anzahl von Eigenschaften betrachtet werden kann, und die Verfahren unter Berücksichtigung von vielen Eigenschaften untersucht. Zusätzlich wird darauf geachtet, dass eine individuelle Auswertung der Daten möglich ist, um eine Aposteriori Segmentierung zu gewährleisten.
Im zweiten Kapitel wird ein Überblick über die verschiedenen Ansätze zur Präferenzmessung gegeben und geeignete Verfahren herausgestellt. Die Eignung der Verfahren wird auf Grund von theoretischen Vor- und Nachteilen, den bisherigen Forschungsergebnissen und der kommerziellen Verbreitung der verschiedenen Verfahren bewertet. Im dritten Kapitel werden das Vorgehen und die formalen Hintergründe der geeigneten Verfahren vorgestellt und miteinander verglichen.
Das vierte Kapitel umfasst die empirische Studie. Es beschreibt das konkrete Vorgehen und das Design der Untersuchung. Grundlage der Beurteilung bildet die Prüfung der Ergebnisse mit Hilfe von geeigneten Gütekriterien. […]

Leseprobe

Inhaltsverzeichnis


Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

Symbolverzeichnis

1 Problemstellung

2 Messung von Präferenzen
2.1 Kompositionelle Verfahren
2.2 Dekompositionelle Verfahren
2.3 Hybride Verfahren
2.4 Theoretische Vor- und Nachteile der Verfahren
2.5 Empirische Befunde und Ergebnisse
2.6 Herausstellung geeigneter Verfahren

3 Ermittlung der Präferenzen durch das adaptive Self-Explicated Verfahren und der Adaptiven Conjoint Analyse
3.1 Adaptives Self-Explicated Verfahren
3.2 Adaptive Conjoint Analyse
3.3 Gegenüberstellung der Verfahren

4 Aufbau der empirischen Untersuchung
4.1 Gegenstand der Untersuchung
4.2 Ausgestaltung der Befragung
4.3 Stichprobencharakteristik
4.4 Beurteilungskriterien
4.4.1 Reliabilität
4.4.2 Validität
4.4.3 Mittelbare Validitätskriterien

5 Zusammenfassung

6 Anhang
6.1 Umfrage Pretest
6.2 Umfrage für beide Verfahren
6.3 ASEV Umfrage
6.4 ACA Umfrage
6.5 Zusätzliche Daten

Literaturverzeichnis

Ehrenwörtliche Erklärung

Anzahl Wörter: 19322

Abbildungsverzeichnis

Abbildung 1: Übersicht über Methoden der Präferenzmessung

Abbildung 2: Szenario A Abbildung 3: Szenario B

Abbildung 4: Größtmöglicher Fehler

Abbildung 5: Skalen der Einschätzung

Abbildung 6: Pretest Soziodemographische Daten

Abbildung 7: Pretest Erklärung Triple Play

Abbildung 8: Pretest Erklärung Ranking

Abbildung 9: Pretest Ranking der Eigenschaften

Abbildung 10: Pretest Zusätzlich Befragung für den Lehrstuhl E-Commerce

Abbildung 11: Einführung Prädispositive Merkmale Seite 1

Abbildung 12: Prädispositive Merkmale Seite 2

Abbildung 13: Erklärung Triple Play

Abbildung 14: Subjektive Kriterien

Abbildung 15: Holdout Kaufinteresse

Abbildung 16: Holdout Choice Sets

Abbildung 17: Holdout Paarvergleich

Abbildung 18: Sozidemographische Daten

Abbildung 19: ASEV Einführung Rating der Eigenschaftsausprägungen

Abbildung 20: ASEV Beispiel für Abfrage der Eigenschaftsausprägungen

Abbildung 21: ASEV Erklärung für Ranking der Eigenschaften

Abbildung 22: ASEV Ranking

Abbildung 23: ASEV Erklärung Paarvergleich

Abbildung 24: ASEV Paarvergleichsaufgabe

Abbildung 25: ACA Aufforderung zum Öffnen der ACA

Abbildung 26: ACA User ID

Abbildung 27: ACA Beispiel Rating der Eigenschaftsausprägung

Abbildung 28: ACA Rating Eigenschaft

Abbildung 29: ACA Paarvergleich 2 Eigenschaften

Abbildung 30: ACA Paarvergleich 3 Eigenschaften

Abbildung 31: ACA Paarvergleich 4 Eigenschaften

Abbildung 32: ACA Eingabe der User ID in die allgemeine Umfrage

Tabellenverzeichnis

Tabelle 1: Vergleich der Vor- und Nachteile der Conjoint Analyse mit den Self-Explicated Verfahren

Tabelle 2: Vergleich von traditionellen hybriden Conjoint mit Self-Explicated Verfahren

Tabelle 3: Vergleich von Adaptiven hybriden Conjoint mit Self-Explicated Verfahren

Tabelle 4: Übersicht über Verwendung der Verfahren

Tabelle 5: Eigenschaften, die in den Verfahren bewertet werden

Tabelle 6: Strukturmerkmale

Tabelle 7: Unplausible Werte

Tabelle 8: Teilnutzenwerte (und Rang) der Eigenschaftsausprägungen

Tabelle 9: Bedeutungsgewichte der Eigenschaften

Tabelle 10: T-Test auf konvergierende Validität

Tabelle 11: Verteilungsfreie Tests auf konvergierende Validität

Tabelle 12: Konvergierende Validität (Bedeutungsgewichte)

Tabelle 13: Korrelationskoeffizienten

Tabelle 14: t-Werte: Bedeutungsgewichte nach n Paarvergleichen gegenüber allen Paarvergleichen

Tabelle 15: Korrelationskoeffizienten nach Pearson

Tabelle 16: Hit-Rate der Verfahren

Tabelle 17: t-Werte

Tabelle 18: Hit-Rate nach n Paarvergleichen

Tabelle 19: PNG

Tabelle 20: Vergleichswerte der PNG

Tabelle 21: PNG nach n Paarvergleichen

Tabelle 22: Mittlerer Fehler (Marktanteile)

Tabelle 23: Test auf Unterschiede (Marktanteile)

Tabelle 24: Reliabilität der Holdout-Aufgabe

Tabelle 25: Durchschnittliche Produkt-Moment Korrelation (Kaufinteresse)

Tabelle 26: Signifikanz der Mittelwertunterschiede (Kaufinteresse)

Tabelle 27: Mittlerer Fehler (Paarvergleich)

Tabelle 28: Signifikanz der Mittelwertunterschiede (Paarvergleich)

Tabelle 29: Produkt-Moment Korrelation innerhalb des ASEV

Tabelle 30: Ergebnisse der Einschätzung

Tabelle 31: Zusammenfassender Vergleich

Tabelle 32: Betrachtung der ASEV

Tabelle 33: Korrelationen der Bedeutungsgewichte nach Bravais-Pearson

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Problemstellung

Eine Produktgestaltung, die die Anforderungen und Bedürfnisse der Endkunden trifft, ist von hoher Relevanz für ein Unternehmen, um langfristig Umsatz und Ertrag zu sichern (Brockhoff (1999), S. 1 f). Ein Produkt muss in diesem Sinne als Eigenschaftsbündel verstanden werden, welches durch die Bedürfnisbefriedigung des Kunden dem Unternehmen dient (vgl. Sattler (2006), S. 156). Folglich ist wichtig für das Unternehmen, die Bedürfnisse der Kunden hinsichtlich der Eigenschaften des Produktes zu kennen. Als ein geeignetes Maß für die Bedürfnisse der Kunden kann dessen Präferenz herangezogen werden (Gutsche (1995)). Zur Messung von Präferenzen können kompositionelle sowie dekompositionelle Methoden verwendet werden.

Die Conjoint Analyse stellt als dekompositionelle Methode ein anerkanntes Verfahren zur Messung von Konsumentenpräferenzen dar (vgl. Green / Srinivasan (1990), S. 3; Wittink / Vriens / Burhenne (1994)). Dieses Verfahren umgeht die vermuteten Schwächen der kompositionellen Self-Explicated Verfahren (vgl. Green / Srinivasan (1978); Green / Srinivasan (1990); Böcker (1986)).

Bisherige empirische Untersuchungen haben jedoch nicht eindeutig nachweisen können, dass Conjoint Analysen eine höhere Validität im Vergleich zu Self-Explicated Verfahren aufweisen (vgl. Srinivasan / Park (1997); Hartmann / Sattler (2004); Sattler / Hensel-Börner (2000)). Teilweise ist bei den Self-Explicated Verfahren sogar eine höhere Validität festgestellt worden (vgl. Agarawal / Green (1991); Huber / Daneshgar / Ford (1971); Wright / Kriewall (1980)).

Ziel dieser Arbeit ist, eine Empfehlung über den Einsatz eines Verfahrens zur Messung von Konsumentenpräferenzen abzugeben. Dazu wird in dieser Arbeit an Hand einer empirischen Untersuchung die Validität einer geeigneten Conjoint Analyse mit einem geeigneten Self-Explicated Verfahren verglichen. Dabei wird der Kritik nachgegangen, dass nur eine begrenzte Anzahl von Eigenschaften betrachtet werden kann (vgl. Wittink / Vriens / Burhenne (1994), S. 48 und Green / Srinivasan (1990), S.16), und die Verfahren unter Berücksichtigung von vielen Eigenschaften untersucht. Zusätzlich wird darauf geachtet, dass eine individuelle Auswertung der Daten möglich ist, um eine Aposteriori Segmentierung zu gewährleisten (vgl. Backhaus / Voeth / Hahn (1998), S. 10).

Im zweiten Kapitel wird ein Überblick über die verschiedenen Ansätze zur Präferenzmessung gegeben und geeignete Verfahren herausgestellt. Die Eignung der Verfahren wird auf Grund von theoretischen Vor- und Nachteilen, den bisherigen Forschungsergebnissen und der kommerziellen Verbreitung der verschiedenen Verfahren bewertet. Im dritten Kapitel werden das Vorgehen und die formalen Hintergründe der geeigneten Verfahren vorgestellt und miteinander verglichen.

Das vierte Kapitel umfasst die empirische Studie. Es beschreibt das konkrete Vorgehen und das Design der Untersuchung. Grundlage der Beurteilung bildet die Prüfung der Ergebnisse mit Hilfe von geeigneten Gütekriterien. Diese werden ermittelt, erläutert und auf die Verfahren angewendet. Auf Grundlage der Ergebnisse wird abschließend ein Urteil über die Eignung der Verfahren zur Messung von Konsumentenpräferenzen gegeben.

2 Messung von Präferenzen

In diesem Kapitel wird ein Überblick über verbreitete Verfahren zur Messung von Präferenzen mittels Befragung gegeben. Dabei wird auf die kompositionellen, dekompositionellen und hybriden Verfahren eingegangen.

Nach einer Diskussion über die theoretischen Vor- und Nachteile der einzelnen Verfahren werden bisherige empirische Forschungsergebnisse zu den unterschiedlichen Ansätzen gegenübergestellt. Abschließend werden daraus zwei Verfahren zur näheren Untersuchung herausgestellt.

Abbildung 1 gibt einen Überblick über die unterschiedlichen Verfahren der Präferenzmessung. Die Grundlage der Unterscheidung wird in den folgenden Erläuterungen der jeweiligen Ansätze aufgezeigt und lehnt sich an die Abgrenzung von Hensel-Börner (2000) an.

Abbildung 1: Übersicht über Methoden der Präferenzmessung

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Eigene Darstellung in Anlehnung an Hensel-Börner (2000), S. 22 ff

2.1 Kompositionelle Verfahren

Alle kompositionellen Verfahren sind dadurch gekennzeichnet, dass die Präferenzstruktur der Konsumenten durch eine direkte Befragung zu einem Objekt mit Hilfe einer geeigneten Integrationsfunktion ermittelt wird (vgl. Voeth (2000), S.27 und Hensel-Börner (2000), S. 15). Die Präferenz für ein Objekt wird durch den Nutzen ausgedrückt (vgl. Gutsche (1995), S. 39f). Eine Eigenschaft kann verschiedene Ausprägungen haben, welche unterschiedlichen Nutzen für den Probanden haben. Der Nutzen einzelner Ausprägungen sowie der Eigenschaft wird direkt vom Probanden erfragt.

Bei kompositionellen Self-Explicated Verfahren ergibt sich der Teilnutzenwert für die Ausprägung einer bestimmten Eigenschaft aus dem Produkt des Nutzens für die Eigenschaft und der Eigenschaftsausprägung. Die Präferenz für ein Produkt ergibt sich durch die Summe der Teilnutzenwerte. Dies geschieht gewöhnlich unter der Annahme der in Formel (1) dargestellten additiven Nutzenfunktion (vgl. Hensel-Börner (2000), S. 15 und Jain / Mahajan / Malhotra (1979), S. 249):

(1) Abbildung in dieser Leseprobe nicht enthalten

I: die Indexmenge der Befragten und

J: die Indexmenge der Eigenschaften,

K: die Indexmenge der Ausprägungen

M: die Indexmenge der Alternativen darstellt.

Ausgehend von dieser grundsätzlichen Gemeinsamkeit werden nun die unterschiedlichen Self-Explicated Verfahren erläutert.

Der traditionelle Self-Explicated Ansatz bestimmt ursprünglich nur die Nutzenwerte für die Eigenschaften, und verzichtet auf die Bewertung der Ausprägungen (vgl. Jain / Mahajan / Malhotra (1979), S. 249). In Formel (1) entfällt dem entsprechend der Index k für die Ausprägung der j-ten Eigenschaft.

Um spezifischere Ergebnisse zu erhalten, wurde dieser Ansatz um einen vorgelagerten Befragungsschritt erweitert. In diesem werden zunächst die Eigenschaftsausprägungen von dem Probanden bewertet. Den Teilnutzenwert für die einzelnen Eigenschaften erhält man anschließend aus der Multiplikation der gewichteten Eigenschaft mit den angegebenen Werten für die Eigenschaftsausprägungen (vgl. Green / Srinivasan (1990), S.9). Dieser Ansatz wird als gewichteter Self-Explicated Ansatz bezeichnet (vgl. Hensel-Börner (2000), S.17).

Der von Srinivasan (1988) eingeführte Conjunctive-Compensatory Self-Explicated Ansatz lässt vom Befragten vor der eigentlichen Messung absolut unakzeptable Eigenschaftsausprägungen eliminieren.

Der Adaptive Self-Explicated Ansatz wurde 2006 von Srinivasan und Netzer vorgestellt. Dabei entfällt die Eliminierung unakzeptabler Eigenschaften. Nach der Bewertung der Eigenschaftsausprägungen werden die Eigenschaften selber mittels Ranking bewertet. Anschließend werden die abgefragten Präferenzen für die einzelnen Eigenschaften mit Hilfe von Paarvergleichen verfeinert (vgl. Srinivasan / Netzer (2006)).

2.2 Dekompositionelle Verfahren

Die Anfänge der dekompositionellen Verfahren gehen zurück in die 20er Jahre des 20. Jahrhunderts und haben durch die Veröffentlichung von Luce und Tukey (1964) Beachtung gefunden (vgl. Green / Srinivasan (1978), S. 103 und Gutsche (1995), S. 78). Neben dem bedeutendsten Verfahren, der Conjoint Analyse, existiert auch der Bereich der multidimensionalen Skalierung (vgl. dazu Backhaus (2003), S. 605; Herrmann / Schmidt-Gallas / Huber (2000), S.255), worauf allerdings in dieser Arbeit nicht eingegangen wird, um den Rahmen des Themas einzuhalten.

Die dekompositionellen Verfahren lassen im Gegensatz zu kompositionellen Verfahren vollwertige Produkte bewerten. Hierbei werden Produkte, die sich aus den verschiedenen Eigenschaftsausprägungen zusammensetzen relativ zueinander bewertet (vgl. Backhaus et. al. (2003), S.544ff). Die aus verschiedenen Eigenschaftsausprägungen definierten Produkte werden in diesem Kontext als Stimulus bezeichnet. Das Hauptmerkmal der dekompositionellen Methoden ist die anschließende Aufgabe des Untersuchers eine geeignete Nutzenfunktion zu schätzen, mit der die empirischen Daten möglichst gut abgebildet werden können (vgl. Green / Srinivasan (1978), S.104). Auf Grundlage dieser Nutzenfunktion wird von den bewerteten Produkten auf den Nutzenbeitrag der einzelnen Eigenschaftsausprägungen geschlossen. Das überwiegend zu Grunde liegende additive Nutzenmodell findet sich auch bei den kompositionellen Verfahren (vgl. Backhaus et. al. (2003), S. 557ff):

Abbildung in dieser Leseprobe nicht enthalten

Da die Parameter Abbildung in dieser Leseprobe nicht enthaltenin diesem Modell geschätzt werden müssen, ist es notwendig die gesamte Funktion um den Störterm Abbildung in dieser Leseprobe nicht enthaltenzu erweitern. Auf Grundlage dieses funktionalen Zusammenhangs entwickelten sich zahlreiche dekompositionelle Ansätze.

In dieser Arbeit werden die unterschiedlichen Methoden der Conjoint Analyse an Hand der unterschiedlichen Form der Bewertungsaufgabe systematisiert. Zunächst wird an Hand der simultan zu bewertenden Stimuli unterteilt. Zum besseren Verständnis ist anzumerken, dass danach unterschieden wird, wie viele Stimuli gleichzeitig bewertet werden und nicht wie viele Stimuli ausgesucht werden.

- Alle Stimuli werden gleichzeitig bewertet

Bei der traditionellen Conjoint Analyse werden dem Befragten alle in die Untersuchung eingehenden Stimuli zur Bewertung vorgelegt. Es müssen allerdings nicht alle Stimuli vorgelegt werden (vollständiges Design), sondern es kann auch eine Teilmenge gebildet werden, die die Gesamtmenge möglichst gut wiedergibt (reduziertes Design) (vgl. Backhaus et. al. (2003), S. 552). Die Bewertung kann mit Hilfe unterschiedlicher Methoden vorgenommen werden. Die Methoden werden nur knapp behandelt, da tiefergehende Informationen im Rahmen dieser Arbeit nicht benötigt werden.

Das Category Assignment lässt den Befragten die Stimuli lediglich in verschiedene Kategorien einteilen (Reiners (1996), S. 90). Mit dieser Methode geht jedoch ein hoher Informationsverlust einher, da innerhalb der Kategorien alle Stimuli gleich bewertet sind. Diese Methode kann zur Vereinfachung auch anderen Methoden vorweg gestellt werden (vgl. Hensel-Börner (2000), S. 24 und Reiners (1996), S. 90). In der klassischen Form wird die Präferenz üblicherweise mittels Ranking angegeben (vgl. Backhaus et. al. (2003), S. 556). Dazu bringt der Proband die unterschiedlichen Stimuli entsprechend seiner Präferenz in eine Reihenfolge. Der meist präferierte Stimulus nimmt den ersten Rang ein, das zuletzt präferierte nimmt den letzten Rang ein. Das Skalenniveau wird auf die Intervallskala erhöht, wenn mittels Rating bewertet wird. Reservationspreise sowie das Konstant-Summen-Verfahren erhöhen das Skalenniveau auf eine Ratioskala (vgl. dazu Kalish / Nelson (1991), S.328 und Mahajan / Green / Goldberg (1982), S. 337).

- Eine Teilmenge der Stimuli wird gleichzeitig bewertet

Bei der Choice Based Conjoint Analyse sowie der Bridging Conjoint Analyse wird nur eine Teilmenge der Stimuli zur Bewertung vorgelegt. Die Choice Based Conjoint Analyse ist eine Methode, die auf Grund der Maximierung einer Likelihood-Funktion als Schätzung der Parameter (vgl. Gensler (2006), S.256 f) streng genommen nicht unter den Begriff der Conjoint Analyse fällt. In die Praxis ist sie jedoch als solches eingegangen und wird auch in dieser Arbeit aufgeführt (vgl. auch Backhaus / Voeth / Hahn (1998), S. 9). Mit der Methode werden dem Befragten die Stimuli in Auswahlentscheidungen vorgelegt. Da bei dieser Methode jedoch sehr viele Auswahlentscheidungen zu treffen sind, um die Freiheitsgrade der Nutzenfunktion determinieren zu können, ist es üblich, die Parameter auf aggregiertem Niveau zu schätzen (vgl. Gensler (2006)).

Bei der Bridging Conjoint Analyse werden die Stimuli auf verschiedene Stapel, so genannte Subdesigns (vgl. Skiera / Gensler (2002), S. 262) aufgeteilt. Die Stimuli werden innerhalb der Stapel nicht mehr aus den gesamten Eigenschaften definiert, sondern je nach Anzahl der zu bildenden Stapel aus einer Teilmenge der Eigenschaften. Wichtig ist dabei, dass eine Brückeneigenschaft gebildet wird (vgl. Skiera / Gensler (2002), S. 262). D.h. dass jeweils eine Eigenschaft in allen Stapeln vorkommt, um die Bewertung über alle Stapel aggregieren zu können (vgl. Green / Srinivasan (1990), S.9).

Sollen die Befragten bei allen - außer der Choice Based Conjoint Analyse - bis jetzt beschriebenen Conjoint Verfahren zusätzlich bewerten, ab welcher Eigenschaftsausprägung ein Kauf in Frage kommt, wird von Limit Conjoint Verfahren gesprochen (vgl. Sattler (2006), S.8). Dies hat den Vorteil, dass auf Grundlage dieser so genannten „Limit Card“ Zahlungsbereitschaften abgeleitet werden können (vgl. Backhaus / Voeth / Hahn (1998), S. 13).

- Zwei Stimuli werden gleichzeitig bewertet

Dem Befragten müssen mindestens zwei Stimuli zur Bewertung vorgelegt werden, um eine Relation zu erhalten. Bei diesen Paarvergleichen wird in der einfachen Form lediglich angegeben, welches der beiden Stimuli bevorzugt wird. Wird zusätzlich nach der Stärke der Präferenz gefragt, gleichgültig ob per Rating Skala oder Dollar-Metrik, so wird von der Graded Paired Comparison gesprochen (vgl. Stallmeier (1996), S. 214 und S. 221). Werden dem Befragten Stimuli vorgelegt, die nur von einer Teilmenge aller Eigenschaften definiert wird, handelt es sich um eine Trade-off-Methode (vgl. Johnson (1974)).

2.3 Hybride Verfahren

Hybride Verfahren bestehen aus Self-Explicated sowie Conjoint Befragungselementen (vgl. Baier /Säuberlich (1997), S. 955). Die systematische Abgrenzung der Verfahren wird auf Grundlage der unterschiedlichen Nutzung des Self-Explicated Teils vorgenommen. Die hybriden Verfahren unterscheiden sich dadurch, in wie weit die Konzeption des Conjoint Teils von den Ergebnissen des Self-Explicated Teils abhängen. Baut der Conjoint Teil der Befragung auf den individuellen Ergebnissen eines Probanden aus dem Self-Explicated Teil auf, wird es in dieser Arbeit als adaptives Verfahren abgegrenzt. Wird der dekompositionelle Teil unabhängig von dem kompositionellen Teil konzipiert, so stellen sie nicht adaptive hybride Verfahren dar (vgl. Hensel-Börner (2000), S. 52). Die Bedeutungsgewichte werden durch eine Kombination des kompositionellen mit dem dekompositionellen Befragungsteil erhalten.

Das von Huber veröffentlichte nicht adaptive hybride Verfahren (vgl. Huber / Saheny / Ford (1969)) lässt im kompositionellen Teil lediglich die Eigenschaftsausprägungen bewerten und bestimmt die Gewichtung der Eigenschaften durch Regression (vgl. Akaah / Korgaonkar (1983), S. 187). Das nach Green benannte nicht adaptive Verfahren hingegen lässt sowohl die Eigenschaften als auch die Eigenschaftsausprägungen in dem Self-Explicated Teil bewerten (vgl. Green / Caroll / Goldberg (1981); Green / Goldberg (1981)). Diesen beiden Ansätzen ist gemein, dass sie die Daten auf aggregierter Ebene schätzen, um möglichst viele Eigenschaften berücksichtigen zu können (vgl. Hensel-Börner (2000), S. 53). Verfahren, welche die Daten aus beiden Teilen auf individueller Ebene berechnen und anschließend miteinander kombinieren, stellen Baier / Säuberlich (1997) und Green / Krieger (1996) vor.

Die folgenden Verfahren unterscheiden sich durch die Anwendung eines Computers bei der Bewertung durch den Probanden. In dem von Srinivasan / Park (1997) beschriebenen Customized Conjoint Analysis Verfahren (CCA) wird ohne unmittelbare Hilfe eines Computers der kompositionelle Teil zur Bewertung vorgelegt. Anschließend wird nach der Konzeption des dekompositionellen Teils ein weiterer Termin benötigt, um diesen durch die Befragten bewerten zu lassen (vgl. Srinivasan / Park (1997), S. 288).

Die auf Johnson (1987) zurückgehende Adaptive Conjoint Analyse (ACA) wird computergestützt und deshalb ohne Unterbrechung durchgeführt. Nachdem in dem Self-Explicated Teil die Gewichtungen für Eigenschaftsausprägungen und Eigenschaften abgegeben wurden, werden auf Grundlage dieser Bewertungen im dekompositionellen Teil individualisierte Abfragen mittels Graded Paired Compairison generiert (vgl. Johnson (1987) und o.V. (2002)).

Die CCA wurde von Hensel-Börner / Sattler (2000) in die Customized Computerized Conjoint Analysis (CCC) weiter entwickelt. Dieses Verfahren ähnelt durch die unmittelbare Nutzung eines Computers der ACA. Im Unterschied dazu bestehen jedoch die Bewertungsaufgaben nicht aus Paarvergleichen, sondern aus Rangreihungen von mehreren Stimuli. Diese werden aus dem im Self-Explicated Teil individuell ermittelten, wichtigsten Eigenschaften zusammengestellt (vgl. Hensel-Börner / Sattler (2000), S.705).

In der von Hensel-Börner (2000) entwickelten Choice-Oriented Individualized Conjoint Analysis (CHIC) werden den Befragten Teilmengen aller Stimuli zur Auswahlentscheidung vorgelegt, wie es bei der Choice-Based Conjoint Analysis gemacht wird (vgl. Hensel-Börner (2000), S. 56 und S. 83). Ein Verfahren, worüber noch keine empirischen Tests vorliegen, ist das sehr komplexe Verfahren der Golden Conjoint Analyse. Auf Grund der Komplexität und fehlender Validitätstest wird dieses Verfahren jedoch nur aus dem Grund der Vollständigkeit aufgeführt und nicht weiter erläutert (für einen umfassenden Überblick vgl. Farsky / Eggers (2007)).

Die Fast Polyhedral Conjoint Estimation wurde 2003 von Toubia et al. vorgestellt. Das Ziel ist die Minimierung des zeitlichen Aufwands der Befragung. Dies geschieht zum Einen durch die Minimierung der nötigen Parameter für die Eigenschaftsausprägungen, indem die jeweils schlechteste Eigenschaftsausprägung aller Eigenschaften Null gesetzt wird (vgl. Toubia et al. (2003), S. 275). Zum Anderen wird dies versucht, indem der Informationsbedarf für die Eigenschaftsausprägungen in einem Polyeder dargestellt, und ein entsprechender vektorieller Berechnungsprozess vorgenommen wird (vgl. Toubia et al. (2003), S. 275ff).

2.4 Theoretische Vor- und Nachteile der Verfahren

Zunächst werden die Self-Explicated Verfahren in Relation zur Conjoint Analyse betrachtet. Hybride Verfahren werden anschließend gesondert behandelt, da sie beide Verfahren kombinieren. Die Choice Based Conjoint Analyse wird ebenfalls erst nachfolgend betrachtet. Bei der Betrachtung der in der Literatur aufgeführten Vor- und Nachteile wird nicht spezifisch auf sämtliche oben vorgestellte Verfahren, sondern auf die kompositionellen und dekompositionellen Verfahren insgesamt eingegangen (für weiterführende Argumentationen vgl. Backhaus / Voeth / Hahn (1998); Hensel-Börner (2000); Sattler / Hensel-Börner (2000); Srinivasan (1988); Melles (2001), S. 51ff). In Tabelle 1 wird eine Übersicht über die Vor- und Nachteile der Verfahren gegeben. Dabei werden sie unter den aufgelisteten Kriterien beurteilt, wobei ein „+“ einen Vorteil und ein „-“ einen Nachteil darstellt.

Der Hauptunterschied der Self-Explicated Verfahren und der Conjoint Analyse besteht in der Befragungsform. Hier findet sich der erste Kritikpunkt an dem Self-Explicated Verfahren. Die Befragten bewerten keine durch verschiedene Eigenschaften definierten Stimuli, sondern einzelne Eigenschaften und deren Ausprägungen. In der Conjoint Analyse werden konkrete Stimuli zur Bewertung vorgelegt, weshalb die Bewertungssituation der Conjoint Analyse als realistischer betrachtet wird (vgl. Green / Goldberg / Montemayor (1981), S. 33). Bei den Self-Explicated Verfahren ergibt sich durch die unklare Definition der Wichtigkeit (vgl. Hensel-Börner (2000), S. 40) ein Problem in der Bewertung durch den Probanden, da sie dazu neigen, alle Eigenschaften als wichtig anzusehen (vgl. Srinivasan (1988), S.296). Dies scheint jedoch durch eine alternative Formulierung der Frage in den neueren Ansätzen überwunden (vgl. Srinivasan / Netzer (2006), S. 11ff). Durch die direkte Fragestellung bei den Self-Explicated Verfahren kann es durch die Bewertung der Probanden nach sozial erwünschten Antworten zu Verzerrungen kommen. (vgl. Hensel-Börner (2000), S. 40). Die indirekte Fragestellung der Conjoint Analyse umgeht diese Verzerrung, da die prekären Eigenschaften nicht direkt bewertet werden (vgl. Sattler / Hensel-Börner (2000), S. 124).

Tabelle 1: Vergleich der Vor- und Nachteile der Conjoint Analyse mit den Self-Explicated Verfahren

Abbildung in dieser Leseprobe nicht enthalten

Quelle: in Anlehnung an Hensel-Börner (2000), S. 39

Wird die Anzahl der Eigenschaften bei Conjoint Verfahren erhöht, steigen die Anforderungen an die kognitiven Fähigkeiten der Befragten stärker an, als dies bei Self-Explicated Verfahren der Fall ist (vgl. Akaah / Korgaonkar (1983), S. 188), da mehr Informationen gleichzeitig verarbeitet werden müssen (vgl. Srinivasan (1988), S.295). Dadurch kann es bei Conjont-Analysen eher zu Vereinfachungsstrategien kommen (Wright (1975)), welche die Validität nachteilig beeinflussen (vgl. Hensel-Börner (2000), S. 41). Dieses Problem besteht bei Self-Explicated Verfahren nicht (vgl. Hensel-Börner / Sattler (2000), S.125). Deshalb wird von Green / Srinivasan (1990) und Wittink / Vriens / Burhenne (1994) empfohlen, nicht mehr als sechs Eigenschaften in das Design aufzunehmen (vgl. Green / Srinivasan (1990), S. 8 und Wittink / Vriens / Burhenne (1994), S. 48).

Die Argumente der einfacheren Implementierung der Self-Explicated Verfahren (vgl. Hensel-Börner (2000), S. 40) und des höheren verlangten Methodenwissens bei Conjoint Verfahren (Sattler / Hensel-Börner (2000), S. 125) erscheinen durch die ebenso anspruchsvolle Schätzmethode des adaptiven Self-Explicated Verfahrens (vgl. Srinivasan / Netzer (2006), S. 13ff) fragwürdig.

Bei innovativen Produkten wird auf Grund der Schwierigkeit die relevanten Produkteigenschaften zu bestimmen davon abgeraten Conjoint Methoden zu verwenden (vgl. Clement (1999), S.176f). Stattdessen wird empfohlen, auf Self-Explicated Verfahren zurückzugreifen (vgl. Clement (1999), S.176f). Ist das Produkt jedoch in der frühen Marktphase, wird die Choice-Based Conjoint Analyse, hybride oder Adaptive Conjoint Analysen empfohlen, da viele Eigenschaften berücksichtigt werden können (vgl. Clement (1999), S.176f).

Bezüglich der Form der Abfrage, dem Zeit- und Kostenaufwand sind durch die Einfachheit der Abfrage und die tendenziell leichter verständliche Methodik die Self-Explicated Verfahren vorzuziehen (vgl. Srinivasan (1988), S.305; Sattler / Hensel-Börner (2000), S. 125).

Die Conjoint Analyse hat bessere Voraussetzungen, Nichtlinearität in der Nutzenfunktion zu berücksichtigen, womit eine fehlerhafte Spezifikation des Modells zu weniger Problemen führt als dies bei Self-Explicated Verfahren anzunehmen ist (Vgl. Sattler / Hensel-Börner (2000), S.124f; Hensel-Börner (2000), S. 42). Unter Umständen kann wichtig sein, dass Interaktionseffekte zwischen verschiedenen Eigenschaften aufgedeckt werden (vgl. Green / Srinivasan (1990), S. 5f). Interaktionseffekte können bei früheren Self-Explicated Verfahren nicht berücksichtigt werden, so dass gegebenenfalls redundante Eigenschaften doppelt gewichtet werden (vgl. Hensel-Börner (2000), S. 42). Conjoint Analysen können diese Interaktionseffekte eher berücksichtigen (vgl. Green / Srinivasan (1990), S. 5; Hensel-Börner (2000), S. 42).

Hybride Verfahren haben das Ziel, die Vorteile beider Verfahren miteinander zu kombinieren (vgl. Hensel-Börner (2000), S. 51). Bei Befragungen, die zeitlich verzögert werden (CCA), besteht neben dem Nachteil von erhöhten Kosten (vgl. Srinivasan / Park (1996), S. 287) die Gefahr, dass sich die Präferenzen der Befragten in der Zwischenzeit geändert haben könnten (vgl. Hensel-Börner (2000), S. 54).

Die Choice Based Conjoint Analyse hat den Vorteil, dass der Befragte vor eine Auswahlentscheidung gestellt wird und deshalb eine realistischere Auswahlsituation erzeugt wird (vgl. Backhaus / Voeth / Hahn (1998), S. 10 und Backhaus et al. (2003), S. 598). Durch ein wiederholtes Vorlegen der Stimuli können jedoch verzerrende Effekte auftreten (vgl. Backhaus (2003), S. 598). Die Ergebnisse werden für gewöhnlich auf aggregiertem Niveau geschätzt, was dazu führt, dass keine Aposteriori Segmentierung vorgenommen werden kann (vgl. Backhaus / Voeth / Hahn (1998), S. 10).

2.5 Empirische Befunde und Ergebnisse

Die Zielsetzung dieser Arbeit sieht vor, ein Verfahren zu testen, das die Ergebnisse auf individueller Ebene erhält und geeignet ist, viele Eigenschaften zu berücksichtigen. Um die folgende empirische Betrachtung nicht unnötig zu erweitern, werden Verfahren aus der Betrachtung ausgeschlossen, die im vorhergehenden Abschnitt als nachteilig im Sinne der Zielsetzung zu sehen sind. Die betrachteten Conjoint Analysen weisen die Tendenz auf, nur wenige Eigenschaften berücksichtigen zu können. Die Choice Based Conjoint Analyse ohne Erweiterungen berechnet Daten auf aggregiertem Niveau. Daher werden diese Verfahren aus der weiteren Betrachtung ausgeschlossen.

Im Folgenden werden zunächst empirische Daten aufgeführt, die einen direkten Vergleich der hybriden zu den Self-Explicated Verfahren zulassen. Anschließend wird auf die praktische Anwendung und Verbreitung der Verfahren eingegangen.

Der direkte Vergleich stützt sich auf die Recherche von Sattler und Hensel-Börner (2000). Dementsprechend hat eine Aufführung aller Artikel stattgefunden, die seit 1980 in den Zeitschriften „International Journal of Marketing“, „Journal of Marketing“, „Journal of Marketing Research“, „Marketing Letters“ und „Marketing Science“ erschienen sind. Zusätzlich sind die Zeitschriften „European Journal of Marketing“, „Marketing-Zeitschrift für Forschung und Praxis“ und „WiST - Wirtschaftswissenschaftliches Studium“ nach empirischen Daten bis zum heutigen Datum durchsucht worden. Weiterer Teil der Ausführungen ist die Recherche im Internet, bei der über eine Suchmaschine die Stichwörter: „Conjoint Analysis self explicated validity“ abgefragt worden sind. Aus diesen Recherchen sind alle relevanten Ergebnisse zu den Ergebnissen von Sattler / Hensel-Börner (2000) hinzugefügt. Der Vergleich der hybriden Conjoint und den Self-Explicated Verfahren wird auf Grundlage von gängigen Maßen zur Bestimmung der Güte, der Validität und Reliabilität vorgenommen (vgl. Kapitel 4.4) Die Ergebnisse der Daten sind in Tabelle 2 und Tabelle 3 aufgeführt.

Tabelle 2: Vergleich von traditionellen hybriden Conjoint mit Self-Explicated Verfahren

Abbildung in dieser Leseprobe nicht enthaltena

keine Aussage zur Signifikanz; b) Befragte waren Studierende c) Für „inexperienced“ Befragte gibt es keine Unterschiede zwischen den beiden Methoden.

Quelle: Eigene Darstellung in Anlehnung an Hensel-Börner (2000), S. 64

Tabelle 3: Vergleich von Adaptiven hybriden Conjoint mit Self-Explicated Verfahren

Abbildung in dieser Leseprobe nicht enthaltena

keine Aussage zur Signifikanz; b) Befragte waren Studierende d)Ausnahme: ACA ist dem reinen SE-Teil des Intervies signifikant überlegen (vgl. (Agarawal / Green (1991), S. 144)

Quelle: Eigene Darstellung in Anlehnung an Hensel-Börner (2000), S. 64

In diesen Vergleichen zeigt sich kein streng dominierendes Verfahren. Traditionelle hybride Verfahren scheinen bessere Ergebnisse zu liefern als Self-Explicated Verfahren. Bei vier von acht Verfahren liefern diese Verfahren bessere Ergebnisse. Bei drei Verfahren kann kein Unterschied festgestellt werden und in einem Vergleich dominiert das Self-Explicated Verfahren. Im Vergleich zu adaptiven hybriden Verfahren kann man keine Aussage bezüglich der Dominanz machen. Es ergibt sich ein ausgeglichenes Verhältnis. Bei nur 43% der Vergleiche kann ein Verfahren als das Bessere herausgestellt werden. Einen Vorteil der ACA ergeben 50% dieser Vergleiche während 50% für die Self-Explicated Verfahren sprechen. Auffallend ist die Studie von Srinivasan / Netzer (2006), in der ein adaptives Self-Explicated Verfahren vorgestellt wird, das bedeutend bessere Ergebnisse erzielt als Fast Polyhedral und die ACA.

Die Conjoint Analyse ist bei Marktforschungsinstituten mit 65% Anwendung innerhalb von 12 Monaten im deutschen, österreicherischen und schweizerischen Raum ein bedeutendes Marktforschungsverfahren (vgl. Hartmann / Sattler (2002), S. 2). Im Vergleich dazu war im Jahr 1994 der Anteil der Institute im europäischen Raum, die Conjoint Verfahren innerhalb von vier Jahren eingesetzt haben noch bei 37% (vgl. Wittink / Vriens / Burhenne (1994), S. 43). Es muss jedoch angemerkt werden, dass die beiden Studien auf Grund der Repräsentativität der Länder nur bedingt vergleichbar sind. Der Median der durchgeführten Studien mittels Conjoint Verfahren liegt bei vier (vgl. Hartmann / Sattler (2002), S. 2).

In der Studie von Hartmann / Sattler (2002) wird angegeben, dass zu 20% traditionelle Conjoint Verfahren, zu 34% ACA und zu 47% Choice-Based Conjoint Analyse Verfahren angewendet werden. Die Choice-Based Conjoint Analyse wird zum größten Teil für die Ermittlung einer geeigneten Preissetzung eingesetzt. Die ACA hat im Vergleich zu 1994, wo dieses Verfahren mit 42% das am häufigsten eingesetzte Verfahren gewesen ist, relativ an Bedeutung verloren. Bei der Produktentwicklung ist die ACA jedoch das bedeutendste Verfahren. In Tabelle 4 wird ein Überblick darüber gegeben, welche Verfahren für welche Ziele eingesetzt werden.

Tabelle 4: Übersicht über Verwendung der Verfahren

Abbildung in dieser Leseprobe nicht enthalten

Mehrfachnennungen möglich. Abweichungen entstehen durch Rundungen.

Quelle: Eigene Darstellung in Anlehnung an Hartmann / Sattler (2002), S. 4.

Steigt die Anzahl der untersuchten Eigenschaften, wird hauptsächlich die ACA eingesetzt. (vgl. Wittink / Vriens / Burhenne (1994), S.48) Diese Ergebnisse werden ebenfalls von Hartmann / Sattler (2002) bestätigt, wobei der Median der untersuchten Eigenschaften der ACA bei vierzehn liegt, gefolgt von der traditionellen Conjoint Analyse mit elf und letztendlich der Discrete Choice Verfahren mit lediglich sechs Eigenschaften. Beim Einsatz der ACA werden bei 62% mehr als zehn Eigenschaften betrachtet. Bei der traditionellen Conjoint Analyse sind es noch 48% und bei Discrete Choice Verfahren sind es lediglich 13%. Die ACA wird demnach angewendet, wenn viele Eigenschaften untersucht werden.

2.6 Herausstellung geeigneter Verfahren

Die Beurteilung der Qualifikation einzelner Verfahren kann nur relativ zu einer Zielsetzung vorgenommen werden. Jedes Verfahren hat Vor- und Nachteile, die akzeptiert werden können oder die dazu führen, dass der Einsatz eines Verfahrens verworfen wird. Die Betrachtung wird unter der Zielsetzung vorgenommen, Präferenzen über verhältnismäßig viele Eigenschaftsausprägungen auf individueller Basis zu erhalten. Durch die in der Literatur angeführten theoretischen Vor- und Nachteile und nach Betrachtung der praktischen Anwendung der Verfahren werden Conjoint Verfahren und die Choice-Based Conjoint Analyse als nicht geeignet ausgeschlossen.

Der Vergleich von Self-Explicated Verfahren mit hybriden Verfahren lässt keine Nachteile erkennen. Mit dem adaptiven Self-Explicated Verfahren stellen Srinivasan und Netzer (2006) einen neuen kompositionellen Ansatz vor, welcher bezüglich der Güte die ACA und das Fast Polyhedral Verfahren überragen. Der Vergleich erfolgt an Hand von zwölf Eigenschaften. Auf Grund der zufrieden stellenden Ergebnisse wird das adaptive Self-Explicated Verfahren als ein geeignetes Verfahren herangezogen.

Die ACA ist immer noch ein dominierendes Verfahren wenn man die Häufigkeit der Anwendung in Marktforschungsinstituten betrachtet. Der bedeutendste Vorteil dieses Verfahrens besteht in der Fähigkeit, relativ viele Eigenschaftsausprägungen bewerten zu lassen, was durch die Anzahl der betrachteten Eigenschaften in den praktischen Anwendungen bestätigt wird. Aus diesem Grund wird die ACA als zweites Verfahren zu Messung von Präferenzen herangezogen. Dies bietet den Vorteil, dass gleichzeitig Präferenzen über das in der ACA verwendete gewichtete Self-Explicated Verfahren gewonnen und verglichen werden können (vgl. zum gleichen Vorgehen: Green / Krieger / Agarwal (1993) und Huber et al. (1993), S. 106). Im folgenden Kapitel werden die Verfahren vorgestellt.

3 Ermittlung der Präferenzen durch das adaptive Self-Explicated Verfahren und der Adaptiven Conjoint Analyse

Im zweiten Kapitel wurde ein Überblick über die gängigen Verfahren zur Messung von Konsumentenpräferenzen gegeben. Anschließend wurden die theoretischen Vor- und Nachteile betrachtet sowie ein Überblick über empirische Ergebnisse und Befunde gegeben. Es hat sich herausgestellt, dass es sinnvoll ist, das neuartige adaptive Self-Explicated Verfahren mit der fest etablierten Adaptiven Conjoint Analyse zu vergleichen. Diese zwei Verfahren werden in diesem Kapitel im Detail vorgestellt. Zunächst erfolgt die Erläuterung des adaptiven Self-Explicated Verfahrens, anschließend die der Adaptiven Conjoint Analyse, woran ein erster Vergleich der beiden Verfahren anschließt.

3.1 Adaptives Self-Explicated Verfahren

Srinivasan und Netzer (2006) stellten im Juni 2006 ein dekompositionelles Verfahren vor, welches bei einem ersten Vergleich mit anderen Verfahren überzeugende Gütemaße zeigte. Soweit keine weiteren Quellen angegeben sind, beziehen sich die folgenden Ausführungen auf diese Präsentation von Srinivasan und Netzer (2006). Das adaptive Self-Explicated Verfahren (ASEV) setzt sich aus drei Phasen zusammen. In der ersten werden mit Hilfe eines Ratings die Ausprägungen der einzelnen Eigenschaften bewertet. Dieses Rating geschieht wie in anderen kompositionellen Ansätzen (vgl. Srinivasan / Park (1997), S. 287 und Hensel-Börner / Sattler (2000), S. 708f), an Hand einer Skala von null bis zehn. Die Eigenschaftsausprägung mit dem höchsten Nutzen wird mit einer zehn bewertet, woran die Bestimmung der am wenigsten präferierte Eigenschaftsausprägung anschließt, welche mit dem Wert Null bewertet wird. Nachdem die Ankerpunkte festgesetzt sind (vgl. Srinivasan (1988), S. 297), werden die anderen Ausprägungen relativ dazu bewertet. Um die Interviewzeit zu verkürzen und die Anforderungen an den Befragten klein zu halten, kann es sinnvoll sein bei eindeutigen Nutzenverteilungen der Eigenschaftsausprägungen die Ankerpunkte vorzugeben (vgl. Hensel-Börner (2000), S. 72).

In der zweiten Phase werden die Eigenschaften dem Befragten zur Bewertung vorgelegt. Er wird angewiesen, die Eigenschaften mittels eines Rankings zu bewerten. An die erste Stelle soll die Eigenschaft mit dem höchsten Einfluss auf den Nutzen des Befragten gesetzt werden. Die anderen Eigenschaften werden anschließend nach abnehmendem Nutzen in die entsprechende Reihenfolge gebracht.

Bisherige Verfahren haben in dieser Phase die Bedeutungsgewichte der Eigenschaften mit Messmethoden ermittelt, welche Nachteile beinhalteten. So führte eine Abfrage mittels Ratings dazu, dass der Befragte dazu tendierte alle Eigenschaften als wichtig einzustufen. Bei der Verwendung der Ratingmethode, die auch bei der Bewertung der Eigenschaftsausprägungen verwendet wurde, sind beide Skalen ratioskaliert. Dies ist Bedingung, um die Teilnutzenwerte der ersten und der zweiten Phase miteinander kombinieren zu können (vgl. Srinivasan (1988), S. 296). Das Konstant-Summen-Verfahren wird von Netzer und Srinivasan kritisiert, da es bei der simultanen Präsentation aller Eigenschaften zu einer kognitiven Überlastung des Probanden führen könnte (vgl. Srinivasan / Netzer (2006), S. 12).

Die dritte Phase des ASEV ist Grund für die Namensgebung des Verfahrens. Durch das Ranking in der zweiten Phase wurde angegeben wie die Reihenfolge der Eigenschaften entsprechend des Nutzens des Befragten ist, womit die Werte ordinal skaliert sind. In der dritten Phase werden diese Daten intervallskaliert. Zu diesem Zweck werden dem Befragten Paare von Eigenschaften vorgelegt, die er mit Hilfe eines Konstant-Summen-Messverfahrens gegeneinander abwägt. Zunächst werden die Eigenschaften miteinander verglichen, die an oberster, unterster und mittlerer Stelle des vom Befragten vorgegebenen Rankings stehen, womit sich drei Paarvergleiche ergeben. Durch die Verknüpfung der drei Eigenschaften können die Bedeutungsgewichte geschätzt werden.

Dazu wird das Verhältnis der Gewichtung genommen. Diese Werte werden logarithmiert, da dadurch akkuratere Messergebnisse zu erwarten sind und Standardfehler berechnet werden können. (vgl. Srinivasan / Netzer (2006), S. 13) Die folgende Formel verdeutlicht die Vorgehensweise:

Abbildung in dieser Leseprobe nicht enthalten

Das Verhältnis für die oberste und die unterste Eigenschaft (Abbildung in dieser Leseprobe nicht enthalten) erhält man über: Abbildung in dieser Leseprobe nicht enthalten. Der Wert vu wird auch bei der Ermittlung des Verhältnisses von mittlerer zu unterster Eigenschaft (Abbildung in dieser Leseprobe nicht enthalten) verwendet, da Abbildung in dieser Leseprobe nicht enthalten. Auf diesem Wege werden die Werte für die betrachteten Eigenschaften miteinander verknüpft. Letztendlich werden die Werte v geschätzt. Diese Werte werden als Bedeutungsgewichte interpretiert. Für eine leichtere Interpretation werden sie normiert. Der Wert der wichtigsten Eigenschaft wird mit dem Wert zwei konstant gesetzt und die anderen Gewichtungen werden dem entsprechend umgerechnet. Bei einer anschließenden Auflösung des Logarithmus erhält man den Wert 100 für die wichtigste Eigenschaft und entsprechend geringere für die folgenden Bedeutungsgewichte.

Die Bedeutungsgewichte für die Eigenschaften, die zwischen den bereits geschätzten Bedeutungsgewichten liegen werden linear interpoliert. Anschließend wird überprüft, in welchem Intervall der bereits geschätzten Bedeutungsgewichte der größte Standardfehler besteht. Formal lässt sich der Standardfehler folgendermaßen berechnen:

Abbildung in dieser Leseprobe nicht enthalten

Nach der Berechnung der Standardfehler auf diesem Wege wird das Intervall ermittelt, in welchem der größte Standardfehler zu finden ist (vgl. Srinivasan / Netzer (2006), S. 18). Folgende Grafiken verdeutlichen die Ermittlung:

Abbildung 2: Szenario A Abbildung 3: Szenario B

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Srinivasan / Netzer (2006), S. 19.

Wird zwischen der obersten und der mittleren Eigenschaft (Szenario A) der größte Standardfehler ermittelt, wird als nächstes dieses Intervall für die Schätzung des nächsten Bedeutungsgewichtes herangezogen. Ist dies zwischen der mittleren und der untersten Eigenschaft der Fall (Szenario B) wird dieses Intervall herangezogen. Für die Schätzung wird die Eigenschaft, die in der Mitte dieses Intervalls liegt, dem Befragten zur Bewertung vorgelegt. Dazu wird die Eigenschaft mittels Paarvergleichen mit der in diesem Intervall obersten und untersten Eigenschaft bewertet. Die anschließende Schätzung der Bedeutungsgewichte erfolgt erneut über alle Eigenschaften nach oben erläutertem Algorithmus.

Wird angenommen, dass das angegebene Ranking des Befragten seiner wahren Präferenz entspricht, besteht der größte anzunehmende Standardfehler wenn folgender Fall eintritt. Jedes Intervall besitzt geschätzte Bedeutungsgewichte für die wichtigste und die unwichtigste Eigenschaft und interpolierte Bedeutungsgewichte für eine oder mehrere dazwischen liegende Eigenschaften dieses Intervalls. Der größtmögliche Fehler besteht, wenn der Befragte den in der Mitte liegenden Eigenschaften die annähernd gleiche Gewichtung zuordnet, wie der in diesem Intervall wichtigsten oder unwichtigsten Eigenschaft. In Abbildung 4 wird der größtmögliche Fehler dargestellt:

Abbildung 4: Größtmöglicher Fehler

Abbildung in dieser Leseprobe nicht enthalten

Quelle: Eigene Erstellung in Anlehnung an Srinivasan / Netzer (2006), S. 19.

Je mehr Bedeutungsgewichte geschätzt werden, umso weniger besteht die Gefahr für diesen Fehler und desto unwichtiger werden die ordinalskalierten Werte des Rankings.

Diese Phase wird abgebrochen, wenn der Standardfehler einen zu bestimmenden Wert unterschreitet. Wird der Standardfehler nicht als Abbruchkriterium vorgegeben, werden alle Eigenschaften miteinander verglichen, so lange ein Intervall mit mehr als zwei Eigenschaften existiert. Allerdings kann für diesen Fall auf eine Intervallbetrachtung verzichtet und alle im Ranking untereinander stehenden Eigenschaften zur Bewertung mittels Paarvergleich vorgelegt werden.

Abschließend werden die Bedeutungsgewichte so normalisiert, dass die Summe der Bedeutungsgewichte 100 ergibt. (vgl. Srinivasan / Netzer (2006), S. 15). Da diese Werte durch die Schätzung ratioskaliert sind, kann eine Kombination mit den Teilnutzenwerten der Eigenschaftsausprägungen problemlos erfolgen. Die Ermittlung der endgültigen Teilnutzenwerte erfolgt durch die Multiplikation der Bedeutungsgewichte mit den Teilnutzenwerten aus der ersten Phase.

3.2 Adaptive Conjoint Analyse

Die als Softwarelösung angebotene Adaptive Conjoint Analyse wurde von Johnson (1987) entwickelt. Ähnlich wie bei dem adaptiven Self-Explicated Verfahren kann auch dieses Verfahren in vier verschiedene Phasen aufgegliedert werden. (Die Ausführungen beziehen sich auf die ACA Version 5.0 der Sawtooth Software Inc.)

Die erste Phase dient der Beurteilung der Eigenschaftsausprägungen. Dem Befragten werden alle Eigenschaftsausprägungen präsentiert. Dabei können in einem ersten optionalen Teilschritt die inakzeptablen Ausprägungen einer Eigenschaft durch den Befragten eliminiert werden. Hintergrund ist, dass durch eine Eigenschaftsausprägung, die zu einer totalen Ablehnung des Produktes führt, obwohl alle anderen Eigenschaftsausprägungen Nutzenmaximal sind, Verzerrungen auftreten können (vgl. Johnson (1987), S. 259). Des Weiteren kann durch eine Reduktion der Eigenschaftsausprägungen die kognitive Belastung des Befragten verringert werden (vgl. Herrmann / Schmidt-Gallas / Huber (2000), S. 254). Dieses Vorgehen wird jedoch üblicherweise nicht verwendet (vgl. o. V. (2002), S. 5), da Studien darauf hinweisen, dass Befragte dazu neigen, Eigenschaftsausprägungen zu eliminieren, die sie eigentlich akzeptieren würden (Green / Krieger / Bansal (1988), S. 293ff und Klein (1987), S. 154ff). Zudem besteht die Gefahr, dass die Bedeutung und der Einfluss der Eigenschaften steigen, bei denen eine Eliminierung einzelner Eigenschaftsausprägungen zugelassen wurde (vgl. o. V. (2002), S. 5).

Daran schließt die Bewertung aller Eigenschaftsausprägungen mittels Ranking oder Ratings an. Das Ranking lässt den Probanden die Eigenschaftsausprägungen von der wichtigsten zur unwichtigsten ordnen. Allerdings muss bei der Ranking Methode beachtet werden, dass die Abstände zwischen den Eigenschaftsausprägungen als gleich angenommen werden, womit ein Informationsverlust einhergeht (vgl. o. V. (2002), S. 6). Die Ratingskala misst auch die Abstände zwischen den Eigenschaftsausprägungen. Sie kann von zwei bis neun Punkten definiert werden. Es wird empfohlen, eine Skala mit mehr Punkten zu wählen, als die maximale Anzahl von Ausprägungen einer Eigenschaft. Mindestens werden sieben Punkte empfohlen (vgl. o. V. (2002), S. 7).

Bei dem Design der Studie ist es dem Marktforscher überlassen, die Bewertung der Ausprägungen vorzugeben, so dass bei einer Abfrage in diesem Teilschritt die Bewertung der Ausprägungen für die entsprechende Eigenschaft entfällt (vgl. o. V. (2002), S. 6). Problematisch ist allerdings, dass für diesen Fall den Ausprägungen eine lineare Nutzenfunktion unterstellt wird (vgl. Hensel-Börner (2000), S. 98), was bei bestimmten Eigenschaften nicht angenommen werden kann (vgl. Beispielhaft Gedenk / Sattler (1999)).

In der zweiten Phase werden die Wichtigkeiten der Eigenschaften abgefragt. Die Abfrage geschieht mittels Rating auf einer Skala, welche wiederum von zwei bis neun Punkten definiert werden kann. (vgl. Orme (2002), S. 3-6) Dabei werden die Verbesserung von der schlechtesten Ausprägung zur besten Ausprägung bewertet (vgl. o.V. (2002), S.7). Es werden alle Eigenschaften einzeln vorgelegt, so dass die Gefahr besteht, „dass die Skalen nicht über alle Eigenschaften hinweg konsistent interpretiert werden und deren direkter Vergleich dadurch nur eingeschränkt zulässig ist.“ (vgl. Hensel-Börner (2000), S. 99).

Auf Grund der Bewertung der Eigenschaften und deren Ausprägungen in den ersten beiden Phasen werden Teilnutzenwerte für alle Eigenschaftsausprägungen ermittelt (vgl. o. V. (2002), S. 9). Grundlage dieser Teilnutzenwerte bildet das additive Nutzenmodell aus Kapitel 2.1 (Formel 1). Die Teilnutzenwerte werden in der anschließenden Phase sukzessive aktualisiert.

Die dritte Phase stellt mit dem dekompositionellen Teil das Kernstück der ACA dar (vgl. Green / Krieger / Agarwal (1991), S. 216; Gutsche (1995), S.96). Hier werden zwei Stimuli, die sich aus zwei bis fünf verschiedenen Eigenschaftsausprägungen zusammensetzen vom Befragten relativ zueinander bewertet (vgl. o.V. (2002), S. 9 und Orme (2002), S. 3-7). Der Vergleich erfolgt mittels Trade-Off auf einer Rating Skala, die wiederum von zwei bis neun Punkten definiert werden kann. Dabei gibt der niedrigste Wert die Bevorzugung des linken Stimulus und der höchste Wert die Bevorzugung des rechten Stimulus an. Wird eine Skala verwendet, die insgesamt eine ungerade Anzahl an Punkten hat, ergibt der in der Mitte liegende Punkt die Indifferenz zwischen den Stimuli (vgl. o. V. (2002), S. 9).

Aus wie vielen Eigenschaftsausprägungen sich die Stimuli zusammensetzten, wird vom Marktforscher vorgegeben. Setzen sich die zu bewertenden Stimuli aus relativ vielen Eigenschaften (hohe Profilstärke) zusammen, wird eine effizientere statistische Auswertung ermöglicht (vgl. o. V. (2002), S. 9) und eine realistische Kaufsituation dargestellt (vgl. Green / Krieger / Agarawal (1991), S. 220 und Herrmann / Schmidt-Gallas / Huber (2000), S. 260). Gleichzeitig besteht die Gefahr, dass der Befragte kognitiv überlastet wird (vgl. Green / Krieger / Agarawal (1991), S. 220) und die Bewertungen dementsprechend nicht seiner wahren Präferenz entsprechen. Aus diesem Grund wird empfohlen, diesen Abschnitt mit Stimuli zu beginnen, die von zwei Eigenschaften definiert werden und in der Folge die Anzahl der Eigenschaften zu erhöhen (vgl. Herrmann / Schmidt-Gallas / Huber (2000), S. 260 und o. V. (2002), S. 9).

Die Anzahl der Paarvergleiche kann ebenfalls vom Marktforscher bestimmt werden. (vgl. Orme (2002), S. 6-10). Dabei bestimmt sich die empfohlene Anzahl nach der folgenden Formel (vgl. Orme (2002), S. 6-10):

Abbildung in dieser Leseprobe nicht enthalten

Die abschließenden initialen Werte aus der zweiten Phase bilden die Grundlage für die Bildung der Paarvergleichsaufgaben in der dritten Phase. Dabei werden die zu vergleichenden Stimuli so gewählt, dass die Nutzenwerte möglichst homogen sind. (vgl. Herrmann / Schmidt-Gallas / Huber (2000), S. 261 und Johnson (1987), S. 261) Nach jedem Paarvergleich werden die Nutzenwerte aktualisiert und auf Grundlage dessen ein neuer Paarvergleich entwickelt. (vgl. Orme (2002), S. B-1) Die Schätzung der Nutzenwerte wird wie folgt durchgeführt. (Für die folgenden Ausführungen vgl. Orme (2002), S. B-1ff. und o. V. (2000), S. 18f.) Nach n Beobachtungen erhält man folgende Regressionsgleichung:

Abbildung in dieser Leseprobe nicht enthalten

Mit Formel (12) werden nun nach jedem Paarvergleich die Nutzenwerte der Befragten neu geschätzt. Zähler und Nenner sind Skalare. Die Inverse in Formel (11) wird ebenfalls aktualisiert, wobei der Vektor v bereits bekannt ist. Bei insgesamt k Eigenschaftsausprägungen müssen somit nur 2k(k+1) Multiplikationen und Additionen durchgeführt werden, anstatt nach jedem Paarvergleich erneut eine Gesamtschätzung vorzunehmen.

Vor dem ersten Paarvergleich wird X der Einheitsmatrix gleichgesetzt und bn und y den intitialen Werten des kompositionellen Teils. Der Vektor z besteht aus positiven und negativen Einsen und Nullen. Ein Element ist gleich 1, wenn die entsprechende Eigenschaftsausprägung im Stimulus auf der rechten Seite des Bildschirms erscheint, -1 wenn diese im Stimulus auf der linken Seite erscheint und Null, wenn diese in keinem Stimulus angewendet wird. Die Antworten der Probanden werden intern auf den Wertebereich -4 bis +4 umkodiert. Eine -4 entspricht der stärksten Präferenz für den linken die +4 für den rechten Stimulus. Die Indifferenz wird zu einer 0 umkodiert.

Die Paarvergleiche werden nach einigen bekannten Kriterien ausgewählt. So wird der jeweils nächste Paarvergleich auf der Grundlage aller Informationen ausgewählt, die bis zu diesem Zeitpunkt abgefragt wurden (vgl. Green / Krieger / Agarwal (1991), S. 216). Die Stimuli werden so gebildet, dass sich deren Gesamtnutzen möglichst gleichen. Dies führt dazu, dass die Befragten den Eindruck bekommen, dass das System auf sie reagiert. Es wird angenommen, dass dies zu einer erhöhten Antwortmotivation führt (vgl. Huber / Hansen (1986), S.160). Des Weiteren wird versucht, ein näherungsweise orthogonales Gesamtdesign zu erhalten (vgl. Hensel-Börner (2000), S. 101). Neben diesen bekannten Auswahlkriterien ist jedoch der konkrete Algorithmus, nach dem der nächste Paarvergleich stattfindet nicht bekannt (vgl. Gutsche (1995), S. 96 und Reiners (1996), S. 76).

Die Werte, die nach dem letzten Paarvergleich geschätzt werden, bezeichnet man als nichtreskalierte oder ungewichtete Teilnutzenwerte (vgl. Reiners (1996), S. 76). Je mehr Paarvergleiche vom Befragten bewertet werden, desto weniger Einfluss haben die initialen Werte der vorhergehenden Phase (vgl. o. V. (2000), S. 11).

Nachdem die Teilnutzenwerte des kompositionellen und des dekompositionellen Teils der ACA vorliegen, werden die Werte beider Teile kombiniert (vgl. Hensel-Börner (2000), S. 102 und für den folgenden Abschnitt o. V. (2000), S.20f, sofern keine andere Quelle angegeben wird). Zunächst werden die Nutzenwerte derart normiert, dass die Summe der Differenz zwischen der besten und der schlechtesten Ausprägung aller Eigenschaften aus beiden Teilen gleich ist. Dies führt dazu, dass Boden- und Deckeneffekte ausgeglichen werden (vgl. Hensel-Börner (2000), S. 102 / o.V. (2000), S. 20f und Reiners (1996), S. 120).

Die Nutzenwerte für die Eigenschaftsausprägungen, die in dem dekompositionellen Teil Verwendung finden, werden mit n/(n+t) multipliziert, wobei n die Anzahl aller Eigenschaftsausprägungen in der Paarvergleichsaufgabe ist und t die Anzahl der beantworteten Paarvergleiche. Jeder Nutzenwert, der nicht in den Paarvergleichen verwendet wird, wird auch nicht modifiziert. Die Nutzenwerte aus der Paarvergleichsaufgabe werden mit t/(n+t) multipliziert. Die durch diese Modifikation entstehenden Vektoren der Werte werden addiert. Diese Werte sind die finalen Nutzenwerte vor der Kalibrierung.

[...]

Details

Seiten
Erscheinungsform
Originalausgabe
Jahr
2008
ISBN (eBook)
9783836616546
DOI
10.3239/9783836616546
Dateigröße
2.4 MB
Sprache
Deutsch
Institution / Hochschule
Johann Wolfgang Goethe-Universität Frankfurt am Main – Wirtschaftswissenschaften, Betriebswirtschaftslehre
Erscheinungsdatum
2008 (August)
Note
2,0
Schlagworte
präferenzmessung adaptive conjoint analyse self-explicated verfahren triple play
Zurück

Titel: Präferenzmessung
book preview page numper 1
book preview page numper 2
book preview page numper 3
book preview page numper 4
book preview page numper 5
book preview page numper 6
book preview page numper 7
book preview page numper 8
book preview page numper 9
book preview page numper 10
book preview page numper 11
book preview page numper 12
book preview page numper 13
book preview page numper 14
book preview page numper 15
book preview page numper 16
book preview page numper 17
book preview page numper 18
book preview page numper 19
book preview page numper 20
book preview page numper 21
99 Seiten
Cookie-Einstellungen