Anforderungsanalyse für den erfolgreichen Launch von Websites
©2002
Diplomarbeit
140 Seiten
Zusammenfassung
Inhaltsangabe:Einleitung:
Im Rahmen dieser Diplomarbeit wurden Aspekte aufgeführt, die beim Launch einer Website, bzw. die bei einer Erneuerung (Relaunch) beachtet werden müssen. Auf mehrere Möglichkeiten zur Seiten-Gestaltung wurde mit Hilfe der Wahrnehmungspsychologie näher eingegangen: Es wurde aufgezeigt, wie das menschliche Gehirn Informationen unter anderem über die Augen aufnimmt und verarbeitet. Daraus ergeben sich Hinweise auf die richtige Platzierung von Navigationselementen, Bildern oder Text. Der Mensch besitzt eine klar definierte Farbwahrnehmung, Farben können beim Menschen verschiedene Gefühlsstimmungen oder Empfindungen hervorrufen. Für die Web-Gestaltung können hier Rückschlüsse auf eine angenehme Farbwahl oder die Lesbarkeit gewonnen werden. Auch die verschiedenen Gedächtnissysteme, also die Art und Länge der Speicherung von Informationen im menschlichen Gehirn wirken sich auf die Gestaltung aus. Das sensorische Gedächtnis wirkt sich beispielsweise auf die Wahl der Zeilenlänge eines Textes aus, das Kurzzeitgedächtnis auf die Zerteilung eines Textes in einzelne Blöcke oder die Untergliederung in mehrere Menüpunkte und das Langzeitgedächtnis auf den Einsatz von Piktogrammen oder Markenzeichen. Ein Problem ist das Lesen längerer Texte am Bildschirm. Hier spielen technische Aspekte wie die Beschaffenheit des Monitors, aber auch gestalterische Aspekte wie die Wahl der Schrift, der Farben oder das Aufteilen des Textes auf mehrer Seiten, um Scrollen zu vermeiden, eine Rolle.
Die drei Gesetze der Gestaltpsychologie finden bereits bei der Seitengestaltung im Print-Bereich Anwendung, in Online-Medien sind sie noch wichtiger, da hier die Seite nicht nur gelesen wird, sondern mit ihr gearbeitet (Klicken, Auswählen, etc.) werden muss. Nach der psychologischen Betrachtung wurden Anforderungen an eine Website aufgestellt, bzw. grundlegende Prinzipien für ein erfolgreiches Web-Publishing aufgezeigt. Die wohl wichtigste Eigenschaft des WWW und auch der größte Unterschied zu allen anderen Medien ist die Möglichkeit, zwischen verschiedenen Seiten oder Inhalten hin und her zu navigieren.
Es wurden verschiedene Strukturen von Websites vorgestellt, sowie unterschiedliche Arten der Navigation, sei es in der Art der Darstellung oder der Art wie sie erzeugt wurden. Neben der eigentlichen Navigation sollten dem Surfer auch weitere Möglichkeiten, wie etwa einer Suchfunktion oder einer Sitemap, gegeben werden, sich zurecht zu finden. Eine gute […]
Im Rahmen dieser Diplomarbeit wurden Aspekte aufgeführt, die beim Launch einer Website, bzw. die bei einer Erneuerung (Relaunch) beachtet werden müssen. Auf mehrere Möglichkeiten zur Seiten-Gestaltung wurde mit Hilfe der Wahrnehmungspsychologie näher eingegangen: Es wurde aufgezeigt, wie das menschliche Gehirn Informationen unter anderem über die Augen aufnimmt und verarbeitet. Daraus ergeben sich Hinweise auf die richtige Platzierung von Navigationselementen, Bildern oder Text. Der Mensch besitzt eine klar definierte Farbwahrnehmung, Farben können beim Menschen verschiedene Gefühlsstimmungen oder Empfindungen hervorrufen. Für die Web-Gestaltung können hier Rückschlüsse auf eine angenehme Farbwahl oder die Lesbarkeit gewonnen werden. Auch die verschiedenen Gedächtnissysteme, also die Art und Länge der Speicherung von Informationen im menschlichen Gehirn wirken sich auf die Gestaltung aus. Das sensorische Gedächtnis wirkt sich beispielsweise auf die Wahl der Zeilenlänge eines Textes aus, das Kurzzeitgedächtnis auf die Zerteilung eines Textes in einzelne Blöcke oder die Untergliederung in mehrere Menüpunkte und das Langzeitgedächtnis auf den Einsatz von Piktogrammen oder Markenzeichen. Ein Problem ist das Lesen längerer Texte am Bildschirm. Hier spielen technische Aspekte wie die Beschaffenheit des Monitors, aber auch gestalterische Aspekte wie die Wahl der Schrift, der Farben oder das Aufteilen des Textes auf mehrer Seiten, um Scrollen zu vermeiden, eine Rolle.
Die drei Gesetze der Gestaltpsychologie finden bereits bei der Seitengestaltung im Print-Bereich Anwendung, in Online-Medien sind sie noch wichtiger, da hier die Seite nicht nur gelesen wird, sondern mit ihr gearbeitet (Klicken, Auswählen, etc.) werden muss. Nach der psychologischen Betrachtung wurden Anforderungen an eine Website aufgestellt, bzw. grundlegende Prinzipien für ein erfolgreiches Web-Publishing aufgezeigt. Die wohl wichtigste Eigenschaft des WWW und auch der größte Unterschied zu allen anderen Medien ist die Möglichkeit, zwischen verschiedenen Seiten oder Inhalten hin und her zu navigieren.
Es wurden verschiedene Strukturen von Websites vorgestellt, sowie unterschiedliche Arten der Navigation, sei es in der Art der Darstellung oder der Art wie sie erzeugt wurden. Neben der eigentlichen Navigation sollten dem Surfer auch weitere Möglichkeiten, wie etwa einer Suchfunktion oder einer Sitemap, gegeben werden, sich zurecht zu finden. Eine gute […]
Leseprobe
Inhaltsverzeichnis
ID 5613
Dausmann, Ludwig: Anforderungsanalyse für den erfolgreichen Launch von Websites / Ludwig
Dausmann - Hamburg: Diplomica GmbH, 2002
Zugl.: München, Fachhochschule, Diplomarbeit, 2002
Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die
der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen,
der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der
Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung,
vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im
Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der
Bundesrepublik Deutschland in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich
vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des
Urheberrechtes.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem
Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche
Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten
wären und daher von jedermann benutzt werden dürften.
Die Informationen in diesem Werk wurden mit Sorgfalt erarbeitet. Dennoch können Fehler nicht
vollständig ausgeschlossen werden, und die Diplomarbeiten Agentur, die Autoren oder
Übersetzer übernehmen keine juristische Verantwortung oder irgendeine Haftung für evtl.
verbliebene fehlerhafte Angaben und deren Folgen.
Diplomica GmbH
http://www.diplom.de, Hamburg 2002
Printed in Germany
Fachhochschule München
Inhalt
Einleitung ...1
Meilensteine des Internets ...4
1 Marktforschung im Internet ...7
1.1 Übersicht über bereits bestehende Studien ...8
1.2 Effizienzforschung für Internet-Werbung und -Marketing ..10
1.2.1 Individualverfahren ...12
1.2.2 Gruppenverfahren ...13
1.2.3 Online-Fragebogen...13
1.2.4 Befragung per E-Mail oder Telefon...15
1.3 Methodische Probleme bei der Internetbefragung ...16
1.4 Internetmessung / Webtracking...18
1.4.1 Page-Impressions...19
1.4.2 Visits...20
1.4.3 Einschränkungen...20
2 Wahrnehmungspsychologie...26
2.1 Gehirnforschung...26
2.2 Farbwahrnehmung ...28
2.3 Die drei Gedächtnissysteme ...30
2.3.1 Das sensorische Gedächtnis ...30
2.3.2 Das Kurzzeitgedächtnis...31
2.3.3 Das Langzeitgedächtnis ...32
2.4 Lesen ...33
2.5 Die drei Gesetze der Gestaltpsychologie ...35
2.5.1 Figur und Grund ...36
2.5.2 Gesetz der Geschlossenheit...37
2.5.3 Das Gesetz der Nähe und der Ähnlichkeit...38
3 Grundprinzipien für das erfolgreiche Web-Publishing...40
3.1 Navigation im Netz ...40
3.1.1 Statische und dynamische Navigation...42
3.1.2 Hyperlinks...43
3.1.3 Navigationselemente ...44
3.1.4 Zusätzliche Navigationshilfen ...46
3.1.5 Websitestruktur...50
3.1.6 Qualitätskriterien für die Navigation...52
3.2 Seitengestaltung ...55
3.2.1 Web-Layout ...55
3.2.2 Antwortzeiten und Performance ...57
3.2.3 Einsatz von Frames...59
3.2.4 Einsatz von Stylesheets...60
Fachhochschule München
3.3 Sicherheit im Netz ...61
3.3.1 Rechtliche Absicherung und Privacy Policy...61
3.3.2 Gängige Sicherheitsmechanismen für Sicherheit und
Vertrauen...62
3.4 Datenbankbasierte Websites ...65
3.5 Animation im Netz ...67
3.6 Kompatibilität...70
3.6.1 Browser ...71
3.6.2 Plattformen ...74
3.6.3 Microdevices und WAP...74
3.7 URL-Design und E-Branding...76
3.8 Online-Werbung ...79
3.9 Informationsgehalt und Zielgruppenfokus ...83
4 Website-Vergleich...88
4.1 Website-Struktur und Navigation...88
4.2 Zusätzliche Navigationshilfen...90
4.3 Seiten-Layout ...91
4.4 Ladezeit der Homepage...93
4.5 Sicherheit für den User...94
4.6 Kompatibilität...94
4.7 E-Branding ...95
4.8 Intuitive Web-Adresse ...96
4.9 Werbebanner ...97
4.10 Informationsgehalt und Zielgruppenfokus ...98
4.11 Zusammenfassung des Website-Vergleichs ...99
5 Zusammenfassung ...100
Literaturverzeichnis...103
Fachhochschule München
Abbildungsverzeichnis
Abbildung 1: Verschiedene Arten von Skalen...14
Abbildung 2: Repräsentative Stichprobe...17
Abbildung 3: Ermittlung der ,,Hits"...19
Abbildung 4: Proxy- und Firewallproblematik...22
Abbildung 5: Aufruf der Pixel aus den Angebotsseiten...23
Abbildung 6: Erzwingen eines Zugriffs durch die Minigrafik...23
Abbildung 7: Auswertung von Zugriffen ...24
Abbildung 8: Clickstreams und Visits...25
Abbildung 9: Aufteilung der beiden Gehirnhälften...26
Abbildung 10: Aktivitäten der beiden Gehirnhälften...27
Abbildung 11: Unterschiedliche Fenstergröße...31
Abbildung 12: Menü des Buchversands Barnes & Noble. ...33
Abbildung 13:* Wahl der anzuzeigenden Schriftgröße ...35
Abbildung 14: Zwei Beispiele für Kippfiguren ...36
Abbildung 15:* Beispiele für Figur und Grund...37
Abbildung 16: Phänomen der ,,subjektiven Konturen"...38
Abbildung 17: Einbettung eines Rahmens...38
Abbildung 18: Auszug aus Yahoo...39
Abbildung 19:* Internetauftritt www.muenchen.de...42
Abbildung 20: Metapher, ,,Gebrannte" Typo ...45
Abbildung 21: Systemtext, Systemelemente ...46
Abbildung 22: Suchmaske, Anzeige der Ergebnisse ...47
Abbildung 23:* Guided Tour ...48
Abbildung 24: Eine einfache Sitemap (www.zeit.de) ...49
Abbildung 25:* Personalisierung...50
Abbildung 26: Tiefe und breite hierarchische Struktur ...51
Abbildung 27: Storyboard ...55
Abbildung 28:* Fenster mit fester Größe ...56
Abbildung 29: Internet-Verbindungstechnik ...58
Abbildung 30: Integritätskontrolle und elektronische Signaturen .65
Abbildung 31: Internet-Redaktionssystems ...67
Abbildung 32: Beispiele für GIF-Animation ...69
Abbildung 33:* Homepage von www.polylux.tv ...70
Abbildung 34:* Browser-Versionen...73
Abbildung 35: Microdevices...75
Abbildung 36: Darstellungsmöglichkeiten mit WAP ...76
Abbildung 37: Verschiedene Banner. ...83
Abbildung 38:* Klares und einfaches Layout (www.studierfix.de) 86
Abbildung 39:* Bunte Aufmachung (www.rtl.de)...87
Abbildung 40:* Navigation von Allegra...89
Fachhochschule München
Abbildung 41:* Navigation von Amica und von Cosmopolitan ...89
Abbildung 42:* Navigation von Elle und von Glamour ...90
Abbildung 43: Erklärung der Suchfunktion von Glamour ...91
Abbildung 44:* Seitenaufteilung der Homepages ...92
Abbildung 45: Ankündigung einer längeren Ladezeit...93
Abbildung 46: Vergleich eines Werbebanners...95
Abbildung 47: Zahlreiche Pop-up-Fenster ...97
Die mit Sternchen (*) gekennzeichneten Abbildungen werden im
Anhang in vergrößerter Form und farbig dargestellt.
Fachhochschule München
1
Einleitung
Das WWW (,,World Wide Web"), der grafisch orientierte Bereich
des Internets, hat in der Bedeutung in den letzten Jahren derma-
ßen zugenommen, dass nun bald von einem wirklichen Massen-
medium wie etwa dem Radio oder Fernsehen gesprochen werden
kann. Auch der ,,typische Nutzer" hat sich stark gewandelt. In einer
Untersuchung im Jahr 1997 wurde der typische Internetnutzer mit
den Attributen männlich, hochgebildet und zwischen 20 und 39
Jahren alt beschrieben. Heute kann ein deutlicher Strukturwandel
festgestellt werden: Die Zahl der weiblichen Internetnutzer stieg im
Zeitraum 1997 bis heute um den Faktor 10, auch bei der Alters-
gruppe ab 50 und den Gruppen mit geringer Schulbildung zeigen
sich ähnliche Steigerungsraten.
1
Fast jeder zweite Bundesbürger
im Alter von 14 bis 69 verfügt im Privat-, Arbeits- oder Ausbil-
dungsbereich über eine Zugangsmöglichkeit zum Internet.
2
Das Potential, aber auch die Schwächen, des WWW zeigte sich
am Tage der Anschläge auf New York und Washington: ,,Das
WTC in Flammen bescherte den deutschen Nachrichten-Websites
traurige Zugriffsrekorde ... Doch nicht alle Angebote verkrafteten
die Zugriffströme: ,,Bild.de" und ,,Focus-Online" waren am Kata-
stophentag (11.9.2001) immer wieder offline. Die Bewegtbilder
von ,,heute.t-online.de" ließen sich stundenlang nicht laden."
3
Al-
leine SPIEGEL ONLINE bescherte der Abend vom 11.9. fünf Milli-
onen Page-Impressions.
4
Genauso schnell wie die Anzahl der User gestiegen ist, erhöhte
sich auch die Anzahl der verfügbaren Websites. Laut Denic sind
beispielsweise alleine 4,9 Millionen .de-Domains registriert. (Zum
Vergleich: 1994: etwa 1000 .de-Domains, 1997: 100.000 .de-
Domains)
5
. Leider blieb sehr lange die Qualität der Seiten auf der
Strecke. Es war für viele Firmen wichtiger, überhaupt ,,im Netz"
vertreten zu sein, als auf Qualität, Kreativität, und Design zu ach-
ten. Vieler dieser Seiten, speziell von kleineren Firmen und Hand-
werksbetrieben sind im Netz immer noch präsent und frustrieren
den User mit veralteten ,,News", bewegten ,,Under Construction"-
Bildchen und zu großen oder zu kleinen Frames.
1
Media Perspektiven 8/2001 S. 383
2
,,Der Markt der Online-Kommunikation", Infobroschüre Focus Medialine, 2001
3
Branchendienst ,,kressreport", zitiert im SPIEGEL 39/20001, S. 274
4
ebenda
5
http://www.denic.de [29.10.2001]
Fachhochschule München
2
In den letzten zwei bis drei Jahren konnte jedoch bei den meisten
kommerziellen Seiten, aber auch bei vielen privaten Seiten, eine
deutliche Steigerung der Qualität festgestellt werden. Dies kam
zum einen durch die Einsicht, dass der Kunde oder Besucher der
Seite bessere Qualität verlangt und man sich meist nur durch den
Leistungsumfang und die Art der Darstellung von den vielen Mit-
bewerbern unterscheiden kann, zum anderen durch die rasante
Veränderungen im Hard- und Softwarebereich der PCs der End-
anwender, sowie der Möglichkeiten der Entwickler bei der Seiten-
gestaltung (z.B. Einbettung von bewegten Grafiken, Animationen,
Videos, Sound und besseren Programmen zur Erstellung der Sei-
ten).
Im Jahr 2002 scheint sich nun ein ,,Abschied vom Gratis-Web"
(Süddeutsche Zeitung) anzubahnen. Die Werbeeinnahmen durch
Banner und Pop-Ups blieben stark hinter den Erwartungen der
Marktforscher zurück: Von den 23,3 Milliarden Mark, die für Wer-
bung in Deutschland im vergangenen Jahr ausgegeben wurden,
entfallen gerade 153 Millionen auf die Online-Werbung.
6
Selbst die
Internet-Angebote der großen Verlage und Medienunternehmen
(Marktführer: RTL.de) schreiben keine schwarzen Zahlen. Bei
zahlreichen Online-Anbietern wird momentan geprüft, welche In-
halte dem Kunden kostenpflichtig angeboten werden können. Bei-
spiele im deutschsprachigen Raum sind die ,,Rhein-Zeitung"
7
die
eine eins-zu-eins Ausgabe im gleichen Layout online anbietet (der
Preis soll im Bereich der Abokosten der Print-Ausgabe liegen) und
die Stiftung Warentest
8
, die Testberichte gebührenpflichtig zum
Download bereit stellt. Viele Anbieter versuchen auch einen
Grundservice gebührenfrei anzubieten, um den mühsam gewon-
nenen Kundenstamm nicht zu verlieren, und nur spezielle Ser-
vices oder ,,Profi-Versionen" zu verrechnen. Diesen Weg hat bei-
spielsweise der Kommunikationsdienstleister GMX
9
eingeschla-
gen: Von den etwa neun Millionen Usern haben nur etwa 28.000
das kostenpflichtige ,,Pro-Mail" Angebot angenommen.
10
Wichtig wird bei allen Angeboten sein, dass neben dem Inhalt und
dem konkreten Mehrwert auch die Qualität, das Erscheinungsbild
und die Benutzerfreundlichkeit (,,Usability") der Website den Kun-
den überzeugen kann.
6
DER SPIEGEL, 27/2001, S. 104 f.
7
http://epaper.rhein-zeitung.de/
8
http://www.warentest.de/
9
http://www.gmx.de
10
Internet, Business im WWW, Beilage der Süddeutschen Zeitung, 29.8.2001
Fachhochschule München
3
Bei der Themenfindung zu dieser Diplomarbeit wurde die Frage
,,Was macht eine gute Website aus?" aufgestellt. Schnell wurde
klar, dass die Beantwortung dieser Frage von zu vielen Parame-
tern abhängt. So kann eine Seite mit hervorragendem Inhalt so
schlecht gestaltet sein, dass die Surfer den gesuchten Inhalt nicht
finden können, ein gutes Layout und eine gute Usability machen
aber ohne Inhalt ebenfalls noch keine gute Seite aus. Die Frage-
stellung wurde dahingehend eingeschränkt, dass der Inhalt mit
Ausnahme einer grundlegenden Betrachtung außer acht gelassen
wurde, vielmehr sollen die technischen Möglichkeiten und grund-
legende Gestaltungsmöglichkeiten aufgezeigt werden.
Der erste Punkt dieser Arbeit beschäftigt sich mit der Marktfor-
schung im Internet, ein Punkt der für die Finanzierung einer Web-
site durch Bannerwerbung und zur Ausrichtung und Verbesserung
eines Web-Auftrittes von großer Wichtigkeit ist. Im zweiten Ab-
schnitt werden Grundsätze zur Gestaltung einer Seite aus der
Sicht der Wahrnehmungspsychologie beleuchtet. Im dritten und
umfangreichsten Abschnitt werden die Grundprinzipien für das
erfolgreiche Web-Publishing vorgestellt. Dazu gehören die Struk-
tur und der Aufbau einer Website, Möglichkeiten für die Gestal-
tung, rechtliche Aspekte und die Usability. Im vierten Abschnitt
werden schließlich direkt messbare Aspekte aus dem dritten Ab-
schnitt bei fünf ausgesuchten Web-Auftritten verglichen.
Die herausgearbeiteten Kriterien werden durch zahlreiche Screen-
Shots verdeutlicht. Um den Textfluss nicht zu sehr zu unterbre-
chen, wurden diese innerhalb des Textes nur in verkleinerter Form
eingefügt. Abbildungen, die mit Sternchen (*) gekennzeichnet
sind, werden im Anhang in einer größeren Darstellung und in Far-
be wiedergegeben.
Fachhochschule München
4
Meilensteine des Internets
Die Grundlagen des heutigen Internets wurden bereits Anfang der
60er Jahre durch die behördennahe RAND Corporation in den
USA geschaffen. Es sollte ein Netzwerk entwickelt werden, das
auch nach einem kriegerischen Angriff oder einem Atomkrieg die
Kommunikation zwischen den US-Behörden und Militärs sicher-
stellen sollte. Die wichtigsten zwei Lösungspunkte waren: Das
Netzwerk sollte keine zentrale Steuerung und somit keine zentrale
Autorität erhalten und das Netzwerk sollte so ausgebildet sein,
dass bereits die kleinsten Komponenten funktionsfähig und autark
wären. Das Prinzip war also, dass das Netzwerk selbst dafür Sor-
ge tragen musste, dass es zuverlässig arbeitete. Alle Knotenpunk-
te des Netzwerkes mussten den gleichen Status im Netz besitzen,
jeder Knoten hatte die Berechtigung Daten zu erzeugen, weiterzu-
leiten und zu empfangen. Die Daten sollten in kleine Pakete zer-
legt werden, der Weg, den jedes Paket zurücklegen sollte, war
nicht vorbestimmt.
1969 konnte dann schließlich mit dem Aufbau eines solchen Net-
zes begonnen werden. Unter der Federführung der Advanced Re-
search Projects Agency (,,ARPA-Net") konnten an vier Universitä-
ten Hochgeschwindigkeitsrechner miteinander verbunden werden.
Drei Jahre später waren bereits 37 Knoten miteinander verbun-
den, das gesamte System war aber noch sehr vom Militär domi-
niert und auf den universitären Bereich beschränkt. Die Hauptver-
wendung des Netzwerkes war zwar die Benutzung von Daten und
Programmen auf entfernten Rechnern, schnell wurde jedoch auch
der Datenaustausch zwischen den Benutzern (,,elektronische
Post") ein wichtiger Bestandteil. 1973 wurde parallel zum militä-
risch-dominierten Netz ein weiteres viel freieres Netz der Universi-
täten (,,CSNET") aufgebaut. In dieser Zeit wurde ebenfalls die
,,Sprache" des Netzes revolutioniert. Aus dem ursprünglichen NCP
(,,Network Control Protocol") wurde das TCP/IP-Protokoll entwi-
ckelt, welches in verbesserter Form bis heute den Standard im
Internet bildet. Das Transmission Control Protocol (TCP) be-
schreibt, wie Nachrichten in Pakete zerlegt und am Bestimmungs-
ort wieder zusammen gesetzt werden, das Internet Protocol (IP)
wird zur Adressierung und für die Weiterleitung über mehrere Kno-
ten benötigt. In den 70er und 80er Jahren fanden immer mehr un-
terschiedliche Gesellschaftsgruppen Zugang zu erschwinglicheren
und leistungsfähigeren Computern. Durch die Plattformunabhän-
gigkeit des Internets und die teilweise kostenlose Verfügbarkeit
Fachhochschule München
5
der Software war die ,,Netzgemeinde" nicht mehr auf den universi-
tären und militärischen Bereich beschränkt, der Name ,,Internet"
wurde geprägt.
11
Anfang der 90er Jahre kam es durch die stark gestiegene Teil-
nehmerzahl und der technischen Entwicklung wiederum zu einem
Meilenstein in der Geschichte des Internets. Um der Masse an
Knoten Herr zu werden, wurden Domains eingeführt. Es wurden
neben einer geographischen Zuordnung (z.B. .de für Deutschland,
.at für Österreich) die sechs Basisbereiche .gov, .mil, .edu, .com,
.org, .net geschaffen. Weltweit wurden sog. ,,DNS-Server" aufge-
baut, die eine weitere Unterteilung der Domain-Namen und die
Zuordnung der Namen zur entsprechenden IP-Adresse ermöglich-
ten. Für die heutige große Verbreitung und Akzeptanz in breiten
Gesellschaftsschichten sorgte in dieser Zeit die Einführung der
,,Hyper Text Markup Language" (HTML) durch das Genfer CERN-
Institut. Durch diese Seitenbeschreibungssprache konnte nun ein
relativ einheitliches Erscheinungsbild der gleichen Seite auf unter-
schiedlichen Rechnern erreicht werden. Mit einer entsprechenden
Browser-Software (to browse = schmökern, sich umsehen) war es
nun möglich, Text und Grafik anzuzeigen; mit im Text eingebette-
ten ,,Hyperlinks" konnte zu anderen Seiten im ,,WorldWideWeb"
(WWW) ,,gesprungen" werden. Der Siegeszug des Internets ist
sicher der Tatsache zu verdanken, dass es bis heute keinem Staat
oder keiner Institution wirklich gelungen ist, starken Einfluss auf
das Internet zu nehmen, und auch der Tatsache, dass kein entfer-
nungsabhängiges Entgeld entrichtet werden muss.
Besonders durch die zahlreichen Möglichkeiten, die die heutigen
Browser bieten, kam es zu einer Verschmelzung der Begriffe In-
ternet und WorldWideWeb. Obwohl das WWW nur ein Teil des
Internets darstellt, werden die Begriffe oft für ein und dasselbe
benutzt.
Auszug aus den Diensten des Internets, die in den Standard-
Browsern meist integriert sind:
·
World Wide Web: Textseiten, Grundlage bildet die Seitenbe-
schreibung HTML.
·
E-Mail (elektronische Post): Der mit am häufigsten benützte
Teil des Internets. Ähnlich wie bei der Briefpost kann eine
11
http://userpage.chemie.fu-berlin.de/~sunny/Internet_Arbeit/net_nindex.html
und http://www.users.comcity.de/~horibo/history.htm [28.12.01]
Fachhochschule München
6
Nachricht an einen oder mehrere Empfänger verschickt wer-
den.
·
Newsgroups: Funktionieren ähnlich einem schwarzen Brett.
Per E-Mail können Nachrichten zu einem bestimmten Thema
gesendet werden. Nur wenn man eine gewisse Gruppe ,,abon-
niert" und den Befehl zum Herunterladen gegeben hat, werden
die von anderen veröffentlichten Beiträge auf den Rechner des
Teilnehmers übertragen.
·
File Transfer Protocol (FTP): Zur Übertragung größerer Da-
teien. Das Protokoll wurde für eine schnelle Übertragung von
Daten optimiert.
·
Telnet: Über Telnet kann der Anwender auf Programme und
Daten eines entfernten Rechners zugreifen. Der eigene Rech-
ner wird dadurch zum Terminal des entfernten Rechners.
12
12
http://userpage.chemie.fu-berlin.de/~sunny/Internet_Arbeit/net_nindex.html
und http://www.users.comcity.de/~horibo/history.htm [28.12.01]
Fachhochschule München
7
1 Marktforschung im Internet
Die Marktforschung versteht sich nicht als reiner Datenlieferant,
sondern als vermittelnde Instanz. Die Anbieter auf dem Markt ha-
ben das Potential, Produkte und Dienstleistungen zu konzipieren
und dem Verbraucher zur Verfügung zu stellen; Verbraucher wie-
derum haben differenzierte Meinungen und Einstellungen zu Mar-
ken, Produkten und Dienstleistungen, und differenzierte Bedürf-
nisse, deren Befriedigung sie anstreben. In der Regel kommuni-
zieren Anbieter und Verbraucher nicht oder kaum miteinander.
Hier setzt nun die Marktforschung ein: Anbieter formulieren, was
sie wie anbieten können, und Verbraucher formulieren, was sie
haben wollen. Ein neues Forschungsfeld eröffnet sich im Online-
Bereich: Rudimentäre Informationen zur Online-Nutzung liegen
vor, exakte Strukturdaten der Zielgruppe Online-User und ein dif-
ferenziertes Bild über deren Bedürfnisse und über ihre Meinungen,
Einstellungen und Beurteilungen von Online-Angeboten jedoch
kaum.
13
In der Literatur erscheinen zwei unterschiedliche Aufga-
benfelder der Online-Marktforschung. Zum einen ist damit die Be-
fragung über Online-Angebote gemeint, zum anderen die Markt-
forschung im klassischen Sinn über Produkte oder Dienstleistun-
gen, wobei die Befragung online durchgeführt wird. Im Rahmen
dieser Arbeit wird nur der erste Punkt betrachtet.
Allgemein stehen der Marktforschung folgende drei Forschungs-
designs zur Verfügung:
Informelle, explorative Forschung ist dann sinnvoll, wenn das
Marketing- bzw. Forschungsproblem und die Ziele des Marktfor-
schungsprojekts noch nicht definiert und festgelegt sind. Wenn
man beispielsweise vermutet, dass viele der Kunden mit dem Pro-
dukt unzufrieden sind, kann eine Gruppendiskussion oder Einzel-
interviews mit einigen der Kunden Hinweise auf mögliche Pro-
blemfelder erhalten.
Deskriptive Forschung dient dazu, die eigenen Märkte zu be-
schreiben. Sie gibt Antwort auf Fragen wie ,,Welcher Prozentsatz
unserer Kunden kauft unser Produkt mehr als dreimal pro Jahr?"
oder ,,Wie hoch ist der Bekanntheitsgrad unserer Firma / unseres
Produktes?". Die Methoden der deskriptiven Forschung sind die
Befragung und die Beobachtung.
13
Fink (1997), S. 199
Fachhochschule München
8
Experimentelle Forschung wird eingesetzt, um den Zusammen-
hang zwischen Ursache und Wirkung zu erkennen. So kann bei-
spielsweise der Preis eines Produktes herabgesetzt und der Ab-
satz beobachtet werden oder unterschiedliche Werbebriefe getes-
tet werden. Diese Art der Forschung ist zwar sehr aussagekräftig,
birgt aber ein hohes Risiko an Fehlerquellen.
14
1.1 Übersicht über bereits bestehende Studien
Recherchiert man im Internet nach Studien über die Benutzer des
Internets, erhält man eine Vielzahl an brauchbaren und unbrauch-
baren Forschungsergebnissen. In den untenstehenden Tabellen
ist eine Auswahl an aktuellen (ab 2000) deutschsprachigen, bzw.
den deutschen Markt betreffenden Auswertungen bzw. Anbietern
aufgeführt. Die Aufzählung soll und kann nicht komplett sein, sie
soll lediglich eine Übersicht und einen schnellen Überblick bei Be-
ginn einer Recherche ermöglichen. Da sich die Links zu den Stu-
dien meist schnell ändern, wurde nur die Adresse der Firma oder
Organisation angegeben. Wie so oft zeigt sich bei der genaueren
Analyse, dass gute Qualität auch ihren Preis hat. Mit wenigen
Ausnahmen bieten nur die kostenpflichtigen Angebote wirklich
gute Marktanalysen. Eine Ausnahme bilden die von Medienunter-
nehmen (hier speziell ARD und ZDF) und den Großverlagen in
Auftrag gegebenen Studien über das Onlineverhalten und die
Marktdurchdringung. Kleinere, frei verfügbare Studien können ei-
nen schnellen Überblick bieten, wenn es um spezielle Fragestel-
lungen geht. Vorsicht ist geboten, wenn die Anzahl der Befragten
und die Methode der Datenerhebung nicht angegeben ist. Werden
nur wenige Personen, oder nur Personen aus einem bestimmten
Kreis befragt, kommt es leicht zu Verzerrungen oder gar falschen
Ergebnissen. Ergebnisse, die beispielsweise aus den Daten der
Besucher einer bestimmten Web-Seite automatisch ermittelt wer-
den, sind ebenfalls kritisch zu betrachten. So ergibt die Statistik
über den verwendeten Browser bei einer Jugendseite kein
brauchbares Ergebnis für die Gesamtheit der Internetnutzer, da zu
vermuten ist, dass Jugendliche im Vergleich zu älteren Usern
meist den neuesten Browser installiert haben werden.
14
Ebster (1999), S. 16 f.
Fachhochschule München
9
Verlage / Medien
ARD/ZDF Online-Studie
http://www.das-erste.de/studie Trendstudie von ARD/ZDF.
Themen: Infrastruktur, Nut-
zungsarten und -interessen,
Beurteilung der Kosten, Zu-
kunftserwartungen für den
Online-Markt, Verhältnis zu
den klassischen Massenme-
dien. Frei erhältlich zum
Download.
Axel Springer Verlag
http://www.mediapilot.de
Frei verfügbar.
Bauer Verlag
http://www.bauermedia.com
Frei verfügbar.
Gruner+Jahr AG & Co
http://www.gujmedia.de
Frei verfügbar.
Hubert Burda Media
http://www.bac.de
Frei verfügbar.
Spiegel Verlag
http://media.spiegel.de
Frei verfügbar.
Verlagsgruppe Milchstraße
http://www.vgm.de
Frei verfügbar.
Organisationen
ESIS
(European Survey of Informa-
tion Society Projects and Ac-
tions)
http://www.eu-esis.org
Studie der EU über grundle-
gende Daten über die Informa-
tionstechnolgien der Mitglieds-
staaten.
OECD
(Organisation for Economic Co-
operation and Development)
http://www1.oecd.org/subject/
e_commerce
Englischsprachige Studien,
teilweise über EU und
Deutschland, Auszüge kosten-
frei, gesamte Studien kosten-
pflichtig.
Forschungsinstitute / Unternehmensberatungen
Allensbacher Computer- und
Telekommunikations-Analyse
http://www.acta-online.de
Sehr umfangreiche Analysen,
kostenpflichtig, (Basisinfo
870 ).
ComCult Research
http://www.comcult.de
Eine Vielzahl an Studien und
Analysen informieren über
Trends und Entwicklungen im
Online-Markt.
Fraunhofer-Institut für Arbeits-
wirtschaft und Organisation
http://www.media-
vision.iao.fhg.de
Trendstudien zum Thema
Neue Medien und Marktplätze,
kostenpflichtig.
Forrester Deutschland
http://de.forrester.com
Sehr umfangreiche kosten-
pflichtige Umfragen, speziell
zu den Themen e-commerce
und B2B-Lösungen. Für The-
menpakete bis zu 3.500 .
Forsa
http://www.forsa.de
Kein Internetangebot.
GfK
(Gesellschaft für Konsum-,
Markt- und Absatzforschung)
http://www.gfk.de
Sehr umfangreiches Angebot,
frei verfügbar. Besonders
hervorzuheben: Der regelmä-
ßig erscheinende GfK-Monitor.
IDC Central Europe GmbH
http://www.idc.de
Teilweise kostenpflichtige
Analysen (bis 2.500 ) über
den IT-Markt und eBusiness.
Infratest
http://www.nfoeurope.com
Kostenpflichtig.
IVW
http://www.ivw.de/data/
index.html
Online Nutzungsdaten, frei
verfügbar.
Jupiter MMXI
http://de.jupitermmxi.com/xp/
de/home.xml
Kostenpflichtige Analysen.
Fachhochschule München
10
Mediamit
(Partnerschaft der IT-Wirtschaft
und des Mittelstandes)
http://www.mediamit.de
Frei verfügbare Umfrage zum
Thema E-Commerce.
MMB Michel Medienforschung
und Beratung
http://www.mmb-michel.de
Frei erhältliche Berichte zu
speziellen Themen wie e-
learning und Bedarfsstudien.
PricewaterhouseCoopers
http://www.pwcglobal.com
Englischsprachig, jedoch wird
der europäische und deutsche
Markt untersucht. Zusammen-
fassungen frei erhältlich,
gesamte Untersuchungen
kostenpflichtig
PZ-Online
http://www.pz-online.de
Reichweiten, Branchenreports,
kostenfrei.
Symposion Publishing Verlag
http://www.symposion.de
Bestellmöglichkeit von zahlrei-
chen Studien in Buchform.
Inhaltsangabe und Textaus-
schnitte können online einge-
sehen werden.
Webhits
http://www.webhits.de
Daten der Webhits-Kunden.
1.2 Effizienzforschung für Internet-Werbung
und -Marketing
Neben einigen anderen Kommunikationstechnologien, wie etwa
das Mobiltelefon, hat das Internet in den vergangenen Jahren Ein-
zug in die Alltagskultur gehalten. In den Zielgruppen müssen sich
neue Unterhaltungs- und Konsummuster jedoch erst allmählich
herausbilden. Marketingfachleute sind der schwierigen Aufgabe
ausgesetzt, nicht nur die geschickte Verflechtung einzelner Me-
dien zu bewerkstelligen, sondern auch Interaktion mit dem Benut-
zer zu ermöglichen. In diesem Kontext offenbart sich eine sehr
wichtige Aufgabe und zugleich enorme Herausforderung für die
Marktforschung, die mit wissenschaftlichen Methoden Prozesse in
neuen Märkten der multimedialen Unterhaltung erhellt. Sie muss
taktische Maßnahmen bewerten und strategische Optionen darle-
gen.
15
In Deutschland hat sich trotz des großen Wachstums und
Potentials des Internets noch keine richtige ,,Forschungs-Industrie"
gebildet. Forschung wird von den etablierten Instituten eher ,,ne-
benher", oder von größeren Internetagenturen betrieben. Viele
Internet-Anbieter versuchen auch selbst auszuwerten. So werden
oft die auf dem Server aufgelaufenen Daten ausgewertet, meist
aber ohne die verzerrenden technischen Eigenheiten des Internets
zu beachten. Messgrößen wie etwa Page-Impressions oder Visits
sind zwar durch die Fachverbände zu relativ verbindlichen Stan-
15
Hamm (2000), S. 141
Fachhochschule München
11
dards geworden, sagen aber noch nichts über die ,,Qualität" der
Internet-Nutzung und der Nutzer- und Nutzungstypologien aus. Im
Kapitel 1.4 wird genauer auf die Erfassung dieser quantitativen
Messdaten eingegangen.
Quantitative Erhebungsmethoden mit dem Ziel eines repräsentati-
ven, vor allem aber objektiven Meinungsbildes sind in Online-
Medien bzw. Internet nur mit sehr großem Aufwand zu realisieren.
Man erkennt schnell, dass bei einer angewandten Internet-
Forschung die Probleme mit der Ziehung einer echten Zufalls-
stichprobe aus einer ungemein heterogenen und dynamischen
Grundgesamtheit aller User beginnen. Die zentrale User-
Übersicht, den allumfassenden Datenbestand aller Teilnehmer
schlechthin, gibt es nicht, er ist auch für die nähere Zukunft
schlecht vorstellbar. Im Vergleich dazu bedient sich die klassische
Marktforschung beispielsweise der Daten aus dem Telefonbuch
oder der Meldebehörden. Will man eine solche Zufallsauswahl
dennoch realisieren, ist dies nur mit sehr aufwändigen mehrstufi-
gen Sample-Verfahren und einer hohen Anzahl an Befragungen
möglich, was für die meisten Auftraggeber zu kostenintensiv sein
dürfte.
Eine umfassende Marktforschung für Internet-Auftritte muss mehr
leisten als nur Zahlen über Zugangsstatistiken zu Websites zu
sammeln. Wenn es um die Ergründung der Internetnutzung oder
ihrer Akzeptanz geht, sind meist rein quantitative Daten über die
Nutzung eines Online-Angebots das Mittel der Wahl. Diese quanti-
tativen Methoden stoßen jedoch bei spezifischen Fragestellungen
bezüglich Wahrnehmung und Umgang mit einzelnen Websites
bzw. zu konkreten inhaltlichen Konzepten rasch an ihre Grenzen.
Zudem bilden quantitative Daten nur eine unzureichende Basis für
punktuelle oder kontinuierliche Verbesserungen einer Website.
Man möchte etwas über die Zielgruppe erfahren: Man möchte
nicht nur wissen, wer wann etwas auf einer Homepage sucht, son-
dern warum er das tut. Es liegt nahe, solche Fragestellungen mit
qualitativen Verfahren anzugehen. Überträgt man diese qualitati-
ven Forschungsverfahren auf den Online-Bereich, so sollte man
zwischen Verfahren unterscheiden, die den Anwender im Umgang
mit dem Online-Angebot als isoliertes Individuum oder als Teil ei-
nes sozialen ,,Settings", einer Gruppe, sehen.
16
16
Hamm (2000), S. 141 f.
Fachhochschule München
12
1.2.1 Individualverfahren
Primär kommt bei Untersuchungen mit einzelnen Konsumenten
die Technik des ,,Over-The-Shoulder-Research" bzw. der teilneh-
menden Beobachtung zum Einsatz: Einzelnen, typischen Anwen-
dern wird bei der Benutzung eines Internetangebots von psycho-
logisch geschulten Beobachtern und Interviewern ,,über die Schul-
ter geschaut". Grundsätzlich sollte der Anwender dabei intuitiv und
weitgehend ungeleitet durch einen Internetauftritt navigieren.
Nachdem die Testperson sich mit dem Internetauftritt vertraut ge-
macht hat, werden Aufgabenszenarien (,,Tasks") vorgelegt, die zu
lösen sind. (Beispielsweise das Buchen eines Fluges in einem
virtuellen Reisebüro.) Mit der Methode des ,,lauten Denkens" soll
der Benutzer gleichzeitig beschreiben, was ihm auffällt, was er
empfindet und was in seinen Gedanken vorgeht. Anwender und
Interviewer stehen im ständigen Austausch. In Kombination mit
passiver Beobachtung des Interviewers ist es somit möglich, auf
sogenannte ,,Likes" und ,,Dislikes", auf Motivation und Wünsche
des Anwenders zu schließen.
Grundsätzlich soll mit einem solchen Usability-Test User-Feed-
back gesammelt werden. Zu diesem Zweck wird bereits während
der Entwicklungsphase eines Web-Angebots ein Dummy erstellt
und einem Nutzungstest der Vertreter der angestrebten Zielgruppe
unterzogen. Neben der umfassenden Bewertung des Dummys
nach den je nach Auftritt relevanten Kriterien sollen dabei vor al-
lem Nutzungsbarrieren identifiziert und Optimierungspotentiale für
das Angebot aufgedeckt werden. Ideal ist, wenn die Phasen des
Beispiel (PopNet Research GmbH)
Usability Proof ist ein individualdiagnostisches Verfahren, um die Benutzerfreundlichkeit ,
Erfahrungen und Erwartungen von eCommerce Angeboten zu überprüfen.
Nach Absprache werden mind. acht Probanden direkt an einem PC mit einem Website Ange-
bot konfrontiert. Basierend auf der jeweiligen Zielsetzung wird eine Online-Sitzung entlang
eines halb strukturierten Leitfadens durchgeführt. Der Interviewer begleitet den Probanden in
dieser 1,5 2 Stunden dauernden Einzelexploration während seines spontanen und aufga-
benorientierten Surfens. Die Reaktionen des Probanden (Laut-Denk-Protokoll) werden sowohl
bildlich als auch schriftlich dokumentiert und fließen in die teilnehmende Beobachtung direkt
ein. Das Bildmaterial liefert zusätzlich Erkenntnisse zum Umgang der Anwender mit der Web
Site und ergänzt die Befragung, da die Testperson zum ,,lauten Denken" aufgefordert wird und
ihre Aktivitäten kommentiert. Der Kunde hat die Möglichkeit die Einzelexploration direkt zu
verfolgen.
Beispielkalkulation:
Zwei Stunden Einzelexploration, einfache Zielgruppe, 8 Probanden, Leitfadenentwicklung,
Berichterstattung, Auswertung in MS PowerPoint, Feldkosten.
6.400 +MwSt
Fachhochschule München
13
Testens und Verbesserns mehrmals vor dem Launch eines Web-
Auftritts durchgeführt werden können. Im Anhang 2 am Ende der
Arbeit findet sich eine Checkliste, für einen solchen Usability-Test.
1.2.2 Gruppenverfahren
Eine weitere Möglichkeit der qualitativen Forschung ist die Durch-
führung von Gruppendiskussionen. Die Auseinandersetzung mit
einem Online-Angebot in einer Gruppe von mehreren Anwendern
wird neueren Erkenntnissen gerecht, die eine zunehmende soziale
und kommunikative Funktion der Online-Nutzung betonen. So sur-
fen ca. 50% der deutschen Internet-Nutzer nicht allein im World
Wide Web, sondern etwa gemeinsam mit dem Partner oder Ar-
beitskollegen.
17
Konkret würde eine Gruppe von Anwendern ge-
meinsam eine Website erkunden und bewerten, wobei ein Projek-
tor das Bildschirmgeschehen für jeden sichtbar an eine Wand
wirft. Der Interviewer gibt bei diesem teilstrukturierten Vorgehen
grobe Richtungen vor, die Gruppe bestimmt den genaueren Fokus
der Auseinandersetzung mit dem Angebot.
1.2.3 Online-Fragebogen
Online-Dienste bieten als Medium die Möglichkeit, den Vermitt-
lungsprozess zwischen Anbieter und Verbraucher zu vereinfa-
chen. Die technischen Möglichkeiten dieses Mediums weisen ein
Maß an Schnelligkeit, Effizienz und Datenqualität auf, die andere
Erhebungstechniken kaum erreichen. Eine hohe Auswertungsge-
schwindigkeit wird vor allem dadurch erzielt, dass Daten direkt
nach der Befragung in einem für das Auswertungsprogramm be-
nötigten Format vorliegen, eine zusätzliche Erfassung der Daten
entfällt somit. Marktforschung sollte möglichst in dem Setting (Um-
feld) stattfinden, um das es geht, und möglichst mittels der Kom-
munikationstechniken, die der Befragte am besten beherrscht.
Eine Befragung über Online-Themen online durchzuführen bietet
sich somit regelrecht an. Die Akzeptanz von Online-Befragungen
ist deshalb so groß, da der Befragte sich hier nicht nur als Befrag-
ter fühlt: Vielmehr findet er ein Forum der Kommunikation und In-
teraktion vor.
18
Neben der Akzeptanz ist natürlich auch die Er-
17
Hamm (2000), S. 144
18
Fink (1997), S. 200 f.
Fachhochschule München
14
reichbarkeit der Zielgruppe ein Kriterium, möglichst viel Response
zu erhalten, da man nicht von der Arbeitszeit der Interviewer oder
der verfügbaren Zeit des Users abhängig ist. Die Response-Quote
kann merklich erhöht werden, wenn dem Befragten am Beginn der
Befragung mitgeteilt wird, wie lange es etwa dauert, bis der Fra-
gebogen ausgefüllt ist. Auch eine Anzeige, die den Fortschritt der
Befragung anzeigt ist sehr dienlich. Natürlich hat auch die Gestal-
tung und die Art der Fragestellungen, bzw. der Antwortmöglichkei-
ten einen großen Einfluss auf den Rücklauf und die Qualität der
Erhebung. Anhang 3 zeigt Beispiele von Onlinefragebögen.
Abbildung 1: Verschiedene Arten von Skalen, die in einem Fragebogen ver-
wendet werden können.
19
19
Ebster (1999), S. 96
Likert-Skala
stimme voll
und ganz zu
stimme zu
bin unent-
schlossen
stimme nicht
zu
stimme über-
haupt nicht
zu
Wein ist ein
modernes
Getränk
TM
TM
TM
TM
TM
Wein ist
bekömmlicher
als Bier
TM
TM
TM
TM
TM
Semantisches Differential
Bitte kreuzen Sie bei jedem Gegensatzpaar an, wie es die Deutsche Bahn beschreibt.
Die Deutsche Bahn ist ...
dynamisch
1
2
3
4
5
6
7
träge
altmodisch
1
2
3
4
5
6
7
modern
sympathisch
1
2
3
4
5
6
7
unsympathisch
Graphische Skalen
Sauberkeit des Lokals
J
K
L
Freundlichkeit der Bedienung
J
K
L
Häufigkeitsskala
Wie oft trinken Sie zum Abendessen Wein?
TM
immer
TM
oft
TM
gelegentlich
TM
selten
TM
nie
Fachhochschule München
15
1.2.4 Befragung per E-Mail oder Telefon
Bei Strukturerhebungen zum Thema Online-Dienste sind im Grun-
de alle herkömmlichen Befragungstechniken geeignet: Schriftliche
sowie mündliche Befragung, wobei letztere Variante telefonisch,
z.B. per CATI (Computer Assisted Telephone Interviewing) durch-
führbar ist. Bei der Befragung per E-Mail wird dem User ein Fra-
gebogen, ähnlich dem Online-Fragebogen, geschickt, den er am
PC ausfüllen und anschließend zurück senden soll. Der Vorteil
gegenüber der Online-Version ist, dass der Fragebogen nicht so-
fort ausgefüllt werden muss, falls der User nur eine bestimmte Zeit
im Internet verbringen möchte oder kann. Der Nachteil liegt im
größeren Aufwand für den Befragten, er muss nach dem Erhalt
des Fragebogens sich aufraffen, ihn überhaupt auszufüllen und
anschließend zurückzusenden. Hier sollten dem Anwender mög-
lichst viele Arbeitsschritte abgenommen, bzw. erleichtert werden.
Ein weiterer Nachteil ist, dass bereits eine Datenbank über die
Besucher, bzw. Kunden der Internetseite bestehen muss, an die
der Fragebogen geschickt werden kann.
Beispiel (PopNet Research GmbH)
Visitors Proof ist eine Methode für Web Site basierte Umfragen durch Einsatz des sogenann-
ten ,,Nviz-Verfahrens". ,,N" steht dabei für die Anzahl der per Zufallsverfahren ausgewählten
Besucher einer Seite; ,,Viz" steht für den Besucher. Durch ein spezielles Programm in der Site
wird sichergestellt, dass nur der so-und-sovielte Besucher der Web Site durch ein PopUp-
Fenster (Survey Request Page) zur Teilnahme an der Befragung eingeladen wird. Der ent-
scheidende Vorteil dieses Verfahrens ist, dass durch die Zufallsrekrutierung der Teilnehmer
repräsentative Untersuchungsergebnisse erzielt werden können. Verfahren, die nach dem
Selbstselektionsprinzip arbeiten, können repräsentative Ergebnisse nicht erzielen, da bei
dieser Vorgehensweise alle Besucher, z.B. über ein ständig präsentes Banner, zur Teilnahme
aufgefordert werden. Die Ergebnisse solcher Befragungen können daher lediglich der Ermitt-
lung von Anhaltspunkten dienen.
Das Nviz Programm arbeitet nach dem sog. Redirect Verfahren. Bei diesem Verfahren wird
der Besucher zu dem Server umgeleitet, auf dem die Online-Umfrage stattfindet d.h. installiert
ist. Lehnt der Teilnehmer ab, wird er unmittelbar auf die zuvor eingegebene Zielseite weiterge-
leitet. Die Survey Request Page sollte idealer Weise auf der Seite mit der höchsten Besucher-
frequenz aufpoppen. Durch ein Honorierungsmodell (z.B. Incentive ,,Anreiz" pro Teilnehmer
oder Verlosung unter allen Teilnehmern) kann die Ausschöpfungsquote positiv beeinflusst
werden. Da der Teilnehmer eine Kontaktadresse hinterlassen muss, steht er für eventuelle
Nachbefragungen zur Verfügung.
Beispielkalkulation:
Initialisierungskosten, Stichprobengröße N=300, max. 20 Fragen, davon drei offene
9.900 +MwSt
Fortführung als kont. Instrument inkl. Anpassung des Fragebogens
4.600 +MwSt monatlich
Fachhochschule München
16
1.3 Methodische Probleme bei der Internetbefragung
Wie bereits weiter oben angeschnitten, ist das größte Problem der
Online-Forschung eine repräsentative Stichprobe der Nutzerschaft
zu erhalten, um daraus auf die Grundgesamtheit aller Internetnut-
zer bzw. aller Nutzer des spezifischen Angebots hochzurechnen.
Streng methodisch gesehen ist eine echte repräsentative Zufalls-
strichprobe bei Online-Nutzern nur unter extremen Anstrengungen
zu realisieren. Die Statistik lehrt, dass für eine echte Zufallsaus-
wahl jedes Individuum der Grundgesamtheit die gleiche Chance
haben muss, in die Stichprobe zu kommen.
Im Online-Bereich ist es nun wesentlich schwieriger als in der
konventionellen Markt- und Medienforschung, da es nicht klar ist,
was überhaupt die Grundgesamtheit ist. Sind es beispielsweise
alle physikalisch-technischen Internetanschlüsse, also Computer?
Mit Sicherheit nicht, denn es interessieren die Individuen, die das
Internet nutzen. Aber was bedeutet nutzen? Auch wenn diese
Faktoren geklärt sind, fehlt einem immer noch eine Übersicht über
alle Nutzer, ähnlich im konventionellen Bereich das Telefonbuch
o.ä. Ein Ausweg liegt darin, auf eine echte Zufallsstichprobe zu
verzichten und mit anderen Verfahren eine möglichst ,,saubere"
Stichprobe zu erhalten. Man versucht beispielsweise die ge-
wünschte Grundgesamtheit qualitativ zu beschreiben und an mög-
lichst vielen Beschreibungsgrößen festzumachen, wie etwa sozi-
aldemographische Variable, bestimmte Einstellungen oder Verhal-
tensdimensionen, Konsumgrößen, Alter oder Geschlecht. Hat man
die wichtigsten Beschreibungsdimensionen gesammelt, so ver-
sucht man das Verhältnis genau auf die zu ziehende Stichprobe
zu übertragen. Diese Methode der Stichprobenziehung baut sozu-
Beispiel (PopNet Research GmbH)
Untersuchungen und Umfragen zeigen, dass ca. jeder vierte Kaufakt im Internet abgebrochen
wird. ,,Clients Echo" ist eine Kundenzufriedenheitsanalyse, die online die Resonanz der eCon-
sumer untersucht. Clients Echo kontaktiert die Zielpersonen per E-Mail und befragt im Chat
oder per Telefon anhand eines Gesprächleitfadens. Mit Hilfe eines halbstrukturierten Fragebo-
gens werden im Interview neben faktischem Wissen auch subjektive Erfahrungen und Erwar-
tungen zu folgenden Punkten hinterfragt: Nutzung der Website, Kaufakt und Service.
Clients Echo bietet sich vor allem für die Unternehmen an, die bereits über einen Kunden-
stamm verfügen denen entweder nur sozialdemographische Daten ihrer Kunden vorliegen
oder bestimmte Zielgruppenpotentiale ansprechen wollen.
Beispielkalkulation:
100 Fälle gezogen aus der Kundendatei, 30 Minuten-Interview per Telefon oder im Chat,
Auswertung
5.500 +MwSt
Fachhochschule München
17
sagen auf eine qualitative Repräsentativität, d.h. eine Repräsenta-
tivität bezüglich zentraler sozialer und psychologischer Dimensio-
nen.
20
Abbildung 2: In einer repräsentativen Stichprobe sind die Personen im gleichen
Verhältnis wie in der Grundgesamtheit enthalten.
21
Untersuchungen haben gezeigt, dass ein Großteil der Internet-
Nutzer während der Arbeitszeit am PC der Firma auch für private
Zwecke surft. Dieser Sachverhalt führt ebenfalls zu Verzerrungen
bei Befragungen. Zum einen wird man beim teilweise unerlaubten
,,privaten" Surfen nicht noch bereit sein, an einer Befragung teilzu-
nehmen, zum anderen werden Befragungen oft durch Firewalls
oder E-Mail-Filter bereits technisch unterbunden. Besonders bei
sog. Panelbefragungen (d.h. eine ausgewählte Gruppe, ,,Panel",
wird in regelmäßigen Abständen zu den gleichen Themen befragt)
kommt es zu falschen Ergebnissen, da diese sicher nur selten
während der Arbeitszeit durchgeführt werden, wobei verschiedene
Seiten wie Online-Banking, Aktienkurse und Nachrichtenseiten
wohl verstärkt tagsüber während der Arbeitszeit aufgerufen wer-
den. Will man diese Gruppe der Surfer telefonisch befragen, muss
darauf geachtet werde, dass die Telefoninterviews abends oder
am Wochenende durchgeführt werden, da Befragungen am Ar-
beitsplatz unüblich und auch nur schwer durchzuführen sind.
20
Hamm (2000), S. 150 f.
21
Ebster (1999), S. 82
Fachhochschule München
18
1.4 Internetmessung / Webtracking
Die Leistungen des sogenannten Webtracking, also der Nut-
zungsmessung im Netz, liegen auf der Hand:
Es liefert wichtige Erkenntnisse für die Kontrolle und Optimierung
von Online-Angeboten und Online-Werbeschaltungen, es bildet
die Basis für die Vermarktung von Online-Angeboten und es dient
als Grundlage von Mediawertanalysen bei nicht vermarktbaren
Angeboten. Derartige Analysen geben Werbungstreibenden die
Möglichkeit, den Wert und die Effizienz ihres Online-Auftritts zu
ermitteln und mit der anderer werblicher Engagements zu verglei-
chen. Damit die oben genannten Vorteile des Webtracking zum
Tragen kommen können, muss es eindeutigen und einheitlichen
Parametern folgen, genau, verlässlich und nachvollziehbar sein.
22
Zuständig für die quantitative Nutzungsmessung von Internet-
Seiten innerhalb Deutschlands ist die IVW (Informationsgemein-
schaft zur Feststellung der Verbreitung von Werbeträgern e.V.).
Die 1949 gegründete IVW wurde ursprünglich zur Auflagenkontrol-
le von Printmedien gegründet und liefert seitdem meist verlässli-
che Daten für die Werbewirtschaft. Das Aufgabenfeld hat sich bis
heute über die Auswertung von Plakatwerbung, Werbung in Kinos
und Funkmedien bis zur Auswertung von Online-Medien ausge-
weitet. Im Jahr 2001 hat die IVW etwa 1800 Mitglieder, die sich
neben anderen aus 1311 Verlagen und 236 Online-Anbietern zu-
sammensetzen.
Im Vergleich zu Printmedien, bei denen etwa eine einmal am Ki-
osk gekaufte Zeitschrift innerhalb der Familie weitergereicht wird
und so beispielsweise von fünf Personen gelesen wird, lassen sich
die Werbeträgerleistungen eines Online-Mediums grundsätzlich
genauer ermitteln. Da bei jeder Anfrage nach Daten und Bereit-
stellung bzw. Senden der Daten umfangreiche Verbindungsdaten
auflaufen, können diese leicht elektronisch gespeichert und aus-
gewertet werden. Bei ,,einfachen" Seiten, die lediglich aus reinem
Text ohne Frames bestehen, kann durch Auswertung der Logfiles
des Servers, der die Daten bereit stellt, die ,,Hits", d.h. wie oft eine
Seite vom Server abgerufen wurde, ermittelt werden, wie viele
Personen die Seite angeschaut haben. Dieses System scheitert
jedoch bereits bei Seiten, die mit Multimedia-Elementen (wie etwa
eingebetteten Grafiken) versehen sind. Hier wird im Logfile näm-
lich für jedes Element ein eigener Eintrag erstellt. Beinhaltet eine
Seite beispielsweise nur vier zusätzliche Elemente, wird ein Abruf
22
Fink (1997), S. 190
Fachhochschule München
19
der Seite wie fünf Abrufe gezählt. Die untenstehende Abbildung
zeigt einen solchen Fall (schematisch). Folglich erzielen Seiten mit
einem aufwändigerem Layout mehr Hits als schlichte Text-
Seiten.
23
Somit kann die Anzahl der Hits nichts über die Anzahl
der tatsächlichen Besucherzahlen auf einer Website aussagen.
logfile:
testseite.com
= 1 hit
logfile:
testseite.com
testseite.com (bild1, Fahrzeug)
testseite.com (bild2, Tür)
testseite.com (bild3, Wegweiser)
testseite.com (background)
= 5 hits
Abbildung 3: Ermittlung der ,,Hits" bei Seiten mit Multimedia-Elementen.
Als sinnvolle Einheiten oder ,,Währungen" zur Messung von Wer-
beträgerleistung, bzw. Besuchern einer Seite werden Page-
Impressions (,,Sichtkontakte") und Visits (,,Besuche") verwendet.
Diese werden von den Mitgliedern der IVW regelmäßig gemeldet,
bzw. neuerdings von der IVW online abgefragt. Die IVW hat beide
Einheiten genau definiert, sie werden im Folgenden vorgestellt.
1.4.1 Page-Impressions
Page-Impressions (früher auch ,,Page Views" genannt) geben die
Zahl der tatsächlichen Besucher einer Seite an. Probleme ergeben
sich bei dieser Zählweise, wenn eine Seite aus mehreren Frames
besteht, d.h. die Seite wird aus mehreren einzelnen HTML-Seiten
aufgebaut. Bei einer Seite, die aus mehreren Frames aufgebaut ist
(Frameset), gilt laut IVW jeweils nur der Inhalt eines Frames als
Content. ,,Der Erstabruf eines Framesets zählt daher nur als ein
Page-Impression, ebenso wie jede weitere nutzerinduzierte Ver-
änderung des entsprechenden Content-Frames. Demnach wird
23
http://www.ivw.de [1.11.2001]
Fachhochschule München
20
pro Nutzeraktion nur ein Page-Impression gezählt."
24
Jeder Frame
eines Framesets schlägt sich im Logfile des Servers nieder. Die
Page-Impressions beziehen sich aber immer auf eine konkrete
Seite und die Werbungtreibenden haben ja nur Interesse an den
Daten über die Seite mit ihrer geschalteten Werbung, somit spielt
die ,,Frame-Problematik" hier eine untergeordnete Rolle.
1.4.2 Visits
Ein Visit bezeichnet einen zusammenhängenden Besuchsvorgang
(Nutzungsvorgang). Aus Sicht der Werbewirtschaft wird damit ein
Werbeträgerkontakt bezeichnet. ,,Als Nutzungsvorgang zählt ein
technisch erfolgreicher Seitenzugriff eines Internet-Browsers auf
das aktuelle Angebot, wenn er von außerhalb des Angebots er-
folgt."
25
Betrachtet man in einem gewissen Zeitraum die Anzahl aller
Page-Impressions und teilt diese durch die aufgelaufenen Visits im
gleichen Zeitraum, kann daraus abgeleitet werden, wieviele Aktio-
nen pro Besucher durchschnittlich durchgeführt wurden.
1.4.3 Einschränkungen
Obwohl die Erfassung der Daten im Vergleich zu den Meldungen
im Print-Bereich sehr einfach erscheint, stellen die Internet-
Architektur und die Server der Provider doch gewisse Hindernisse
dar. Im Print-Bereich zeigen sich die Probleme beim Einbeziehen
von nicht verkauften Exemplaren an den Kiosken (Retouren) oder
den Unstimmigkeiten wie beispielsweise Zeitschriften, die in Flug-
zeugen verteilt werden, zu zählen und zu melden sind. Bei den
Online-Daten scheint eine nahezu sekündliche fehlerfreie Abfrage
möglich zu sein.
Bei der Erfassung der Page-Impressions wurde bereits unter 1.3.1
die auftretende Problematik bei Seiten mit Frame-Set aufgezeigt.
Laut IVW wird zur Zeit eine neue ,,Währung" gesucht, die die
Page-Impressions ablösen soll. Gesucht wird eine Einheit, die
nicht wie bisher seitenbasierend, sondern zeitbasierend sein soll.
Dies ist speziell für animierte und dynamisch wechselnde Inhalte
notwendig.
24
http://www.ivw.de [1.11.2001]
25
http://www.ivw.de/verfahren/messkrit.html [1.11.2001]
Fachhochschule München
21
Das größte Problem bei der Erfassung der Daten bilden die Proxy-
Cacheserver und die lokale Cache-Speicherung. Proxy-Server
werden von Internet-Providern verwendet, um ihre zur Verfügung
stehende Bandbreite besser auszunützen. Dazu werden häufig
angeforderte Seiten auf den Rechnern des Providers für eine ge-
wisse Zeit zwischengespeichert. Fordert nun ein Anwender (der
gleiche oder ein zweiter) erneut die Seite vom Provider an, wird
diese nur aus dem Speicher des Proxy-Servers herausgelesen.
Gleiches geschieht auf dem Rechner des Endanwenders: Alle
gängigen Browser nutzen einen lokalen Cache-Speicher, der im
Kleinen wie der Proxy-Cacheserver des Providers bereits besuch-
te Seiten zwischenspeichert. Wird bei einem der beiden Zwi-
schenspeicher eine bereits besuchte Seite abgefragt, wird dies
beim Anbieter der Seite nicht registriert und so auch nicht als
Page-Impression gezählt.
Ein weiteres Problem liegt in der Zuteilung von eindeutigen IP-
Adressen. Jeder ,,Teilnehmer" im Internet benötigt eine eindeutige
IP-Adresse. (Zum Beispiel: 111.121.131.141) Da die Anzahl und
besonders die Zuteilung der Adressen beschränkt ist, besitzen die
Internet-Service-Provider (ISP) nur einen gewissen Pool an IP-
Adressen, die sie den gerade aktiven Usern dynamisch zuordnen.
Speziell große Provider wie AOL oder T-Online müssen diese
Technik einsetzen. Das bedeutet, dass sich hinter einer IP-
Adresse mehrere User verbergen können und so die IP-Adresse
nicht einem einzelnen ,,unique user" zugeordnet werden kann und
eine sichere Zählung der Visits nicht mehr möglich ist.
Ein drittes Problem verbirgt sich zwischen den Providern und dem
Rechner des Endanwenders. Nahezu alle Firmen und auch zu-
nehmend viele Privatpersonen setzen Firewalls ein, um sich vor
Hackern und unbefugten Zugriffen zu schützen. Neue Betriebssys-
teme wie etwa WindowsXP beinhalten bereits eine einfache Ver-
sion einer Firewall. Die Firewall setzt die unterschiedlichen IP-
Adressen der einzelnen Firmenrechner zu einer einzigen Adresse
um, nur diese erscheint dann bei der Abfrage auf dem Server.
Somit kann auch hier nicht mehr genau festgestellt werden, ob die
Seite von mehreren oder nur von einem User mehrmals abgefragt
wurde.
Fachhochschule München
22
Abbildung 4: Proxy- und Firewallproblematik
26
Abhilfe bringt ein von der IVW entwickeltes neues Messverfahren,
bei dem mit der erzwungenen Übertragung eines Pixels und der
Auswertung von sog. Clickstreams gearbeitet wird. Durch ein CGI-
Script (,,Common Gateway Interface") wird bei jedem einzelnen
Browserzugriff auf eine Web-Seite die Übertragung einer ein Pixel
großen Grafik vom Server des Anbieters erzwungen, auch wenn
die Seite bereits im Cache-Speicher des Browsers oder des Pro-
viders vorliegt. Da jeder Seitenzugriff protokolliert wird, kann so
die Anzahl der Page-Impressions einfach und genau bestimmt
werden. Die Größe der übertragenen ,,Minigrafik" beträgt mit
Header 43 Byte, so dass sich die Netzlast kaum erhöht.
27
26
http://www.ivw.de/verfahren/messverf.htm, PowerPoint-Präsentation
27
http://www.ivw.de/verfahren/messverf.html [2.11.2001]
Proxies und Firewalls
Fachhochschule München
23
Aufruf der Pixel aus den Angebotsseiten:
28
<!-- IVW VERSION="1.2" -->
<SCRIPT LANGUAGE="JavaScript"> <!--
var IVW="http://
angebot
.ivwbox.de/cgi-bin/ivw/
CP/sk;var
";
document.write("<IMG SRC=\""+IVW+"?r=
"+escape(document.referrer)+"\"
WIDTH=\"1\" HEIGHT=\"1\">"); // -->
</SCRIPT>
<NOSCRIPT>
<IMG SRC="http://
angebot
.ivwbox.de/cgi-
bin/ivw/
CP/sk;var
" WIDTH="1" HEIGHT="1">
</NOSCRIPT>
<!-- /IVW -->
Es werden URLs in der folgenden Struktur erkannt und gezählt:
http://<angebot>.ivwbox.de/cgi-bin/ivw/<type>/
<sk>;<var>?<options>
Abbildung 5: Aufruf der Pixel aus den Angebotsseiten.
Abbildung 6: Erzwingen eines Zugriffs durch die Minigrafik.
29
Bei der Erfassung der Visits wird nun ein Clickstream ausgewertet.
Unter einem Clickstream versteht man eine Abfolge von mehreren
Seitenabrufen eines bestimmten Web-Browsers in einem be-
stimmten Zeitraum. Der einzelne Browser wird durch die Auswer-
tung von den http-Header ,,Forwarded", ,,Via" und ,,User-Agent"
28
http://www.ivw.de, Broschüre ,,IVW Box"
29
http://www.ivw.de/verfahren/messverf.htm, PowerPoint-Präsentation
Fachhochschule München
24
identifiziert. Ein Header ist eine Zusatzinformation, die den eigent-
lichen Daten vorangestellt, bzw. angehängt wird. Der Header
,,Forwarded" wird von einigen Proxy-Servern weitergegeben und
bezieht sich auf den Server, der den ursprünglichen Seitenaufruf
weitergeleitet hat. ,,Via" enthält die Daten aller Proxy-Server, die
an der Weiterleitung beteiligt waren. Der Header ,,User-Agent"
enthält unter anderem Daten über den Typ und die Version des
benutzten Browsers und des Betriebsystems. Durch diese mit-
übertragenen Daten wird nun ein Clickstream definiert. Er setzt
sich aus dem Typ des Browsers, dem Typ des Betriebsystems
und der IP-Adresse (statische oder dynamische über den Proxy)
zusammen.
Nr. IP
Version
ISP / Proxy-Server
Typ
1
62.96.174.101
MSIE 6.0
m-dialin-1301.addcom.de
Windows NT
2
62.96.172.16
MSIE 6.0
m-dialin-736.addcom.de
Windows NT
3
62.157.50.113
Netscape 4.7
p3e9d3271.dip.t-dialin.net
Windows 95
4
217.224.3.9
MSIE 6.0
pd9e00309.dip.t-dialin.net
Windows 98
5
217.88.234.214
MSIE 6.0
pd958ead6.dip.t-dialin.net
Windows 98
6
12.107.196.3
Netscape 4.7
fw1.g-l.com
Windows 95
7
195.143.187.243
MSIE 6.0
www.mpipsykl.mpg.de
Windows NT
8
193.194.7.71
MSIE 5.01
white.dresdnerbank.de
Windows NT
9
217.88.235.79
MSIE 6.0
pd958eb4f.dip.t-dialin.net
Windows 98
10 217.88.235.79
MSIE 6.0
pd958eb4f.dip.t-dialin.net
Windows 98
Abbildung 7: Eine exemplarische Auswertung von Zugriffen auf eine Homepa-
ge. Zugriff 1 und 2 werden durch die unterschiedliche IP-Adresse als zwei un-
terschiedliche Clickstreams gewertet. Zugriff 9 und 10 im Gegensatz dazu
durch die gleichen Werte bei IP, Typ und Version als ein Clickstream.
Details
- Seiten
- Erscheinungsform
- Originalausgabe
- Erscheinungsjahr
- 2002
- ISBN (eBook)
- 9783832456139
- ISBN (Paperback)
- 9783838656137
- DOI
- 10.3239/9783832456139
- Dateigröße
- 6.7 MB
- Sprache
- Deutsch
- Institution / Hochschule
- Hochschule für angewandte Wissenschaften München – unbekannt
- Erscheinungsdatum
- 2002 (Juli)
- Note
- 1,0
- Schlagworte
- webdesign usability marktforschung internet wahrnehmungspsychologie vergleich websites