Lade Inhalt...

Werbewirksamkeit des Web-Positioning und anderer Werbemethoden im Internet

©2002 Diplomarbeit 104 Seiten

Zusammenfassung

Inhaltsangabe:Einleitung:
Das Internet nimmt zweifellos den Status eines Massenmediums ein. Mit täglich steigender Nutzerzahl ist es ein attraktives Medium für Werbung und Marketing. Ziel der vorliegenden Arbeit ist es, die Werbung im Internet und ihre Wirkung zu untersuchen.
Dazu werden die einzelnen Werbemethoden voneinander abgegrenzt und nach ihrem Einsatz beurteilt. Intention ist es, neben der Darstellung von verschiedenen Werbeformen, die im WWW genutzt werden, vor allem aufzuzeigen, wie und wo diese effektiv eingesetzt werden können. Die unterschiedlichen Werbeformen sind je nach Ziel der Werbekampagne auf verschiedene Weisen wirksam, so daß deren Einsatz auf die zu erreichenden Ziele der Werbekampagne abgestimmt werden muß.
Eine falsche Anwendung kann leicht das Gegenteil dessen hervorrufen, was eigentlich beabsichtigt war. Durch fehlerhaften Einsatz der Werbemittel können Folgen wie ein negatives Image, Absatzrückgang oder der Verlust von Kunden eintreten. Es soll in dieser Studie beschrieben werden, wann welche Werbemaßnahme am sinnvollsten einzusetzen ist und auf welche Faktoren man besonderen Augenmerk lenken sollte.

Inhaltsverzeichnis:Inhaltsverzeichnis:
1.EINLEITUNG5
1.1Ausgangssituation und Ziele der Arbeit5
1.2Methodik5
1.3Internetnutzung6
1.4Zielsetzung7
2.STRUKTUR VON SUCHMASCHINEN8
2.1Unterschied katalogisierte Systeme/Robot-Systeme10
2.2Anmeldung bei Suchmaschinen10
2.2.1Katalogisierte Anmeldung11
2.2.2Robot-Anmeldung12
2.2.2.1Erfaßbare Elemente von Robots13
2.2.2.2Manipulation von Robotern14
2.2.2.3Techniken zur Perfektionierung von Anmeldungen14
2.2.2.4Spamdexing und Vorgehensweise dagegen18
2.3Kostenpflichtige Anmeldung21
2.4Zukünftige Entwicklung22
3.BANNERWERBUNG23
3.1Bannerlayout24
3.1.1Größe des Banners24
3.1.2Inhalt des Banners27
3.1.3Gestaltung des Inhalts27
3.1.4Bannerplazierung31
3.2Kosten33
3.2.1Produktionskosten34
3.2.2Plazierungskosten bei Werbeträgern35
3.3Bannerwirkung36
3.3.1Kognitiv38
3.3.2Direct response39
3.4Reichweite40
4.EMAIL-MARKETING42
4.1Möglichkeiten des eMailmarketings42
4.2Newsletter44
4.2.1Inhalt und Aufbau46
4.2.2Personalisierter Newsletter50
4.2.3Fremdwerbung54
4.3Diskussionslisten57
4.4Adreßrecherche57
4.4.1Harvesting57
4.4.2Adressen durch Persmission Mail Programme58
4.4.3Eigene Listen59
4.5Kosten Emailmarketing61
4.6Spam62
4.6.1Was ist Spam62
4.6.2Maßnahmen gegen Spam64
5.COMMUNITIES66
5.1Aufbau einer virtueller Gemeinschaft66
5.1.1Besucher […]

Leseprobe

Inhaltsverzeichnis


ID 5559
Selent, Michael: Werbewirksamkeit des Web-Positioning und anderer Werbemethoden im
Internet / Michael Selent - Hamburg: Diplomica GmbH, 2002
Zugl.: Würzburg, Fachhochschule, Diplomarbeit, 2002
Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die
der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen,
der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der
Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung,
vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im
Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der
Bundesrepublik Deutschland in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich
vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des
Urheberrechtes.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem
Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche
Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten
wären und daher von jedermann benutzt werden dürften.
Die Informationen in diesem Werk wurden mit Sorgfalt erarbeitet. Dennoch können Fehler nicht
vollständig ausgeschlossen werden, und die Diplomarbeiten Agentur, die Autoren oder
Übersetzer übernehmen keine juristische Verantwortung oder irgendeine Haftung für evtl.
verbliebene fehlerhafte Angaben und deren Folgen.
Diplomica GmbH
http://www.diplom.de, Hamburg 2002
Printed in Germany

Seite 2/103
1. EINLEITUNG ...5
1.1. Ausgangssituation und Ziele der Arbeit... 5
1.2. Methodik... 5
1.3. Internetnutzung ... 6
1.4. Zielsetzung... 7
2. STRUKTUR VON SUCHMASCHINEN ...8
2.1. Unterschied katalogisierte Systeme/Robot-Systeme ...10
2.2. Anmeldung bei Suchmaschinen...10
2.2.1. Katalogisierte Anmeldung ...11
2.2.2. Robot-Anmeldung...12
2.2.2.1. Erfaßbare Elemente von Robots ...13
2.2.2.2. Manipulation von Robotern ...14
2.2.2.3. Techniken zur Perfektionierung von Anmeldungen...14
2.2.2.4. Spamdexing und Vorgehensweise dagegen...18
2.3. Kostenpflichtige Anmeldung...21
2.4. Zukünftige Entwicklung...22
3. BANNERWERBUNG... 23
3.1. Bannerlayout...24
3.1.1. Größe des Banners...24
3.1.2. Inhalt des Banners ...27
3.1.3. Gestaltung des Inhalts...27
3.1.4. Bannerplazierung...31
3.2. Kosten ...33
3.2.1. Produktionskosten ...34
3.2.2. Plazierungskosten bei Werbeträgern...35
3.3.Bannerwirkung ...36
3.3.1. Kognitiv...38
3.3.2. Direct response ...39
3.4. Reichweite...40
4. EMAIL-MARKETING... 42
4.1. Möglichkeiten des eMailmarketings ...42
4.2. Newsletter ...44
4.2.1. Inhalt und Aufbau...46
4.2.2. Personalisierter Newsletter...50
4.2.3. Fremdwerbung ...54
4.3. Diskussionslisten...57

Seite 3/103
4.4. Adreßrecherche...57
4.4.1. Harvesting...57
4.4.2. Adressen durch Persmission Mail Programme...58
4.4.3. Eigene Listen...59
4.5. Kosten Emailmarketing...61
4.6. Spam...62
4.6.1. Was ist Spam ...62
4.6.2. Maßnahmen gegen Spam...64
5. COMMUNITIES... 66
5.1. Aufbau einer virtueller Gemeinschaft ...66
5.1.1. Besucher anlocken...66
5.1.2. Besucher zum Wiederkommen bewegen...67
5.1.3. Den Gast zum Stammgast machen ...68
5.2. Nutzen...69
5.2.1. Für den Anbieter ...70
5.2.2. Für den Kunden...72
5.3. Voraussetzungen für den Erfolg ...73
5.3.1. Kontrolle der Inhalte ...73
5.4. Technologie ...74
6. SONSTIGE ONLINE-WERBEMÖGLICHKEITEN... 76
6.1. Keyword Advertising ...76
6.2. Webrings...76
6.3. Bannertausch...76
6.4. Partnerprogramme ...77
6.5. Sponsoring...77
6.6. Gewinnspiele...78
6.7. Interstitials ...78
6.8. Microsites ...79
6.9. RealNames...79
6.10. Cross Media Marketing...80
7. ZUSAMMENFASSUNG ... 82
I ANHANG... 84
I.a. Literaturverzeichnis...84
I.b. Abbildungsverzeichnis ...88

Seite 4/103
II. Links ...88
III. Definitionen ...89
IV. Allgemeine Suchmaschinenstatistiken:...90
V. Beispiele...91
V.a. Beispiel für robots.txt ...91
V.b. Antwortzeiten bei eMail-Anfragen ...91
V.c. Hochglanz-eMail ...94
V.d. Beispielrechnung Werbebanner...95
V.e. Bannertausch...96
V.f. Rankingkriterien am Beispiel Web.de...96
V.g. Beispiele für Werbebanner...97
V.g.1. Banner mit Fake-Elementen...97
V.g.2. Neue Formate...99
V.g.3. Beispiel für Produktionskosten von Werbebannern ... 100
V.h. Bezahlter Suchmaschineneintrag ... 100
V.i. Beispiel für Spam... 101
EHRENWÖRTLICHE ERKLÄRUNG ... 103

Seite 5/103
1. Einleitung
1.1. Ausgangssituation und Ziele der Arbeit
Das Internet nimmt zweifellos den Status eines Massenmediums ein. Mit täglich steigender
Nutzerzahl ist es ein attraktives Medium für Werbung und Marketing. Ziel der vorliegenden
Arbeit ist es, die Werbung im Internet und ihre Wirkung zu untersuchen.
Dazu werden die einzelnen Werbemethoden voneinander abgegrenzt und nach ihrem Einsatz
beurteilt. Intention ist es, neben der Darstellung von verschiedenen Werbeformen, die im
WWW genutzt werden, vor allem aufzuzeigen, wie und wo diese effektiv eingesetzt werden
können. Die unterschiedlichen Werbeformen sind je nach Ziel der Werbekampagne auf ver-
schiedene Weisen wirksam, so daß deren Einsatz auf die zu erreichenden Ziele der Werbe-
kampagne abgestimmt werden muß.
Eine falsche Anwendung kann leicht das Gegenteil dessen hervorrufen, was eigentlich beab-
sichtigt war. Durch fehlerhaften Einsatz der Werbemittel können Folgen wie ein negatives
Image, Absatzrückgang oder der Verlust von Kunden eintreten. Es soll in dieser Studie be-
schrieben werden, wann welche Werbemaßnahme am sinnvollsten einzusetzen ist und auf
welche Faktoren man besonderen Augenmerk lenken sollte.
1.2. Methodik
Für diese Arbeit wird Sekundärliteratur, gedruckt und aus dem Internet, herangezogen. Dar-
überhinaus liegt der Studie aber auch ein eigener Forschungsaspekt zugrunde, somit werden
auch Quellen und Daten direkt aus dem Internet ausgewertet, um eine gewisse Aktualität zu
ermöglichen und gleichzeitig über die bisherige Forschungsliteratur hinauszuweisen.
Anhand von Beispielen aus der Praxis wird aufgezeigt, wie das Werbemittel zu gestalten ist,
damit es Erfolg verspricht. Methodologischer Ausgangspunkt ist ein modifizierter empirischer
Ansatz. Die Werbung im WWW soll analysiert werden, um mittels Gesetzmäßigkeiten ihren
gegenwärtigen Stellenwert zu bestimmen. Im Sinne einer Operationalisierung wurde hierzu
der Untersuchungsgegenstand in einzelne verschiedenartige Werbemöglichkeiten unterteilt.
Dazu wurden Werbemittel wie Banner oder Newsletter gesammelt und in ihrer Wirkung bzw.
Funktion verglichen.
Dennoch wird diese Arbeit über einen rein deskriptiven Befund hinausgehen. Zwar nutzt sie
die Ergebnisse der Induktion, aber primär nur, um eine sichere Basis für die Interpretation zu

Seite 6/103
schaffen und neue Hypothesen über die den jeweiligen Anforderungen gerecht werdenden
Werbemittel aufstellen zu können.
1.3. Internetnutzung
Das WWW umfaßt heute rund vier Milliarden Seiten und wächst täglich um etwa weitere sie-
ben Millionen Seiten, die von circa 350 Millionen Menschen weltweit genutzt werden können
(vgl. [Ebos01]), wobei die USA mit 60% aller Nutzer die Spitze bildet (Datenquelle: Focus
1
).
In Deutschland hatten im zweiten Quartal 2001 48,7% aller Bundesbürger einen Zugang zum
Internet. Etwa 46%
2
der 14 - 69jährigen Deutschen nutzen heute zumindest gelegentlich das
Internet, davon geben knapp 30% an, auch über das Netz einzukaufen. Im Sommer ist die
Online-Zeit der Anwender allgemein kürzer als im Winter (vgl. [Jmxi01c]), zu erklären durch
die jahreszeitbedingten Wetterunterschiede.
Nach eMail steht die Nutzung von Suchmaschinen inklusive Kataloge durch die 14 -
69jährigen mit 63,2% an zweiter Stelle der am häufigsten genutzten Internetangebote (vgl.
[Gjho01]). Damit sind Suchmaschinen für Werbetreibende, die eine große Reichweite for-
dern, als Werbeträger in hohem Maße interessant.
Die großen Portalbetreiber sind zusätzlich ein besonders starker Besuchermagnet. Das Portal
des deutschen Internet Service Providers (ISP) T-Online.de hatte im September 2001 rund
neun Millionen Unique Visitors (vgl. [Jmmx01a]). Netscape erreicht auf seiner Homepage
ebenfalls einen sehr hohen Besucherstrom. Wie bei T-Online ist das jedoch nicht allein auf
ein gezieltes Anwählen durch interessierte Besucher zurückzuführen, sondern auch auf die
voreingestellten Startseiten der Browser, die von Providern und Herstellern wie z.B. Netscape
und T-Online kostenlos vertrieben werden. Viele Benutzer machen sich nicht die Mühe, den
voreingestellten Startpunkt zu ändern bzw. wissen nicht, wie sie das tun können. Somit führt
der erste Weg bei jedem online-Browserstart auf diese voreingestellten Startpunkte und trägt
so zu den hohen Besucherzahlen bei.
Etwa 1% aller Websites machen rund 90% des gesamten Werbeumsatzes aus (vgl. [Kjec99]
S. 293).
Das Internet bietet eine beinahe unbegrenzte Anzahl an vielfältigen Angeboten zu Themen
wie Unterhaltung, Information oder Einkauf. Und obwohl der nächste Anbieter nur den viel-
1
http://medialine.focus.de/PM1D/PM1DD/PM1DDC/PM1DDCR/PM1DDCRA/pm1ddcra.htm (16.09.2001).
2
Berücksichtigte man alle Deutschen, so läge dieser Anteil niedriger (vgl. [Grte01]).

Seite 7/103
zitierten Mausklick weit entfernt ist, verhält sich die Mehrheit aller Nutzer so, daß die einmal
gefundenen Angebote dauerhaft genutzt werden und der Anwender immer wieder zu diesen
zurückkehrt, wenn er bei seinem ersten Besuch zufrieden war. Umgekehrt hat eine Site, die
dem Nutzer nicht innerhalb der ersten Minute zusagt, mit großer Wahrscheinlichkeit diesen
für immer verloren (vgl. Dr. Schlömer, Tobias in [Gezk01] S. 182).
Das gilt nicht nur für private Sites, sondern auch für Suchmaschinen und online-Shops. Wer
sich einmal an ,,seine" Suchmaschine gewöhnt hat, bleibt meistens auch bei ihr.
Gründe für dieses Verhalten liegen darin, daß sich der Anwender mit der Bedienung der Site
vertraut gemacht hat, die Navigationsstruktur kennt und das gewohnte Bild nicht durch ein
völlig fremdes ersetzen möchte. Zudem werden einmal gesetzte Bookmarks auch oft wieder
aufgerufen. Bei einem Shop spielt ebenfalls die Bequemlichkeit der Internet-Kunden eine
große Rolle. Wer sich einmal bei einem Shop mit all seinen persönlichen Daten und Paßwör-
tern registriert hat und mit dem Resultat seiner Aktion zufrieden war, für den ist die Prozedur
der Neuanmeldung bei einem anderen Händler eine gewisse Hemmschwelle für einen Anbie-
terwechsel.
1.4. Zielsetzung
Die beste Internet-Site ist wertlos, wenn sie von niemandem gefunden wird. Mit ständig stei-
gender Zahl an Webseiten wird es daher um so wichtiger, auf das eigene Angebot aufmerk-
sam und es dem Benutzer so einfach wie möglich zu machen, dieses finden zu können.
In dieser Arbeit soll dargelegt werden, mit welchen klassischen Mitteln, beispielsweise Ban-
nerwerbung, aber insbesondere auch neueren Methoden wie z.B. dem Web-Positioning, es
möglich ist, sich positiv von der Masse der Internetseiten abzuheben, Kontakte mit potentiel-
len Kunden herzustellen und diese in dauerhafte Beziehungen umzuwandeln. Die Wirksam-
keiten der unterschiedlichen Methoden der online-Werbung sollen hier einander gegenüberge-
stellt werden.

Seite 8/103
2. Struktur von Suchmaschinen
Früher - 1995 - war die Suchmaschinenbedienung noch relativ einfach. Der Benutzer tippte
den gesuchten Begriff in eine Suchmaschine ein und erhielt eine meist relativ kurze Ergebnis-
liste. Mit explodierender Zahl der Internetseiten stieg auch die Anzahl der Suchmaschinen
und der in Suchmaschinen verzeichneten Seiten stark an. Dennoch ist es unmöglich, daß
Suchmaschinen wirklich alles im Web indexieren können. Das liegt z.B. daran, daß Internet-
seiten in allen möglichen Sprachen erstellt werden, die Suchmaschine Google kennt bei-
spielsweise jedoch ,,nur" 66 Sprachen, zudem liegen viele Inhalte nicht im standardisierten
HTML-Format vor, sondern auch als Grafiken, als Dateien wie z.B. PDF oder MS-Word, in
proprietären Datenbanken oder in sonstigen Formaten (vgl. [Aauw01] S. 190 ff). Aber schon
der von den Suchmaschinen abgedeckte Teil des Internets stellt eine riesige, ständig wachsen-
de Menge an Informationen zur Verfügung.
Es ist daher heute nahezu sinnlos, nach nur einem oder zwei Begriffen suchen zu lassen ­ man
würde von einer Unzahl von meist nutzlosen Ergebnissen überwältigt. Gegenwärtig ist die
Anwendung komplexer Suchstrings unter Nutzung der Boole'schen Operatoren wie "AND"
oder "NOT" praktisch unabdingbar. Mit der Eingabe eines Suchstrings verfolgt der Nutzer ein
ganz bestimmtes Ziel, beispielsweise sucht ein Nutzer Preise von Mietautos in Berlin. Er er-
wartet von der Suchmaschine also Links auf solche Seiten, die genau dieser Fragestellung ge-
recht werden, und je interessanter die gefundenen Links für den Nutzer sind, desto weiter
oben sollten sie auch in der Trefferliste auftauchen.
Für die Suchmaschinenbetreiber ist es eine Herausforderung, dem Nutzer ein möglichst gutes
Ergebnis auf seine Anfrage zu bieten, denn nur wenn der Nutzer zufriedengestellt werden
kann, kommt er wieder. Wie das Ergebnis zustande kommt, hängt in erster Linie vom Such-
string ab, aber auch von der jeweiligen Suchmaschine und der Gestaltung der betreffenden
Seite.
Suchmaschine ist nicht gleich Suchmaschine. Neben den automatischen robotbasierten Such-
maschinen gibt es beispielsweise handverlesene Kataloge (z.B. http://www.yahoo.de), Meta-
Suchmaschinen
3
(z.B. http://www.metager.de) oder themenspezifische Portale (z.B.
http://www.auto.de). Je nach Suchanfrage kann die Wahl der passenden Suchmaschine von
3
Das sind solche Suchmaschinen, die selbst über keine eigene Datenbank verfügen, sondern die Suche an meh-
rere andere Suchmaschinen weitergeben und deren Ergebnisse aufbereiten. Das kann jedoch je nach Zahl der be-
auftragten Suchmaschinen recht lange dauern, außerdem setzt jede Suchmaschine andere Suchstrings voraus, die
Meta-Suchmaschine muß hier den kleinesten gemeinsamen Nenner anwenden.

Seite 9/103
entscheidender Bedeutung für das Ergebnis sein. Dazu ist es notwendig, daß man über die
Arten und Funktionsweisen der verschiedenen Typen von Suchmaschinen Bescheid weiß. Die
Meta-Suchmaschine Vivisimo (http://www.vivisimo.com) etwa sortiert die Ergebnisse nach
Themen: Eine Suche nach ,,+pferd +haltung +stall" gliedert die Treffer in ,,Artgerechte Pfer-
dehaltung", ,,Reitstall", ,,Zucht", ,,Pferdepflege" etc... So kann sich der Benutzer die Katego-
rie auswählen, die am ehesten auf seine Fragestellung paßt.
Im Rahmen dieser Arbeit soll jedoch nur auf die so genannten Kataloge und die von automati-
schen Robots gepflegten indexbasierten Suchmaschinen eingegangen werden, da Meta-
Suchmaschinen keine eigenen Datenbanken erstellen und unterhalten.
Einträge in Millionen
1.000
625
550
380
350
387
390
110
0
200
400
600
800
1.000
1.200
1.400
1.600
Google
FAST
AltaVista
Inktomi
Excite
Northern
Light
Abbildung 1: Die größten Suchmaschinen (gemessen am Index)
(Stand: 15. August 2001, Quelle: http://www.searchenginewatch.com)
Die Gesamtsumme von Google ergibt sich aus rund 1.000 Millionen Seiten, die tatsächlich von Google besucht
und weiteren 387 Millionen Seiten, die durch die Analyse der Links in den besuchten Seiten gefunden wurden.
Diese 387 Millionen Seiten sind aber nicht von Google indexiert worden.
Bei Inktomi wird der Gesamtindex von 500 Millionen indexierter Seiten in ,,Best of the Web" (110 Mio.) und
,,Rest of the Web" (390 Mio.) unterteilt.
Suchmaschinen arbeiten auch zusammen, so kooperiert Fireball mit AltaVista. In Fireball
kann ein Benutzer angeben, ob nur deutsche Seiten, die im Index von Fireball stehen, ange-
zeigt werden oder auch der Index von AltaVista in die Suche mit einbezogen werden soll.
Durch diese Zusammenarbeit erweitert sich natürlich der Index. Jedoch darf man den Index
von Fireball nicht einfach zu dem von AltaVista dazuzählen, da sich natürlich auch viele
Überschneidungen dadurch ergeben, daß ein Link auf ein und dieselbe Seite in beiden Daten-
banken zu finden ist.

Seite 10/ 103
2.1. Unterschied katalogisierte Systeme/Robot-Systeme
Unterschiedliche Suchmaschinen bringen bei gleicher Suchanfrage unterschiedliche Ergebnis-
se (vgl. [Kast99a]). Das liegt nicht nur an der der Suchmaschine zugrunde liegenden Datenba-
sis, sondern auch an der Art und Weise, wie diese Datenbasis zustande gekommen ist. Hier
gibt es generell zwei Alternativen: Die von Menschen redaktionell erstellten Datenbanken der
Webkataloge oder die automatische Erstellung der Datenbasis einer Robotsuchmaschine.
Kataloge unterteilen ihren Index hierarchisch nach Themengebieten, die man mittels Schlag-
wörtern durchsuchen kann. Für das Verständnis ist eine Differenzierung der Begriffe
,,Schlagwort" und ,,Stichwort" nötig. Ein Schlagwort (= Deskriptor) beschreibt einen Text mit
einem bestimmten Begriff bzw. einer Phrase, z.B. ,,deutsche Literatur". Dieses Schlagwort
muß im Text selbst nicht vorkommen. Eine Seite mit einer Liste deutscher Autoren hat nicht
unbedingt ,,deutsche Literatur" im Text zu enthalten. Ein Stichwort hingegen stammt aus dem
Text. Bringt eine Suchanfrage nach dem Stichwort ,,Goethe" eine Trefferliste, so enthält der
Text
4
der Seiten ebenfalls dieses Wort.
Automatische robotbasierte Suchmaschinen bieten keine Unterkategorien wie die Kataloge.
Hier muß der gesamte Index nach dem vom Benutzer eingegebenen Suchstring durchforstet
werden.
Wie der Index der jeweiligen Suchmaschinen zustande kommt und wo die jeweiligen Vor-
und Nachteile der unterschiedlichen Architekturen liegen wird ab Punkt 2.3. beschrieben.
2.2. Anmeldung bei Suchmaschinen
Welches Resultat an welcher Stelle in der Trefferliste steht, hängt nicht nur von der Suchma-
schine und der Formulierung des Suchstrings ab, sondern auch von den Seitenprogrammie-
rern. Suchmaschinen wollen gefüttert werden. Allerdings arbeitet jede Suchmaschine mit an-
deren Algorithmen. Während beispielsweise für Suchmaschine A die Anzahl, mit der ein ge-
suchtes Schlüsselwort im Text auftaucht, wichtiger ist als die Stichwörter in Meta-Tags
5
, so
ist es bei Suchmaschine B vielleicht genau umgekehrt; bei Katalogen spielen auch das opti-
sche Erscheinungsbild und die Bedienbarkeit der Seite eine Rolle
6
.
4
Das umfaßt auch den für den Anwender unsichtbaren Text wie z.B. Meta-Tags.
5
Meta-Tags sind bestimmte Zeichenketten innerhalb der HTML-Dokumente, die für den Nutzer am Bildschirm
nicht sichtbar sind, sondern dafür konzipiert wurden, die Suche der Suchmaschinen zu erleichtern (vgl. [Mrag00]
S. 101).
6
Dazu später mehr.

Seite 11/ 103
Natürlich ist jeder Suchmaschinenanbieter bestrebt, die Nutzerbedürfnisse so gut wie möglich
zu erfüllen, denn dann kommt ein Nutzer wieder und trägt so zu hohen Besucherzahlen bei,
welche den Wert der Werbeflächen auf der jeweiligen Suchmaschine erhöhen.
Es ist auch die Absicht der Seitenprogrammierer, daß ihre Seite bei einer relevanten Suchan-
frage ein möglichst hohes Ranking
7
bekommt, was bedeutet, sie erscheint in der Trefferliste
möglichst weit oben. Je höher das Ranking, desto größer die Chance, daß ein Benutzer den
Link in der Trefferliste auch anklickt. Untersuchungen zufolge schauen sich die wenigsten
Benutzer mehr als die ersten zehn bis zwanzig Treffer an.
Das Web-Positioning umfaßt Maßnahmen, die die Wahrscheinlichkeit, daß die Seite inner-
halb der Treffermenge an möglichst hohen Positionen erscheint, erhöht. Ziel ist es, die Seite
im Ranking so weit wie möglich nach oben zu bringen. Welche Art von Maßnahmen man er-
greifen kann, ist abhängig von der Art der Suchmaschine.
2.2.1. Katalogisierte Anmeldung
Genau genommen ist ein Katalog keine Suchmaschine, da es hier keine Software gibt, die das
Web durchsucht. Ein Web-Katalog wie beispielsweise Lycos (http://www.lycos.com) zeich-
net sich dadurch aus, daß die Link-Datenbasis, aus der die Trefferliste generiert wird, von Re-
dakteuren manuell erstellt und gepflegt wird. Seiten, die in diese Datenbank aufgenommen
werden, werden zuvor von Redakteuren gesichtet und hinsichtlich ihrer Qualität bewertet. Da
für einen Computer ,,deutsche Literatur" eine bedeutungslose Zeichenkette ist wie ,,kazdtfews
Hauerdafs", muß die Verschlagwortung manuell von Menschen erledigt werden, weil der
Computer den Sinn eines Wortes bzw. einer Phrase nicht versteht. Diese menschliche Arbeit
benötigt Zeit und menschliche Ressourcen. Daher kann ein Katalog nie so aktuell sein wie ei-
ne automatische Suchmaschine und nicht mit einer solchen konkurrieren, was die Anzahl der
indexierten Seiten anbelangt. Der größte Katalog, Open Directory (http://www.dmoz.org),
bietet laut eigenen Angaben etwa 2,6 Millionen Links (Stand April 2001). Die größte auto-
matische Suchmaschine indexiert hingegen weit über eine Milliarde Seiten. Auch wenn man
berücksichtigt, daß die Katalog-Links einzigartig sind, während bei automatischen Suchma-
schinen mehrere Links auf ein und dieselbe Seite verweisen können, ist der Abstand dennoch
enorm. Es ist jedoch falsch, von einem umfassenden Index auf ein gutes Abfrageergebnis ei-
ner Suchmaschine zu schließen, da hier andere Kriterien eine wesentliche Rolle spielen (vgl.
7
Das eigene Ranking läßt sich über kostenlose Anbieter überprüfen. Links siehe 10.3.

Seite 12/ 103
Kapitel 3.2.2.3). Zudem indexieren automatische Suchmaschinen blind einfach alles, was sie
finden ­ ohne Rücksicht auf die Qualität des Gefundenen. Ein Nachteil für die Kataloge ist
die Schnellebigkeit des WWW. Eine Adressenanalyse von Proxy-Servern hat ergeben, daß die
Hälfte aller Adressen nach einem halben Jahr veraltet ist (vgl. [Sbwo98]). Automatische Ro-
bots können eine Aktualisierung der Indexdatenbank weitaus schneller vornehmen als der
Mensch. Zudem ist die Arbeit der Redakteure eines Kataloges stets subjektiv. Die Bewertung
einer Seite durch den Seitenbegutachter wird mehr oder weniger bewußt dessen Neigungen
und Präferenzen folgen. Was Person A als ansprechend und nutzbringend ansieht ist für Per-
son B vielleicht nur minderwertiger Inhalt.
Vorteil dieser Methode ist hingegen, daß Spamming-Versuche (vgl. Kapitel 3.2.2.4.), also das
Erscheinen der eigenen Seite in Trefferlisten durch unlautere Tricks nach möglichst weit oben
zu bringen, wirkungslos bleiben. Weil Katalogseiten nicht rein mechanisch nach Stichwör-
tern, Links oder sonstigen von Robots erfaßbaren Kriterien (vgl. Kapitel 3.2.2.2.) bewertet
werden, sondern der Inhalt der Seite den Katalogredakteur überzeugen muß, kann der Benut-
zer eines Katalogs in diesem Zusammenhang qualitativ höherwertige Trefferlisten erwarten
als bei automatisierten Suchmaschinen.
2.2.2. Robot-Anmeldung
Wie oben erwähnt sind die Datenbanken der robotbasierten automatischen Suchmaschinen
weitaus umfangreicher als die der Webverzeichnisse bzw. Kataloge. Eine automatische
Suchmaschine wie z.B. AltaVista (http://www.altavista.com) schickt dazu kleine Programme
(vgl. [Mrag00] S.58 ff) - so genannte Robots (auch Crawler, Bot, Agent oder Spider genannt)
- ins Netz. Diese Programme erhalten von einer bei der Suchmaschine vorhandenen Liste
8
von URLs ihre Startadresse, von der aus sie den dort gefundenen Links folgen. Und da von
der Mehrzahl aller Seiten wiederum Links zu anderen Seiten führen, bahnt sich der Robot so
seinen Weg durch das Netz. Auf diesem Weg werden sämtliche gefundenen Seiten nach
Stichwörtern indexiert und diese Daten an die Suchmaschine gesandt. Es entsteht die Index-
datenbank der Suchmaschine.
Je nach Suchmaschine, welche den Robot ausgesandt hat, durchforstet dieser die gefundenen
Seiten aus Zeit- und Kapazitätsgründen nur bis zu einer bestimmten Linktiefe und auch da
8
Diese Liste entsteht z.B. auch dadurch, daß Personen ihre Seiten bei der Suchmaschine manuell anmelden, in-
dem sie eine URL an die Suchmaschine schicken.

Seite 13/ 103
wird nur bis zu einer bestimmte Höchstzahl von Seiten, die auf dem Server liegen, indexiert.
AltaVista indexiert nur maximal 600 Seiten von einem Server. Problematisch ist das z.B. für
Nutzer von Anbietern, die kostenlosen Webspeicherplatz vertreiben. Da hier unter Umständen
sehr viele Seiten unterschiedlicher Seitenbetreiber in vielen unterschiedlich tiefen Verzeich-
nissen liegen, werden nicht alle vom Robot automatisch erfaßt, weil dieser nicht wissen kann,
daß diese Unterverzeichnisse nicht alle Bestandteil eines einzigen Angebotes sind. Einziger
Ausweg wäre die manuelle Anmeldung bei einer Suchmaschine, das heißt: Der Seiteninhaber
schickt einen Link auf seine Seite an den Suchmaschinenbetreiber und kann so praktisch den
Robots eine Startadresse für seine Arbeit angeben.
Wer jedoch zu viele Seiten anmeldet könnte als Spammer interpretiert und ganz aus dem In-
dex ausgeschlossen werden.
2.2.2.1. Erfaßbare Elemente von Robots
Um eine Seite für Suchmaschinenrobots indexierbar machen zu können muß man wissen, was
für die verschiedenen Robots lesbar ist und was nicht. Vielfach werden aus designertechni-
schen Gründen Überschriften als Grafik hinterlegt. Für den Betrachter sieht das zwar schön
aus, ein Robot kann damit allerdings nichts anfangen. Rein grafische Seiten sind deshalb für
Robots nicht geeignet, das gilt natürlich auch für reine Flash-Seiten oder sonstige Rich-
Media-Inhalte. Deren Inhalt ist für Robots nicht ersichtlich, somit kann auch nichts indexiert
werden. Eine Möglichkeit, dieses Manko zu umgehen ist eine Startseite, die jenen Text ent-
hält, den Robots für ihre Arbeit benötigen.
Je nachdem, an welcher Stelle der Text in der Seite steht und wie er formatiert ist, machen
hier die Robots Unterschiede. Ein Wort, das als Überschrift ersten Grades formatiert ist, wirkt
auf die meisten Robots bedeutungsvoller als das gleiche Wort im Fließtext.
Besondere Bedeutung weisen viele Robots den Meta-Tags zu, die den Seiteninhalt mit weni-
gen Schlagwörtern beschreiben (vgl. [Kese01] S. 19 ff). Mit der Vergabe von Schlagwörtern
ist indes vorsichtig umzugehen, da die Meta-Tags häufig von Spammern mißbraucht werden.
Taucht ein Schlagwort auffallend oft im entsprechenden Meta-Tag auf, kann das eine Strei-
chung aus dem Index der Suchmaschine zur Folge haben. Die Toleranz gegenüber solchen
Tricks ist von Suchmaschine zu Suchmaschine unterschiedlich.
Robots können somit nur reinen Text ,,lesen". Dabei ist es wichtig, daß dieser Text nicht ver-
steckt, sondern auch für den menschlichen Seitenbetrachter sichtbar ist. Ein HTML-
Dokument, welches zahlreiche Stichwörter enthält, diese aber für den Benutzer durch Aus-

Seite 14/ 103
kommentieren unsichtbar sind und nur von Robots gefunden werden können, wird auch von
den meisten Robots ignoriert werden. In solchen Fällen liegt der Verdacht nahe, daß die Seite
künstlich mit nicht vorhandenen Inhalten aufzufallen versucht (Vgl. 2.2.2.4.).
2.2.2.2. Manipulation von Robotern
Die Robots einer Suchmaschine geben sich im Regelfall als solche zu erkennen, aber auch
anhand deren IP-Adresse kann nachvollzogen werden, von welcher Suchmaschine der digitale
Besucher kommt oder ob es sich um einen menschlichen Gast auf der Site handelt.
Wenn man weiß, welcher Robot die Seite indexiert, kann man ihm auch die Informationen
geben, die dieser Robot erkennt und für seine Arbeit benötigt. So kann jeder Robot die auf
seine Bedürfnisse zugeschnittenen Daten erhalten. Zu achten ist dabei darauf, daß er nur sol-
che Informationen bekommt, die auch im Zusammenhang mit dem tatsächlichen Seiteninhalt
stehen, ansonsten könnte eine solche Maßnahme von einer Optimierungsmaßnahme in Rich-
tung Spamdexing abdriften.
Anwendung findet diese ,,Cloaking" genannte Technologie dann, wenn eine Site einerseits
z.B. mittels Frames oder vielen Grafiken für den Betrachter ansprechend, andererseits aber
auch mit für die Suchmaschinen lesbaren Informationen ausgestattet werden soll (vgl.
[Inmc02]).
Um Teile der eigenen Website vor der Indexierung durch bestimmte Robots zu schützen, z.B.
private Verzeichnisse, hat sich der Standard robots.txt gebildet. Dies ist eine Textdatei, wel-
che im Stammverzeichnis der Website liegt. Hier kann der Autor der Site bestimmten Robots
den Zugang zu Unterverzeichnissen verbieten bzw. Robots generell aussperren. In der Regel
halten sich Robots von Suchmaschinen auch an die Vorgaben dieser Datei. In diesem File
kann auch angegeben werden, in welchem Abstand ein Robot die Seite erneut besuchen soll,
beispielsweise um aktualisierte Inhalte zu indexieren.
2.2.2.3. Techniken zur Perfektionierung von Anmeldungen
Es ist nicht möglich, eine Seite für alle Suchmaschinen gleich gut zu optimieren, da jede
Suchmaschine die Seiten auf andere Weise bewertet. Die Art und Weise, wie die Suchma-
schinen das Ranking berechnen, zählt zu den bestgehütetsten Geheimnissen der Suchmaschi-

Seite 15/ 103
nenbetreiber. Eine Ausnahme bildet hier Web.de (http://www.web.de). Die Rankingkriterien
9
werden hier offen aufgeführt, mit der Begründung, eine Chancengleichheit bei den Seitenpro-
grammierern zu ermöglichen.
Viele Suchmaschinenbetreiber lassen in ihr Ranking auch für den Anwender unsichtbar Daten
Dritter mit einfließen. Die Firma DirectHit (http://www.directhit.com) wertet beispielsweise
die Anzahl der Klicks auf eine Seite aus und arbeitet mit zahlreichen Suchmaschinen zusam-
men. Die Basis für diese Auswertung ist zunächst eine Liste, die nach herkömmlichen Ran-
kingmethoden sortiert wurde. DirectHit bewertet dann eine Seite nach Klicks. Je mehr Klicks
eine Seite bekommt, desto höher ihr Ranking. Das kann jedoch auch eine Art "self-fulfilling
prophecy" werden: Über den qualitativen Inhalt einer Seite kann erst dann etwas ausgesagt
werden, nachdem sie angeklickt wurde. So ist es denkbar, daß eine Seite in der Trefferliste
angeklickt wurde, eben nur weil sie weit oben stand, auch wenn sich nachträglich herausstellt,
daß der Inhalt kaum von Bedeutung ist. Und je weiter oben in der Trefferliste eine Seite steht,
desto höher auch die Wahrscheinlichkeit, daß diese angeklickt wird. Somit steigt die Popula-
rität einer Seite, die weit oben steht, praktisch automatisch. Somit ist ein System, welches
ausschließlich auf diesem System basiert, wenig sinnvoll.
Eine Optimierung einer Seite für Suchmaschinen kann dennoch dazu beitragen, die Chance,
daß die Seite bei den Suchmaschinen nach einer bestimmten Suchanfrage in der Trefferliste
weiter oben erscheint, zu steigern und somit die Besucherzahlen zu erhöhen.
Eine Möglichkeit, eine Seite bei mehreren Suchmaschinen im Ranking nach oben zu treiben
ist die, daß man jedem dieser Webverzeichnisse eine auf sie zugeschnittene Weiterleitungs-
seite anbietet, die von den Robots indexiert werden kann. Beispielsweise kann der Schwer-
punkt für Suchmaschine A auf den Meta-Tags liegen, während Suchmaschine B mehr auf
Überschriften im Text achtet und Suchmaschine C besonderen Wert auf die Häufigkeit be-
stimmter Wörter achtet, die im ersten Textabschnitt vorkommen. Würde man hier drei Wei-
terleitungsseiten erstellen und jeweils die geeignetste dem identifizierten Robot präsentieren,
würde man allen drei Suchmaschinen eine optimale Basis für ihre Arbeit geben. Die Robots
der Suchmaschine erhielten so genau die Informationen, die sie benötigten.
Der Benutzer wird nach einem Klick auf den Treffer in der Suchmaschine durch die Weiter-
leitungsseite auf das eigentliche Angebot umgeleitet. Das geschieht im Regelfall so schnell,
daß er nichts davon bemerkt.
9
Die Kriterien im Einzelnen siehe unter Punkt 10.5.6.

Seite 16/ 103
Wenn eine Weiterleitungsseite benutzt wird bzw. unabdingbar ist, dann sollte sie in der glei-
chen Domain bleiben. Eine Weiterleitung auf fremde Domains kann eine Irreführung des Be-
nutzers als Folge nach sich ziehen. Wer z.B. in Erwartung von kostenlosen Angeboten die
URL ,,http://www.umsonst.de" anwählt wird auf das Angebot eines kommerziellen Internet-
space-Anbieters weitergeleitet, welcher keine kostenlose Dienste anbietet. Hier kann durchaus
bereits von Spamming gesprochen werden. Dasselbe gilt dann, wenn auf der Weiterleitungs-
seite für die Robots Inhalte angedeutet werden, die auf dem eigentlichen Angebot nicht zu
finden sind.
Problematisch ist, daß man selbst nie genau wissen kann, welche Suchmaschine und welche
Begriffe ein Internetnutzer bei seiner Suche verwendet (vgl. [Smom99] S. 125 ff). Es gibt
Tausende kleiner Maschinen und unzählige Möglichkeiten, mit denen gesucht wird. Es ist
nicht praktizierbar, alle zu berücksichtigen, daher konzentriert man sich besser auf die größten
und bekanntesten Suchmaschinen, denn deren Datenbanken werden oft von kleinen Suchma-
schinen bei einer Suche mit herangezogen.
Weiterhin kann eine zu starke Optimierung als Spamming angesehen werden. Wenn eine
Methode angewandt wird, die dazu dient, dem Anwender andere Inhalte zu zeigen als dem
Robot einer Suchmaschine, dann ist das nach Danny Sullivan mit Spamming gleichzusetzen
(vgl. [Ssds01]). Daraus folgt daß jede Maßnahme, die ausschließlich für die Suchmaschinen
mit dem Zweck durchgeführt wird, deren Rankingmethode zu beeinflussen, Spamming wäre.
Auf der anderen Seite geben zahlreiche Suchmaschinen auf ihren Internet-Sites Hilfestellun-
gen, beispielsweise einen Meta-Tag-Generator oder Hinweise, wozu Schlüsselbegriffe dienen
und wie sie am besten einzusetzen sind.
So lange man seine Seiten themenspezifisch daraufhin optimiert, daß deren Inhalte gefunden
werden, ist das legitim. Wer jedoch Schlüsselbegriffe verwendet, die mit dem Seiteninhalt
nichts zu tun haben, ist definitiv ein Spammer.
Um seine Seite ­ mindestens jedoch die Startseite ­ für Suchmaschinen optimal zu gestalten,
sollte man sich an folgende Regeln halten:
-
Kein JavaScript innerhalb der HTML-Datei, sondern besser externe Dateien verwenden.
Die meisten Suchmaschinen können mit Links, die über JavaScript gesteuert werden,
nichts anfangen und verfolgen sie demzufolge auch nicht weiter. Und da Suchmaschinen
nicht immer die gesamte Seite indexieren, sondern manchmal nur die ersten 100 Zeilen,

Seite 17/ 103
blieben von einer Seite, die im Seitenkopf bereits 80 Zeilen JavaScript enthält, nur noch
20 indexierbare Zeilen übrig.
-
Die Seiten dem Inhalt entsprechend benennen. Eine Seite, die Informationen über Fest-
plattenpreise beinhaltet sollte auch einen entsprechenden Namen bekommen. Fireball
zeigt z.B. die Treffer mit dem Seitennamen an. Stehen hier nichtssagende Begriffe wie
,,Neue Seite" ist das für den Anwender wenig hilfreich. Gleiches gilt für Meta-Tags, die
den Seiteninhalt in kurzen Sätzen beschreiben. Diese Angaben werden von einigen Such-
maschinen in der Trefferliste dargestellt.
-
Seiten, die näher am Stammverzeichnis liegen, werden z.B. von Google scheinbar höher
bewertet als solche in Unterverzeichnissen (das kann auch am internen Google-Ranking
liegen). Das gleiche gilt für gesamte Unterverzeichnisse. Daher sollten wichtige Seiten
wie die Startseite und Seiten mit relevanten Informationen stets im Stammverzeichnis
liegen.
-
Statt grafischem Text reinen ASCII-Text verwenden. Grafischer Text ist für Suchmaschi-
nen nicht lesbar. Wenn man auf diese Art des Inhalts nicht verzichten will, dann sollte
zumindest von der ,,ALT"-Option des ,,IMG"-Tags Gebrauch gemacht werden. Dieser
Tag enthält einen kurzen Text, der statt der Grafik erscheint, wenn der Benutzer das La-
den von Grafiken in seinem Browser deaktiviert hat und kann auch von Robots interpre-
tiert werden.
Daß eine Optimierung erfolgreich sein kann beweist folgendes Diagramm:
Abbildung 2: Page Visits vor und nach Optimierung (Daten: WCI-GmbH)
Die Abbildung der Page Views der
Site http://www.caspar-hessel.de
zeigt, wie sich die Optimierung der
Site Ende Januar 2001 auf die er-
reichten Page Views auswirkt. Der
Bereich vor der Optimierung (hell-
grau) weist deutlich weniger Besu-
cher auf als nachher (dunkelgrau).
Im Durchschnitt konnte die Besu-
cherzahl um rund 290% gesteigert
werden.

Seite 18/ 103
Der Erfolg in Form von vermehrten Seitenzugriffen nach der Optimierung ist jedoch kein
endgültig erreichtes Ziel. Vielmehr muß das Web-Positioning als ein kontinuierlicher Prozeß
betrachtet und entsprechend dauerhaft durchgeführt werden, da Suchmaschinen permanent
neue Seiten in ihren Index aufnehmen und ihre Technik an die neuen Anforderungen anpas-
sen, um der Datenflut gerecht werden zu können. Somit ist ein kurzfristiger Erfolg des höhe-
ren Rankings nicht unbedingt von Dauer. Der Sitebetreiber muß stets seine Zielgruppe, deren
Suchverhalten und die Technik der Suchmaschinen im Auge behalten, um gegenüber anderen
Sites im Ranking bestehen bzw. führend sein zu können.
2.2.2.4. Spamdexing und Vorgehensweise dagegen
Spamdexing ist eine Wortschöpfung aus Spam und Indexing. Es beschreibt unlautere Metho-
den, die angewandt werden, um eine Seite im Ranking künstlich nach oben zu bringen.
Wohl jeder hat schon einmal bei seiner Suche nach bestimmten Begriffen auch Links zu sol-
chen Seiten in der Trefferliste gefunden, die mit der Suchanfrage gar nichts zu tun haben. Hier
wurden die Seiten bewußt manipuliert, um im Ranking nach oben zu gelangen. Um eine Seite
im Ranking künstlich erfolgreicher zu gestalten, gibt es mehrere Methoden, gegen die die
Suchmaschinenbetreiber jedoch zunehmend Abwehrmaßnahmen entwickeln (vgl. [Kast99b],
S.178 ff).
Spammer verwenden etwa sehr viele einschlägige Keywords
10
in den Meta-Tags auch mehr-
fach, selbst oder gerade dann, wenn der Seiteninhalt mit dem Keyword nichts gemeinsam hat.
Hier werden vor allem solche Begriffe angegeben, die auf der Liste der am meisten gesuchten
Wörter ganz oben stehen. Welche das sind ­ hier kann sich jeder beispielsweise unter der
Live-Suche von Fireball (http://www.fireball.de/fcgi/voyeur.fcg?action=voyeur-queries
11
)
selbst davon überzeugen, daß einschlägige Begriffe wie ,,Sex" so gut wie immer darunter zu
finden sind.
Eine weitere Methode des Spamdexing ist es, auf der Seite Text in der Hintergrundfarbe zu
schreiben ­ sichtbar für die Robots, aber im Regelfall ebenso unsichtbar für den Nutzer wie
Kommentare im HTML-Quelltext, der ebenfalls als Mittel für Spamdexing mißbraucht wird
und daher von Suchmaschinen kaum noch beachtet wird.
10
So heißen die Schlagwörter im HTML-Tag <meta name="keywords" content="...">.
11
Auf dieser Seite werden die aktuellen Suchanfragen angegeben, die Fireball gerade erhalten hat.

Seite 19/ 103
Weiterleitungsseiten dienen allein dazu, einen Nutzer, der auf diese Seite gelangt, zu einer
anderen umzuleiten. Das kann entweder serverseitig oder per Meta-Tag geschehen; doch egal
wie es geschieht, im Endeffekt dienen die Seiten dazu, einen Nutzer auf eine Seite zu schik-
ken, die er sonst nicht gefunden hätte. Vor allem für Firmen, die ihre Internet-Präsenz in einer
Sub-Domain aufgebaut haben, ist das sinnvoll: Eine Weiterleitungsseite auf einer kurzen und
einprägsamen Domain wie www.Firmenname.de ist leichter zu merken als z.B.
www.hoster.de/kunden/firmen/deutschland/firmenname/firma.htm. Weil aber solche Weiter-
leitungsseiten zunehmend für Spamming ­ sie täuschen Masse und Inhalte vor, die es auf dem
verlinkten Angebot nicht gibt ­ mißbraucht wurden, werden diese vielfach nicht mehr von
Suchmaschinen indexiert.
Suchmaschinenbetreiber versuchen, dem Spamdexing einen Riegel vorzuschieben. Wenn der
Anwender nur sinnlose Ergebnisse erhält, verliert der Betreiber seine Nutzer. Daher ist der
Algorithmus, der das Ranking einer Seite berechnet, auch das am besten gehütetste Geheim-
nis der Suchmaschinenbetreiber (mit wenigen Ausnahmen wie z.B. Web.de, die ihre Ran-
kingkriterien öffentlich darstellen). Wer diesen Algorithmus kennt kann seine Seite gezielt
präparieren.
SeoPros (http://www.seopros.org) will als Maßnahme gegen Spammer eine öffentliche Da-
tenbank anbieten, in denen bekannte Spammer verzeichnet sind. Hier kann jeder - auch
Suchmaschinenbetreiber - Spammer als solche identifizieren und entsprechend behandeln.
Um gegen Spammer gewappnet zu sein, benutzen Suchmaschinen zunehmend solche Daten,
die von Seitenbetreibern nicht oder nur schwach beeinflußt werden können. Google bei-
spielsweise nutzt das so genannte PageRank
12
-Verfahren (vgl. [Bspl98]). Hier fließen Links,
die von fremden Seiten auf die eigene verweisen, eigene Links auf andere Seiten sowie An-
cor-Texts
13
in die Bewertung mit ein
14
. Dabei spielt es auch eine Rolle, wie hoch die Qualität
der verlinkten Seiten ist. Viele Links auf eher durchschnittliche bis schlechte Seiten werden
von Google als weniger gut bewertet als wenige Links auf Seiten mit hochwertigen Inhalten.
Jede Seite innerhalb einer Site kann nach diesem Verfahren ein anderes Ranking bekommen
(vgl. [Rcpr01]).
12
Benannt nach dem Entwickler L. Page et al.
13
Der Text, der einen Link beschreibt, z.B. <a href="seite1.htm">Sportschuhe</a>. Das hat den Vorteil, daß
dieser Ankertext, hier ,,Sportschuhe", den Seiteninhalt knapp aber prägnant beschreibt.
14
Ein ähnliches ,,Clever" genanntes Verfahren wird bei IBM versuchsweise intern zur Automatisierung der Ka-
talogisierung erprobt.

Seite 20/ 103
Das Verfahren hat zwar eine Erfolgsminderung des Spamdexing zur Folge, da die verlinkten
Seiten und die Links auf fremden Seiten, die auf die eigene verweisen, kaum beeinflußt wer-
den können, mindert aber gleichzeitig die Chance neuer Seiten, im Ranking nach oben zu ge-
langen. Auf neue Seiten können natürlich nicht so viele Links verweisen wie auf schon länger
bestehende.
Google erkennt und indexiert neben HTML-Dokumenten auch PDFs
15
und seit jüngster Zeit
auch Dokumente aus der Microsoft Office Familie mit den Extensionen XLS (Excel), DOC
(Word) und PPT (Power Point, vgl. [Akad01]). Es ist nur eine Frage der Zeit, bis auch diese
Dokumente von Spammern mißbraucht werden.
Wird ein Suchmaschinenbetreiber auf einen Spammer aufmerksam bzw. hingewiesen, dann
hat das im Regelfall eine vollständige Streichung aus dem Index zur Folge, mindestens jedoch
eine Verschiebung in Richtung Ende der Ranking-Liste. Und gerät ein Nutzer auf eine Seite,
deren Inhalt mit der Suchanfrage überhaupt nichts zu tun hat, so wird er mit sehr hoher Wahr-
scheinlichkeit die entsprechende Seite ebenfalls nicht wieder besuchen. Spamdexing stellt
somit eine sichere Methode dar, Besucher und potentielle Kunden dauerhaft zu vertreiben.
Im Grunde genommen ist die Wirkung der Suchmaschinenoptimierung mit der Wirkung von
anderen Werbemethoden wie den Werbebannern nicht vergleichbar. Ziele des Web-
Positionings sind neben einer Steigerung des Traffics vor allem die Erhöhung qualifizierter
Zugriffe und ein Vorsprung gegenüber dem Wettbewerb in Suchmaschinen (vgl. [Idcn01]).
Wer in Suchmaschinen sucht, hat ein bestimmtes Ziel vor Augen. Er sucht nach bestimmten
Begriffen, die direkt mit seiner konkreten Fragestellung zusammenhängen. Wer nach Last-
Minute-Reisen sucht wird nie auf die Idee kommen, bei einem Anbieter für Camping-
Ausrüstungen vorbeizuschauen. Hier setzen andere Werbemethoden an und zielen z.B. auf ei-
nen hohen Bekanntheitsgrad, spontane Interessen- bzw. Kaufimpulse, die Weckung latenter
Bedürfnisse oder auf die Verbesserung des Images.
Die Suchmaschinenoptimierung hilft lediglich, daß Anbieter, die im Zusammenhang mit der
Frage Lösungen anbieten, auch leicht vom Suchenden gefunden werden können. Ein hohes
Ranking in Suchmaschinen wird vom Benutzer nicht als Werbung in diesem Sinne wahrge-
nommen. Eine Ausnahme bilden die bezahlten Ranks, die im Regelfall besonders als bezahlte
Positionen gekennzeichnet sind.
15
Portable Document Format von Adobe.

Seite 21/ 103
2.3. Kostenpflichtige Anmeldung
Excite und InfoSeek sind bankrott, andere Suchmaschinen wie z.B. Yahoo melden ebenfalls
Verluste. Mit ständig fallenden Werbeeinnahmen sind die Suchmaschinenbetreiber bestrebt,
nach neuen Einnahmequellen Ausschau zu halten. Hier finden die bezahlten Positionierungs-
angebote Anwendung. Fast jede Suchmaschine bietet bereits heute bezahlte Eintragungen an.
Lycos Europe beispielsweise verspricht sich aus bezahltem Listing Einnahmen in Höhe von
mindestens 10,7 Millionen US-$ (vgl. [Atwe01a]). Die bezahlten Einträge werden als solche
gekennzeichnet und mit dem jeweiligen Firmenlogo des Zahlenden versehen.
Für 800 im Monat kann man sich bei Fireball als ,,Surftipp" eintragen lassen. Dafür erhält
man einen besonders hervorgehobenen Eintrag, 40 Zeichen Überschrift und 100 Textzeichen.
Im Erotikbereich gibt es dieses Angebot ebenfalls, nur kostet es hier statt 800 6000 im
Monat.
Yahoo.com hat seine Tarife von der einmaligen Zahlung von 299 US-$ im Jahr 2001 auf 299
US-$ jährlich ab dem Jahr 2002 geändert. Mit dieser Zahlung des so genannten ,,Express Li-
stings" wird eine Bearbeitung des Antrags auf eine Eintragung in den Index beschleunigt vor-
genommen, jedoch wird diese Eintragung nicht garantiert, wie es in den Bedingungen unter
Yahoo.com zu lesen ist:
,,You expressly agree to pay to Yahoo! such fee whether or not your
site is accepted or denied inclusion in the Directory."
(
Quelle: http://www.Yahoo.com)
Für den Katalog Yahoo bedeutet das eine zusätzliche Einnahmequelle, für den Nutzer dieses
Angebotes ist jedoch eine Gegenleistung nicht garantiert. Bei kleineren privaten Unternehmen
ist ohnehin fraglich, ob diese die geforderten 299 US-$ jährlich aufbringen können. Nutzen
werden diesen Dienst solche Unternehmen, die durch den Eintrag in Yahoo mindestens die
bezahlten 299 US-$ wieder erwirtschaften können. So könnte sich Yahoo zu einem Katalog
der zahlungskräftigen Anbieter entwickeln (vgl. [Wjrt02]).
Für den Benutzer stellt sich die Frage, ob die Qualität der Trefferliste nicht mehr vom Inhalt
der Seiten abhängig ist, sondern vielmehr von der Zahlungskraft und -bereitschaft der Anbie-
ter. Wenn die ersten zehn Treffer stets solche von kommerziellen Unternehmen sind, die sich
diese Positionen gekauft haben, wird ein Anwender sicher geneigt sein, sich nach einer neuen
,,unparteiischen" Suchmaschine umzusehen bzw. die bezahlten Einträge bewußt ignorieren.
So könnte sich die hohe, aber bezahlte Position ins Gegenteil dessen kehren, was sie eigent-
lich bewirken sollte: Bezahlte Suchmaschineneinträge ziehen nicht aufgrund ihrer erworbenen
Position die Aufmerksamkeit des Nutzers auf sich, sondern werden als eindeutig kommer-

Seite 22/ 103
zielle Links bewußt ignoriert. Nur weil vom Anbieter eine gute Position in der Trefferliste
erworben wurde muß das noch lange nicht heißen, daß der Anbieter auch ein den Kundenbe-
dürfnissen gerecht werdendes umfangreiches Sortiment zu günstigen Preisen bietet.
2.4. Zukünftige Entwicklung
Mit steigender Zahl der Internet-Sites wird es zunehmend wichtiger, daß man auch gefunden
wird. Der von den Suchmaschinen indexierte Anteil des gesamten Webs wird kleiner werden,
da die Anzahl der neuen Seiten stärker steigt als die Zahl der Einträge in den Suchmaschinen.
Der Anteil, der nicht über Suchmaschinen gefunden werden kann, nimmt zu. Bis zum Jahre
2005 werden weltweit über 2.500.000.000 Seiten erwartet (vgl. [Idcn01]). Aus dieser Zahl
relevante Seiten zu indexieren und das Gesuchte zu finden wird die Anforderungen an Such-
maschinen weiter steigen lassen.
In der Zukunft wird das bezahlte Ranking einen Teil des Web-Positioning ausmachen. Eine
Vielzahl der aktuellen Suchmaschinen bieten bereits heute einen Eintrag bzw. eine besondere
Hervorhebung des Eintrags gegen Bezahlung an. Wer hier nicht mithalten kann oder will, der
wird auf diesem Gebiet der Werbung von finanzkräftigeren Konkurrenten verdrängt.
Auch wenn einige Suchmaschinen bereits wieder vom Markt verschwunden sind ­ Suchma-
schinen werden auch in Zukunft Anlaufpunkt Nummer Eins für Internetnutzer bleiben. Denn
ohne sie wäre eine gezielte Suche im Netz nur noch ein blindes Tasten im Nebel. Die Finan-
zierungsmodelle werden indes nicht mehr so stark auf die Werbung setzen wie in der ,,Grün-
derzeit", selbst Google ­ einst ein ideelles wissenschaftliches Projekt, heute noch eine der
wenigen bannerlosen Suchmaschinen ­ bietet mittlerweile schon besonders hervorgehobene,
kostenpflichtige Eintragungen.

Details

Seiten
Erscheinungsform
Originalausgabe
Jahr
2002
ISBN (eBook)
9783832455590
ISBN (Paperback)
9783838655598
DOI
10.3239/9783832455590
Dateigröße
1.6 MB
Sprache
Deutsch
Institution / Hochschule
Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt; Würzburg – Medien- und Informationswissenschaft
Erscheinungsdatum
2002 (Juni)
Note
1,3
Schlagworte
internet marketing werbung online
Zurück

Titel: Werbewirksamkeit des Web-Positioning und anderer Werbemethoden im Internet
book preview page numper 1
book preview page numper 2
book preview page numper 3
book preview page numper 4
book preview page numper 5
book preview page numper 6
book preview page numper 7
book preview page numper 8
book preview page numper 9
book preview page numper 10
book preview page numper 11
book preview page numper 12
book preview page numper 13
book preview page numper 14
book preview page numper 15
book preview page numper 16
book preview page numper 17
book preview page numper 18
book preview page numper 19
book preview page numper 20
book preview page numper 21
book preview page numper 22
104 Seiten
Cookie-Einstellungen