Lade Inhalt...

Entwicklung einer PHP4-Datenbankanwendung zur Analyse der Eignung von Websites für Suchmaschinen und ihrer Verbreitung darin

©2003 Diplomarbeit 95 Seiten

Zusammenfassung

Inhaltsangabe:Zusammenfassung:
Der erste Teil dieser Arbeit ordnet die Website-Optimierungsdienstleistung in den Kontext des Online-Marketing ein, beschreibt ausführlich die Arbeitsweise von Suchmaschinen und Website-Optimierern und beleuchtet kritisch alle Maßnahmen, die eine Verbesserung der Positionierung in Suchmaschinen begünstigen können. Dabei werden Interessenkonflikte der jeweiligen Parteien und Lösungsvorschläge diskutiert.
Der Hauptkonflikt ist hierbei das Anliegen der Suchmaschinenbetreiber zur Erhöhung der Qualität Ihres Suchmaschine gegenüber dem Wunsch der Websitebetreiber, unabhängig von der Qualität Ihrer Seite möglichst oft und gut platziert gefunden zu werden.
Im praktischen zweiten Teil der Arbeit wurde ein Programm entwickelt, das es ermöglicht, Kundenwebsites automatisiert auf ihre Eignung für Suchmaschinen zu prüfen. Darüber hinaus kann es beliebig viele Suchmaschinen auf die Verfügbarkeit dieser Kundenwebsites abfragen. Aufgrund der gewonnenen Daten können Angebote oder Abrechnungen für die Website-Optimierung generiert werden.
Die Beschreibung dieses Programms beinhaltet sowohl Überlegungen zur Findung geeigneter Kriterien zur Bewertung von Websites aus Suchmaschinensicht als auch konzeptionelle Vorentscheidungen über Entwurf, Implementierung und Einführung der Anwendung.
Diese zuletzt genannten Entscheidungsbereiche zusammen mit ihrer Durchführung sind ausführlich beschrieben und beinhalten interessante Erkenntnisse beispielsweise zu Möglichkeiten der automatisierten Suchmaschinenergebnisabfrage.

Inhaltsverzeichnis:Inhaltsverzeichnis:
INHALTSVERZEICHNIS2
1.EINLEITUNG5
2.GRUNDLAGEN & PROBLEMATIK8
2.1ENTWICKLUNG DER WEBSITE8
2.2ONLINE MARKETING9
2.3SUCHMASCHINEN: BASISWISSEN12
2.3.1HISTORIE12
2.3.2TYPOLOGIE13
2.3.2.1Kataloge13
2.3.2.2Suchmaschinen16
2.3.2.3Metasuchmaschinen18
2.3.3AUSBLICK18
2.4WERKZEUGE DER WEBSITE-OPTIMIERUNG19
2.4.1INFORMATIONSGEWINNUNG20
2.4.1.1Publikationen20
2.4.1.2Analyse von Websites22
2.4.1.3Content-Sites22
2.4.1.4Newsgroups23
2.4.2OPTIMIERUNGSMAßNAHMEN23
2.4.2.1Spamming23
2.4.2.2Domainnamen24
2.4.2.3Brückenseiten25
2.4.2.4Cloaking28
2.4.2.5Seitenoptimierung28
2.4.2.6Partnerseiten29
2.4.2.7Anmelderegeln30
2.4.2.8Kontinuität31
2.4.2.9Bezahlte Einträge32
2.4.3ERFOLGSKONTROLLE33
3.LÖSUNGSANSATZ34
3.1SITEANALYSE34
3.1.1KONZEPTIONELLER AUFBAU35
3.1.1.1Frame35
3.1.1.2Dynamischer […]

Leseprobe

Inhaltsverzeichnis


Inhaltsverzeichnis

Inhaltsverzeichnis

1 Einleitung:

2 Grundlagen &Problematik
2.1 Entwicklung der Website
2.2 Online Marketing
2.3 Suchmaschinen: Basiswissen
2.3.1 Historie
2.3.2 Typologie
2.3.2.1 Kataloge
2.3.2.2 Suchmaschinen
2.3.2.3 Metasuchmaschinen
2.3.3 Ausblick
2.4 Werkzeuge der Website-Optimierung
2.4.1 Informationsgewinnung
2.4.1.1 Publikationen
2.4.1.2 Analyse von Websites
2.4.1.3 Content-Sites
2.4.1.4 Newsgroups
2.4.2 Optimierungsmaßnahmen
2.4.2.1 Spamming
2.4.2.2 Domainnamen
2.4.2.3 Brückenseiten
2.4.2.4 Cloaking
2.4.2.5 Seitenoptimierung
2.4.2.6 Partnerseiten
2.4.2.7 Anmelderegeln
2.4.2.8 Kontinuität
2.4.2.9 Bezahlte Einträge
2.4.3 Erfolgskontrolle

3 Lösungsansatz
3.1 Siteanalyse
3.1.1 Konzeptioneller Aufbau
3.1.1.1 Frame
3.1.1.2 Dynamischer Aufbau
3.1.1.2.1 Mod_Rewrite
3.1.1.3 Grafiken
3.1.1.4 Skripte
3.1.1.5 Sprachen
3.1.2 Struktureller und inhaltlicher Aufbau
3.1.2.1 Titel
3.1.2.2 Metatags
3.1.2.3 Zusammenspiel der Elemente
3.2 Linkanalyse
3.2.1 Linkhäufigkeit
3.2.2 Linkpopularität
3.2.3 Rankmeter

4 Umsetzung
4.1 Entwicklungsumgebung
4.2 Entwurfsvorüberlegungen
4.2.1 HTML
4.2.2 ISO 9000
4.2.3 Sicherheit
4.3 Entwurf und Implementierung
4.3.1 Programmstruktur
4.3.1.1 Benutzersicht
4.3.1.2 Konzeptionelle Sicht
4.3.1.2.1 Verzeichnisstruktur und Dateinamen
4.3.1.2.2 Abstraction layer
4.3.1.2.3 Sessions
4.3.1.2.4 Pfadangaben
4.3.2 Benutzeroberfläche
4.3.2.1 Navigation
4.3.2.2 Stylesheets
4.3.3 Programminhalt
4.3.3.1 Datenverwaltung
4.3.3.1.1 Adressen
4.3.3.1.2 Suchmaschinen
4.3.3.1.3 Benutzer
4.3.3.2 Analysefunktionen
4.3.3.2.1 Siteanalyse
4.3.3.2.2 Linkanalyse
4.3.3.2.3 Rankmeter
4.3.3.2.4 Gesamtanalyse
4.3.3.3 Auswertungsfunktionen
4.3.3.3.1 Berichterstellung
4.3.3.3.2 Anzeige Analyseergebnisse
4.3.3.4 Suchmaschinensetup
4.3.3.4.1 Einlesen der Ergebnisseite
4.3.3.4.2 Parsen der Ergebnisseite
4.3.3.4.3 Google API
4.4 Test & Einführung

5 Rückblick

6 Ausblick

A Literaturverzeichnis:

B Internetquellen

C Linkverzeichnis:

D Screenshots

Einleitung:

Trotz degressiver Zuwachsraten prognostiziert man das Wachstum der im Jahr 2002 gezählten 28,3 Mio. registrierten deutschen Internetanschlüsse bis 2005 auf 55% der Bevölkerung.[1]

Dieser großen „Online-Gemeinde“ stehen allein in Deutschland zur Zeit 6 195 790 registrierte Domains gegenüber, Zugriff hat sie weltweit auf ein Vielfaches.[2] Die nochmals ungleich höhere Anzahl einzelner Webseiten, die über diese Domains verfügbar sind, führt im Internet zwangsläufig zu einem elementaren Problem, das unabhängig von der Art des Angebots auf einer Website den Dialog zwischen Angebot und Nachfrage behindert: die gegenseitige Kenntnislosigkeit.

Ob es sich nun um eine private Homepage, ein reichhaltiges Informationsangebot oder eine ausgefeilte E-Commerce-Lösung handelt – jeder Webseitenbetreiber wartet auf seine potentielle Klientel.

Und auch jeder Nachfrager weiß um die angepriesen unbegrenzte Vielfalt im Internet und die grenzenlosen Möglichkeiten, die es ihm bietet – dennoch hat man festgestellt, dass „das Surfen bzw. das Erkunden neuer Seiten ... bei den meisten Nutzern ein eher seltenes Ereignis“[3] ist.

Der springende Punkt ist die Frage, wie ein Dialog zwischen Anbieter und Nachfrager hergestellt werden kann, der Initialkontakt.

Nur wenige Anbieter haben den Vorteil eines bekannten Markennamens oder genug Geld für die Markierung. Auch die nötigen Werbemittel, um sich bekannt zu machen, können ein Unternehmen vor den finanziellen Ruin stellen wie es sich im „dot.com – shakeout“ gezeigt hat, als viele „dotcoms“ zu „deadcoms“ wurden.

So bleibt im Marketing die Frage, wie man auf eine kostengünstige und dennoch effektive Weise seine Bekanntheit steigern bzw. viele Internetnutzer auf seine Webseite locken kann.

Das Schlüsselwort heißt hier im wahrsten Sinne des Wortes „Keywords“.

Abbildung 1 zeigt Suchsysteme als zweitwichtigstes Navigationsmittel auf unbekannte Websites im Internet. Diese bieten schließlich die Lösung für das Kommunikationsproblem zwischen Angebot und Nachfrage. Der Nachfrager gibt einfach Begriffe (Keywords) zum gewünschten Thema in das Suchsystem ein und bekommt als Antwort eine Liste dazu relevantester Webseiten, auf die er per Klick weitergeleitet wird.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Wege auf unbekannte Webseiten[4]

Dieses beliebte Navigationsverhalten macht auch kleinste Unternehmen wettbewerbsfähig, denn der Eintrag in Suchsysteme ist in der Regel kostenlos. Allerdings verspricht der Eintrag nur bei entsprechender Positionierung im Suchergebnis Erfolg.

Das am häufigsten von deutschen Internetnutzern in deutschen Suchmaschinen gesuchte Wort ist „Sex“ .[5]

Bei einem Angebot von über 136 Mio. zu diesem Keyword gefundenen Seiten[6] im Datenbestand der Suchmaschine Google wird der Positionierungsdruck für die hier exemplarisch gewählte Erotikbranche deutlich. Denn wie in Tabelle 1 dargestellt nimmt die Wahrscheinlichkeit, dass sich ein potentieller Kunde über ein Suchergebnis zu einer Betreiberseite durchklickt, bereits ab der zweiten Suchergebnisseite drastisch ab.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Besucherstatistik in Abhängigkeit vom Ranking[7]

Aus dieser Notlage entwickelte sich eine neue Art der Dienstleistung: die Website-Optimierung als ein Teilgebiet des Online-Marketings.

Dabei werden Kundenwebsites auf die speziellen Anforderungen von Suchmaschinen angepasst um einen gutem Platz im Suchergebnis (Ranking genannt) zu erreichen.

Für diese Optimierung werden Informationen über die Webseite des Kunden benötigt, die Aufschluss über Verbesserungspotential geben.

Hier setzt meine Diplomarbeit zum Thema „Entwicklung einer PHP4-Datenbankanwendung zur Analyse der Eignung von Websites für Suchmaschinen und Ihrer Verbreitung darin“ an.

Die Diplomarbeit beleuchtet die Vorgehensweise von Suchmaschinen bei der Suche guter Websites und stellt dem gegenüber die Gestaltungs- und inhaltstechnischen Maßnahmen, die man treffen muss, damit die Website vorrangig gefunden wird. Im praktischen Teil habe ich eine Anwendung zur Automatisierung der beschriebenen Analysen entwickelt.

Grundlagen &Problematik

Für das Verständnis von Notwendigkeit und Problematik der optimalen Platzierung in Suchsystemen müssen zunächst verschiedene grundlegende Themen behandelt werden.

Dabei wird zunächst die Entwicklung der Webseite beleuchtet, die das entscheidende Optimierungspotential bietet.

Anschließend erfolgt die Einordnung der Website-Optimierung in den Kontext unternehmerischer Vermarktungsstrategien, das Online-Marketing.

Und abschließend zu diesem Kapitel erfolgt ein Abriss über Historie und Arbeitsweise von Suchmaschinen.

2.1 Entwicklung der Website

Seit den Anfängen der privaten und kommerziellen Internetnutzung haben sich Websites in Technik, Inhalt und Design und rasend entwickelt. Wo es vor 5 Jahren noch üblich war, statische HTML Visitenkarten als fortschrittlichen Webauftritt für ein innovatives Image ins Netz zu stellen, gehört es heute zum guten Ton, ein ausgefeiltes Content Management System, ein dynamisches Shop-System oder ansprechende Grafik-Animationen zu bieten.

Diese schnelle Entwicklung vom reinen Informationsmedium zum kommerziellen Hightech Medienspektakel schwächt das Internet als Plattform für den Austausch und die Suche von Inhalten. Dabei ist es nicht der TV- verwöhnte Internetnutzer, der dieser Entwicklung nicht folgen kann. Es ist die Technik der Suchmaschinen (Crawltechnik), die bei der Suche nach Inhalten und Angeboten an das menschliche Bewertungsvermögen nicht heranreicht. Und das trotz der bereits besprochenen dringenden Notwendigkeit der Unterstützung des Menschen bei der Orientierung im Internet.

So werden wir sehen, wie der Fortschritt der Technologie im Web sich durchaus nicht immer positiv auf Möglichkeiten der Vermarktung im Internet auswirkt.

Ein Beispiel hierfür sind die aufwendigen Flashanimationen und Grafikoberflächen, die schon teilweise zum guten Ton zu gehören schienen. Eine Flashanimation oder ein Bild birgt jedoch ein elementares Problem, das die Crawltechnik noch nicht im Stande ist, zu lösen: die Deutung der Bedeutung der Inhalte. So kann eine Website mit qualifizierten Informationen überladen sein, die dem interessierten Internetbenutzer eine Fülle wertvoller Informationen bieten, für eine Maschine jedoch, in unserem Fall eine Suchmaschine, ist diese Seite ein unbeschriebenes, d.h. ein nicht deutbares Blatt, wenn die Informationen sich in Grafiken verstecken.

An diesem einfachen Beispiel wird bereits deutlich, dass jeder Internetauftritt eine gewisse Ambivalenz aufweisen muss:

Er muss dem kritischen und medienverwöhnten Auge des Internetnutzers standhalten und Ihm den Eindruck vermitteln, bei einem kompetenten professionellen Partner gut aufgehoben zu sein.

Gleichzeitung muss der Auftritt so optimiert sein, dass auch eine Maschine den Informationsgehalt erkennen kann, nach dem sie die Website schließlich bewertet.

Genau diese Kombination an Anforderungen machen die Website-Optimierung zu einem wichtigen Thema mit interessanten Optimierungsmöglichkeiten.

2.2 Online Marketing

„Online-Marketing ist inzwischen ein in der Marketingforschung gebräuchlicher Begriff und umschreibt ganz allgemein die Nutzung vernetzter Informationssysteme für Marketingzwecke.“[8]

„Zu verstehen ist darunter sowohl die Übertragung des herkömmlichen Marketings auf Onlinemedien als auch die Entwicklung neuer Techniken und Prinzipien zur Arbeit mit dem Kunden, die ausschließlich auf Online-Dienste gestützt sind.“[9]

So führt auch der Weg zum erfolgreichen Online-Marketing nur über die klassischen Planungs-, Koordinations- und Kontrollprozesse, derer sich das „Offline“-Marketing bedient.

Das beinhaltet die Notwendigkeit, in einer Analysephase alle Probleme strategischer und operativer Art zu erkennen und in der folgenden Prognosephase alle relevanten Marketingfaktoren zu prognostizieren, die das Verhalten aller am Markt und in der Umwelt beteiligten Personengruppen für die Zukunft vorhersagt.

Aufgrund dieser Erkenntnisse können dann die langfristigen Ziele und die darauf kurzfristig auszurichtenden Maßnahmen geplant werden.[10]

Dabei sind diese beiden Phasen hiermit insbesondere für die Website-Optimierung nicht als abgeschlossen zu betrachten sondern bilden vielmehr einen kontinuierlichen Prozess, der für die Wirksamkeit der festzulegenden Maßnahmen von entscheidender Bedeutung ist. Denn die Schnelllebigkeit der für die Optimierung wichtigen Erkenntnisse stellt den Optimierer unter besonderen Analyse- und Planungsdruck.

Der Prognosephase folgt die Festlegung langfristiger Marketingziele und Strategien, das so genannte strategische Marketing. Es befasst sich im Kontext der Online-Vermarktung mit der grundsätzlichen Eignung von Inhalten für das Medium Internet, legt die strategische Stoßrichtung und den Zielmarkt für den Onlineauftritt fest, bestimmt den Zeitpunkt des Eintritts und versucht durch all das einen Beitrag zum Auf- und Ausbau von Wettbewerbsvorteilen zu leisten.

Diese strategischen Überlegungen sind bei der Website-Optimierung als Dienstleistung nicht primär relevant, da man von einem fertig gestellten und zu optimierenden Webauftritt – wie es der Normalfall ist - eine durchdachte Konzeption eigentlich erwarten sollte.

Dennoch sei hier vermerkt, dass diese Art der beratenden Dienstleistung für Folgeaufträge der Website-Optimierung hohe Relevanz hat. Denn eine erfolgreiche Optimierung schafft die Vertrauensgrundlage für erweiterte Zusammenarbeit auch im konzeptionellen Online-Bereich, und nicht selten werden Konzeptionsfehler bei der Ausrichtung der Webseiten auf bestimmte Marktsegmente aufgedeckt.

Sind nun die langfristigen Strategien festgelegt, können im operativen Marketing die konkreten, kurzfristigen Maßnahmen der Marktbearbeitung festgelegt werden.

Diese Maßnahmen werden in folgende Entscheidungsbereiche aufgeteilt (auch als Marketingmix bezeichnet):

- Produktpolitik
- Preispolitik
- Distributionspolitik
- Kommunikationspolitik[11]

Die Website-Optimierung dient im Rahmen der Kommunikationspolitik der Herstellung des Initialkontakts zu potentiellen Kunden und ist hierfür aufgrund der angestrebt besseren Verfügbarkeit in Suchmaschinen für die Vermarktung von Websites von essentieller Bedeutung. (vgl. Abbildung 1) Denn durch die Erhöhung der Bekanntheit des Angebots verbessert sie unmittelbar die Kommunikationspolitik. Jedoch wird auch das Wirksamwerden der übrigen Aufgaben der Kommunikationspolitik, wie das Informieren über das Angebot, der Aufbau eines Images oder die Weckung von Kaufinteresse durch die Herstellung eines erhöhten Initialkontaktaufkommens erst ermöglicht.

Andere Beispiele für konkrete Maßnahmen zur Verbesserung der Online-Kommunikationspolitik sind die Durchführung von Mailingaktionen oder die Schaltung von Bannerwerbung. Diese Beispiele haben ebenso wie die Website-Optimierung einen weiteren Vorteil gegenüber den Offline-Vermarktungs-methoden wie TV-Werbung oder Print: die geringeren Kosten.

Gemäß der Interpretation zur Definition von Online-Marketing am Beginn dieses Kapitels stellt die Entwicklung von Techniken zur Verbesserung der Verfügbarkeit von Websites in Suchmaschinen ein wichtiges Instrument bei der Arbeit mit dem Kunden dar und ordnet sich im operativen Online-Marketing als Website-Promotion-Maßnahme zur Verbesserung der Online-Kommunikationspolitik ein.

2.3 Suchmaschinen: Basiswissen

2.3.1 Historie

„Die meisten großen Suchmaschinen entstanden aus Forschungsprojekten an Universitäten und Labors, die dann innerhalb kürzester Zeit kommerzialisiert wurden. So stellte z.B. 1995 das Forschungslabor der Digital Equipment Corporation die weltweit erste suchbare Volltext-Datenbank des World Wide Web mit Namen Altavista vor. ... Auch Google wurde von Studenten, Larry Page und Sergey Brin, entwickelt. 1998 startete Google als Beta-Version, ein Jahr später wurde die Suchmaschine kommerziell. Aufgrund des Erfolges brachen die Studenten Page und Brin schliesslich ihr Studium ab und widmeten sich nur noch ihrem Projekt. Doch woher kommt der große Erfolg von Suchmaschinen und wie funktionieren sie?“[12]

Der Erfolg der Suchmaschinen liegt in der unüberschaubaren Fülle von Angeboten und Informationen im Internet. Die aktuelle ARD/ZDF Online Studie 2002 hat gezeigt, dass neben der primären Nutzung des Internets als Kommunikationsmedium wöchentlich 55% der Internetnutzer mindestens einmal gezielt Informationen suchen und 54% ebenso häufig ziellos im Internet „Surfen“. Für beide Bewegungsmuster ist Unterstützung bei der Recherche nötig.

Dabei dienen Suchmaschinen nicht nur als Hilfe bei der Suche nach Informationen, sondern helfen dem Internetnutzer auch bei der „Reduktion von Komplexität im Netz“[13]. Man hat herausgefunden, dass der Internetnutzer sich ein persönliches, vertrautes Koordinatensystem im Web schafft, das er immer wieder zum Ansteuern seiner Favoriten verwenden.[14] Und Suchmaschinen sind ein beliebter Punkt in diesem System.

Abhängig von der Arbeits- und Funktionsweise von Suchsystemen muss man den Begriff der Suchmaschine präzisieren. Grundsätzlich gibt es nämlich 3 Kategorien (Typologie) von Suchsystemen:

- Kataloge
- Suchmaschinen
- Metasuchmaschinen

Das Suchprinzip jedes dieser Suchsysteme ist für den Internetnutzer dasselbe.

Der Internetuser startet auf der Website des Suchsystembetreibers eine Anfrage zu einem oder mehreren Begriffen – im Folgenden Keywords genannt – und bekommt als Antwort darauf eine Liste dazu relevanter Websites angezeigt.

Dabei ist die Reihenfolge der Auflistung der Ergebnisse ein wichtiges Merkmal für die Qualität der gefundenen Webseiten und wird als „Ranking“ bezeichnet.

Der Unterschied zwischen den 3 Suchsystemkategorien steckt nun im Detail.

So unterscheiden sie sich in der Art der Informationsgewinnung, Bewertungsverfahren und Präsentation der Ergebnisse.

Diese Unterschiede werden in den folgenden Abschnitten erläutert.

2.3.2 Typologie

2.3.2.1 Kataloge

Ein Katalog ist eine redaktionell gepflegte URL Datenbank.

Die wichtigen deutschen Web-Kataloge sind Yahoo, Dino-Online und Web.de.

Für die Aufnahme in einen Katalog ist eine Anmeldung erforderlich. Diese erfolgt meist auf der Katalogbetreiberseite. Nach einer erfolgreichen redaktionellen Prüfung, bei der die Webpräsenz nach inhaltlichen und formalen Qualitätsmerkmalen untersucht wird, erfolgt ihre Aufnahme in die Datenbank des Katalogs.

Vorteil: Es werden URLs von durchschnittlich besserer Qualität gespeichert als dies Suchmaschinen oder Metasucher tun.

Nachteil: Durch die redaktionelle Auswahl der Katalogeinträge werden jedoch im Vergleich zu anderen Suchsystemen weniger URLs gespeichert.

Die Präsentation der Ergebnisse lässt in Katalogen zwei Suchmöglichkeiten zu:

- Suche im Kategorien
- Volltextsuche

Die Suche in Kategorien ermöglicht es dem Internetnutzer, sich ohne Keywordeingabe zum gewünschten Suchergebnis thematisch „durchzuklicken“. Diese Art der Darstellung erfordert natürlich die vorherige Zuweisung der Kategorien, die bei Katalogen vom Websitebetreiber angegeben und vom Redakteur des Kataloges überprüft wird.

Und selbst bei der Volltextsuche wird bei Katalogen im Suchergebnis die Kategorie angegeben um auf Wunsch die Suche in dieser Kategorie weiterzuführen.

Auch die Suchmaschinenbetreiber wissen um die Vorteile dieser Suchmöglichkeit in Kategorien und bieten zu Ihrer eigenen Volltextsuche gemietete Kataloge an. Im Gegenzug bieten die Kataloge die Ergebnisse von Suchmaschinen an, wenn zu den angegebenen Keywords im Katalog nichts gefunden wird. Somit ergänzen sich die Suchsysteme gegenseitig. Die erweiterte Qualität hängt von der Güte der Suchergebnisse des Partnersystems ab. Für diese Art der Suchsystemkombination etabliert sich gerade der Begriff „hybride Suchsysteme“.[15]

Aktuelles Beispiel ist der am 23. Dezember 2002 veröffentlichte geplante Kauf der Suchmaschinendatenbank Inktomi durch Yahoo, der bis Ende März 2003 abgeschlossen werden soll.[16] „Inktomi entstand 1996 aus einem Projekt der Universität Berkeley und lieferte seither die Daten für andere Suchdienste wie MSN, Hotbot und von 1998 bis 2000 für Yahoo.“[17] Dabei bietet Inktomi kein Frontend für die Suche an, sondern stellt nur anderen Suchsystemen einen Datenbestand bereit.

Das erstaunliche an der Übernahme ist die erst im Herbst verlängerte Zusammenarbeit von Yahoo mit Google, wo Inktomi noch als Konkurrent gehandelt wurde.[18]

Besonderheiten bei der Bewertung von Websites:

Bei der Suche nach Ergebnissen über die angebotenen Kategorien erfolgt die Anzeige der Ergebnisse alphabetisch. Deshalb besteht hier zunächst kein Optimierungsmöglichkeit. Wird jedoch im Katalog mit Volltextsuche gesucht werden die Ergebnisse nicht alphabetisch, sondern nach Relevanz zum Keyword ausgegeben, was doch wieder Potential für die Optimierung bietet. Und natürlich ist die Kenntnis des Bereitstellers von Ergebnissen über den Bestand der katalogeigenen Datenbank hinaus wichtig um sich auch dort optimal plazieren zu können.

Folgende grundlegenden Anforderungen stellen Kataloge an eine qualitativ hochwertige Site:

- kurze Ladezeiten aufweisen
- umfassende Informationen zu einem Thema bieten
- einen roten Faden haben
- nicht nur verkaufen, sondern auch informieren wollen
- gut gestaltet sein
- in der richtigen Kategorie angemeldet werden
- Anmeldetexte müssen entsprechend den Regeln formuliert sein[19]

Die Nichtberücksichtigung dieser Punkte kann zur Nichtaufnahme der Website durch den Redakteur führen. Eine Neuanmeldung ist dann zwar möglich, ist jedoch mit langen Wartezeiten verbunden.

Für eine beschleunigte Aufnahme bieten viele Kataloge bezahlte Prüfung binnen kurzer Frist an. Die Aufnahme in den Katalog wird dadurch jedoch nicht garantiert, entscheidender Faktor bleibt die Qualität der Seite.[20]

2.3.2.2 Suchmaschinen

Eine Suchmaschine ist ein automatisch erstellter und gewarteter URL Datenbestand.

Wichtige deutsche Suchmaschinen sind z.B. Google, Altavista, Lycos oder Fireball.

Ebenso wie bei den Katalogen können Websites auf der Betreiberseite angemeldet werden. Das ist jedoch nicht zwingend erforderlich, da Suchmaschinen automatisch nach neuen Websites suchen.

Die Arbeit der redaktionellen Mitarbeiter übernehmen hierbei sogenannte „Robots“, auch „spider“ genannt.

Das sind Programme, die automatisch Websites besuchen, Sie analysieren und die Informationen über die Relevanz der Inhalte zu bestimmten Keywords an die Suchmaschinendatenbank zurückliefern. „Beim Einlesen des Quelltexts werden die enthaltenen Links extrahiert und zur Weiterverfolgung gespeichert; so können Stück für Stück alle Seiten einer Website verfolgt werden.“[21]

Die Art und Weise, wie Robots Ihre Arbeit verrichten nennt man Crawltechnik.

Durch diesen maschinellen Ersatz des redaktionellen Mitarbeiters wird nun einerseits eine große Menge an indizierten[22] Seiten erreicht, andererseits muss aber auch eine schlechtere Qualität der Inhalte gegenüber den Katalogen inkauf genommen werden.

Denn während bei Redakteuren viele Aspekte wie Gesamteindruck, schlechte inhaltliche Aufbereitung, rechtliche Bedenken oder ästhetische bzw. grafische Gründe in die Entscheidung über Aufnahme oder Ausschluss einer Präsenz einfließen, kann ein Robot nur rein mechanisch nach festgelegten Algorithmen versuchen, die Qualität der Webseite zu beurteilen.

Und selbst dabei ist er nicht in der Lage Grafiken auszuwerten, Scripte zu interpretieren, mit Frames umzugehen oder dynamische Webseiten zu untersuchen.[23]

Dennoch entscheidet allein der Robot über die Relevanz einer Website zu einem bestimmten Keyword. Die Regeln und Algorithmen, nach denen diese Bewertung erfolgt ist das große Geheimnis der Suchmaschinenbetreiber. Aber dieses Geheimnis ist auch der Schlüssel zum Erfolg für jeden Websiteoptimierter und bietet ihm großes Potential für die Vermarktung seiner Dienstleistung.

Denn seine Aufgabe ist es nun, anhand von gut bewerteten Websites herauszufinden, welche Kriterien es sind, die eine Website auf die ersten Plätze im Ranking bringen.

Google beispielsweise gibt mittlerweile die Relevanz von Webseiten zum eingegebenen Keyword Preis. Auf der Google Toolbar (downloadbar auf www.google.com) ist hierzu eine Skala von 1 bis 10 mit dem Namen PageRank untergebracht.[24]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2:Google Toolbar

Die Benutzung dieses nützlichen Tools ist jedoch an die Bedingung geknüpft, dass sich der Internetnutzer damit einverstanden erklärt, dass Daten von seinem Browser an Google übertragen werden. Das dient natürlich der Analyse des Benutzerverhaltens und seiner Onlinegewohnheiten. Das haben andere Suchmaschinenbetreiber natürlich auch erkannt und ziehen nun ebenfalls mit dieser Art Toolbars nach.

2.3.2.3 Metasuchmaschinen

Die Metasucher bemühen sich um einen besonders großen Suchbestand, indem sie für Suchergebnisse auf mehrere fremde Suchbestände zugreifen und die Resultate nach eigenen Regeln sortieren. Sie pflegen also keinen eigenen Datenbestand, sondern fragen ausschließlich andere Suchmaschinen ab. Deutsche Metasucher sind Metacrawler oder MetaGer.

Sie verfügen über einen großen uneigenen Datenbestand, jedoch spielen sie im deutschsprachigen Web keine besondere Rolle und Ihre Qualität hängt allein von den „angezapften“ Suchmaschinen ab.

2.3.3 Ausblick

Zusammenfassend zum Thema Grundlagen Suchmaschinen sei nun gesagt, dass es zwei Strategien für die erfolgreiche Präsenz in Suchmaschinen gibt:

- eine erfolgreiche Anmeldung bei Katalogen oder Indizierung durch Robots um überhaupt gefunden zu werden - eine geschickte Gestaltung der Website um eine möglichst hohe Relevanz zu den gewünschten Keywords zu erreichen.

Aufgrund der Irrelevanz für die Analyse wird der Begriff Suchmaschine der Einfachheit halber im Folgenden synonym für alle drei Kategorien von Suchsystemen verwendet.

Darüber hinaus verschwimmen die Grenzen zwischen den einzelnen Suchsystemen langsam. Denn bei Suchmaschinen verbreitet sich der Trend, statt eigene Datenbestände zu pflegen weitere hinzu zu kaufen bzw. zu mieten. So haben sich Anbieter etabliert, die zwar große Datenbestände aufbauen, diese jedoch nicht selbst im Internet abrufbar machen, sondern sie anderen Suchmaschinen anbieten. Die beiden größten dieser reinen Suchmaschinendatenbestände sind Fast und Inktomi. Tabelle 2 zeigt die Marktanteile und Suchergebnislieferanten der einzelnen Suchmaschinen.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2:Marktanteile und Lieferanten von Suchsystemen in Deutschland[25]

Diese Übersicht über die Marktanteile macht deutlich, dass es selbst für etablierte Suchmaschinen schwer ist, gegenüber den Marktführern zu bestehen. Für neue unspezialisierte Suchmaschinen sind die Markteintrittsbarrieren fast unüberwindlich. Deshalb geht die Entwicklung bei den Suchmaschinen mehr in Richtung Spezialsuchmaschinen. Sich in einer Nische zu etablieren gelingt Newcomern und bereits am Markt präsenten Suchmaschinenbetreibern wesentlich einfacher.

Eine ausführliche Liste aller Suchmaschinen, Kataloge, Meta- und Spezial-suchmaschinen findet sich im Internet unter www.suchmaschinenindex.de.

2.4 Werkzeuge der Website-Optimierung

Die Website-Optimierung ist eine sehr junge Disziplin. Sie erfordert Kreativität, Kontinuität und vor allem Erfahrung, da es noch bedauerlich wenig Material für ihr Studium gibt.

Die Informationsgewinnung über die Arbeitsweise von Suchmaschinen und Ihrer Rankingalgorithmen ist erstes und wichtigstes Werkzeug für die Website-Optimierung. In der zweiten Phase, dem Ausschöpfen der Optimierungs-potentiale durch die Festlegung der Optimierungsmaßnahmen, ist Kreativität gefragt. Maßnahmen sind abzuleiten, die den Rankingalgorithmus positiv beeinflussen.

Die Schnelllebigkeit dieser Algorithmen machen die ständige Erfolgskontrolle und Adaption der Maßnahmen zu einem dritten unabdingbaren Hilfsmittel.

2.4.1 Informationsgewinnung

Es gibt verschiedene Wege, an Informationen über die Arbeitsweise und Bewertungsverfahren von Suchmaschinen zu gelangen. Neben den klassischen Medien, die aufgrund des kindlichen Alters der Website-Optimierung noch keine besondere Bedeutung für die Informationsgewinnung in diesem Bereich erlangt haben, bietet besonders das Medium Internet das größte Spektrum mit folgenden Kommunikationswegen:

- Newsletter - Newsgroups - Webseiten von Optimierungsdienstleistern - Content - Sites für die Optimierung - Betreiberseiten der Suchmaschinen - Publikationen

Neben dem Studium der o.g. Ressourcen stellt die Eigeninitiative in Form von Studien und Analysen einen besonderen strategischen Vorteil dar. Die Erlangung einzigartiger Erkenntnisse über die Bewertungsalgorithmen ist ein wertvoller Wettbewerbsvorteil.

De facto ist es so, dass es auch nach Recherche und Analyse keine allgemein und dauerhaft gültigen Aussagen über die Bewertungsstrategien gibt. Daraus resultieren ebenso viele Philosophien über den „richtigen“ Weg bei der Optimierung, wie es Dienstleister in diesem Bereich gibt.

Von den zahlreichen Möglichkeiten, Informationen für die Optimierung zu erlangen, möchte ich nun die herausgreifen, die mir im Zuge meiner Diplomarbeit als die wichtigsten erschienen.

2.4.1.1 Publikationen

Wie im Kapitel 2.3.1 beschrieben, sind die meisten Suchmaschinen in Forschungsprojekten an Universitäten entstanden.

Deshalb gibt es zu einigen Suchsystemen Abhandlungen über deren Zielsetzung, Arbeitsweise und Algorithmen.

Bekanntestes und aufgrund des enormen Marktanteils wichtigstes Dokument ist hier die elementare Abhandlung über die Entwicklung von Google, „The Anatomy of a Large-Scale Hypertextual Web Search Engine“, die beispielsweise auf der Webseite der Standford University[26] abrufbar ist.

Darüber hinaus bieten die meisten Suchmaschinen auf Ihren Webseiten Informationen über die Ihrer Meinung nach wesentlichen Merkmale qualitativ hochwertiger Websites.

Dennoch geben diese Dokumente noch keinen direkten Hinweis darauf, wie Robots und Spider diese Merkmale erkennen. Deshalb sind weitere Analysen erforderlich.

Darüber hinaus spielt der Printbereich für die Informationsgewinnung eine untergeordnete Rolle.

Für die Fixierung der suchmaschinenrelevanten Webseitenmerkmale in Büchern sind diese zu schnelllebig und aufgrund des jungen Alters der Suchsysteme findet sich auch sonst sehr wenig in der Literatur.

Selbst Zeitschriften berichten meist von Optimierungsmöglichkeiten, deren Innovationsgehalt äußerst dürftig ist. Sie vermitteln lediglich dem Einsteiger Grundlagen.

Dagegen sind Publikationen und Sitzungen der „Projektgruppe Suchmaschinen“ des DMMV (Deutschen Multimediaverband) ein wichtiger Informationsgewinnungsfaktor für den Optimierer.

Hier werden Empfehlungen für das Suchmaschinenmarketing erarbeitet, das den Marktpartnern die Zusammenarbeit erleichtern soll.[27]

Jedoch muss man feststellen, dass daran nur relativ unwichtige Marktteilnehmer auf Betreiberseite teilnehmen, wohingegen die wichtigen Suchmaschinen sich hier unkooperativ und wenig informativ zeigen.

2.4.1.2 Analyse von Websites

Hier stellt sich die Frage, wie sich das Verhalten von Robots überhaupt untersuchen lässt.

Der Quellcode dieser Programme liegt geschützt auf den Servern der Suchmaschinenbetreiber, die Analyse von Webseiten findet ebenfalls dort statt.

Entscheidend ist jedoch, dass der gesamte Datenbestand einer Suchmaschine ein getreues Abbild der Bewertungsalgorithmen ist.

Das bedeutet, dass die entscheidenden Kriterien bei hinreichender Kenntnis über den indizierten Datenbestand erkennbar werden müssten.

In der Praxis wird durch ein Programm automatisiert eine große Anzahl von Abfragen an eine Suchmaschine geschickt und das Suchergebnis gespeichert.

Die Analyse der Wesitemerkmale in Abhängigkeit von Ihrer Platzierung liefert Erkenntnisse über Präferenzen inhalts- und gestaltungstechnischer Art.

Je mehr Abfragen hierbei an die Suchmaschine geschickt werden, umso aussagekräftiger werden die Statistiken. Jedoch steigt zugleich auch das Risiko, bei diesem Vorgehen von Suchmaschinenbetreibern entdeckt zu werden. Diese versuchen diese Art von Massenabfragen zu verhindern, die viel Traffic schaffen und dazu geheime Informationen preisgeben. Suchmaschinenbetreiber sperren in solchen Fällen die abfragende IP für die Suche.

2.4.1.3 Content-Sites

Im Internet hat sich eine Reihe von Anlaufstellen für Optimierer etabliert, die über das Thema Suchmaschinen aktuell informieren.

Sie berichten über neueste Entwicklungen, veröffentlichen aktuelle Pressemitteilungen von Suchmaschinen, führen Interviews mit den Verantwortlichen.

Im Anhang C befindet sich eine Liste hochwertiger Websites zum Thema.

[...]


[1] ARD/ZDF Online Studie 2002

[2] www.denic.de, abgerufen am 05.03.02

[3] ARD/ZDF Online Studie 2002

[4] ARD/ZDF Online Studie 2002

[5] Keywordstatistik auf www.suchmaschinentricks.de/tools/keywords.php3, abgerufen 05.03.03

[6] Google Suche, abgerufen unter www.google.de am 05.02.03

[7] www.suchmaschinentricks.de, abgerufen Dez 2002

[8] Gerth, Online–Absatz, S.108

[9] Krause, E-Commerce, S.337

[10] Meffert, Marketing Grundlagen, S.15

[11] Meffert, Marketing Grundlagen, S.14

[12] www.promotionwelt.de/basiswissen_suchmaschinen.htm, abgerufen am 01.02.03

[13] ARD/ZDF Online-Studie 2002 S. 355

[14] ARD/ZDF Online-Studie 2002 S. 355

[15] www.lirami.de/tipps/suchmaschinen.pdf

[16] searchenginewatch.com/sereport/03/01-yahoo.html, abgerufen am 15.01.03

[17] www.suchmaschinentricks.de/neues.php3?id=238, abgerufen am 15.01.03

[18] www.suchmaschinentricks.de/neues.php3?id=238, abgerufen am 15.01.03

[19] www.promotionwelt.de, abgerufen am 15.02.03

[20] www.promotionwelt.de/basiswissen_kataloge.htm , abgerufen am 15.02.03

[21] www.suchmaschinentricks.de/einfuehrung/suchmaschinen_webkataloge.php3, abgerufen am 16.02.03

[22] Den Vorgang der Aufnahme einer Website in den Datenbestand einer Suchmaschine nennt man Indizierung.

[23] www.promotionwelt.de/basiswissen_suchmaschinen.htm, abgerufen am 15.02.03

[24] Der Name PageRank birgt eine nette Zweideutigkeit. Page ist nämlich der Name eines der Erfinder von Google und wurde deshalb hier verwendet.

[25] Internet World Heft 2/2003 S.52 Mehr Erfolg mit Ihrer Website

[26] http://www-db.stanford.edu/~sergey/, abgerufen am 03.02.03

[27] www.dmmv.de/de/7_pub/homepagedmmv/themen/emarketing/suchmaschinenmarketing/aktivitaetensuchmaschinen.cfm, abgerufen am 05.02.03

Details

Seiten
Erscheinungsform
Originalausgabe
Jahr
2003
ISBN (eBook)
9783832470067
ISBN (Paperback)
9783838670065
DOI
10.3239/9783832470067
Dateigröße
2.2 MB
Sprache
Deutsch
Institution / Hochschule
Hochschule für angewandte Wissenschaften Augsburg – Betriebswirtschaftslehre
Erscheinungsdatum
2003 (Juli)
Note
1,3
Schlagworte
online-marketing webmarketing suchmaschinenoptimierung website promotion websiteanalyse
Zurück

Titel: Entwicklung einer PHP4-Datenbankanwendung zur Analyse der Eignung von Websites für Suchmaschinen und ihrer Verbreitung darin
book preview page numper 1
book preview page numper 2
book preview page numper 3
book preview page numper 4
book preview page numper 5
book preview page numper 6
book preview page numper 7
book preview page numper 8
book preview page numper 9
book preview page numper 10
book preview page numper 11
book preview page numper 12
book preview page numper 13
book preview page numper 14
book preview page numper 15
book preview page numper 16
book preview page numper 17
book preview page numper 18
book preview page numper 19
book preview page numper 20
95 Seiten
Cookie-Einstellungen