Lade Inhalt...

Erfolgsinduzierende Faktoren journalistischer Online-Angebote

Eine vergleichende Analyse von General-Interest-Angeboten im World Wide Web mit Fallstudien

©2000 Diplomarbeit 133 Seiten

Zusammenfassung

Inhaltsangabe:Einleitung:
Sechs Jahre, nachdem die ersten journalistischen Angebote in Deutschland online gingen, befindet sich der Markt in einer Konsolidierungsphase. Nach jahrelangem rasanten Anstieg verringern sich die Zuwächse sowohl auf Nutzer- als auch auf Anbieterseite. Das Feld der journalistischen Angebote im World Wide Web (WWW) haben in der Vergangenheit vor allem die traditionellen Medienunternehmen besetzt. Auch in diesem Bereich kommt es im Jahr 2000 zu einer Stagnation des Gesamtmarktes. Innerhalb der Gruppe der Informationsanbieter sind Tendenzen zu Diversifikation und Spezialisierung zu beobachten. Wer die Gewinner respektive Verlierer dieses Prozesses sein werden und welche Faktoren journalistischen Angeboten im WWW zum Erfolg verhelfen, damit beschäftigt sich die vorliegende Diplomschrift.
Der Verfasser nähert sich dem Erfolgskonstrukt auf drei Wegen. Zunächst werden die in den Veröffentlichungen der Vergangenheit genannten Erfolgsfaktoren einer Prüfung unterzogen. Es zeigt sich, dass viele Autoren aus einer technikzentrierten Sichtweise lediglich die Potentiale, die das Übertragungsmedium WWW bietet, auflisteten. Diese können auch für beliebige sonstige Angebote gelten. Um journalistische Web-Sites genauer zu untersuchen, wird deshalb ein Erfolgskonstrukt für Anbieter dieser Art neu entwickelt. Dieses bezieht neben dem Journalismus auch die ökonomische Dimension ein, ist also qualitativ und quantitativ angelegt. Unter diesen Vorzeichen wird die Gruppe der General-Interest-Angebote analysiert. Dabei ist festzustellen, dass lediglich ein Teil dieser Angebote originär journalistische Inhalte bietet. Aus der Untersuchung dieser Web-Sites können einige aktuelle Erfolgsfaktoren ermittelt werden.
Die empirische Erforschung erfolgversprechender Strategien wird in drei Fallstudien vertieft. Hierbei wurden ein öffentlich-rechtlicher, ein privater Rundfunksender und eine Zeitungskooperation ausgewählt („MDR online“, „n-tv online“, „Berlinonline“) . Es zeigt sich, dass die Ressourcen eines Muttermediums in Form von synergetischen Effekten in Zukunft einen entscheidenden Erfolgsfaktor darstellen werden. Die Quintessenz der Arbeit bildet die Herausarbeitung verschiedener Formen journalistischer und ökonomischer Synergien sowie die Einschätzung unterschiedlicher Strategien zur Refinanzierung. Die so gewonnenen Erfolgsfaktoren journalistischer Web-Angebote sind auf die nahe Zukunft bezogen und können als praktische Handlungsvorschläge für […]

Leseprobe

Inhaltsverzeichnis


ID 4710
Holzapfel, Sebastian: Erfolgsinduzierende Faktoren journalistischer Online-Angebote: Eine
vergleichende Analyse von General-Interest-Angeboten im World Wide Web mit Fallstudien /
Sebastian Holzapfel - Hamburg: Diplomica GmbH, 2001
Zugl.: Leipzig, Universität, Diplom, 2000
Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die
der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen,
der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der
Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung,
vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im
Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der
Bundesrepublik Deutschland in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich
vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des
Urheberrechtes.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem
Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche
Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten
wären und daher von jedermann benutzt werden dürften.
Die Informationen in diesem Werk wurden mit Sorgfalt erarbeitet. Dennoch können Fehler nicht
vollständig ausgeschlossen werden, und die Diplomarbeiten Agentur, die Autoren oder
Übersetzer übernehmen keine juristische Verantwortung oder irgendeine Haftung für evtl.
verbliebene fehlerhafte Angaben und deren Folgen.
Diplomica GmbH
http://www.diplom.de, Hamburg 2001
Printed in Germany

Wissensquellen gewinnbringend nutzen
Qualität, Praxisrelevanz und Aktualität zeichnen unsere Studien aus. Wir
bieten Ihnen im Auftrag unserer Autorinnen und Autoren Wirtschafts-
studien und wissenschaftliche Abschlussarbeiten ­ Dissertationen,
Diplomarbeiten, Magisterarbeiten, Staatsexamensarbeiten und Studien-
arbeiten zum Kauf. Sie wurden an deutschen Universitäten, Fachhoch-
schulen, Akademien oder vergleichbaren Institutionen der Europäischen
Union geschrieben. Der Notendurchschnitt liegt bei 1,5.
Wettbewerbsvorteile verschaffen ­ Vergleichen Sie den Preis unserer
Studien mit den Honoraren externer Berater. Um dieses Wissen selbst
zusammenzutragen, müssten Sie viel Zeit und Geld aufbringen.
http://www.diplom.de bietet Ihnen unser vollständiges Lieferprogramm
mit mehreren tausend Studien im Internet. Neben dem Online-Katalog und
der Online-Suchmaschine für Ihre Recherche steht Ihnen auch eine Online-
Bestellfunktion zur Verfügung. Inhaltliche Zusammenfassungen und
Inhaltsverzeichnisse zu jeder Studie sind im Internet einsehbar.
Individueller Service
­
Gerne senden wir Ihnen auch unseren Papier-
katalog zu. Bitte fordern Sie Ihr individuelles Exemplar bei uns an. Für
Fragen, Anregungen und individuelle Anfragen stehen wir Ihnen gerne zur
Verfügung. Wir freuen uns auf eine gute Zusammenarbeit.
Ihr Team der Diplomarbeiten Agentur

Inhaltsverzeichnis
Seite
1. Vorwort
1
2.
Einführung in das Thema
2
2.1
Ziele der Arbeit
5
2.2
Aufbau der Arbeit
6
2.3 Methoden
7
2.3.1 Befragung
8
2.3.2
Beobachtung
9
3.
Das Internet
11
3.1 Historischer
Abriss
11
3.2
Die verschiedenen Dienste im Internet
13
3.3 Das
WWW
15
3.4
Technische Reichweite des Internet in Deutschland
15
3.5
Technologischer Stand und künftige Entwicklungen
18
4.
Das WWW als Massenmedium
20
4.1
Wann wird aus einer neuen Technik ein neues Medium?
20
4.2
Ist das World Wide Web ein Massenmedium?
21
4.3
Indizien für die Etablierung als Massenmedium
22
5.
Das neue Medium im Rückblick
26
5.1 Aktualität
29
5.2 Interaktivität
30
5.3 Hypertextualität
31
5.4 Individualisierung
32
5.5 Multimedialität
33
5.6 Community-Gedanke
34
5.7 Kapazität
35
5.8 Globalität
35
5.9 Sonstige
Potentiale
36
5.10
Zusammenfassung: Erfolgspfade und Irrwege
37
6.
Das Erfolgskonstrukt
41
6.1
Journalismus - eine Definition
41
6.2
Das WWW zwischen gesellschaftlichem Netzwerk und Gewinnmaximierung
42
6.3 Wertschöpfungsketten
traditioneller Medienunternehmen
44
6.4
Strategien von Medienunternehmen in der ,,New Economy"
47

7.
Journalistische Angebote im WWW
49
7.1
Kriterien für ,,redaktionelle General-Interest-Angebote"
49
7.2
Die Gruppe der ,,redaktionellen General-Interest-Angebote" der IVW
50
7.3
Analyse aller redaktionellen General-Interest-Angebote
51
7.4
Neue Kategorisierung der General-Interest-Angebote
53
7.5
Die Kategorien im Vergleich
55
7.6 Erfolgsfaktoren
(1)
60
8.
Die Daten der IVW
67
8.1
Das Zählverfahren im WWW
67
8.1.1 Die
Messung
67
8.1.2 Die
Währungen
68
8.1.3 Die
Probleme
68
8.2
Kontrolle und Sanktionen
70
8.3
In Zukunft mit bereinigten Zahlen
70
9. Fallstudien
72
9.1
Anlage der Untersuchung
72
9.2
Öffentlich-rechtlicher Rundfunk: ,,MDR Online"
73
9.3
Privater Rundfunk: ,,n-tv Online"
85
9.4 Zeitungskooperation:
,,BerlinOnline"
95
10.
Künftige Strategien journalistischer Angebote im WWW: Erfolgsfaktoren (2)
108
10.1
Synergien mit den klassischen Medien
108
10.1.1 ,,Cross-Producing"
108
10.1.2 ,,Cross-Publishing"
109
10.1.3 ,,Cross-Marketing"
110
10.1.4
Neue Wege im redaktionellen Management: Content-Partner
111
10.2
,,Unique Content Proposition" - Die Inhaltsstrategie
112
10.3
,,Brandbuilding" - Die Markenstrategie
113
10.4
Strategien zur Refinanzierung
113
10.4.1 Werbung
113
10.4.2 Sponsoring
114
10.4.3 E-Commerce
114
10.4.4 Content-Syndication
115
10.4.5 Mehrwertdienste
115
10.4.6
Mut zu Abonnement-Gebühren
116
11.
Zusammenfassung und Ausblick
118
Verzeichnis der verwendeten Literatur
121

1
,,Die wertvollste Ware, die ich kenne, ist die Information"
(Gordon Gekko in dem Film ,,Wall Street")
1. Vorwort
Noch eine Veröffentlichung zum Thema Online-Journalismus? Das mag manch ein Leser beim
Titel dieser Arbeit denken und vorschnell über deren Nutzen spekulieren. Seit sich Mitte der 90er
Jahre das Internet auch in Deutschland durchgesetzt hat, befassen sich zahlreiche Zeitungen,
Fachzeitschriften, Abschlussarbeiten und Bücher mit diesem Phänomen. Sie begleiten den
Journalismus auf seinem Weg in ein neues Medium - ebenso wie das vorliegende Werk. Dennoch
sprechen zwei Gründe für diese Themenwahl einer Diplomarbeit im Fachgebiet Journalistik,
nämlich der kommunikationswissenschaftliche Sinn und der praktische Nutzen.
Seit 1995 die ersten deutschsprachigen Medien journalistische Inhalte über ein noch weitgehend
unbedeutendes Computernetzwerk anboten, hat sich eine wahre Medienrevolution vollzogen. Das
Internet, ein ehemaliges Computernetzwerk der USA zu Verteidigungszwecken, hat sich über die
Arbeitsplatz-Rechner bis in die Privathaushalte durchgesetzt. Für rund ein Drittel aller Deutschen
ab 14 Jahren gehört die grafische Oberfläche des Internet, das World Wide Web (WWW),
inzwischen zur alltäglichen Mediennutzung. Auf der anderen Seite stehen Hunderte Verlage,
Fernseh- und Radiosender, die ihre journalistischen Inhalte gewinnbringend vermarkten wollen. Sie
sehen sich neuer Konkurrenz branchenfremder Anbieter wie Wirtschaftsunternehmen oder
Multimedia-Agenturen gegenüber, die in den angestammten Markt der traditionellen
Medienanbieter drängen. Nach einem jahrelangen Wachstum kündigt sich derzeit eine Phase der
Konsolidierung an, in der Marktanteile neu verteilt werden und sich erstmals langfristige Gewinner
und Verlierer dieses Prozesses abzeichnen. Bereits jetzt steht fest, dass den professionellen
Händlern der Ware Information, den Medienunternehmen, auch in Zukunft eine entscheidende
Bedeutung bei der Informationsvermittlung über das WWW zukommen wird. Über diese sich
verfestigenden Strukturen auf dem Online-Medienmarkt und mögliche Erfolgsfaktoren
journalistischer Anbieter wurden bisher kaum Aussagen getroffen. Eine Analyse der Bedingungen,
unter denen erfolgreicher Online-Journalismus entsteht, scheint deshalb in dieser Zeit der
Marktbereinigung aus kommunikationswissenschaftlicher Sicht sinnvoll.
Ein Defizit herrscht auch bei den Veröffentlichungen zur journalistischen Praxis im WWW.
Nachdem die Kommunikationswissenschaft mit einiger Verspätung das Potential des neuen
Mediums erkannt hatte, standen zunächst Diskussionen um Begrifflichkeiten und Zuständigkeiten
im Mittelpunkt wissenschaftlicher Arbeiten. Nur am Rande wurden dagegen bisher die
Auswirkungen des WWW auf den Journalismus und die umgekehrte Wirkungsrichtung betrachtet.
Die wenigen Quellen, die Hinweise für journalistische Online-Anbieter bereithalten, ziehen sich
allesamt auf Allgemeinplätze und bewährte Schlagworte zurück. Aus einer technikzentrierten
Sichtweise werden Potentiale genannt, die ebenso für Online-Angebote von Parteien oder
Unternehmen Gültigkeit besitzen. Diese Diplomarbeit entwickelt dagegen aus der Analyse der
realen Marktbedingungen konkrete Erfolgsfaktoren speziell für journalistische Angebote im
WWW. Sie können als Handlungsanweisungen für die redaktionelle Praxis verstanden werden.
Insofern ist die vorliegende Arbeit ein weiterer Baustein für ein wissenschaftliches Fundament, auf
dem in der Praxis erfolgreicher Online-Journalismus entstehen kann.
Vorwort

2
2. Einführung in das Thema
Das World Wide Web macht seinem Namen alle Ehre: Weltweit und in atemberaubendem Tempo
breitet sich die grafische Oberfläche des Computernetzwerkes Internet seit Anfang der 90er Jahre
in immer mehr Teilbereiche der Gesellschaft aus. Ob Medienanbieter, Parteien, Banken oder
Autohersteller, es gibt kaum ein Unternehmen, welches im Jahr 2000 noch auf die Anwesenheit im
WWW verzichten kann. Das technische Artefakt hat eine gesellschaftliche Relevanz erlangt, an die
vor einem Jahrzehnt wohl nicht einmal die Computerpioniere geglaubt hätten.
Die große soziale Bedeutung wird dem Netz vor allem in seiner Funktion als neue Technik für die
Übermittlung von Informationen zugeschrieben. Diese gelten als wertvollste Güter einer modernen
Gesellschaft und werden als Konstituenten einer neuen Ordnung angesehen. Schon proklamieren
einige Autoren die Ablösung der Industrie- durch die Informationsgesellschaft. Weischenberg,
Altmeppen und Löffelholz erkennen zumindest eine ,,informatisierte Industriegesellschaft"
(Weischenberg 1994: 24). Die Entwicklung zu einer Informationsgesellschaft erhält ihre Dynamik
vor allem aus der funktionalen Differenzierung sozialer Teilsysteme, wie sie in der
,,Systemtheorie" von Luhmann (1991: 31; 1996: 10) beschrieben ist.
1
Wirtschaft, Politik, Bildung,
Sport, Kultur, Wissenschaft, Medien - sie alle haben unterschiedliche Funktionen. Die moderne
Gesellschaft kann insofern als komplexes System, als das Zusammenspiel von Subsystemen
verstanden werden. Weischenberg et al. konstatieren eine nicht auflösbare Widersprüchlichkeit
zwischen steigender Spezialisierung und der nötigen operativen Geschlossenheit, die die Funktion
sozialer Systeme garantiert (1994: 26 f.). Die steigenden Unabhängigkeiten einzelner Subsysteme
und die sich gleichzeitig vermehrenden Bezüge zwischen ihnen führen dabei zu einer höheren
Kommunikationsdichte.
2
Mit der räumlichen und zeitlichen Trennung der Kommunikationspartner
gewinnt die Vermittlung der Inhalte über Medien eine steigende Bedeutung. Laut Jonscher ging der
Anteil der personalen Kommunikation in den vergangenen Jahren kontinuierlich zurück (1995: 16).
Gerade 76 Minuten pro Tag sprach ein Mensch 1990 mit anderen Personen, 400 Minuten aber
nutzte er Medien wie Zeitung, Radio und Fernsehen. Dieses Verhältnis dürfte sich in den
vergangenen Jahren weiter zugunsten der indirekten Kommunikation über Medien verschoben
haben. Weischenberg et al. stellen fest: ,,Die Informationsgesellschaft kann insofern als
Mediengesellschaft beschrieben werden...". (1994: 27)
Eine der tiefgreifendsten Veränderungen, die die Mediengesellschaft in den vergangenen Jahren
erfahren hat, war die Etablierung des neuen Mediums Internet. Mit einiger Verzögerung (Beck /
Vowe 1997: 8; Rössler 1998: 7) befasst sich seit 1996 auch die Kommunikationswissenschaft
verstärkt mit dem Phänomen, für das sie seit dem unterschiedliche Bezeichnungen wie ,,Netz-
Medium" (Neverla 1998: 7), ,,Hybridmedium" (Höflich 1997: 86; Zipfel 1998: 31) ,,Online-
Kommunikation" (van Eimeren 1997: 548; Rössler, 1998: 7), ,,Online-Medien" (Lehr 1999; Hagen
1998: 7), ,,Computer-vermittelte Kommunikation" (Zipfel 1998: 24 f.), ,,Metamedium" (Mast
1997: 78) oder eben einfach ,,Neues Medium"
3
hervorgebracht hat. Die meisten Autoren
1
Luhmanns ,,Theorie sozialer Systeme" baut auf dem Bestands-Bedürfnis von Teilsystemen auf und
untersucht die relativ dauerhaften Leistungen (Strukturen), die dieses Bedürfnis befriedigen.
2
Der semantische Gehalt des lateinischen Ursprungswortes ,,communicare" weist bereits auf eine wichtige
Funktion der Kommunikation hin: ,,gemeinsam machen, mitteilen, andere teilhaben lassen an einem Bestand,
der dabei jedoch nicht vermindert wird".
3
Vor allem der Terminus ,,Neues Medium" erscheint problematisch, da er zu Beginn der 80er Jahre schon
einmal im Zusammenhang mit Kabel- und Satelliten-Fernseh-Projekten eingeführt wurde.
Einführung in das Thema

3
versuchten, zunächst einen Überblick über das neue, weite Forschungsfeld zu geben (Beck / Vowe
1997; Neverla 1998; Ludes / Werner 1997). Andere Veröffentlichungen fokussierten stärker auf
einen Teilbereich der Online-Kommunikation, wie zum Beispiel die politische Information (Hagen
1998; Zipfel 1998) oder die Werbung. Forschung ist jedoch nicht nur erkenntnisgeleitet, sondern
häufig auch von wirtschaftlichen Interessen beeinflusst. So führt eine andere Forschungsfrage bis
heute die wissenschaftliche Agenda an: Welche Auswirkungen hat das neue Medium auf die
klassischen Medien, allen voran die Zeitungen? Komplementarität oder Konkurrenz der Medien -
diese Dichotomie war und ist das beherrschende Paradigma.
Für die Informations-Anbieter im WWW existiert auch fünf Jahre nach dem Durchbruch des
Mediums noch keine Basis gesicherter Erkenntnisse, auf die sie sich bei der Konzeption ihrer
Auftritte beziehen können. Ergebnis ist, dass viele Online-Anbieter seit Jahren einem kindlichen
Forscherdrang frönen und mit erheblichem Aufwand, dabei aber wenig strukturiert und ohne
genaue Zielvorgabe, experimentieren. Der Markt WWW ist den Kinderschuhen jedoch
entwachsen. So sind deutliche Anzeichen einer Sättigung zu erkennen wie der Rückzug erfolgloser
Angebote und die Profilierung künftiger Gewinner. Von Januar bis Juli 2000 hat sich die Zahl der
bei der ,,Interessengemeinschaft zur Überprüfung der Verbreitung von Werbeträgern e.V." (IVW)
gemeldeten Online-Auftritte in der Kategorie ,,Redaktionelle General-Interest-Angebote" gerade
um zwei auf 91 erhöht (vgl. Abbildung 1). Bei sich ständig verringernden Zuwächsen ergibt der
gleitende Durchschnitt über jeweils fünf Monate (schwarze Trendlinie) fast eine idealtypische
konkave Funktion. Erste Konzentrationsbewegungen wie die Übernahme des Reisemagazins
,,Traxxx" durch ,,Focus Online" (www.focus.de)
4
sowie Kooperationsbestrebungen zahlreicher
Anbieter deuten auf eine Konsolidierungsphase hin. Außerdem erwarten die Mutterunternehmen
endlich zählbare Erfolge in Form von Umsatz und Gewinn. Die vorherrschende Mentalität des
,,Trial & Error" weicht mehr und mehr der des ,,Analyse & Succeed".
Abb. 1: Redaktionelle General-Interest-Angebote
(Anzahl erfolgter IVW-Meldungen mit gleitendem Durchschnitt über fünf Monate)
0
10
20
30
40
50
60
70
80
90
100
Feb 97
Apr 97
Jun 97
Aug 97
Okt 97
Dez 97
Feb 98
Apr 98
Jun 98
Aug 98
Okt 98
Dez 98
Feb 99
Apr 99
Jun 99
Aug 99
Okt 99
Dez 99
Feb 00
Apr 00
Jun 00
Quelle: IVW
4
Die korrekte Schreibweise einer Internet-Adresse lautet http://www.focus.de/. Im Folgenden wird die
übliche verkürzte Schreibweise www.focus.de verwendet, sofern die Adresse keine Abweichende
Formatierung aufweist, wie beispielsweise http://de.yahoo.com/. Werden Online-Quellen als Belege
verwendet, so erscheinen sie in den Fußnoten in der vollständigen Schreibweise unter zusätzlicher Angabe
von Datum und Uhrzeit des letzten Aufrufs.
Einführung in das Thema

4
Doch der in dieser Phase nötige Weitblick der Anbieter ,,über den Tellerrand hinaus" wird von der
Medienforschung bisher kaum unterstützt. Sie misst im Allgemeinen Zugriffszahlen, analysiert die
Online-Nutzerstruktur global und wendet sich einzelnen Mediengattungen wie ,,Zeitungen Online"
zu (wohl aus einem traditionellem Verständnis der Kommunikationswissenschaft als
Kommunikatorforschung). Doch weder aus Zugriffszählungen noch aus Analysen von
Nutzerstrukturen oder Angebotsklassen lassen sich gesicherte Erkenntnisse über
erfolgversprechende Strategien für journalistische Online-Angebote herleiten. Diese Bestrebungen
greifen da zu kurz, wo sich in der Realität Zeitungen, Rundfunk, reine Online-Anbieter und
artfremde Unternehmen konkurrierend in demselben Markt gegenüberstehen. Gab es bisher für
journalistische Medien klare Abgrenzungen, die teilweise sogar mit einer Hand voll Kriterien
definiert wurden, so fällt diese Trennung im Online-Bereich ungleich schwerer. So führen Noelle-
Neumann / Schulz / Wilke die vier Merkmale Universalität, Aktualität, Periodizität und Publizität
für Printmedien an (1996: 417). Eine solche definitorische Bestimmung erlaubte bisher eine nahezu
zweifelsfreie Identifizierung eines Informationsangebots als journalistisches Angebot. Im WWW
dagegen verschwimmen die Grenzen: PR-Angebote von Wirtschaftsunternehmen werben nicht nur
mit dem eigenen Aktienkurs, sondern bieten einen ganzen Börsen-Service an (www.onvista.de).
Online-Banken wie ,,Consors" (www.consors.de) gehen noch einen Schritt weiter und
veröffentlichen fortlaufend Wirtschaftsnachrichten. Durch den Einbau aktueller News-Ticker von
Nachrichtenagenturen verbinden immer mehr Anbieter wie beispielsweise die Deutsche Post AG
(www.evita.de) ihre Unternehmenskommunikation mit öffentlicher Kommunikation.
Eigeninteressen in Form von Public Relations und Marketing werden unter dem Deckmantel eines
,,Scheinjournalismus" publiziert.
Doch nicht nur im Randbereich des Journalismus, auch in dessen ,,inner circle" bewirkt das WWW
Veränderungen, auf die die Kommunikationswissenschaft noch nicht reagiert hat. Wurden bislang
Information, Meinungsbildung, Kritik und Kontrolle als zentrale Funktionen des Systems
Journalismus angesehen (Jonscher 1995: 137), mussten diese bereits vor Aufkommen des Internets
um Orientierung und Unterhaltung ergänzt werden. (Altmeppen 1997: 199). Weischenberg (1994:
143) spricht bei der Verschmelzung von Information und Unterhaltung vom ,,Infotainment". ,,Im
Unterschied zur wachsenden Bedeutung von Orientierung und Unterhaltung werden Kritik,
Kontrolle und Bildung, die schon gegenwärtig ... nur eine Randrolle spielen, in Zukunft weiter an
Bedeutung verlieren oder in anderen Funktionen aufgehen." (ebd.: 146) Der neue Journalismus im
Internet ist außerdem zum Teil eng mit fremden Interessen verflochten, wenn redaktionelle Inhalte
verkauft beziehungsweise gekauft werden (Content-Syndication), E-Commerce betrieben wird oder
Seiten für Fremdanbieter erstellt werden.
Eine Suche nach Veröffentlichungen zum Erfolg journalistischer Online-Angebote bleibt bis heute
erfolglos. Weder Marktforschung noch Wissenschaft ging so weit, konkrete Faktoren zu benennen,
die den Erfolg von Informationsangeboten sichern, und daraus Anforderungen an die
Onlinepräsenzen zu formulieren.
5
Was garantiert aber journalistischen Online-Angeboten Erfolg in
diesem komplexen Gefüge? Unter welchen Bedingungen entsteht erfolgreicher Online-
Journalismus? Welcher Weg ist der richtige für welches Medium? An diesen offenen Fragen will
die vorliegende Forschungsarbeit ansetzen.
5
So weit der Kenntnisstand des Autors nach eingehendem Literaturstudium im ersten Halbjahr 2000.
Einführung in das Thema

5
2.1 Ziele der Arbeit
In der logischen Konsequenz aus den aufgezeigten Entwicklungen kann zunächst das Konstrukt des
,,erfolgreichen Journalismus", für das in den klassischen Medien Marken wie ,,Der Spiegel" oder
die ,,Tagesschau" stehen, nicht unbesehen ins WWW übernommen werden. Es bedarf einer
genauen Benennung sowie Anpassung an die neuen Verhältnisse. Es wird deshalb ein vorrangiges
Ziel der Arbeit sein, das ,,Erfolgskonstrukt" aus dem Blickwinkel der Online-Angebote zu
betrachten und falls nötig zu modifizieren.
Die Lösung konkreter Forschungsfragen wurde bisher ausschließlich aus dem Fokus der
klassischen Massenmedien angegangen: Werden die Zeitungen durch das Internet verdrängt?
Schlägt sich die Online-Nutzung auf das Zeitbudget des Fernsehens nieder? Doch die klassischen
Medien diktieren auf diesem neuen Markt nicht die Bedingungen, sie müssen sich diesen ebenso
unterordnen wie die PR-Präsenzen der Unternehmen. Bereits an dieser Stelle wird klar, dass die
Suche nach ,,erfolgsinduzierenden Faktoren journalistischer Onlineangebote" einen neuen
Forschungsschwerpunkt braucht. Ein weiteres Ziel der Arbeit ist deshalb ein neuer, offener Zugang
zu den Untersuchungsobjekten. Dieser ist übergreifend und integrativ zu verstehen. Es werden
sowohl Online-Redaktionen verschiedener Mediengattungen als auch branchenfremder
Unternehmen einbezogen. Nicht mehr die klassischen Medien sind Zentrum und Bezugspunkt der
Untersuchungen, sondern der real existierende Markt der Online-Kommunikation mit seinen
komplexen intermediären Beziehungen. Viele Unternehmen sind in mehreren Mediengattungen
und darüber hinaus in anderen Branchen präsent. Sie nutzen komplexe Erfolgsstrategien, die mit
der Beschneidung auf einen Medientyp nicht mehr erfasst werden können.
Natürlich sollte sich eine Forschungsarbeit auf ein bestimmtes Sample beziehen, welches bewusst
nach festgelegten Kriterien ausgewählt wurde. Viele Untersuchungen der Vergangenheit kranken
jedoch daran, dass sie zu früh wichtige Bezugsgrößen ausblendeten. Aus diesem Grund werden
hier zunächst alle Angebote berücksichtigt, die mit einem ,,journalistischen Selbstverständnis"
auftreten. Sie dokumentieren dies im Allgemeinen damit, dass sie redaktionelle Inhalte und damit
ein Umfeld für Werbetreibende bieten. Da die Zugriffszählung der IVW in Deutschland den Status
eines Quasi-Standards für die Abrechnung von Werbeentgelten inne hat, bilden zunächst alle hier
gemeldeten ,,redaktionellen General-Interest-Angebote" die Grundgesamtheit. In einer Analyse
dieser Angebote soll gezeigt werden, in welchem Umfeld sich journalistische Anbieter im Netz
bewegen und wie sich die Konkurrenz definiert. Ziel ist es, die Strategien aufzudecken, die von den
Anbietern teils bewusst, zu einem großen Teil sicher noch unbewusst, genutzt werden, um auf dem
hart umkämpften Markt zu bestehen. In den Fallstudien, dem empirischen Beitrag und wichtigsten
Teil der Arbeit, werden die so gewonnenen Erkenntnisse weiter vertieft und geprüft.
Die Möglichkeiten und Potentiale, die das Online-Medium zur Verwirklichung erfolgreicher
Webauftritte bietet, werden ebenfalls diskutiert. Nach einer unbedingt erforderlichen Loslösung
von vorherrschenden technikdeterminierten Sichtweisen (Stichworte sind unter anderem
Interaktivität, Hypertextualität, Individualisierung) sollen qualitative Potentiale herausgearbeitet
werden, die in der redaktionellen Arbeit genutzt werden können. Sie betreffen vor allem Synergien
in der Arbeitsorganisation, der Markenetablierung und den Bereich des exklusiven Inhalts.
Nicht zuletzt ist journalistischer Erfolg zumindest teilweise auch wirtschaftlicher Erfolg,
wenigstens aus der Sicht, das letzterer den Bestand des ersteren sichert. Medienunternehmen
müssen auch nach den Gesetzen der Ökonomie handeln, ,,um ihre Existenz wirtschaftlich
abzusichern und so erst die Basis zur Realisierung weiterreichender publizistischer Funktionen zu
Ziele der Arbeit

6
schaffen." (Jonscher 1995: 146) Eine Ausnahme bilden hier lediglich öffentlich-rechtliche
Rundfunkanbieter. Sie werden über die Rundfunkgebühren der Länder finanziert und sind deshalb
zumindest nicht direkt abhängig von Quoten und Zugriffszahlen. (Ob unter diesen Bedingungen
andere Erfolgsfaktoren für den Onlinejournalismus gelten, wird in einer der Fallstudien erörtert.)
Für die größere Gruppe der privatwirtschaftlich organisierten Unternehmen werden verschiedene
Modelle für den finanziellen Erfolg journalistischer Onlineangebote entwickelt. Neben der aus den
klassischen Medien bekannten Werbung geht es hier im speziellen um E-Commerce, Content-
Syndication sowie bezahlte Mehrwertdienste. Dabei muss auch über Gefahren für die Autonomie
des Journalismus und das Markenimage reflektiert werden. Auch ein scheinbar überholtes,
angestaubtes Modell soll neu gedacht werden: Der Mut zu Abonnement-Gebühren im Internet.
Letztes und kühnstes Ziel dieser Arbeit ist die Formulierung konkreter Erfolgsfaktoren für die
Anbieter journalistischer Inhalte im WWW. Hier soll der Versuch einer Überleitung von der
Forschung der Universität in die Praxis der Redaktionen unternommen werden. Da es sich bei den
Veränderungen in den Online-Redaktionen um laufende Prozesse, um ,,work in progress" handelt,
sollen auch diese Erkenntnisse ,,über den Tag hinaus" gedacht werden.
2.2 Aufbau der Arbeit
Die Arbeit lässt sich grob in drei Teile gliedern:
1. die analytische Aufarbeitung des Erkenntnisstandes und die Entwicklung neuer
Forschungsansätze,
2. die empirischen Forschungen und
3. die Formulierung künftiger Trends.
Dieses Einführungskapitel endet mit dem folgenden Abschnitt zu den in der Arbeit verwendeten
Methoden empirischer Forschung.
Es folgt ein Kapitel über das Internet, seine historische Entwicklung und die verschiedenen
Dienste. Dieser Teil soll möglichst kurz gehalten werden, ist aber nicht verzichtbar. Die Technik
bestimmt zwar nicht die Entwicklungen im Journalismus, beeinflusst diese aber im Fall dieses sehr
,,technischen Mediums" stark. Auf einen Dienst des Internets, die grafische Benutzeroberfläche
World Wide Web, wird genauer eingegangen. Das WWW mit seiner intuitiven Bedienung stellt
das Potential dar, welches von den Informationsangeboten in erster Linie genutzt wird und diesen
die Ansprache eines Millionenpublikums ermöglicht. Um einen Überblick über das Feld zu
bekommen, in dem sich die journalistischen Wettbewerber bewegen, werden sich weitere
Abschnitte mit der technischen Reichweite des WWW, Zahl und Demografie der Nutzer befassen.
Eine kurze Einschätzung soll zudem über den aktuellen technischen Standard und sich
abzeichnende künftige Entwicklungen gegeben werden.
Im vierten Kapitel der Arbeit spricht sich der Autor für die Anerkennung zumindest von
Teilbereichen des WWW als Massenmedium aus. Es wird diskutiert, unter welchen Bedingungen
aus einem neuen technischen Artefakt ein neues Medium entsteht. Das WWW wird sodann auf
diese Bedingungen überprüft und es werden Indizien für die Etablierung als Massenmedium
zusammengetragen.
Die in der Vergangenheit geäußerten Erwartungen und Trends im Zusammenhang mit dem Online-
Journalismus werden im 5. Kapitel dargestellt. Vor allem technische Optionen, die das WWW
Ziele der Arbeit / Aufbau der Arbeit

7
bietet, wie Aktualität, Interaktivität, Hypertextualität oder Individualisierung, wurden in
zahlreichen Veröffentlichungen als einzulösende Erfolgsbedingungen fehlinterpretiert. In einer
Zusammenfassung soll gezeigt werden, welche Vorhersagen sich bis zum heutigen Zeitpunkt
erfüllt haben und welche sich für journalistische Onlineanbieter als Irrwege erwiesen haben.
Im 6. Kapitel wird das Erfolgskonstrukt aus der Sicht journalistischer Onlineangebote analysiert.
Neben den Nutzerwünschen wurden in jüngster Vergangenheit vermehrt Hoffnungen
gesellschaftlicher Institutionen wie der Bundesregierung an das Onlinemedium geknüpft. Auf der
anderen Seite stehen die Erfolgsstrategien der Anbieter, die die traditionellen
Wertschöpfungsketten der klassischen Medien unter dem plakativen Ausdruck ,,New Economy"
schon längst auf die neuen Bedingungen angepasst haben.
Das 7. Kapitel nähert sich dem Kern dieser Arbeit, den empirischen Studien. Zunächst werden
Kriterien erarbeitet, wie journalistische General-Interest-Angebote im WWW identifiziert werden
können. Eine Darstellung und Analyse der zugehörigen IVW-Kategorie ,,Redaktionelle General-
Interest-Angebote" wird zeigen, dass bei weitem nicht alle Anbieter diese Kriterien erfüllen. Damit
macht sich eine neue Kategorisierung erforderlich, die den Vergleich von verschiedenen
Anbieterkohorten ermöglicht und Aufschluss über für bestimmte Anbieterkategorien typische
Erfolgsfaktoren gibt.
Die Daten der IVW stehen zumindest für den quantitativ messbaren Erfolg. Die Probleme bei der
Kategorisierung und im Messverfahren der IVW stehen deshalb im Blickpunkt des 8. Kapitels.
Im folgenden Abschnitt werden die bisher gesammelten Erkenntnisse auf drei Fallstudien
angewandt und dabei ergänzt und vertieft. Um eine Vergleichbarkeit hinsichtlich des Einsatzes
vorhandener Ressourcen zu gewähren, werden die Web-Angebote eines öffentlich-rechtlichen
Rundfunkanbieters, eines privaten Rundfunkanbieters sowie eines Printmediums analysiert.
Im 10. Kapitel werden die in den Fallstudien gewonnenen Erkenntnisse kumuliert. Ziel ist es,
konkrete Erfolgsfaktoren für Anbieter journalistischer Inhalte im WWW zu benennen.
Abschließen wird diese Arbeit mit einer Zusammenfassung und einem daraus entwickelten
Ausblick zumindest auf die nähere Zukunft des Online-Journalismus und dessen Anbieter.
2.3 Methoden
Jeder Mensch ist in gewisser Weise ein empirischer Sozialforscher. Im Alltag beobachtet er andere
Individuen und Gruppen, stellt Hypothesen über sein Verhalten und das seiner Mitmenschen auf,
überprüft das Eintreten bestimmter Erwartungen und modifiziert nötigenfalls sein Verhalten. Um
sich in seiner sozialen Umwelt orientieren zu können, entwickelt er im Laufe seines Lebens viele
Erfahrungen, die es ihm auch beim Eintreten neuer Umstände ermöglichen, adäquat zu reagieren.
Solche Alltagshypothesen sind in der sozialen Realität überlebenswichtig. Dieses elementare
Alltagswissen wird mit dem Begriff Empirie
6
bezeichnet.
Auch die empirische Forschung
7
befasst sich mit dem Alltagswissen. Im Unterschied zur
individuellen Alltagserfahrung muss Wissenschaft jedoch Kriterien wie Systematik, Transparenz,
Objektivität und Überprüfbarkeit erfüllen. Das bedeutet: Fehlerquellen, beispielsweise in der
Wahrnehmung, müssen ausgeschlossen, vermindert oder zumindest in ihrer Stärke berechenbar
6
(griech.): Erfahrung, Erfahrungswissen(schaft).
7
Eine Definition des Begriffs ,,empirische Forschung" wird - vermutlich aufgrund seiner Vielgestaltigkeit -
auch in der einschlägigen Literatur nicht gegeben.
Aufbau der Arbeit / Methoden

8
sein. Früh (1991: 19) definiert die empirische Forschung als die ,,systematische, intersubjektiv
nachprüfbare Sammlung, Kontrolle und Kritik von Erfahrungen". Um verwertbare Daten zu
erheben, hat die empirische Forschung verschiedene Methoden entwickelt, die einen
wissenschaftlich akzeptierten Zugang zum jeweiligen Untersuchungsgegenstand sichern.
Diekmann (1999: 13) unterscheidet vier Techniken, ,,nämlich Befragung, Beobachtung,
Inhaltsanalyse und die Erhebung von ,Verhaltensspuren' ". Letzteren Begriff verwendet er ähnlich
der gebräuchlicheren Formulierung ,,nicht-reaktive Verfahren". Diekmann erklärt: ,,Nicht jede
Methode ist bei einer spezifischen Fragestellung gleichermaßen gut geeignet." (1999: 18) Die
Auswahl der geeigneten Forschungsmethode, des ,,Werkzeuges" des Wissenschaftlers, hängt dabei
in erster Linie vom Forschungsgegenstand und vom Forschungsziel ab.
8
Da es sich bei der Suche nach Erfolgsfaktoren journalistischer Online-Angebote um ein weitgehend
unbearbeitetes Feld handelt, stand zunächst die Exploration relevanter Einflussdimensionen im
Vordergrund. In weiterführenden Studien, die im Rahmen der Arbeit nicht leistbar sind, könnten
beispielsweise die Auswirkungen gefundener Erfolgsfaktoren tatsächlich ,,gemessen" werden.
Dann würden qualitativen Aussagen über die Wirkungsrichtung eines Faktors (beispielsweise
,,erfolgversprechend") quantitative Aussagen über die Stärke des positiven Effekts beigestellt.
In sogenannten ,,explorativen Studien" kommen vorzugsweise qualitative Methoden zum Einsatz.
Diekmann (1999: 30) zählt hierzu qualitative Interviews (eine Spezialform der Befragung) und
unstrukturierte Beobachtungen. Diese Methoden wurden in der vorliegenden Arbeit angewendet.
Die Kombination aus dem stärker subjektiven Verfahren Befragung und der eher objektiven
Beobachtung sollte zum einen eine Kontrolle der Expertenaussagen ermöglichen, zum anderen
erbrachten die Beobachtungen Anstöße zu weiteren Fragen an die Redaktionsleiter. Ziel war es, die
Schwächen einer Methode zumindest teilweise mittels der anderen Methode abzubauen.
2.3.1 Befragung
Die Befragung ist die am häufigsten verwendete empirische Methode zur Datenerhebung und wird
gern als ,,Königsweg" bezeichnet (Diekmann 1999: 371). Es liegt nahe, jemanden zu befragen,
wenn ich Informationen von oder über ihn benötige. Jedoch hat die Sprache auch zahlreiche
Tücken, auf die zu achten ist. Diekmann unterscheidet drei Typen von Befragungen: das
persönliche ,,Face-to-face"-Interview, das telefonische Interview und die schriftliche Befragung
(questionnaire). (1999: 373) Lediglich die Zuordnung ,,mündliche" oder ,,schriftliche" Befragung
führt Kromrey an. Ferner unterscheidet er Befragungen nach dem Grad ihrer Strukturierung in
nichtstandardisiert, teilstandardisiert und vollstandardisiert. (1994: 287) Diekmann (1999) weist
darauf hin, dass es sich bei dieser Einordnung um ein Kontinuum handelt.
Zwei verschiedene Arten von Interviews kommen in dieser Arbeit zum Einsatz, das persönliche
sowie das telefonische Interview, jeweils in ihrer teilstandardisierten Form als sogenanntes
,,Leitfadengespräch". Ein Leitfadengespräch ermöglicht einen Kompromiss zwischen höherer
Standardisierung (und damit Objektivität) und dem explorativen Charakter. Sowohl bei den
persönlichen Befragungen, als auch bei einem telefonischen Interview sollten nicht nur
Vermutungen bestätigt werden (hypothesengeleitetes Forschen). Vielmehr war auch das Sammeln
neuer Informationen und damit eine gewisse Offenheit der Gespräche von großer Bedeutung. Die
8
Andere Motive wie die Nichtbeherrschung oder individuelle Favorisierung bestimmter Methoden sollten
nicht forschungsleitend sein, im betreffenden Fall aber zumindest offengelegt werden.
Methoden / Befragung

9
Interviews können insofern als ,,qualitative Methode" der Datenerhebung aufgefasst werden. Mit
der Teilstrukturierung durch Verwendung eines Leitfadens soll dennoch eine Vergleichbarkeit der
Antworten der befragten Redaktionsleiter gesichert werden.
Die Befragung hat (wie alle ,,Werkzeuge") methodische Vor- und Nachteile. Der große Vorteil
eines halbstrukturierten Interviews liegt zunächst auf der Seite des Befragten. Für ihn erinnert die
Forschungssituation an ein alltägliches Gespräch. Die Interviewten beteiligten sich freiwillig an
den Fallstudien, im besten Fall, um später an den Ergebnissen zu partizipieren. Ein weiterer Vorteil
war das Expertentum: Kein Teilnehmer wurde zu einem ihm unbekannten oder unangenehmen
Themenbereich gefragt. Zudem ist der Themenbereich Online-Angebote derzeit auch
gesellschaftlich positiv besetzt. Auch für den Fragenden hat ein Leitfaden-Interview einige
Vorteile. Der wichtigste ist sicher der mögliche Erkenntnisgewinn auch außerhalb des Fragerasters.
Dabei konnte bereits während des Interviews stark in die Tiefe gegangen werden. Hinzu kommt die
Möglichkeit einer intensiveren Auswertung als beispielsweise bei Fragebogen-Erhebungen.
Die Befragung hat jedoch auch spezielle methodische Nachteile. Zunächst einmal ist sie als stark
reaktive Methode zu kennzeichnen. Reaktiv bedeutet, ,,dass nicht kontrollierte Merkmale des
Messinstruments, des Anwenders des Messinstruments ... oder der Untersuchungssituation das
Ergebnis der Messung systematisch beeinflussen können". (Diekmann 1999: 529) Kurz gesagt sind
Methoden dann reaktiv, wenn der Messvorgang das Messergebnis beeinflussen kann. Diese Gefahr
bestand in dieser Forschungsarbeit nur abgeschwächt, da sowohl die Befragung, als auch die
Beobachtung (Kapitel 2.3.2) nicht hypothesengeleitet erfolgten. Bereits in der Vorbereitungsphase
war das Stichprobenproblem zu berücksichtigen. Da das Forschungsinteresse auf die Nutzung von
Ressourcen eines Mutterunternehmens durch Web-Angebote abzielte, wurden je ein Vertreter aus
den Printmedien, aus dem öffentlich-rechtlichen und dem privaten Rundfunk ausgewählt.
Die Methodenforschung hat eine Reihe weiterer systematischer Fehlerquellen von Befragungen
identifiziert, wie soziale Erwünschtheit, selektive Wahrnehmung oder Intervieweinflüsse. Kaum
beeinflussbar ist auch das Problem unterschiedlicher Deutungen der selben Sachverhalte. Auf die
Frage nach Quellen der Informationen sagte ein Online-Anbieter, dass man nur eigene Artikel
veröffentliche. Gemeint war aber nicht die eigene Recherche, sondern das geringfügige
Umschreiben von Agenturmeldungen. In solchen Fällen können nur gezielte Nachfragen
Missverständnisse ausräumen. Der Effekt der ,,sozialen Erwünschtheit" (Diekmann 1999: 382 f.)
könnte vor allem bei strittigen Fragen der Verquickung von Journalismus und Kommerz zu
negativen Einflüssen auf die Daten geführt haben. Die komplexen Einflüsse einer ,,sich selbst
erfüllenden Prophezeiung" (,,self-fullfilling-prophecy") können über einen möglichst
unvoreingenommenen Fragen-Leitfaden sowie eine neutrale Interviewführung minimiert werden.
,,Neutral" ist dabei als relative Größe zu verstehen in dem Sinne, dass Antworten nicht wertend
kommentiert werden und keine Suggestiv-Fragen gestellt werden. Solche Fehler ließen sich nach
wiederholtem Abhören der Interview-Mitschnitte ausschließen. Bewertungen durch Gestik und
Mimik des Interviewers sind dagegen schwer zu beeinflussen.
2.3.2 Beobachtung
Einen direkten Zugang zu den zu erhebenden Merkmalen ermöglicht die Beobachtung. Darunter
versteht man ,,die direkte Beobachtung menschlicher Handlungen, sprachlicher Äußerungen,
nonverbaler Reaktionen (Mimik, Gestik, Körpersprache) und anderer sozialer Merkmale ..."
(Diekmann 1999: 456). Eine Besonderheit dieser Methode ist, dass sich die Daten auch während
Befragung / Beobachtung

10
der Erhebung ständig ändern und flüchtig sind. Diekmann unterscheidet verschiedene
Beobachtungsverfahren (ebd.: 469):
· teilnehmende versus nicht-teilnehmende Beobachtung,
· offene versus verdeckte Beobachtung,
· Feldbeobachtung versus Laborbeobachtung,
· strukturierte versus unstrukturierte Beobachtung.
Einige dieser Methoden schließen sich im Sinne des Forschungsgegenstandes und -zieles aus. Eine
teilnehmende Beobachtung ist ebenso wie eine verdeckte in einer Online-Redaktion im
Allgemeinen nicht möglich. Die Fallstudien vor Ort waren Untersuchungen ,,im Feld" und
Fremdbeobachtungen. Es handelt sich bei der vom Autor angewandten Methode also um nicht-
teilnehmende, offene Feldbeobachtungen.
Der Grad der Strukturiertheit kann, wie auch schon bei der Befragung (Kap. 2.3.1), als Kontinuum
mit den Polen ,,unstrukturiert" und ,,hoch-strukturiert" aufgefasst werden. Letztere Variante sichert
eine hohe Durchführungsobjektivität, das heißt, dass Einflüsse des Beobachters minimiert werden.
Dazu müssen aber Merkmale (beispielsweise ,,kurze Sätze") bekannt sein, die die relevanten
Kategorien (,,Erfolg beim Leser") abbilden. Das ist wiederum nur mit einem hohen Maß an
Vorwissen möglich. Dieses ließ sich im Fall der journalistischen Web-Angebote nur zu einem
gewissen Teil aus der Analyse der ,,Redaktionellen General-Interest-Angebote" gewinnen.
Die empirischen Daten dieser Arbeit wurden daher mit einer teilstrukturierten Beobachtung
erhoben. Das ließ Raum für die Aufnahme nicht vorhersehbarer Ereignisse. Es bestand jedoch die
Gefahr eines stärkeren Einflusses der willkürlichen Wahrnehmung des Beobachters. Denn auch
hier gilt: Der Wunsch ist nicht nur Vater des Gedankens, ,,er steuert auch die Aufmerksamkeit und
filtert die Beobachtungen". (Diekmann 1999: 46) Die Beobachtungen in den Redaktionen wurden
jeweils während der Arbeitszeit durchgeführt, so dass sich die Handelnden in einer natürlichen
Situation befanden. Außerdem konnten so Einflüsse der Beobachtertätigkeit auf die Abläufe gering
gehalten werden, da diese nicht jeweils für den Tag der Beobachtung geändert werden konnten.
Der Leitfaden sollte die Gefahr einer selektiven Wahrnehmung verringern und die Vergleichbarkeit
der Ergebnisse sichern. Die nicht-teilnehmende Haltung ließ genügend Raum, sich auf das
Geschehen zu konzentrieren und gleichzeitig die Beobachtungen zu protokollieren. So konnte die
selektive Erinnerung weitgehend ausgeschaltet werden.
In mehreren Fällen wurden sogenannte ,,Verhaltensspuren" aufgenommen werden. Nach Diekmann
(1999: 536) gibt es eine Vielzahl sozialer Situationen, ,,in denen Verhaltensweisen indirekte
Hinweise auf das Ausmaß und die Qualität sozialer Aktivitäten liefern, die auf direkte Weise kaum
oder nur verzerrt erhoben werden können". ,,Verhaltensspuren" werden vom beobachteten
Individuum unbewusst erzeugt und können deshalb als nicht-reaktiv im Sinne der
Forschungsrichtung verstanden werden. In den Fallstudien wurden bei Beobachtungen in den
Redaktionen zum Beispiel Diskussionen über die journalistische Relevanz eines Themas
aufgenommen und die Entscheidungskompetenzen protokolliert. Ein heikler Punkt ist in diesen
Fällen aber die sogenannte Mess- oder Korrespondenzhypothese, das heißt die Vermutung über den
Zusammenhang zwischen beobachtetem Indikator und dem zu erforschenden theoretischen
Konstrukt.
Ein Problem war sicherlich, dass es sich bei journalistischen Online-Angeboten um ein schnell
veränderliches Objekt handelt und deshalb Beobachtungen über einen längeren Zeitraum eine
höhere Validität aufgewiesen hätten.
Beobachtung

11
3. Das Internet
3.1 Historischer Abriss
Über kaum eine Technik wurde in den vergangenen Jahren so viel berichtet wie über das Internet.
Und obwohl die zugrunde liegende technische Infrastruktur gerade ein halbes Menschenleben alt
ist, sind viele Veröffentlichungen ungenau in der Angabe von Daten oder der Definition von
Begriffen. Dies gilt nicht nur für Medienberichte, sondern auch für wissenschaftliche Arbeiten. Die
Geschichte des Internet speist sich mehr als die mancher Jahrhunderte zurückliegenden Ereignisse
aus Mythen und Gerüchten.
Einen kurzen wissenschaftlichen Überblick geben unter anderem Werner / Becker (1997). Den
Menschen hinter der Erfindung versuchten Hafner / Lyon (2000) in zahlreichen Gesprächen und
der Auswertung von Originalquellen in Amerika nahe zu kommen. Neben den gedruckten
Ausgaben sind zahlreiche Abhandlungen im Internet selbst erschienen, die teilweise mit geprüften
Quellenangaben von hoher Qualität zeugen (zum Beispiel ,,Die Geschichte des Internet" von
Tobias Vetter)
9
. Nicht zuletzt mögen einige Originaldokumente Aufschluss über die
Entwicklungen der technischen Grundlagen geben. Ein Beispiel hierfür ist der Text von Tim
Berners Lee, dem Erfinder des Hypertext und damit des WWW. Unter dem unspektakulären Titel
,,A Proposal" (,,Ein Vorschlag") ist das Dokument bis heute unter der Adresse
http://www.w3.org/History/1989/proposal.html
10
abrufbar.
In vielen anderen Fällen lassen sich Erfindungen heute nicht mehr einer Person zuschreiben, der
Erfolg hat, wie so oft, viele Väter, die über 30 Jahre später noch immer um das Anrecht streiten.
Die wohl älteste Streitfrage im Hinblick auf die Technikgeschichte geht auf die Intention zurück,
unter der der Computerzusammenschluss entstand. So wurde jahrelang die ,,Atomtheorie" als
gesichert angenommen. Dieser schließen sich unter anderem auch Werner / Becker (1997) an,
wenn sie dem Netzwerk die Funktion ,,eines zukünftigen militärischen Kommunikationssystems,
das selbst unter den extremen Bedingungen eines atomaren Konflikts funktionieren sollte"
zuschreiben.
Andere Autoren ziehen direkte Parallelen zum sogenannten ,,Sputnik-Schock" (Vetter). Mit dem
ersten erfolgreichen Start eines Sputniks 1957 seien sich Wissenschaftler, Politiker und das Militär
in Amerika des technischen Rückstands auf die damalige Sowjetunion bewusst geworden.
Präsident Dwight Eisenhower habe daraufhin noch im selben Jahr die Advanced Research Projects
Agency (ARPA)
11
gegründet. Eines der Ziele der ARPA sei die Effektivierung militärischer
Forschungsprojekte durch besseren Erfahrungsaustausch zwischen Wissenschaftlern und
Vermeidung von Redundanzen gewesen.
Gegen diese Sichtweise stellen sich Hafner / Lyon (2000: 9): ,,Das Projekt verfolgte absolut
friedliche Absichten, nämlich Computer in wissenschaftlichen Einrichtungen des ganzen Landes
miteinander zu verbinden, damit Forscher Rechnerkapazität gemeinsam nutzen konnten." Hierbei
ist allerdings zu beachten, dass diese Ausführungen zu großen Teilen auf privat durchgeführten
Interviews mit den betreffenden Wissenschaftlern und Kollegen beruhen.
9
http://www.phil-fak.uni-duesseldorf.de/mmedia/web/index9.html (9. Oktober 2000, 12.00 Uhr)
10
Aufgerufen am 6. September 2000, 19.30 Uhr
11
übersetzt etwa: Behörde für höhere Forschungen (der Autor)
Das Internet / Historischer Abriss

12
Glaubhaft überliefert sind dagegen einige Meilensteine der technischen Entwicklung. In einem
ersten Schritt zur Vernetzung errichtete Joseph Carl Robnett Licklider Ende der 1950er Jahre mit
seiner Forschungsgruppe eines der ersten ,,Time-Sharing"-Systeme. Das bedeutet, dass mehrere
Nutzer gleichzeitig auf einen zumeist leistungsstarken Großrechner zugreifen können. Dieses
Netzwerk mit einer zentralen Schaltstelle hatte jedoch den Nachteil, dass nur eine begrenzte Zahl
Teilnehmer daran angeschlossen werden konnte. Die nächste bahnbrechende Idee geht zurück auf
Paul Baran. Er ersann das ,,distributed network", ein dezentrales Netzwerk, bei dem jeder sich im
Netz befindende Computer alle Funktionen ausführen konnte. Wurde eine Verbindung
unterbrochen, blieb das übrige Netzwerk weiterhin arbeitsfähig. Auf diese Verzichtbarkeit eines
Zentralrechners bauen auch die militärischen Verteidigungstheorien.
Mit der Erfindung des ,,Packet-switching" wurde eine weitere Stufe auf dem Weg zum heutigen
Internet genommen. Die ,,paketvermittelten Verbindungen" funktionieren nach dem Prinzip von
Zerlegung und Zusammensetzung. Zu übermittelnde Dateien werden in kleine Pakete zerteilt, die
jeweils die Adresse des Empfängers enthalten. Nun gelangen sie über verschiedene Wege an ihr
Ziel, wo sie automatisch wieder zusammengesetzt werden. Daraus ergeben sich zwei Vorteile: Zum
einen müssen bei fehlerhaften Sendungen nur einzelne ,,Pakete" noch einmal geschickt werden,
nicht ganze Dateien, zum anderen suchen sich die Sendungen den jeweils schnellsten Weg und
umgehen somit überlastete oder defekte Leitungen auf einem Umweg.
Mittels dieser technischen Grundlagen war es der ARPA möglich, ihre im ganzen Land verteilten
Computerzentren im Herbst 1969 zu verbinden. Es entstand das ARPANET mit vier Knoten: Die
University of California in Los Angeles, das Stanford Research Institute, die University of
California in Santa Barbara und die University of Utah (Werner/Becker 1997: 97). Die Rechner
dieser Einrichtungen stammten dabei teilweise von verschiedenen Herstellern und verwendeten
unterschiedliche Betriebssysteme. Deshalb war zunächst ein Minicomputer nötig, der die
Vermittlung übernahm.
Zunächst wurde das ARPANET und seine frühen Anwendungen ,,telnet" und ,,ftp"
12
nur wenig
genutzt. 1972 wurde dann das erste Programm zum Versenden und Empfangen elektronischer Post
(E-Mail) geschrieben, und das Computernetzwerk fand immer mehr Anhänger. Auch andere
Forschungseinrichtungen, Wirtschaftsunternehmen und andere Länder gründeten weitere
Computernetzwerke, zum Teil ebenfalls auf der Basis von Telefonleitungen, aber auch über
Rundfunk- und Satellitenverbreitung. Um all diese unterschiedlichen Netzwerke zu verbinden,
schufen Vinton Cerf und Bob Kahn 1974 das ,,Transmission Control Protocol / Internet Protocol",
das unter dem Namen TCP/IP bis heute genutzt wird. Mit dem einheitlichen Übertragungsprotokoll
entstand ein Netz aus verschiedensten Computernetzwerken: das Internet.
Da jedoch noch lange nicht alle Personen Zugang zum ARPANET hatten, entstanden weitere Netze
wie das ,,Usenet" auf Basis des Betriebssystems UNIX oder das private Mailboxsystem ,,Fidonet".
Diese Netzwerke wurden auch ,,Das Internet des armen Mannes" genannt. 1985 wurde dann das
National Science Foundation Network (NSFNET) gegründet, was einer großen Zahl
hochqualifizierter Nutzer eine Diskussionsplattform bieten sollte, unabhängig von ihrem
Forschungsbereich. Dieses offene Computernetzwerk wuchs schnell, andere Netzwerke wurden
wiederum angeschlossen. 1990 übernahm das NSFNET die Aufgaben des ARPANET. Im gleichen
Jahr wurde neben anderen Ländern auch das deutsche Forschungsnetzwerk WiN angeschlossen,
welches die deutschen Universitäten verband.
Die jüngsten Entwicklungsschritte auf dem Weg zum Internet, wie es sich heute darstellt, lagen
eher im Bereich der Software. So erdachte Tim Berners Lee 1989 im Kernforschungszentrum
12
siehe Kapitel 3.2: Die verschiedenen Dienste im Internet
Historischer Abriss

13
CERN in Genf in der Schweiz das Hypertextprinzip. Auf ihm bauten die
Seitenbeschreibungssprache HTML (HyperText Markup Language) und das zentrale
Vermittlungsprotokoll HTTP (HyperText Transfer Protocol) auf, die Grundpfeiler des WWW. Für
die Nutzung dieses neuen Dienstes waren kaum noch Fachkenntnisse nötig. Damit wurde auch
Computerlaien der Zugang zu den Dokumenten im Internet ermöglicht. Mehr noch, das WWW
integrierte andere Dienste wie ,,E-Mail" oder ,,ftp" unter einer grafischen Oberfläche. Die
endgültige ,,Internet-Revolution", die Etablierung dieser Technik in breiten Teilen der Gesellschaft,
setzte mit der Entwicklung des ersten Browsers namens ,,Mosaic" ein. Studenten der Universität
Illinois hatten eine Software programmiert, mit der man das WWW komfortabel durchstöbern (to
browse) konnte. Einer der ,,Mosaic"-Mitentwickler, der damals 22-jährige Marc Andreessen,
wurde mit seinem nächsten Browser ,,Netscape" weltberühmt und zu einem der reichsten Männer
Amerikas.
3.2 Die verschiedenen Dienste im Internet
Das Computernetzwerk Internet ist die technische Basis für verschiedene Anwendungen,
sogenannte Dienste. Die meisten von ihnen wurden ursprünglich separat genutzt, heute sind fast
alle Dienste im benutzerfreundlichen WWW integriert. Zu diesen Diensten zählen unter anderem:
,,E-Mail", ,,Newsgroups", ,,ftp", ,,telnet", ,,IRC" und ,,Gopher".
E-Mail
Bei E-Mail handelt es sich um elektronische Post. Der Dienst funktioniert ähnlich wie die Briefpost
mit einem Absender und einem Empfänger, dessen Adresse bekannt und eindeutig sein muss. E-
Mail-Adressen lassen sich durch das Zeichen ,,@" identifizieren, welches inzwischen zu einem
Synonym für die ,,Internet-Gesellschaft" wurde. Vor dem ,,@" steht im Allgemeinen der Name des
Empfängers, danach der Ort seines Postfaches. E-Mail-Nachrichten sind vom Charakter her
postlagernd und müssen aktiv abgerufen werden.
13
Es gibt verschiedene Software, die den E-Mail-
Standard interpretieren kann. Des weiteren kann der Dienst auch komfortabel auf Basis des WWW
genutzt werden, so dass nur ein Browser, aber keine zusätzliche Software mehr nötig ist. Schon
früh erkannten Entwickler das Potential, per E-Mail auch Dateien wie Töne, Fotos oder Videos zu
verschicken. Diese mussten zunächst auch als Text kodiert werden. Inzwischen hat sich dafür der
Standard MIME (Multipurpose Internet Mail Extention) durchgesetzt. Er erlaubt es, beliebige
Dateien als Anhang (,,Attachement") einer E-Mail zu verschicken.
Newsgroups
Wie die E-Mail mit der Briefpost zu vergleichen ist, kann für Newsgroups das Bild des ,,schwarzen
Bretts" gelten. Hier werden Mitteilungen an nicht näher bestimmte Adressaten versendet.
Benötigten die Nutzer früher einen sogenannten ,,Newsreader", so erfüllen moderne E-Mail-
Programme diese Funktion ebenfalls. Newsgroups werden als eine Art ,,öffentliches Konferenz-
System" genutzt und sind aus dieser Sicht noch am engsten verwandt mit den ursprünglichen
Aufgaben des Internets als (wissenschaftliche) Diskussionsplattform. Es gibt viele Tausend
Newsgroups zu verschiedenen Themengruppen. Um nicht alle durchsehen zu müssen, können
13
Neue Services bieten die kontinuierliche Zustellung von E-Mails per Faxgerät oder per SMS-
Kurznachricht auf das Handy.
Historischer Abriss / Die verschiedenen Dienste / E-Mail / Newsgroups

14
Interessierte eine Auswahl treffen und diese Gruppen (kostenlos) abonnieren. Die Teilnehmer einer
Newsgroup können die Mitteilungen anderer Nutzer lesen, darauf antworten oder eigene, neue
Diskussionspfade (,,threads") eröffnen. Nach einer bestimmten Zeit werden die jeweils ältesten
Einträge auf den sogenannten Newsservern gelöscht.
FTP
Unter FTP (,,File Transfer Protocol") versteht man einen Standard, der die Übertragung von
Dateien zwischen zwei Computern ermöglicht. FTP arbeitet dabei systemunabhängig, das heißt, die
beteiligten Computer können von verschiedenen Herstellern stammen und sogar unterschiedliche
Betriebssysteme nutzen. Über das Internet lassen sich FTP-Server aufrufen, die einen freien
Zugang gewähren (sogenannte Anonymous-FTP-Server). Bei anderen wird wiederum ein Passwort
verlangt. Die Benutzeroberfläche erinnert mit ihrer spartanischen Gestaltung eher an das Arbeiten
innerhalb der Verzeichnisstruktur von Betriebssystemen. Man kann sich durch die einzelnen
Ordner des FTP-Servers bewegen und beispielsweise die Datei suchen, die heruntergeladen werden
soll. Inzwischen wurden die FTP-Server ebenfalls in das WWW integriert und sind damit auch
leichter zu bedienen.
Telnet
Mit dem Telnet (,,telecommunications network") können andere Rechner ferngesteuert werden. Mit
Hilfe dieses Dienstes war es in den Anfangstagen des Netzes möglich, von kleinen Heimcomputern
die Kapazitäten von Großrechnern zu nutzen. Der leistungsschwächere Rechner fungiert dabei nur
als Abfragestation (,,Terminal"), das heißt zur Eingabe über die Tastatur und zur Ausgabe über den
Bildschirm. Die Rechenleistung wird dabei von einem anderen Prozessor erbracht. Heute wird
Telnet kaum noch genutzt mit Ausnahme einiger Bibliotheken, Datenbanken und auch als E-Mail-
Abfrage an der Universität Leipzig. Für umfangreichere Aufgaben ist Telnet nicht geeignet, da es
extrem große Datenmengen produziert und somit das System verlangsamt.
IRC
Der Internet Relay-Chat (IRC) bietet eine Plattform für die fast-synchrone Kommunikation über
Texteingabe. In einen sogenannten Chatraum können theoretisch unbegrenzt viele Teilnehmer
eintreten und miteinander über Text kommunizieren. Zahlreiche zumeist thematisch geordnete
Chaträume werden im IRC angeboten. Die Kommunikation erfolgt anonymisiert, da die meisten
Nutzer Fantasienamen zur Anmeldung benutzen. Vielleicht ist diese Anonymität auch ein Grund
für den großen Erfolg der Chat-Dienste, die auch innerhalb des WWW zu den gefragtesten
Angeboten gehören (van Eimeren 2000: 342). Die soeben verschickten Zeichen werden beim
Chatten innerhalb weniger Sekunden auf den Bildschirmen der anderen Teilnehmer sichtbar. Es ist
heute bereits möglich, nur bestimmte Teilnehmer anzusprechen oder auch per Sprache zu chatten.
Gopher
Der ,,Gopher" ist das Wappentier der Universität, die diesen Dienst entwickelt hat. Mit diesem
Dienst konnte man in hierarchischen Datenbanken navigieren. Allerdings waren dazu eingehende
UNIX-Kenntnisse unverzichtbar, was eine Massennutzung verhinderte. Außerdem ermöglichte
Gopher keine Hyperlinks, weshalb die meisten Server dieses Dienstes inzwischen ebenfalls über
das WWW erreichbar sind.
Newsgroups / FTP / Telnet / IRC / Gopher

15
3.3 Das WWW
Im März 1989 schrieb Tim Berners Lee das Gründungsdokument des WWW
14
am
Kernforschungsinstitut Cern in Genf. Auf Grundlage des Hypertext-Prinzips hatte Lee das
Vermittlungsprotokoll ,,HyperText Transfer Protocol" (HTTP) und die Seitenbeschreibungssprache
,,HyperText Markup Language" (HTML) entwickelt. Mit dem Begriff ,,Hypertext" bezog sich Lee
auf den Computeringenieur Ted Nelson, der seit 1967 seine Forschungen und Visionen diesem
Thema widmete. ,,Hypertext" bedeutete für Berners Lee (ebd.): ,,Human-readable information
linked together in an unconstrained way." (Etwa: ,,Lesbare Information, in lockerer Art
verbunden", der Autor.) Mittels sogenannter ,,hot spots" sollten zusätzliche Informationen, zum
Beispiel zu Bildern oder Texten, vom Nutzer angerufen werden können. Diese ,,hot spots" bilden
bis heute unter dem Namen ,,Links" (Verbindungen) eines der konstituierenden Merkmale des
WWW.
Mit Berners Lees HTTP- und HTML-Standard konnten die sogenannten ,,Internet-Seiten" von
verschiedenen Betriebssystemen gelesen und dargestellt werden. Die Entwicklung der ersten
Browser erleichterte den Seitenabruf für die Nutzer. Neben dem plattformübergreifenden Ansatz
wurde dieser intuitive Umgang mit dem WWW ein entscheidender Erfolgsfaktor. Im Web werden
keine ,,Dateien" mehr ,,kopiert" oder ,,heruntergeladen", sondern Texte, Bilder und sogar Videos
direkt dargestellt. Die Bedienung erinnert an vielen Stellen an die eines Anwendungsprogramms.
Sogenannte Anwenderkenntnisse (,,computer-literacy") sind inzwischen in der Gesellschaft mit
steigender Tendenz weit verbreitet. Der Weg zu einer massenhaften Nutzung des Internet-
Teilbereiches WWW wurde mit dieser Technik geebnet.
3.4 Technische Reichweite in Deutschland
Ebenso wie für das Telefon ist für die Nutzung des Internet ein technischer Zugang erforderlich.
Neben einem Personalcomputer mit Modem oder ISDN-Karte benötigen Nutzer sogenannte
Internet Service Provider (ISP), Unternehmen, die über ihre Zugangsrechner (Hosts) das Tor zum
WWW öffnen. Die Internetprovider vergeben an die Teilnehmer eindeutige Kennungen,
sogenannte IP- (Internet Protocol-) Adressen. Im Unterschied zu Telefonnummern, die einen
Anschluss im Regelfall eindeutig identifizieren, wird die begrenzte Zahl an Adressen jedoch
zufällig bei jeder neuen Einwahl in das Internet zugewiesen.
15
Damit ist eine Auszählung der
zumindest gelegentlich eingewählten Heimcomputer nicht möglich und eine Hochrechnung der
Internet-Teilnehmer aus den Erfahrungswerten für die durchschnittliche Nutzerzahl eines PC nicht
praktikabel.
16
Schon früh begannen deshalb vor allem Firmen, die für die technische Infrastruktur des Netzes
verantwortlich sind, Daten über angemeldete Hosts und reservierte Angebotsadressen (Domains)
zu erheben. So ist das RIPE Network Coordination Centre eines von weltweit drei regionalen
14
http://www. w3.org/History/1989/proposal.html (6. September 2000, 19.30 Uhr)
15
Eine Ausnahme bilden sogenannte Standleitungen, wie sie von Firmennetzwerken oft genutzt werden. Hier
können teilweise einzelne Arbeitsplatzrechner anhand einer festen IP-Adresse identifiziert werden.
16
Mit dieser Methode arbeitete unter anderem der MC Online-Monitor, der eine durchschnittliche Nutzerzahl
von 1,4 pro Online-Anschluss annahm. (,,MediaPerspektiven", Nr. 9/96: 488)
Das WWW / Technische Reichweite in Deutschland

16
Registrierungszentren. Das RIPE nimmt laufend elektronische Zählungen der Gesamtzahl aller an
das Internet angemeldeten Hosts vor. Von weltweit 5,8 Millionen Hosts im Januar 1995 stieg die
Zahl über 14,4 Millionen (1996), 21,8 Millionen (1997), 29,7 Millionen (1998), 43,2 Millionen
(1999) bis auf 72,4 Millionen im Januar 2000. Die Zahl der in Deutschland angeschlossenen
Knotenrechner gibt Riefler (1995: 7 f.) für Ende Dezember 1993 mit 110.000 an. Ein Jahr später
waren es bereits doppelt so viele und Ende Juni 1995 etwa 350.000. Fünf Jahre später waren nach
den aktuellen Zahlen des RIPE für August 2000 bereits über 1,8 Millionen Hosts in Deutschland
mit dem Netz verbunden
17
.
Da die Auszählung der Hosts keine Rückschlüsse auf die Zahl der Menschen erlaubt, die
tatsächlich ,,online" sind, das heißt, das Internet zumindest gelegentlich nutzen, müssen andere
Verfahren genutzt werden, um diese Daten zu erheben. So kumuliert das
Marktforschungsunternehmen NUA mit Sitz in New York und Irland (www.nua.ie) weltweit
veröffentlichte Schätzungen der Nutzerzahlen für bestimmte Regionen. Aus dieser Art der ,,Meta-
Zählung" können jedoch lediglich Trends über die Entwicklung des Internet abgeleitet werden, die
exakten Zahlen sind dagegen eher zweifelhaft und wohl etwas zu hoch. So waren laut NUA im
September 2000 etwa 377,65 Millionen Menschen weltweit online
18
. Dies entspricht etwa einer
Verzehnfachung der Nutzerzahl seit 1995 (Riefler 1995: 7). Eine konservativere Schätzung gab das
Internet-Angebot www.wissen.de ab, ohne jedoch das Zustandekommen der Zahl zu erläutern.
Nach diesen Angaben hatte das Netz rund 200 Millionen Anwender. In derselben Höhe schätzte
der Zentralverband ,,Bitkom" (www.bitkom.org) 1999 die Nutzerzahl. Die ,,Focus"-
Medienforschung (Focus 2000: 1) beruft sich auf Angaben der ,,Computer Reseller News Nr. 14
vom 6. April 2000, wonach rund 327 Millionen Menschen gelegentlich im Internet surfen.
Zusammenfassend kann also eine grob geschätzte Nutzerzahl von weltweit rund 300 Millionen
Menschen, etwa fünf Prozent der Weltbevölkerung, konstatiert werden.
Gesicherter als die weltweiten Schätzungen sind dagegen die Erhebungen der Nutzerstruktur in
Deutschland. So wird seit 1997 jährlich die ARD/ZDF-Online-Studie (van Eimeren/Gerhard 2000:
338) durchgeführt, zuletzt zwischen dem 22. März und 24. April 2000. Die Grundgesamtheit dieser
Studie bilden alle bundesdeutschen Onlinenutzer ab 14 Jahren. Ein Internetnutzer ist dabei jeder
Mensch, der die Möglichkeit des Netzzugangs hat und diese wenigstens gelegentlich wahrnimmt.
Eine bevölkerungsrepräsentative Stichprobe von rund 1000 Nutzern wird telefonisch mittels CATI
(Computer Assisted Telephone Interviews) zu ihren Onlineerfahrungen befragt. Van Eimeren
(1999: 225) betont: ,,Die ,ARD-Online-Studie 1997' war die erste Repräsentativerhebung deutscher
Online-Nutzer, damit konnten erstmals Basisdaten zur Struktur dieser Rezipientengruppe
bereitgestellt werden." Mit demselben Ansatz strebt auch der ,,GfK Online-Monitor" der
Gesellschaft für Konsumforschung nach Repräsentativität. Die Ergebnisse der 6. Befragungswelle
wurden am 21. August 2000 veröffentlicht (www.gfk.de). Die Stichprobe wurde hier jedoch mit
8004 telefonischen Interviews viel größer gewählt. Vornehmlich auf Ergebnisse dieser Studien
stützen sich deshalb die folgenden Ausführungen dieses Kapitels.
Beide Studien kommen bei der Nutzerzahl in Deutschland zu fast identischen Ergebnissen: 18,3
Millionen (ARD/ZDF-Online-Studie) beziehungsweise 18 Millionen (GfK Online-Monitor)
Deutsche ab 14 Jahren sollen zur Jahresmitte 2000 das Internet nutzen. Die Nutzung stieg im
Vergleich zum Vorjahr um fast zwei Drittel. Eine Verlangsamung der starken Zuwächse an neuen
Teilnehmern ist mithin noch nicht zu erkennen (Abbildung 2).
17
http://www.ripe.net/ripencc/pub-services/stats/hostcount.html (23. September 2000, 13.30 Uhr)
18
http://www.nua.ie/surveys/how_many_online/index.html (3. Oktober 2000, 9.15 Uhr)
Technische Reichweite in Deutschland

17
Abb. 2: Online-Nutzer in Deutschland
(Personen ab 14 Jahre)
18,3
11,2
6,6
4,1
0
5
10
15
20
1997
1998
1999
2000
Quelle: ARD/ZDF-Online-Studie 2000
Damit waren im Sommer 2000 fast ein Drittel aller Deutschen über 14 Jahre mindestens
gelegentlich Nutzer des Internet. Aussagen der vergangenen Jahre, wonach mit einer massenhaften
Verbreitung des Internet in naher Zukunft nicht zu rechnen sei, können deshalb als widerlegt gelten
(Schweiger/Brosius 1997:182; van Eimeren/Gerhard 1998: 434). Fast zwangsläufig ergaben sich
daraus auch Veränderungen der Nutzerstruktur. Waren früher vor allem junge Männer, formal hoch
gebildet und mit überdurchschnittlichem Einkommen, stark überrepräsentiert, so gleicht sich die
demografische Struktur der Netznutzer immer mehr jener der bundesdeutschen Bevölkerung an. So
wuchs zum Beispiel der Frauenanteil von 27 Prozent in 1997 auf mittlerweile 39 Prozent. Auch der
Anteil der älteren Nutzer nimmt stetig zu. Die Zahl der über 50-Jährigen hat sich in der jüngsten
Erhebung mehr als verachtfacht. Trotz dieser enormen Zuwachsraten ist vor allem im Bereich der
älteren Nutzer das Netz aber noch weit davon entfernt, die Verhältnisse in der Bevölkerung
abzubilden. So sind beispielsweise 52 Prozent aller Internetnutzer zwischen 20 und 39 Jahren alt, in
der Bevölkerung macht diese Altersgruppe dagegen gerade ein Drittel aus. Mit 16 Prozent Anteil
an der Internetnutzung erreichen die über 50-Jährigen gerade einen halb so großen Anteil, wie sie
ihn in der Bevölkerung bilden.
Für die These der weitgehenden Angleichung der Struktur der Internetnutzer an die der
Bevölkerung in der Zukunft sprechen die Zuwachsraten in den privaten Haushalten. Erklärten 1997
noch 60 Prozent der Onlinenutzer, ausschließlich den Zugang am Arbeitsplatz, in der Uni oder
Schule zu nutzen, waren das im Jahr 2000 nur noch 22 Prozent. Dagegen stieg der Anteil der
,,Heimnutzer" von 41 auf 76 Prozent. Die Domestizierung des Internets in die Privathaushalte lässt
sich auch an der Nutzungszeit ablesen. 1997 gab weniger als ein Drittel der Befragten an, in den
Abendstunden zwischen 18 und 21 Uhr zu surfen. Im Jahr 2000 waren rund die Hälfte aller Nutzer
in den Abendstunden online.
Ein kontinuierlicher Anstieg ist auch bei der Nutzungsdauer zu verzeichnen. Der durchschnittliche
Onlinenutzer surft inzwischen rund eineinhalb Stunden pro Tag, 20 Minuten mehr als noch vor vier
Jahren. Hier dürften vor allem gesunkene Telefonkosten und Onlinegebühren wichtige Ursachen
sein. Menschen, die über einen Onlineanschluss verfügen, gehen durchschnittlich vier bis fünf Mal
Technische Reichweite in Deutschland

18
pro Woche ins Netz, etwa ein Drittel sogar täglich.
19
Der GfK Online-Monitor errechnet daraus ein
Potential von 7,9 Millionen Nutzern pro Tag und 13 Millionen pro Woche.
20
Dies dürfte mit der
weiterhin beliebtesten Anwendung E-Mail zusammenhängen. Sowohl die ARD/ZDF-Online-
Studie, als auch der GfK Online-Monitor weisen E-Mail als beliebteste Anwendung vor dem
beliebigen Surfen aus. Es folgen der Abruf von Informationen und das Homebanking bzw. der
Aktienhandel (Brokerage).
Dass E-Commerce nicht nur eine Erfindung der Webanbieter ist, beweisen auch die Zahlen der
GfK: danach hat mindestens die Hälfte aller Internetnutzer bereits Produkte oder Dienstleistungen
aus dem Netz gekauft. Die rund neun Millionen sogenannten E-Consumer bevorzugen Produkte
wie Bücher, CDs, Software, Hardware sowie Kleidung und Schuhe. Bei den Dienstleistungen
werden der Kauf von Eintrittskarten, Hotel- und Reisebuchungen sowie Aktienhandel und
Onlineauktionen gern in Anspruch genommen.
Die Gesamtheit der gesicherten Erkenntnisse über Nutzerdemografie und Nutzungswiesen stellen
das Fundament dar, auf welchem in den folgenden Kapiteln Aussagen über mögliche
Erfolgsfaktoren journalistischer Onlineangebote getroffen werden.
3.5 Technologischer Stand und künftige Entwicklungen
Das Internet, speziell das WWW, hat sich seit seiner Erfindung rasant weiterentwickelt. Ein
internetfähiger Computer ist heute ab etwa 1500 Mark erhältlich, für die Übertragung und
Darstellung von Daten haben sich Quasi-Standards durchgesetzt. Vor allem für zunächst nicht
vorgesehene Dienste wie Audio- und Video-Streaming bieten Softwarehersteller inzwischen
sogenannte ,,Plug-Ins", die in die verbreiteten Browser implementiert werden können und deren
Funktion erweitern.
Derzeit sind vor allem auf zwei Gebieten größere Umwälzungen zu beobachten:
Übertragungsgeschwindigkeit und Sicherheit. Zahlreiche Firmen entwickeln Verfahren, die eine
schnellere Datenübertragung über die herkömmlichen Telefonnetze ermöglichen sollen. Daneben
werden diese Netze sukzessive durch neuere Leiter wie Glasfaserkabel ersetzt. Es ist ein Trend von
der elektronischen zur optischen Übertragung zu erkennen, der sich ebenfalls in der
Datenspeicherung vollzieht (CD-Rom / DVD statt Diskette). Andere Möglichkeiten wie die
Übertragung von Daten durch Stromleitungen, über Breitband-Fernsehkabel oder über Richtfunk
sind ebenfalls in der Erprobungsphase. Ziel der verbesserten Übertragung ist es, größere
Datenmengen in kürzerer Zeit zu versenden. Diese fallen vor allem bei der Digitalisierung von
Audio- und Videomaterial an. Mit den neuen Übertragungstechniken sollen Hörfunk- und
Fernsehprogramme in entsprechender Qualität über das Internet empfangen werden können. Damit
könnten in Zukunft Engpässe bei der Vergabe von terrestrischen Frequenzen und Satelliten-
Kanälen umgangen werden. Allerdings ergibt sich auch rechtlicher Regelungsbedarf. Bisher
entschieden die Landesrundfunkanstalten über die Vergabe von Rundfunklizenzen, der Start eines
Senders war mit erheblichen Investitionen verbunden. Per WWW kann derzeit praktisch jeder
rundfunkähnliche Programme vertreiben, die per Mikrofon und Kamera in Echtzeit in das WWW
19
Der Ausdruck ,,Heavy User" scheint bei der sich ausprägenden Nutzungsweise für diese Menschen nicht
mehr angebracht. Ein ,,Heavy User" sollte in Zukunft über die Nutzungsdauer pro Tag, nicht über die
Häufigkeit definiert werden.
20
Diese Zahlen sollen laut GfK als Grundlage für eine verlässliche Reichweitenmessung im Internet dienen,
in Anlehnung an die anerkannte GfK-Fernsehforschung.
Technische Reichweite / Technologischer Stand und künftige Entwicklungen

19
gespeist werden. Einzig die mangelnde Qualität verhindert noch die Durchsetzung zum Beispiel
von Spartenprogrammen zu bestimmten Hobbys oder für Regionen.
Ein weiterer wichtiger Trend ist die Erhöhung der Sicherheit im Datenverkehr. Ein Durchbruch
wurde auf diesem Gebiet mit der Anerkennung der ,,digitalen Unterschrift" durch die US-
Regierung erreicht. Damit ist zukünftig zum Beispiel das Ausfüllen und Autorisieren von
Formularen öffentlicher Einrichtungen und Behörden im WWW möglich. Auch im
Geschäftsverkehr, zum Beispiel beim Handel mit direkt über das Internet beziehbaren Waren wie
Software, sollte die digitale Unterschrift mehr Sicherheit bieten. Ein anderer relevanter
Sicherheitsaspekt ist die Ausspähung persönlicher Daten von Nutzern. Da die nationalen
Datenschutzbestimmungen im WWW leicht umgangen werden können, bieten
Softwareunternehmen Privatpersonen spezielle Programme, beispielsweise zum Verschlüsseln
geschäftlicher E-Mails.
Ein vielversprechender Schritt in Richtung einer höheren Mobilität des WWW ist die Entwicklung
des UMTS-Standard im Mobilfunkbereich. Verschiedene Anbieter waren im Sommer 2000 deshalb
bereit, insgesamt fast 100 Milliarden Mark für die Nutzungsrechte zu bezahlen. (,,Süddeutsche
Zeitung", 28. August 2000: 1) Der neue Standard soll eine schnelle Datenübertragung auf
Mobiltelefone, Kleincomputer und künftige portable Empfangsgeräte ermöglichen. Dies verspricht
zum Beispiel neue Service-Möglichkeiten, wie digitale Routenplaner und Stadtführer oder das
Reservieren von Veranstaltungskarten oder Restaurantplätzen von jedem Ort aus.
Entscheidend zur Steigerung des Nutzwertes des WWW für Privatanwender werden neue
Tarifmodelle der kommenden Monate beitragen. Zahlreiche Zugangsprovider kündigen bereits
Flatrates an, mit denen man für einen monatlichen Festpreis von rund 50 Mark ständig online
bleiben kann. Dies dürfte vor allem auch journalistischen Web-Angeboten merkliche
Zugriffssteigerungen bringen, da derzeit der schnellen Information oft das langwierige und
technisch nicht ausgereifte Einwahlverfahren im Wege steht.
Technologischer Stand und künftige Entwicklungen

20
4. Das WWW als Massenmedium
4.1 Wann wird aus einer neuen Technik ein neues Medium?
Mit der Erfindung der beweglichen Metalllettern eröffnete Johannes Gutenberg um 1450 völlig
neue Möglichkeiten in der Informationsvermittlung. Mussten Bücher früher sogar per Hand
abgeschrieben werden, um ein weiteres Exemplar zu erhalten, so ermöglichte es die neue Technik,
Schriftstücke in großer Zahl zu einem relativ geringen Preis anzufertigen. Die grundlegende
Voraussetzung für die Etablierung des Mediums Zeitung war geschaffen.
1895 gilt als das offizielle Geburtsjahr der Kinematographie. Im November zeigten die Brüder
Skladanowsky im Berliner ,,Wintergarten" einige Kurzfilme, einen Monat später stellten die
Franzosen Lumière ihre Erfindung zur Darstellung ,,laufender" Bilder im Pariser ,,Grand Café" vor.
Es sollte noch ein halbes Jahrhundert dauern, bis die Filmtechnik im Gewand des Fernsehens
Einzug in deutsche Haushalte hielt.
Ende der 60er Jahre verkündete der kanadische Medientheoretiker und -visionär Herbert Marshall
McLuhan in Überschwänglichkeit das ,,global village". Die technischen Erfindungen Satelliten-
und Breitbandübertragung und wenig später die ersten Sendungen elektronischer Post über das
ARPANET sollten nach seiner Meinung schon bald ein ,,globales Dorf" begründen, in dem jeder
mit jedem kommunizieren kann.
Anhand der Beispiele lässt sich feststellen, dass allein das Vorhandensein einer neuen
Informationstechnik noch keine hinreichende Begründung für die Etablierung eines neuen
Mediums ist. Die technische Realisierung gibt weder Aufschluss wann sich ein Medium
durchsetzen wird, noch ob ihm dies gelingt.
21
Der Begriff Medium entstammt dem Lateinischen
und bedeutet so viel wie ,,das in der Mitte Befindliche". Es ist ein ,,Mittel zur Weitergabe oder
Verbreitung von Information durch Sprache, Gestik, Mimik, Schrift, Bild, Musik" (Meyers
Lexikon 1995). Kommunikationswissenschaftlich betrachtet sind Medien ,,Techniken zur Lösung
der Kommunikationsprobleme" (Winfried Schulz, zitiert nach Neuberger/Tonnemacher 1999: 17).
Auch das Internet und im Speziellen seine weit verbreitete Oberfläche WWW werden oft
vorschnell als neues Medium bezeichnet. Rössler stellt fest, dass das Web nicht nur in populären,
sondern auch in wissenschaftlichen Veröffentlichungen oft als ,,,Leitmedium' des neuen
Millenniums" bezeichnet wird (1998: 7). Mit der Begriffsschöpfung ,,Netzmedium" für ihren
Buchtitel versucht Neverla (1998), die unterschiedlichen Dienste des Internet in einem
integrierenden Ansatz zu untersuchen. Noch stärker verschwimmen die Grenzen bei Höflich (1998:
95), der den Computer als ,,Universalmedium" sieht. Er untersucht alle Funktionen des ,,Mediums
Computer" (ebd.: 94), zum Beispiel als Plattform von Anwendungsprogrammen, Computerspielen,
interaktiven CD-ROMs und natürlich als technische Grundlage des Internet. Dieser Zugang zum
Medium ist wegen seiner Breite für die Untersuchung des WWW unangebracht.
Zunächst sollte zwischen zwei Mediendefinitionen unterschieden werden, einem technischen
respektive einem institutionalisierten Medienbegriff (Neuberger 1999: 17 f.) oder, wie
Weischenberg es nennt, Medien 1. Ordnung und Medien 2. Ordnung. Als ,,Techniken ohne
Hintergrund" bezeichnet Weischenberg (1998: 51) die Medien 1. Ordnung. Es handelt sich hierbei
21
So wurde trotz großer Anstrengungen von Politik und Wirtschaft das System Bildschirmtext (BTX) in den
80er Jahren von den Nutzern nicht angenommen und ist heute bedeutungslos geworden beziehungsweise
über eine Neuausrichtung wie im Fall des Providers T-Online in die Internet-Entwicklung integriert worden.
Das WWW als Massenmedium / Wann wird aus einer Technik ein Medium?

21
also um ein rein technisches Vermittlungssystem für Zeichen. Diese Medien helfen, ,,die Grenzen
der direkten Kommunikation zu überwinden...", so Neuberger (1998: 17). Solch ein technisches
Artefakt ist zumeist nicht auf eine Nutzungsart festgelegt und seine Inhalte sind unvollständig oder
unfertig. Beispiele für Medien 1. Ordnung sind Geräte wie das Telefon, ein Radioempfänger oder
eben auch Teilbereiche des Internets wie das zugrundeliegende Computernetz und die
standardisierten Übertragungsprotokolle.
Medien 2. Ordnung werden dagegen bestimmte, relativ überdauernde Funktionen von den Nutzern
zugeschrieben, wie das Selektieren, Strukturieren und Präsentieren von Aussagen. Sie dienen der
Bildung einer von den Mitgliedern einer Gesellschaft anerkannten sozialen Realität, können
deshalb auch als sozialisierte Medien verstanden werden. Dieser Medienbegriff gründet sich
vornehmlich auf eine ,,Institutionalisierung in ökonomischer, technologischer, organisatorischer
und professioneller Hinsicht..." (Weischenberg 1998: 52). Das heißt, es entsteht ein
sinnkonstruierender Handlungskontext, in dem professionelle Akteure und Organisationen
regelhaft wirken (Höflich 1998: 102 f.; Neverla 1997: 7). Diese sogenannten Kommunikatoren
22
wählen also Themen aus und stellen sie der öffentlichen Kommunikation in einem Teilbereich der
Gesellschaft zur Verfügung. Bei der Auswahl sind sie wiederum beeinflusst von Vorstellungen
über die Erwartungen der Mediennutzer, die sie erreichen wollen. Ein Medium 2. Ordnung oder
auch ,,publizistisches Medium" (ebd.) entsteht also auch durch die Art des Gebrauchs durch seine
Nutzer und deren Erwartungen an die Funktionsweise dieses Systems. Erst die Einbettung in die
Gesellschaft und die Funktionszuschreibung durch deren Mitglieder macht aus einem technischen
Artefakt ein Medium im kommunikationswissenschaftlichen Sinne.
4.2 Ist das World Wide Web ein Massenmedium?
Das Internet bietet auf Grundlage seiner technischen Optionen unterschiedliche
Nutzungsmöglichkeiten, die teilweise Züge der Massenkommunikation tragen, teilweise aber auch
an private Kommunikation wie die Briefpost oder halböffentliche Kommunikation wie das
Gespräch unter Freunden erinnern. Aus diesem Grund plädiert diese Arbeit für eine getrennte
Analyse dieser verschiedenen ,,Kommunikationsmodi", wie sie auch Dobal / Werner (1997: 114)
vorschlagen. Schließlich käme kein Kommunikationswissenschaftler auf die Idee, Papier in all
seinen Anwendungsmöglichkeiten zu untersuchen, sondern man beschränkt sich auch hier auf den
Modus ,,Zeitung". Höflich (1998: 49) verweist darauf, dass auch niemand ,,die Effekte von
Fernsehen, Radio und Telefon in einem erklären" wolle. Zunächst müssen deshalb Dienste des
Internet wie das WWW als Kommunikationsplattform, Chat oder E-Mail klar getrennt werden
(auch wenn oft versucht wird, alle Formen aufgrund ihrer technischen Integration in das WWW in
einem ,,großen Wurf" zu untersuchen).
Im Hinblick auf die Analyse journalistischer Angebote ist der Teilbereich WWW des Internet von
entscheidender Bedeutung, da derzeit ausschließlich in diesem Dienst Journalismus stattfindet. Sein
Gebrauch gehört mittlerweile bei fast einem Drittel aller Deutschen zum Alltag (siehe Kapitel 3.4),
was erst die Einrichtung eines journalistischen Angebots, welches sich immer an ein
Massenpublikum wendet, sinnvoll erscheinen lässt. Denn erst bei ausreichender Beachtung durch
22
Da sich die Kommunikationswissenschaft überwiegend der Massenkommunikation widmet, sind hier vor
allem professionelle Kommunikatoren wie Journalisten, Öffentlichkeitsarbeiter und ganze Systeme wie zum
Beispiel Nachrichtenagenturen gemeint.
Wann wird aus einer Technik ein Medium? / Ist das WWW ein Massenmedium?

22
die Rezipienten kann das System Journalismus seine Funktion, die ,,aktuelle Herstellung von
Themen zur öffentlichen Kommunikation" (Altmeppen 1998: 199), sichern.
Neuberger/Tonnemacher (1999: 43) verweisen in diesem Zusammenhang auf die ,,Critical Mass
Theory", wonach eine Mindestanzahl an Teilnehmern ein neues Medium nutzen muss, um dieses
für weitere Teilnehmer (und damit verbunden auch Anbieter) interessant zu machen. Rössler
(1998: 24) stützt die Theorie der ,,kritischen Masse" zwar vor allem damit, dass Online-
Kommunikation in bestimmten Bereichen der Internets wie den Usenets stark auf Partizipation
vieler Teilnehmer baut. Jedoch kann dieser Effekt auch beim WWW mit den teilweise stark
unidirektionalen Angeboten
23
klassischer Medienredaktionen nachgewiesen werden. Ohne
massenhafte Verbreitung wäre eine wirtschaftliche Arbeitsweise zum Beispiel durch
Anzeigenerlöse auch auf lange Sicht nicht denkbar. Zipfel (1998: 32) geht in Anlehnung an
ökonomische Diffusionstheorien davon aus, dass etwa 10 bis 20 Prozent der Bevölkerung die
,,kritische Masse" ausmachen. Danach hat sich das WWW bereits als nutzbringendes Medium für
die Teilnehmer etabliert.
Weiterhin ist das WWW der am stärksten ,,institutionalisierte" Bereich des Internet. Wie bereits im
Einführungskapitel beschrieben, sind hier zahlreiche Webseiten klassischer Medienanbieter zu
finden. Diese Unternehmen haben bestimmte Organisationsstrukturen wie die Ressorteinteilung
sowie professionelle Standards, zum Beispiel in der Informationsbeschaffung und der
redaktionellen Bearbeitung. Diese formalisierten Verfahren wurden zu einem großen Teil auch in
das WWW übernommen. Auf der Nutzerseite stehen dem bestimmte Erwartungen gegenüber, die
ebenfalls zu großen Teilen aus den Erfahrungen mit klassischen Medien gespeist wurden. In einem
Transformationsprozess werden besonders von bekannten Medienanbietern im WWW ähnliche
Leistungen erwartet wie offline. Schweiger (1998) hat diesen Prozess anhand des Konstruktes
,,Glaubwürdigkeit" untersucht und fand seine Transferhypothese bestätigt.
Neben journalistischen Anbietern nutzen jedoch auch andere professionelle Institutionen wie
Unternehmen oder Parteien und ebenso Privatpersonen das WWW als Kommunikationsplattform.
All diese Angebote weisen dabei eine Gemeinsamkeit auf: Sie richten sich potentiell an ein
Massenpublikum, ja, entstehen aus diesem Grund. Es kann also konstatiert werden, dass das
WWW im Gegensatz zur privaten E-Mail-Kommunikation oder zur Gruppenkommunikation im
Chat ein in der Institutionalisierungsphase befindliches Massenmedium ist. Die Wandlung vom
,,Medium 1. Ordnung" zum ,,Medium 2. Ordnung" scheint nur noch eine Frage der Zeit.
4.3 Indizien für die Etablierung als Massenmedium
Die Anbieterseite
Gegen die Theorie des ,,Massenmediums WWW" sprechen sich zahlreiche Autoren aus. Schmutzer
(1997: 226) sagt stellvertretend: ,,Computernetze können nicht wie Massenmedien funktionieren,
selbst wenn sie massenhaft verbreitet werden." Jeder könne zwar alles sehen und lesen, aber jeder
sehe oder lese etwas anderes. Letztlich bleibe also der persönliche Gebrauch entscheidend für die
Aufnahme ausgewählter Inhalte. Für das WWW stellt auch Rössler (1998: 31) fest, dass ,,selbst die
Nutzung derselben Site durch die permanent erforderlichen Selektionsentscheidungen je nach
23
Als ,,unidirektional" oder asymmetrisch werden Angebote verstanden, bei denen der Kommunikationsfluss
in eine Richtung stark überwiegt. Ein Kommunikationsteilnehmer hat also größere Chancen, Informationen
zu erteilen (Massenmedien), als ein anderer Kommunikationsteilnehmer (Mediennutzer).
Ist das WWW ein Massenmedium? / Indizien für die Etablierung / Die Anbieter

23
Nutzer zu einem unterschiedlichen Rezeptionsstimulus führt...". Dies jedoch als Beleg zu werten,
dem WWW die Tauglichkeit als Massenmedium abzusprechen, dürfte sich schnell als Fehlschluss
erweisen. Denn auch Zeitungen oder Rundfunkprogramme, die in der
Kommunikationswissenschaft unbestritten als Massenmedien gelten, werden selektiv rezipiert.
Auch hier wählen Nutzer aus einer Vielzahl von Artikeln die aus, die sie lesen oder schauen
bevorzugt bestimmte Sender oder Sendungen im Fernsehen. Van Eimeren (1999: 229) sieht die
Aussage von 51 Prozent aller Online-Anwender, häufiger ziellos im Netz zu surfen, gar als Beleg,
dass ,,das Online-Medium 1998 in ähnlicher Weise wie die klassischen elektronischen Medien
eingesetzt" wird.
Eine falsche Annahme, die sowohl Rössler, als auch Schmutzer zu Grunde legen, ist, dass ein
spezifisches Medien-Angebot, etwa ein Zeitungstitel, eine massenhafte, gleichartige Nutzung
aufweisen muss, um ein (Medien-)Thema öffentlich zu machen. Sieht man das WWW jedoch als
Plattform verschiedener Online-Angebote, so erfüllt es bereits die Anforderungen an ein
Massenmedium: Es gibt auf der Anbieterseite zahlreiche Unternehmungen, die sich im Sinne von
Maletzkes Definition der Massenkommunikation (1963: 32) öffentlich, durch technische
Verbreitungsmittel, indirekt und einseitig
24
an ein disperses Publikum wenden. Leider ist es noch
immer fast unmöglich, einen Überblick über die meistgenutzten Angebote in Deutschland zu
erlangen. Vor allem in den Umfragen der Marktforschung, aber auch im Rahmen der IVW-
Messung werden lediglich Angebote ähnlicher Prägung wie Suchmaschinen, Onlinezeitungen oder
E-Commerce-Seiten verglichen. So erhob eine jüngst veröffentlichte Nutzerzählung der Agentur
MMXI Europe als ,,Die zehn bestbesuchten Websites im August" lediglich die Nutzerzahlen von
Suchmaschinen oder sogenannten Portalen. (,,Die Welt", Sonderbeilage ,,WebWelt", 11. Oktober
2000: 1) Redaktionelle General-Interest-Angebote wurden unter den Top Ten offensichtlich nicht
berücksichtigt. So errang ,,AOL" bei der MMXI-Europe-Erhebung Platz 3 hinter ,,T-Online" und
,,Yahoo!". Laut IVW-Messung erreichte das Portal unter den General-Interest-Angeboten lediglich
den 7. Rang.
Untersucht man dagegen die zehn zugriffsstärksten IVW-gemeldeten Angebote im Monat Juli 2000
über alle Kategorien, so ergibt sich ein eindeutiges Bild: Einem E-Mail-Serviceanbieter (,,GMX"),
einer Suchmaschine (,,Fireball") und zwei Special-Interest-Angeboten zum Thema Aktienhandel
(,,Wallstreet:Online", ,,Consors") stehen sechs Angebote klassischer Medien gegenüber. Dies sind
neben ,,RTL Online" und ,,Tomorrow Networld" vier Vermarktungsgemeinschaften traditioneller
Verlage, die alle ihre Titel zu sogenannten ,,Kombis" addieren.
25
Obwohl die Portalsites zweier großer Anbieter wie ,,T-Online" und ,,Yahoo!" von der IVW nicht
gemessen werden, lässt sich doch ein deutliches Übergewicht traditioneller Medienanbieter unter
den beliebtesten Seiten im Netz feststellen.
Die Nutzerseite
Die im WWW kommunizierten Inhalte werden seit Mitte der 1990er Jahre in Deutschland von
einer ständig wachsenden und demografisch breiteren Bevölkerungsschicht wahrgenommen. Die
Gruppe der Online-Nutzer verliert ihre anfänglichen besonderen Kennzeichen als spezielle
24
Die Einseitigkeit des WWW ist als relative Größe zu verstehen. Ebenso wie bei klassischen Medien
können Rückmeldungen (zum Beispiel Leserbriefe, E-Mails, Beschwerden) durch die Leser erfolgen. Jedoch
kann von einer Chancengleichheit hinsichtlich der Publizität nicht die Rede sein.
25
Andere zugriffsstarke Angebote wie ,,Yahoo!" oder ,,T-Online" lassen sich nicht von der IVW messen und
müssen bei diesem Vergleich deshalb unberücksichtigt bleiben. Lediglich der Provider ,,AOL", etwas
schwächer einzuschätzen als ,,T-Online", lässt seine Zugriffszahlen IVW-prüfen. Die Site www.aol.de kam
im Juli 2000 mit 3,9 Millionen Visits auf Platz 7 der redaktionellen General-Interest-Angebote.
Die Anbieterseite / Die Nutzerseite

24
Zielgruppe und kann zunehmend als Öffentlichkeit bezeichnet werden. Als Indiz dafür sei die Wahl
der Internet-Behörde ICANN (Internet Corporation for Assigned Names and Numbers) genannt,
die ein starkes Medienecho auch in den klassischen Massenmedien hervorrief. (ARD
,,Tagesschau", 11. Oktober 2000; ,,Die Welt", 12. Oktober 2000: 12). Auch in diesen Medien setzte
man also ein Interesse nicht nur einer kleinen Bevölkerungsgruppe am Thema WWW voraus. Ein
anderes vielbemühtes Beispiel dafür, wie ein Thema aus dem Internet weltweit in die öffentliche
Kommunikation einfließen kann, ist der Drudge-Report (www.drudgereport.com). Auf seiner
Website veröffentlichte Reporter Matt Drudge als erster die Gerüchte um die Affäre zwischen US-
Präsident Bill Clinton und Praktikantin Monica Lewinsky, die zu einem politischen
Misstrauensantrag führte.
In den beiden letztgenannten Fällen ließ nicht nur die große Verbreitung des WWW den Vergleich
mit anderen Massenmedien zu, sondern auch die Nutzung durch die Rezipienten. In der
Medienwirkungsforschung wird immer wieder der Fehler begangen, einem Medium aufgrund
seiner originären Eigenschaften und der Verbreitung bestimmte Folgen zu unterstellen. Höflich
(1998: 49) nennt das einen ,,technologischen Imperativ". Danach würde eine Technologie X die
Wirkungen A, B und C bei all ihren Nutzern in immer gleicher Weise zeitigen. McLuhan (1963:
13) fasste diese Sichtweise in einem Satz zusammen: ,,The medium is the message". (,,Das
Medium ist die Botschaft.", Übersetzung d.A.) Medieneigenschaften sind jedoch nicht objektiv
gegeben, sondern werden im Gebrauch durch die Nutzer erst sozial konstruiert. Institutionalisierte
Medien entstehen also durch Nutzung unter bestimmten gesellschaftlichen Voraussetzungen, die
zum Beispiel auch von der Politik, der Ökonomie und der Struktur der Medienorganisationen
mitbestimmt werden können.
Betrachtet man nun die Nutzung des WWW, lässt sich ein Trend zum Abrufmedium für
Informationen feststellen. Als Grund für die Einrichtung eines Online-Anschlusses gaben in der
ARD/ZDF-Online-Studie 1999 fast alle Nutzer (90 Prozent) an, dass sie so ,,an interessante
Informationen" kommen (van Eimeren/Gerhard 1999: 404). Um Informationen schnell, bequem
und in einer hohen zu erwartenden Qualität abzurufen, surfen die Nutzer hauptsächlich zu den
Online-Angeboten klassischer Medien. Alles deutet darauf hin, dass das WWW ,,als Informations-
und Kommunikationsmedium, das einen konkreten, alltagsrelevanten Nutzen aufweist" (van
Eimeren/Gerhard 2000: 348), eingesetzt wird. Trotz oft als Interaktivität überschätzter
Selektionsmöglichkeiten für den Rezipienten erfüllt das WWW bei dieser Art der Nutzung den
Anspruch der Einsseitigkeit im Sinne der von Maletzke definierten Merkmale von Massenmedien.
Dem Surfer bleibt lediglich die eingeschränkte Wahl zwischen den gegebenen Optionen, in diesem
Falle journalistischen Webangeboten, oder einer Verweigerung. Damit trifft das Kriterium der
,,Einseitigkeit" auf die aktuell überwiegende Nutzungsweise des WWW ebenso zu wie auf andere
Massenmedien wie Zeitungen oder Rundfunkprogramme. Ebenfalls gegebene technische Optionen
wie die Erstellung eines eigenen Angebotes (Homepage) oder die Mitwirkung in
Diskussionsgruppen des Usenet werden nur von wenigen Menschen realisiert. Während 72 Prozent
aller Nutzer mindestens einmal wöchentlich eher passiven Tätigkeiten wie dem Abruf von
aktuellen Nachrichten und Informationen aus der Region nachgehen, beteiligen sich gerade 24
Prozent an Newsgroups, Gesprächsforen oder chatten (ebd.).
Zumindest für den Bereich des WWW scheinen sich die optimistischen Hoffnungen früherer Tage
auf die Mitwirkung aller Nutzer nicht zu bewahrheiten. Der Trend geht von der Interaktion zur
Rezeption oder anders gesagt ,,vom Pull zum Push"
26
(Weischenberg 1998: 56). Mit Bezug auf die
26
Vom aktiven Abrufen (pull = ziehen) der Informationen durch Nutzer zum Verbreiten durch Anbieter und
passiven Konsumieren durch Nutzer (push = schieben). (d. A.)
Die Nutzerseite

Details

Seiten
Erscheinungsform
Originalausgabe
Jahr
2000
ISBN (eBook)
9783832447106
ISBN (Paperback)
9783838647104
DOI
10.3239/9783832447106
Dateigröße
4 MB
Sprache
Deutsch
Institution / Hochschule
Universität Leipzig – , Kommunikations- und Medienwissenschaft
Erscheinungsdatum
2001 (November)
Note
1,2
Schlagworte
onlinejournalismus finanzierung erfolg synergien
Zurück

Titel: Erfolgsinduzierende Faktoren journalistischer Online-Angebote
book preview page numper 1
book preview page numper 2
book preview page numper 3
book preview page numper 4
book preview page numper 5
book preview page numper 6
book preview page numper 7
book preview page numper 8
book preview page numper 9
book preview page numper 10
book preview page numper 11
book preview page numper 12
book preview page numper 13
book preview page numper 14
book preview page numper 15
book preview page numper 16
book preview page numper 17
book preview page numper 18
book preview page numper 19
book preview page numper 20
book preview page numper 21
book preview page numper 22
book preview page numper 23
book preview page numper 24
book preview page numper 25
book preview page numper 26
book preview page numper 27
book preview page numper 28
133 Seiten
Cookie-Einstellungen