Lade Inhalt...

Analyse, Typologisierung und Evaluierung von virtuellen Kongressen

Supplement oder Substitut für reale Kongresse

Diplomarbeit 2002 105 Seiten

Medien / Kommunikation - Medienökonomie, -management

Leseprobe

0. Executive Summary

In the process of ongoing development of web-based communication devices, entrepreneurship today is facing a diversified field of new technologies to choose from. One of the innovations among those promising improvement and added values in terms of corporate communication is a virtual congress.

The main objective of this thesis is to explain, especially to SAP, what is meant by a virtual congress. Furthermore, sub-objectives aim at classifying and marking virtual congresses as a means of communication both within a theoretical framework and a scenario of corporate marketing activities in practice. A Partial target is to answer the arising question if a virtual congress simply has to be seen as a supplement to a real congress or if it might be able to substitute a real one.

Making the first move, Chapter 1 shows that both Internet, and the sectors Information and Communication as objects of corporate planning have gained a significant level of importance. Besides describing the historical development of the Internet itself and fundamentals of communication science, the chapter identifies virtual congresses as an innovative means of communication in context of Streaming Media and web-based conferencing techniques.

Chapter 2 portrays a detailled analysis of the technological framework a virtual congress is being realized in. On the one hand operational structures and sequences of Streaming Media are being displayed. On the other hand explanations draw a clear dividing line between Streaming Media processes and customary protocol-based communication in computer networks.

In order to classify virtual congresses into corporate functional structures, Chapter 3 describes theoretical approaches to the marketing-specific area of the communication mix. By taking into account essential best-practice management frameworks and theories of behavioral psychology, the groundwork for a comparison of a real event and its virtualization is layed. Coming out of the theoretical point of view, structures in SAP practice are described. At this stage the chapter especially focuses on the area of Event-marketing, to which virtual congresses are naturally assigned.

The following section, Chapter 4, contains a practical economical analysis by means of the introduced business case model underlying the scenario of SAP Congress for Retail and Consumer Products.

The Phase of appraisal, as a part of the Business Case approach, is spinned off and precisely covered in Chapter 5. The elaboration leads to an evaluation, which assesses virtual congresses regarding their potential in terms of realization. The evaluation also answers the question concerning supplement to or substitute for real congresses based on the comparison methodology displayed in Chapter 3.

As a result, this thesis shows that a virtual congress can not substitute a real congress. Nevertheless it has to be noted that the realization of a supplementary virtual congress is rated positively and recommended.

Based on this finding and as a logical derivative of the terms of reference, the thesis provides concrete indications for implementing and carrying out a virtual congress as a supplement to a real congress.

1. Grundlagen

1.1 Entwicklung des Internet im Sektor Medien- und Kommunikation

Gilt das Internet heute als massenhaft genutztes Medium und zentrales Element der neu entstandenen digitalen Ökonomie, so weist seine historische Entwicklung in ihrer Besonderheit Strukturen und dynamische Prozesse auf, die sich teilweise von der Entwicklung der klassischen Medien abgrenzen. Der Alltag und die Kommunikation innerhalb gesellschaftlichen und wirtschaftlichen Handelns hat sich mit der Evolution von Online-Medien maßgeblich verändert und offeriert ein breites Spektrum globaler, medialer Aktivitäten. Um die aktuellen und zukünftigen Strömungen aus unternehmerischer Sicht effizient in einen Gesamtzusammenhang einordnen zu können, ist es von grundlegender Bedeutung, die Ursprünge des Internets zu beleuchten.

Das Internet, Abkürzung für Interconnected Networks, als heutiges Kommunikationsnetz hat seinen Ursprung im Militärsektor. Zum Klimax des Kalten Krieges Mitte der 60er Jahre suchten die USA nach einer Möglichkeit, Computer über Netze zu verknüpfen. Grund dafür war die hohe Eintrittswahrscheinlichkeit eines weiteren Krieges zwischen den beiden Weltmächten USA und UdSSR, deren Aufrüstungsanstrengungen sogar in Richtung einer nuklearen Auseinandersetzung deuteten. Eine der absehbaren Folgen eines derartigen Konfliktes war die weiträumige Zerstörung vorhandener Rechnernetze, welche jegliche militärische Kommunikation nach bisherigen Standards zum Erliegen gebracht hätte. Man erkannte die Notwendigkeit eines Netzwerkes, welches trotz einer Funktionsstörung bzw. Zerstörung einer Vielzahl von Rechnern, Netzwerkverbindungen und Knotenpunkten, die Kommunikation zwischen den verbleibenden Rechnern weiterhin ermöglicht. Die Entwicklung dieses neuen, robusteren Netzwerkes wurde der Advanced Research Project Agency (ARPA) durch das US-Verteidigungsministerium übertragen. Um eine dezentrale Datenübertragung zu ermöglichen, verfolgte die ARPA als Kerngedanken den Verzicht auf eine zentrale Steuerung [Schwarze 1997: S. 139].

Erste Lösungsansätze wurden 1969 mit dem ARPANET präsentiert, welches bis 1971 bereits 30 Knotenpunkte beinhaltete, die per NCP (Network Control Protocol) miteinander kommunizierten. Wichtigstes Merkmal des ARPANET war der erstmalige Einsatz von paketorientiertem Datentransfer. Dieser Übertragungsmechanismus ermöglicht eine bessere Ausnutzung vorhandener Leistungskapazitäten. Zum anderen wird durch redundante Verbindungswege sichergestellt, dass Informationen, über dynamisch neu bestimmte Routen, ihren Empfänger erreichen. Innerhalb des an Popularität gewinnenden ARPANETs waren jedoch Informationen primär nur dem Verteidigungsministerium der USA oder vom Ministerium selbst autorisierten und kontrollierten Institutionen zugänglich. Ausgegrenzte Interessenten forcierten auf Grund dessen die Bildung eigener Informationsnetzwerke, so z.B. um 1980 auch die amerikanischen Universitäten in Form des CSNET (Computer Science Research Network) oder 1986 die NSF (National Science Foundation) mit dem NSFNET (National Science Foundation Network). Die neu entstandenen Netze konnten bis dato jedoch nicht miteinander verknüpft werden. Die Inkompatibilität der unterschiedlich eingesetzten Kommunikationsprotokolle ermöglichte einen Informationsaustausch lediglich innerhalb eines spezifischen Netzes bzw. mehrerer Netze mit den gleichen Übertagungsmechanismen.

Der Wandel vollzog sich mit der Einführung der Kommunikationsprotokolle TCP/IP (Transmission Control Protocol/Internet Protocol). Seit Mitte der 1970er entwickelte die in DARPA (Defense ARPA) umbenannte ARPA TCP/IP, um unterschiedliche Implementierungen von paketorientierten Mechanismen zur Datenübertragung miteinander zu verbinden. Im Jahre 1983 wurden schließlich alle ARPANET-Knoten auf TCP/IP umgestellt und der militärische Bereich (Milnet) davon abgekoppelt. Die militärische Kontrolle stand somit der weiteren Verbreitung des TCP/IP-Standards zur Verknüpfung einzelner Netze nicht mehr entgegen. Nicht zuletzt wurde dies durch die Tatsache begünstigt, dass TCP/IP als integraler Bestandteil in das Betriebssystem UNIX implementiert und innerhalb dieses Prozesses aus öffentlichen Geldern der DARPA finanziert wurde. Somit entstanden für dessen Nutzung keine weiteren Lizenzgebühren und der Wirkungskreis entfaltete sich mit der Verbreitung von UNIX. Die Rolle des ARPANET innerhalb des Netzverbundes wurde 1990 vom NSFNET übernommen. Mit der gewachsenen Anzahl seiner Knotenpunkte wird es auch als „Backbone“ oder „Rückgrat“ des Gesamtnetzes respektive des heutigen Internets angesehen.

Hinter dem Begriff Internet verbirgt sich ein „System unterschiedlicher, miteinander verbundener Netze, die eine einheitliche Protokollfamilie benutzen, nämlich TCP/IP“ [Schwarze 1997: S. 139].

Die wichtigsten Dienste innerhalb dieses Systems wie z.B. E-Mail, Newsgroups, File Transfer Protocol (FTP), Telnet, Gopher, Internet Relay Chat (IRC) und World Wide Web (WWW) seien an dieser Stelle kurz erwähnt, da ihre Vielfalt maßgeblich zur Popularität des Internet beigetragen hat. Vor allem das World Wide Web, erfreut sich größter Beliebtheit [Kotler/Bliemel 1999: S. 1129] und bildet die Basis für multimediale Anwendungen.

Das Prinzip des WWW als grafische Benutzeroberfläche zur Integration der Majorität aller nutzbaren Dienste wurde 1989 vom Genfer Hochenergie-Forschungszentrum CERN (Conseil Européen pour la Recherche Nucléaire) „als wissenschaftsorientiertes Informationssystem initiiert“ [ Mocker et al. 2001: S. 73]. Das CERN-Projektteam um den Informatiker Tim Berners-Lee entwickelte innerhalb kürzester Zeit das Hypertext-basierte WWW, welches erstmalig die Verknüpfung eines Dokuments über sogenannte Hyperlinks mit anderen, auch nicht-lokalen, Dokumenten ermöglichte. Basierend auf den folgenden drei Säulen war ein völlig neues Informationssystem mit der kardinalen Eigenschaft der Plattformunabhängigkeit geboren:

1. HTTP (Hypertext Transfer Protocol) spezifiziert die Kommunikation zwischen Web-Clients und Web-Servern.
2. URL (Uniform Resource Locator) bezeichnet das Adressierungsschema beliebiger Dateien und Datenquellen im Web bzw. im gesamten Internet.
3. HTML (Hypertext Markup Language) ist als Auszeichnungssprache Basisstandard zur Erstellung von Web-Dokumenten.

Durch sog. Browser, einer Lesesoftware für die WWW-Standards, war es ab Anfang der Neunziger Jahre somit auch jedem anderen Menschen mit Internet-Zugang ermöglicht, Informationen im Web aufzurufen oder selber bereitzustellen. Mit der kontinuierlichen Weiterentwicklung der grafischen Benutzeroberfläche wuchs die Anwenderfreundlichkeit und parallel dazu auch die Zahl der am Netz angeschlossenen Server und Nutzer. Die Gemeinde der Internetnutzer hat nach statistischen Angaben einiger Forschungsinstitute, wie beispielsweise Nua (ComputerScope Ltd.) oder Media Metrix, im August 2001 die Marke von 500 Millionen Teilnehmern überschritten. Das Internet Software Consortium (ISC) ermittelte ergänzend anhand der Anzahl der Hosts[1] eine durchschnittliche, jährliche Wachstumsrate des Internet von 173% für den Zeitraum von 1993 bis 2001 [Wirtz 2001: S. 386]. Innerhalb dieses Wachstums sind regionale Disparitäten jedoch deutlich spürbar. Beobachtet man einerseits im asiatisch/pazifischen Raum eine hohe Wachstumsdynamik, so zeichnet sich andererseits, insbesondere in Nordamerika, eine Sättigung der Nutzerzahlen ab. Jupiter Communications prognostiziert in diesem Zusammenhang, dass bis zum Jahr 2005 drei Viertel aller Internet-Nutzer ihren Wohnsitz außerhalb der USA haben werden [ECIN 2002].

Das Internet ist neben den klassischen Print-, TV- und Radiomedien rasch zu einem im Alltag häufig genutzten Medium herangewachsen, welches in seiner Wachstumsdynamik gänzlich neue Wirtschaftszweige vielfältigen Nutzens mit Anknüpfungspunkten, sowohl für private Nutzer, als auch für diverse Industriebereiche entstehen ließ.

Es ist jedoch zu bemerken, dass die Initiative für das Vorantreiben der Entwicklung respektive der Standards des Internet von militärischen Bereichen und später von akademischen Einrichtungen ergriffen wurde – nicht von der Industrie. Ob dieser Tatsache hegte die industrielle Basis, insbesondere aber auch die Computerindustrie, Misstrauen gegen das neue Medium [Mocker et al. 2001: S. 50]. Am Nutzen des Internets und dessen immens profitablen Zukunftspotential partizipierte man von seiten der IT-Branche erst in den vorangeschrittenen Stadien.

Legt man diesem Prozess Metcalfe´s Gesetzmäßigkeit[2] als Fundament der Internet-Ökonomie zu Grunde, so ist einerseits erkennbar, dass die IT-Branche sich erst an die Infrastruktur des Internets angeschlossen hat, als diese mit einem wachsenden Nutzervolumen bzw. der kritischen Nutzermasse Profitabilität erkennen ließ. Andererseits ist rückwirkend erkennbar, dass „ein Anschluss an diese Infrastruktur nicht nur Notwendigkeit, sondern Voraussetzung für den zukünftigen Erfolg in der IT-Industrie ist“ [Zerdick et al. 2001: S. 128].

Trotz eines späten Startes kam es jedoch zu reger Partizipation am Internet und zur Bildung einer Internet-Ökonomie, welche sich aus allen Betrieben zusammensetzt, die das Internet entweder als unterstützendes Element oder als primäres Ziel ihrer Leistungsausrichtung innerhalb ihrer Wertschöpfung integriert haben. Allen gemein ist jedoch, dass sich, im Zuge der Ausbreitung des Internets, der gleichzeitigen Erweiterung der Leistungsfunktionalitäten von Computern sowie der Ausdehnung technischer Möglichkeiten, Informations- und Kommunikationsprozesse innerhalb der Medienwelt verändert haben. Information hat, mit dem Zeitalter des Internet, für Unternehmen an Bedeutung gewonnen. Als Parameter reiht sie sich mit gleicher Gewichtung zwischen klassischen Standort- und Wettbewerbsfaktoren (Arbeit, Boden, Kapital) ein und begründet im Zusammenspiel mit der klassischen, vereinfachten Wertschöpfungskette nach Michael E. Porter eigene Wertschöpfungsstrukturen, die sog. „Virtual Value Chain“ (vgl. Abb. 1) [Hollensen 2001: S. 23]. Dies beschreiben Rayport/Sviokla wiefolgt:

Abbildung 1: Virtual Value Chain

Abbildung in dieser Leseprobe nicht enthalten

Quelle: [Hollensen 2001]

Weiterhin hat das Internet bzw. die Nutzbarmachung neuer elektronischer Medien dazu geführt, dass Informationsrückkopplungen bzw. Rollenwechsel zwischen Sender und Empfänger durch mehrere Kanäle beidseitig in kleinerer Zeiteinheit erfolgen können.

Zur besseren Verdeutlichung dieser Veränderungen kann das vereinfachte Darstellungsmodell der klassischen Kommunikations- bzw. Informationstheorie nach Claude E. Shannon und Warren Weaver zugrunde gelegt werden (vgl. Abb. 2) [Shannon/Weaver 1976: S. 16].

Abbildung 2: Kommunikationsmodell nach Shannon und Weaver

Abbildung in dieser Leseprobe nicht enthalten

Quelle: [Shannon/Weaver 1976]

Das Modell bezieht sich unter Berücksichtigung der Lasswell´schen Formel[3] ursprünglich auf Zweierkommunikation (Verhältnis von der Anzahl der Sender zur Anzahl der Empfänger = 1:1), ist aber analog auch für Massenkommunikation (1:n; n:n) gültig.

Am Anfang steht demnach die Intention eines Senders, seinem Gegenüber (also einem Empfänger) eine Mitteilung oder Nachricht spezifischen Inhalts zu übermitteln. Mittels eines geeigneten Kommunikationskanals wird der Inhalt der Mitteilung in Signale codiert an den Empfänger weitergeleitet, der diese decodiert. Eine erfolgreiche Übermittlung (das Verstehen der Botschaft) bedarf einerseits einer übereinstimmenden Codierung bei Sender und Empfänger, andererseits eines möglichst störungsfreien Transports innerhalb des Übertragungskanals.

Das abstrakte Modell lässt sich leicht an konkreten Beispielen demonstrieren: Bei einer direkten Unterhaltung (Face-to-Face) bedarf es einer gleichen Sprache als Codierung, kompatibler Sende- und Empfangsgeräte wie Sprach- und Hörorgane des Menschen und in diesem Fall einer Übermittlung in Form von Schallwellen; durch Redundanz paralleler Kommunikationskanäle (z.B. Blickkontakt) können Störungen zum Teil korrigiert werden.

Aufbauend auf diesem Schema ist die Ermöglichung zur Zwei-Wege-Kommunikation (bidirektional) wesentliches Unterscheidungsmerkmal des Internet und neuer elektronischer Medien zu den klassischen analogen Medien, die Informationen und Emotionen primär durch Ein-Weg-Kommunikation (monodirektional) an disperse Empfängergruppen vermitteln. Hierbei hat der Sender während und nach der Kommunikation nur sehr beschränkte Möglichkeiten, etwas über die Reaktionen des Empfängers zu erfahren und weitere Kommunikationsaktivitäten darauf abzustimmen. Vice Versa hat der Empfänger eingeschränkte Rückkoppelungsmöglichkeiten mit dem Sender. Findet eine Rückkoppelung z.B. in Form von Leserbriefen oder Anrufen zum jeweiligen Medium statt, so ist dennoch die Einseitigkeit des Kontaktes aufrechterhalten, da die jeweiligen Medien Feedback-Informationen nur selektiv und nach außen hin nicht transparent auswerten [Kroeber-Riel/Weinberg 1999: S. 567]. Durch das Internet hat Kommunikation folglich an Interaktivität gewonnen.

Mit dem Internet wurden neue Möglichkeiten für den Bereich Multimedia geschaffen. Multimedia bezeichnet im ursprünglichen Sinn die integrative Verwendung von statischen (Texte, Grafiken) und dynamischen Daten (Audio, Video) durch die Kombination klassischer, auf analoger Technik basierender Medien. Heute wird der Begriff durch die Einsatzmöglichkeit digitaler Technologien erweitert. Diese neuen, multimedialen Kombinationsmöglichkeiten münden in einen Nebeneffekt, der als Konvergenz bzw. Medienkonvergenz umschrieben wird. Die klassischen Grenzen zwischen den einzelnen Medien lassen sich durch die Übername mannigfaltiger Funktionalitäten durch das Internet nicht mehr klar erkennen und scheinen zu verschwimmen. Informationsangebote und Dienste lassen sich über unterschiedliche technische Infrastrukturen distribuieren, wobei ihre traditionelle, materielle Erscheinungsform (z.B. Buch, Zeitung, Radio, Fernsehen) kaum noch von Bedeutung ist. Medien- und Telekommunikationsarten im Internet bzw. Online-Medien konvergieren und bilden eine Art virtuelle Informations- und Kommunikationswolke [Maier-Rabler 1996: S. 44].

Als jüngstes Kind der Medienwelt ist das Internet als Schnittmenge innerhalb der Informations- und Kommunikationstechnologie entscheidender Faktor für die weitere ökonomische Entwicklung. Abbildung 3 verdeutlicht dies anhand des Theorems der Konjunkturzyklen, das auf den Russischen Ökonomen Nikolai Dmitrijewitsch Kondratieff (1892 - 1938) zurückgeht. Dieser betrachtet die Weiterentwicklung der Volkswirtschaften in periodischen Intervallen von durchschnittlich 50 Jahren, die sich durch lange Konjunkturwellen, den sog. „long waves“, charakterisieren lassen. So haben z.B. in der Vergangenheit die Erfindung der Dampfmaschine, der Eisenbahn, des Automobils und der Luftfahrt als Basisinnovationen lange Konjunkturwellen ausgelöst. Innerhalb dieser Wellen steigt nicht nur das Volkseinkommen, sondern als Motorwirkung belebt dies die gesamte Konjunktur. Die Konjunkturauslöser bilden das Fundament für weitere Innovationen [Kinzler 2001].

Abbildung 3: Konjunkturzyklen nach Kondratieff

Abbildung in dieser Leseprobe nicht enthalten

Quelle: [Kinzler 2001]

Heutzutage wird der Sektor Information und Kommunikation, insbesondere das Internet, als Auslöser der fünften langen Konjunkturwelle nach Kondratieff angesehen. In seiner Entwicklung ist es zum Hauptnährboden und Schauplatz für multimediale Radikal- und Inkrementalinnovationen im Kommunikations- und Informationssektor herangewachsen.

1.1.1 Perspektiven für die multimediale Kommunikation und Information

Die elektronischen Informations- und Kommunikationstechniken, die heute bereits im Einsatz sind, haben eine Querschnittswirkung für alle Wirtschaftsbranchen. So lassen sich durch den Einsatz verschiedener multimedialer Mittel nicht nur erhebliche Kosteneinsparungen bzw. Skaleneffekte erreichen, sondern auch zeitliche Eingrenzungen sowie räumliche Distanzen können überwunden werden. Insbesondere die multimediale Übermittlung von Information rückt für die an der Internet-Ökonomie beteiligten Unternehmen immer mehr ins Zentrum des Interesses. Hauptgründe dafür liegen einerseits in der Veränderung der Positionierung des Kunden bzw. Nutzers innerhalb der multimedialen Wertschöpfung, sowie in seinem geänderten Nutzen- und Konsumverhalten innerhalb der Medienwelt.

Betrachtet man sich Abbildung 1, so gehen erste Überlegungen der virtuellen Wertschöpfung noch von einer linearen, unflexiblen Anordnung der einzelnen Funktionen aus. Die multimediale Wertschöpfung (vgl. Abb. 4) geht einen Schritt weiter und stellt den Kunden bzw. den Nutzer, der Werte (Values) rückwirkend für das Unternehmen generiert, in den Mittelpunkt sämtlicher Aktivitäten zur multimedialen Leistungserstellung. Um ihn herum sind kreisförmig bzw. netzwerkartig alle wertschöpfenden Funktionen angeordnet, was zu mehr Flexibilität bei der Leistungserstellung, geringeren Transaktionskosten sowie einer größeren Leistungsvielfalt und gesteigerten medialen Angeboten („Media Richness“) führt [Zerdick et al. 2001: S.17, 176].

Abbildung 4: Multimedia-Wertschöpfungsnetzwerk

Abbildung in dieser Leseprobe nicht enthalten

Quelle: [Zerdick et al. 2001]

Hinsichtlich der Nutzungsverteilung zwischen Internet und klassischen Medien existieren unterschiedliche Aussagen.

So stellt eine Online-Studie der ARD/ZDF fest, dass nur bei einer Minderheit der Internetnutzer eine Reduzierung des Fernseh- und Hörfunkkonsums zugunsten des Internet erfolgt. Die Erklärung liegt in der unterschiedlichen Befriedigung der Bedürfnisse. So wird angeführt, dass klassische Medien wie Fernsehen und Radio gleichermaßen informative sowie sozial-orientierte Bedürfnisse nach Entspannung und Unterhaltung abdecken. Das Internet erfülle demnach lediglich die funktional-pragmatische Befriedigung nach Information [van Eimeren et al. 2001: S. 391].

Widerlegt wird dieser Ansatz der öffentlich-rechtlichen Rundfunkanstalten durch konträre Beobachtungen und Aussagen neutraler Medientheoretiker. Eindeutig belegbar wird festgestellt, dass , z.B. am Verhältnis Fernseh- zu Internetnutzung, Konsumenten ihre knappen Zeitressourcen erkennbar zunehmend zugunsten des Internet verlagern [Zerdick et al. 2001: S. 179]. Wichtig ist hierbei, dass die zeitlich betrachtete Dimension der Arbeitszeit ergänzt wird. Dies führt zwar nicht zu einer vollständigen Vernachlässigung der alten Medien, bei gleichbleibender durchschnittlicher Nutzungsdauer jedoch zu einer Verlagerung bzw. Überlagerung der Mediennutzung zugunsten von PC-/Onlinediensten [Wirtz 2001: S. 500]. So wird das Internet z.B. am Arbeitsplatz immer intensiver genutzt.

Es gilt also, die Nutzer aufgrund der flexibleren Marktsituation, knapper Zeitressourcen und der konkurrierenden klassischen Medien innerhalb einer enormen Angebotsvielfalt im Internet für sich zu gewinnen. Es stellt sich also die Frage welche Inhalte wie zum Empfänger gelangen sollen. Hierbei gewinnen multimediale Anwendungen an Bedeutung, da Alleinstellungsmerkmale gegenüber der Konkurrenz bezüglich Gestaltung und Strategie der Informationsübermittlung erreicht werden können und vielfältig modellierbar sind. So kann z.B. ein Unternehmen Inhalte via PC oder computerbasierten Medien (z.B. CD-Rom, DVD) individualisiert bzw. personalisiert auf die jeweiligen Zielempfänger multimedial abstimmen.

Der State-of-the-Art der eingesetzten Techniken im Kommunikationsbereich umfasst, abgesehen von den Basisdiensten wie z.B. E-Mail, Kombinationsmöglichkeiten verschiedener multimedialer Infrastrukturen von der einfachen Internet-Telephonie („Voice-over-IP“) über Bildtelefon bis hin zur Videokonferenz. Letztere ermöglichen, neben der reinen Informationsbotschaft, zudem die Übermittlung nonverbaler Codierungen (z.B. Mimik). Viele Unternehmen nutzen diese Kommunikationsoptionen als essentiellen Bestandteil innerhalb ihres Tagesgeschäftes, sei es extern (mit Kunden und Partnern über das Internet) oder auch intern (Informationsaustausch und Kommunikation mit Mitarbeitern oder Zulieferern über Intranet).

Funktionalitäten, die noch vor einem Jahrzehnt als visionär galten, finden heute je nach Reifegrad oder erkennbarem Potential ihre Anwendung im wirtschaftlichen Alltag. Sie stehen dabei einerseits noch am Anfang ihrer Leistungsfähigkeit, andererseits geht die Entwicklung weiterer Technologien stetig voran, sei es nun, um bestehende Verfahren zu optimieren, oder um gänzlich neue Horizonte zu erschließen. So fanden multimediale Anwendungen in Form von E-Learning, Business-TV, Video-on-demand, Audio-on-demand ihren Weg in die Praxis. Die Nutzung dieser Anwendungen ist zum Status Quo partiell schon durch mobile bzw. PC-unabhängige Endgeräte (z.B. WAP-Handy, Handheld, Internet via TV durch Zusatzgeräte oder Spielkonsole) möglich und lässt auf weitere technologische Entwicklungen zu Gunsten der Mobilität des Endnutzers schließen.

Diese neuen elektronischen Kommunikationsmittel können mittels einer Unterscheidung nach der Gleichzeitigkeit der Verständigungsprozesse klassifiziert werden, um in der Fülle der Angebote auf dem Markt den Überblick zu behalten. Je nach Ausgestaltung zielen die elektronischen Dienste demnach primär auf die Erfüllung zweier wesentlicher Kriterien ab: asynchrone und synchrone Kommunikation [Mocker et al. 2000: S. 27].

Asynchrone Kommunikation bedeutet, dass die Kommunikanten nicht gleichzeitig an der Kommunikation teilnehmen. Der Sender einer Information weiß also nicht, wann der Empfänger diese erhält und darauf reagiert (z.B. E-Mail, SMS).

Demnach zeichnet sich synchrone Kommunikation durch zeitgleiche Beteiligung aller Kommunikanten aus, die direkt auf Informationen reagieren können (z.B. Internet-Telephonie, Chat).

Im multimedialen Sektor entsteht durch höhere Speicherkapazitäten und verbesserte Netzwerkeigenschaften die Abdeckung beider Kriterien.

Einen ersten Impuls für das zukünftige multimediale Angebot an synchroner bzw. asynchroner, on-demand abrufbarer Information stellt die geplante Bereitstellung größerer Bandbreiten im Internet dar. Gerade synchrone, multimediale Anwendungen, wie z.B. Konferenzen, benötigen große Bandbreiten. Gleichwohl sind sie nur bei schneller, verzögerungsfreier Datenübertragung in hoher Datenqualität befriedigend. Noch ist die Übertragungsgüte innerhalb der bestehenden Netzinfrastruktur für einige Anwendungen aufgrund überlasteter Leitungen nicht immer gewährleistet. Bis größere Bandbreiten, z.B. durch Glasfasertechnik, Satellitenanbindung, UMTS[4], B-ISDN[5] oder ATM[6], ubiquitär zur Verfügung stehen, können multimediale Funktionalitäten innerhalb der zur Verfügung stehenden Kapazitäten lediglich mittels innovativer Datenkompressions- und Übertragungsmechanismen verbreitet werden.

Durch die in drei bis fünf Jahren absehbar steigende Verfügbarkeit von breitbandigen Internet-Zugängen wird multimedialen Technologien, die schon heute angewendet werden, ein enormer Wachstumsschub prophezeit – so z.B. auch dem sog. Streaming Media.

Die Streaming Media Technologie ermöglicht die Übertragung von Video- und Tondateien in Echtzeit. Dies bedeutet, dass multimediale Dateien direkt, ohne vorherigen Download, abspielbar und für den Nutzer an seinem Endgerät verfügbar sind.

1.1.2 Virtuelle Kongresse als aktueller Trend und potentieller Bestandteil unternehmerischen Handelns

Einige der bereits genutzten multimedialen Anwendungen wurden bereits kurz erwähnt. Diesen stehen jedoch im Zuge der stetigen Weiterentwicklung mehrere, neue Formen der multimedialen Information- und Kommunikation gegenüber, über deren Einsatzpotential aktuell diskutiert wird. Eine dieser visionären Anwendungen im Kontext von Streaming Media wird mit dem Begriff Online-Kongress bzw. virtueller Kongress umschrieben.

Unter einem „virtuellen Kongress“ kann allgemein die Vorbereitung, Durchführung (Übertragung in Echtzeit per Streaming) und Nachbereitung eines realen Kongresses via Internet bzw. Intranet verstanden werden.

Dies umfasst in der Vorbereitung beispielsweise die Übertragung von Themen auf eine virtuelle Ebene. Durch Interaktion mit den potentiellen Kongressbesuchern kann somit im Vorfeld, je nach Resonanz und Feedback, der inhaltliche Horizont eines Kongresses abgesteckt werden. Diese Nachfragepräferenzen lassen sich bei der Durchführung der Veranstaltung berücksichtigen.

Die eigentliche Durchführung eines virtuellen Kongresses ist eine Multimediaproduktion, welche sich in das weite Gebiet der Konferenztechniken einordnet. Die spezifischen Vorträge und Inhalte des realen Events werden zunächst per Streaming Media Technologie digitalisiert und in Kombination mit zusätzlichen Anwendungen zu einer interaktiven, multimedialen Präsentation verpackt. Jene Kongressteilnehmer, die nicht lokal am realen Event partizipieren, können sich online einloggen und mit Hilfe einer Wiedergabesoftware den Vortrag des jeweiligen Referenten an ihrem Computermonitor live sehen. Neben dem Fenster mit der bildlichen Übertragung des Vortragenden können durch kompatible Software dynamische Text- und Bildfenster oder Hyperlinks eingebunden werden. Diese ermöglichen neben der visuellen und akustischen Darstellung des Referenten am Bildschirm beispielsweise auch die synchrone Wiedergabe einer PowerPoint Präsentation, weiterführende Informationen zum Thema sowie Austausch- und Feedbackmöglichkeiten (per Chat oder Sprache) mit dem Referenten oder anderen Kongressteilnehmern.

Die Nachbereitung besteht aus der Sammlung bzw. Verbreitung von Feedback und Ergebnissen. Ferner werden an dieser Stelle Foren zum Informationsaustausch eingerichtet und die eigentlichen Inhalte und Produktionen online bereitgestellt. Somit sind alle archivierten Inhalte nicht nur live, sondern jederzeit on-demand verfügbar. Virtuelle Kongresse müssen natürlich nicht zwingend auf einem realen Kongress basieren. Sie können selbstverständlich auch nur online stattfinden.

Die Einordnung von virtuellen Kongressen zu bereits in der Praxis eingesetzten Konferenztechniken wird nachfolgend anhand zweier Beispiele vorgenommen.

1.2 Darstellung bereits existenter Konferenztechniken

Da es in der Konferenztechnik noch keine festgelegten Standards gibt, nutzen die Akteure unterschiedliche Versandarten auf der Ebene des Internet-Protokolls, um interaktive, multimediale Daten zu übermitteln: Unicast oder Multicast.

Unicast bedeutet, dass Datenpakete von einem Sender nur an einen Empfänger gesendet werden können (vgl. Abb. 5).

Abbildung 5: Unicast-Modell

Abbildung in dieser Leseprobe nicht enthalten

Quelle: eigene Darstellung

Stellen wir uns dies am Szenario eines virtuellen Kongresses mit 100 Teilnehmern vor, die vor ihrem PC sitzen und einen Vortrag sehen möchten. Bei der Verteilung mittels Unicast muss für jeden Teilnehmer ein komplettes Datenpaket mit den gesamten Informationen abgeschickt werden, da eine sendende Station lediglich eine andere adressieren kann. Es müssen somit einhundert mal die gleichen Datenpakete abgeschickt werden, da jeder empfangende PC eine andere Adresse hat und somit eine gesonderte Station darstellt. Nachteil von Unicast ist, dass die Datenübertragung aufgrund schmaler Bandbreiten begrenzt ist. Übersteigt die Größe der gleichzeitig zu versendenden Datenpakete die zur Verfügung stehende Bandbreite, so erhalten die jeweiligen Kongressteilnehmer entweder überhaupt keine oder nur vereinzelte Daten, weil die Bandbreite überlastet ist. Unicast ist grundlegend nur für die Kommunikation innerhalb von 1:1 (one-to-one) Beziehungen ausgelegt und ist deswegen für eine größere Empfängergruppe unvorteilhaft.

Multicast hingegen nutzt einen anderen Übertragungsmechanismus, um den Nachteilen von Unicast entgegenzuwirken (vgl. Abb. 6).

Abbildung 6: Multicast-Modell

Abbildung in dieser Leseprobe nicht enthalten

Quelle: eigene Darstellung

Hier können 1:n (one-to-many) Beziehungen durch sparsame Ausnutzung der Bandbreite abgedeckt werden. Statt ein Paket an alle Empfänger einzeln und nacheinander versenden zu müssen, kann man dieses einzelne Paket an zahlreiche andere Computer gleichzeitig versenden. Hinzu kommt, dass, wenn ein Paket multicast versendet wird, nicht alle Empfängeradressen explizit bekannt sein müssen. Die Datenpakete werden an eine Multicast-Adresse auf einem Router verschickt. Im Beispielszenario wird das Datenpaket mit dem Kongressvortrag demnach einmal an einen Router versandt. Der Router wiederum dupliziert die Dateninformation und leitet diese, je nach Lokalisierung, an die einzelnen Teilnehmer weiter. Unglücklicherweise ist die Mehrzahl der Router im Internet nicht multicastingfähig. Die Majorität sieht lediglich das Bewegen von traditionellen Internet-Protocol (IP) Unicast-Paketen vor - Information, die eine einzelne, spezifische Destination besitzt.

Die Lösung dieses Problems liegt im sog. Multicast Backbone (Mbone). Das Mbone ist ein virtuelles Netz, das die Übertragung von Multicast-Paketen über zwei unterschiedlich konfigurierte Routerarten (multicast und unicast) ermöglicht. Mittels einer durch das Mbone genutzten Software werden Multicast-Pakete in Unicast-Paketen versteckt („Tunneling“), so dass auch diejenigen Router die Dateninformation verstehen können, welche nicht für Multicast-Anwendungen konfiguriert sind. Trifft das verpackte Datenpaket auf einen MRouter (Multicast-Router), werden die Pakete erkannt und als diejenigen Multicast-Pakete bearbeitet, die sie in Wirklichkeit sind. Bis Multicasting ein Standardmerkmal aller Internet Router ist, leistet das Mbone zur Verwirklichung von Konferenzen mit mehreren Teilnehmern eine enorme Hilfestellung.

Im folgenden werden nun zwei praktische Beispiele vorgestellt, die sich durch die Unterscheidung zwischen Unicast und Multicast-Prozessen voneinander abgrenzen lassen.

1.2.1 Telekonferenz

Der Begriff Telekonferenz wird heutzutage vielfach als Oberbegriff für Konferenztechniken mit 1:n Beziehungen gebraucht. Im ursprünglichen Sinn wird damit jedoch lediglich die Tele- bzw. Videokonferenz zwischen zwei Teilnehmern durch Unicast in einer 1:1 Relation umschrieben. Dies ist nicht zu verwechseln mit der Telefonkonferenz über zwei Bildtelefone, die auch eine multimediale 1:1-Beziehung (Sprache und Bild) abdeckt.

Die Telekonferenz ermöglicht in annähernder Fernsehqualität die Kommunikation und Interaktion innerhalb einer Point-to-Point Verbindung zwischen zwei Parteien. Zum Einsatz kommen zwei Monitore (PC oder Konferenzanlagen über TV), eine bzw. zwei Kameras und herkömmliche Telefonleitungen. Aufgrund der geringen Bandbreiten ist die gleichzeitige Übertragung von Audio- und Videosignalen innerhalb einer Telefonleitung nicht möglich. Zur adäquaten Konnektierung der zwei Teilnehmer benötigt man folglich mehrere gekoppelte ISDN-Leitungen. Dies ist zwar kostenintensiv, bietet hingegen einen großen Vorteil: Telefonleitungen kennzeichnen sich durch garantierte Bandbreiten. Das Internet leistet dem Anwender diese Sicherheit wegen der schwankenden Verfügbarkeit von Bandbreite nicht.

Seit geraumer Zeit wird an verschiedenen Stellen versucht, die Tele- bzw. Videokonferenzen der 1:1 Beziehung über Internet-Leitungen durchzuführen. Jedoch stößt auch hier bei geringem Investitionswillen die Qualität an ihre Grenzen. Jeder der schon einmal eine Unicast-Konferenz z.B. über Microsoft Netmeeting durchgeführt hat, wird dies bestätigen können.

Diese Lösung bietet einerseits den Vorteil von drei integrierten Anwendungen (Sprache, Bild, Whiteboard) und einem vergleichsweise geringen Kostenaufwand. Es müssen nicht mehrere Leitungen genutzt werden und die Peripheriegeräte wie Headset oder Webcam, abgesehen von einem PC, sind schon ab ca. € 70 zu erwerben.

Andererseits ist jedoch festzustellen, dass die Qualität der Verbindung stark zu Wünschen übrig lässt. Die gleichzeitige Nutzung aller drei Funktionen ist nicht möglich, da trotz geringer Bildwiederholungsrate, insbesondere bei Teilnehmern mit geringen Zugangsleitungen oder schwacher Rechnerleistung, Störungen auftreten. Entweder kommt die Sprache über das Headset mit großer Zeitversetzung und Rauschen an, das Bild ist verzerrt, oder die Eintragungen im Whiteboard können nicht zeitgleich ausgetauscht werden. Qualitativ hochwertige, bidirektionale Kommunikation stößt in diesem Fall also an ihre Grenze und lässt zudem durch die Unicast-Verbindung immer nur zwei Kommunikationspartner partizipieren. Hochwertigere Systeme ermöglichen in diesem Zusammenhang zwar eine bessere Übertragungsgüte, wirken sich aber mit Investitionen ab 5.000 bis 25.000 Euro wiederum auf die Kostenintensität aus.

1.2.2 Business-TV

Ein anderes Kommunikationsinstrument, welches heutzutage immer mehr Anwender findet, wird mit dem Begriff Business-TV umschrieben.

In seiner Eigenschaft als „verwirrende Generalbezeichnung“ [Christ et al. 2000: S. 21] lässt Business-TV zunächst keine Konkretisierung hinsichtlich der Art und Weise der Informationsdistribution oder der Substanz der verbreiteten Inhalte erahnen. Lediglich die Verknüpfung zur Unternehmenskommunikation, sei es extern oder intern, steht als Potpourri von übermittelten, multimedialen Bewegtbildern für verschiedene Zielgruppen und unternehmerische Nutzenintentionen im Zentrum der Bedeutung des Begriffes.

Business-TV kann uns in verschiedenen Formen, Formaten und Technologien begegnen, die je nach Zielgruppe und Informationsgehalt anderen Nomenklaturen unterliegen. So finden sich in der Praxis verschiedene Gestaltungsweisen von Unternehmenskommunikation wieder, die alle unter dem Oberbegriff Business-TV zusammengefasst werden können [Mohr/Scherer: S. 3; Christ et al.: S. 19]:

Infomercials

Hierunter sind Sendungen zu verstehen, die im Rahmen herkömmlicher TV-Programme ausgestrahlt werden und für die Allgemeinheit bestimmt sind. Unternehmen präsentieren hier Informationen zu Produkten, Dienstleistungen, Ereignissen oder Stellungnahmen (z.B. IBM Infomercials auf n-tv).

Kunden TV

In den jeweiligen Unternehmen oder Verkaufsstellen (Points of Sales) werden Sendungen mit Produkt- oder Entertainmentinhalten über Empfangsgeräte ausgestrahlt (z.B. Schlecker-TV der Drogeriekette Schlecker, Hypo Vereinsbank).

Verlags TV

Dieser Begriff bezeichnet Ausstrahlungen von Medienunternehmen, zumeist von Print-Medien, im Programm eines Fernsehveranstalters (z.B. Stern-TV bei RTL, Spiegel-TV bei SAT.1).

Corporate/Mitarbeiter TV

Damit sind Sendungen mit Informationen aus oder über ein Unternehmen oder Mitarbeiter- bzw. Mitgliederinstitutionen gemeint (z.B. SAP TV, BASF-TV im Regionalsender RNF-plus, DaimlerChrysler Beiträge im Lokalsender R.TV).

Event TV

Dieser Begriff bezieht sich auf eine ereignisbezogene Berichterstattung von großen Veranstaltungen (z.B. Messen, Kongresse, Aktionärsversammlungen) via Terrestrik[7] oder Satellit zu angeschlossenen Stationen.

Im Gegensatz zur originären Tele- bzw. Videokonferenz verfolgt Business-TV als Basismerkmal nicht die Verteilung von Informationen und Daten nach dem Unicast-Modell. Durch Nutzung der Online-Medien erfolgt dies primär analog zum Multicast-Modell, d.h. geschlossene Empfänger- oder Nutzergruppen werden in einer 1:n Beziehung mit Information adressiert und können interaktiv mittels Rückkoppelungsmöglichkeiten durch verschiedene Kanäle in die Kommunikation involviert werden. Tritt eine der Formen von Business-TV im klassischen, terrestrischen Fernsehen auf oder wird innerhalb der Online-Medien keine spezielle Gruppe eingegrenzt, so ist das Informationsverteilungsmuster klassisches Broadcasting. Werden im Multicasting eingegrenzte, kontrollierbare Benutzergruppen mit Informationen oder Daten adressiert, so werden diese im Broadcasting allen Empfängern zugänglich gemacht. Entscheidendes Kriterium für den Status des Empfängers sind hierbei lediglich die benötigten Ressourcen zum Empfang (z.B. Decoder, Radio- oder Fernsehgerät gekoppelt mit Entgelten für die jeweiligen Landesmedienanstalten).

Man könnte folglich davon ausgehen, dass virtuelle Kongresse als neue Trendbewegung eindeutig innerhalb des Bereiches Business-TV respektive Event TV eingeordnet werden. Diese Schlussfolgerung ist jedoch als obsolet und voreilig anzusehen. Ein virtueller Kongress als solcher kann sicherlich als unternehmerisches Ereignis bzw. Instrumentarium innerhalb der Unternehmenskommunikation charakterisiert werden und geht somit konform mit der Gestalt und dem finalen Nutzen von Business TV Anwendungen . Diese Einordnung erfolgt jedoch lediglich unter inhaltlichen Aspekten und lässt technische, organisatorische und die daraus resultierenden wirtschaftlichen Aspekte außer Acht.

So ist das Hauptunterscheidungsmerkmal zwischen virtuellen Kongressen und Business-TV Anwendungen die differenzierte technische Umsetzung.

Business-TV Produktionen fokussieren primär die Informationsdistribution über terrestrische oder satellitengestützte Verbreitungswege auf TV-Standard. So erstellen Unternehmen entweder in eigenen oder gemieteten Studios Inhalte mit Fernsehtechnik und verbreiten diese über Satelliten (z.B. Kopernikus, Astra, Eutelsat). Der Kostenaufwand für eine klassische Business-TV Produktion mit eingeschränkter Bereitstellung unterstützender bidirektionaler Kommunikations-Kanäle (z.B. Call-Center) beginnt für das Unternehmen bei einer Produktionsstunde bei ca. 50.000 Euro.

Da die meisten Inhalte verschlüsselt sind, benötigt der Empfänger innerhalb der geschlossenen Benutzergruppe einen Decoder. Diese Darstellungseinheit entschlüsselt die digital übermittelten Daten und wandelt sie wenn nötig wieder in analoge TV-Signale um. Bekannte Darstellungseinheiten sind Monitore oder TV-Geräte mit Set-Top-Boxen als Decoder.

Virtuelle Kongresse hingegen stützen sich auf Online-Ressourcen. Die Verbreitung der Inhalte erfolgt mittels IP-basierter, digitaler Netzwerke mit Hilfe der Streaming-Technologie. Diese Vorgänge werden ob ihrer Komplexität in Kapitel 2 ausführlicher dargestellt. Jedoch kann festgestellt werden, dass Streaming eine wesentlich kostengünstigere Alternative im Vergleich zur konventionellen TV-Studiotechnik darstellt. Sowohl der Kostenaufwand auf Unternehmensseite, als auch auf Empfängerseite ist bei der Realisierung mittels Online-Medien wesentlich geringer. Der Datenempfänger benötigt bei dieser Art der Datenübertragung keinen teuren Decoder, sondern kann sich die Wiedergabesoftware (z.B. den RealPlayer 8.0) kostenlos aus dem Internet downloaden.

1.3 Problemstellung: Supplement oder Substitut?

Die Umsetzung von virtuellen Kongressen in der Praxis regt das Interesse vieler Unternehmen an. Auch die Firma SAP AG sieht in dieser neuen Anwendung eine Chance, die bisherige Unternehmenskommunikation zu erweitern und damit Mehrwerte für Kunden, potentielle Geschäftspartner und Mitarbeiter zu generieren. Aufbauend auf dieser Vision, initiierte die SAP AG diese Diplomarbeit mit der Aufgabenstellung der Analyse, Typologisierung und Evaluierung von virtuellen Kongressen. Teilzielsetzung hierbei ist es, den potentiell möglichen Wirkungskreis von virtuellen Kongressen zu eruieren. Es gilt also herauszuarbeiten, ob virtuelle Kongresse reale Kongresse lediglich ergänzen oder gänzlich substituieren können.

In der Frage nach Supplement oder Substitut hilft als theoretischer Ausgangspunkt das Gesetz der Komplementarität nach Wolfgang Riepl.

Der Philologe und Journalist stellte Anfang des 20. Jahrhunderts eine These auf, die sich auf Beobachtung von verschiedenen Medien als Mittel zur Nachrichten-Übertragung seit dem Altertum stützt:

„...[es ist] festzustellen, dass neben den höchstentwickelten Mitteln, Methoden und Formen des Nachrichtenverkehrs in den Kulturstaaten auch die einfachsten Urformen bei verschiedenen Naturvölkern noch heute im Gebrauch sind, und um sie zu finden, braucht man nicht die Südseeinseln oder auch nur das Innere Marokkos aufzusuchen, in Europa selbst, in Gegenden, die sich schon vor den Römern einer verhältnismäßig hoch entwickelten Kultur erfreuten, so bei den Albanesen z.B. ist das Nachrichtenwesen bis heute fast auf der Urstufe stehen geblieben. Andererseits ergibt sich gewissermaßen als ein Grundgesetz der Entwicklung des Nachrichtenwesens, dass die einfachsten Mittel, Formen und Methoden, wenn sie nur einmal eingebürgert und brauchbar befunden worden sind, auch von den vollkommendsten und höchst entwickelten niemals wieder gänzlich und dauernd verdrängt und ausser Gebrauch gesetzt werden können, sondern sich neben diesen erhalten, nur dass sie genötigt werden, andere Aufgaben und Verwertungsgebiete aufzusuchen.“

[Riepl 1913: S. 4f.]

Übertragend wird diese Gesetzmäßigkeit auch auf neue intermediale Beziehungen angewandt. Sie konstatiert, dass neue Medien alte nicht vollständig verdrängen, sondern diese allenfalls auf ihre spezifischen Vorteile zurückdrängen.

1.4 Vorgehensweise

Nach der Erläuterung der Grundlagen und der Einordnung von virtuellen Kongressen als Kommunikationsinstrument innerhalb des online-basierten Medien und Kommunikationssektors in Kapitel 1, folgt eine weiterführende Analyse und Typologisierung in Kapitel 2.

Hier werden die technischen Aspekte und Anknüpfungspunkte näher beleuchtet, die einen virtuellen Kongress charakterisieren und die bei dessen Umsetzung berücksichtigt werden müssen.

Kapitel 3 stellt das Unternehmen SAP vor und überträgt die allgemeine Charakterisierung eines virtuellen Kongresses auf die unternehmerische Ebene. Zunächst werden theoretische Grundlagen erläutert, die es ermöglichen, Kongresse als Event in die strukturellen Prozesse des Marketing einzuordnen. Im Hinblick auf die Frage nach Supplement oder Substitut wird weiterhin mit Hilfe von Ansatzpunkten des Marketing-Management als auch der Verhaltenspsychologie ein Vergleichsmodell erarbeitet. Basierend auf dem allgemeinen-theoretischen Hintergrund wird im folgenden die unternehmerische Praxis bei SAP vorgestellt. Hierbei werden einerseits Unterschiede zur Theorie hervorgehoben, andererseits erfolgt eine unternehmensspezifische Einordnung von virtuellen Kongressen mit Supplement und Substitutscharakter in den Kommunikations-Mix bei SAP.

Kapitel 4 stellt das Business-Case Modell zur praxisnahen Wirtschaftlichkeits-Betrachtung virtueller Kongresse vor. Anhand eines Beispiels, des SAP Forums für Handel und Konsumgüterindustrie, werden interne und externe Faktoren eingegrenzt, die bei der praktischen Umsetzung eines virtuellen Kongresses durch die SAP berührt werden. Weiterhin legt das Kapitel die Grundlage für einen Vergleich von realem und virtuellem Kongress im Kontext des Riepl´schen Gesetzes. Unter Berücksichtigung der Ergebnisse der Evaluation in Kapitel 5, gibt Kapitel 4 weiterhin praktische Orientierungshilfen für die reale Implementierung eines virtuellen Kongresses im Unternehmen SAP.

Analog zum Business Case Modell erfolgt in Kapitel 5 die Durchführung einer SWOT-Analyse. Als Bestandteil der Wirtschaftlichkeitsbetrachtung werden sowohl interne als auch externe Influenzparameter zur Erörterung des Erfolgspotentials virtueller Kongresse für SAP konkretisiert und gegenübergestellt. Das Kapitel mündet in der Beantwortung der Frage nach Supplement oder Substitut sowie in einer Gesamtevaluation der gewonnenen Erkenntnisse.

Kapitel 6 reflektiert die Inhalte aller Kapitel und fasst die Ergebnisse kurz zusammen.

2. Technische Grundlagen zur Implementierung und Typologisierung virtueller Kongresse

2.1 Kommunikation in Rechnernetzen

Bevor man dazu übergeht, die Streaming- oder Rich Media Technologie als Grundlage für die Durchführung von virtuellen Kongressen zu erklären, ist es wichtig, sich einen Überblick über die allgemeinen Prozesse beim Datenaustausch in Computernetzen bzw. im Internet zu verschaffen.

Computernetze können nach ihrer Struktur und der Entfernung zwischen dem im Netzwerk verbundenen Rechnern unterschieden werden, z.B. LAN (Local Area Network) oder WAN (Wide Area Network). Findet innerhalb dieses Rechnerverbundes ein Leistungsaustausch statt, beispielsweise eine Anfrage bei einer Suchmaschine im Internet, so spricht man dabei von Prozessen innerhalb einer Client-Server Architektur. Ein Server erbringt eine Dienstleistung für einen anderen Rechner, den Client. Hinter diesen arbeitsteiligen Leistungen stehen jedoch Kommunikationsprozesse, die sehr komplex sind.

Rechner kommunizieren miteinander, indem sie unterschiedliche Protokolle als Trägermedium einer Information verwenden, vergleichbar etwa mit den menschlichen Sprachen.

2.1.1 ISO/OSI-Referenzmodell

Einen Versuch, diese Prozesse standardisiert darzustellen und die Protokolle darin einzuordnen, wurde mit dem sog. ISO/OSI[8] Modell der 7 Schichten (Layers) unternommen.

Wie Abbildung 7 zeigt, wird innerhalb dieses Referenzmodells ein Kommunikationsvorgang in sieben logische Schichten eingeteilt, denen verschiedene Funktionen und Protokolle zur Kommunikation zugeordnet sind. Die Protokolle sind ein Regelwerk, die innerhalb einer Schicht die Ausführung der relevanten Aufgaben steuern und ihre Dienste der nächsthöheren Schicht zur Verfügung stellen. Sie erfüllen zwei wesentliche Aufgaben: die Anregung eines Verbindungsaufbaus (aktivierende Funktion) und die Interpretation von Bits[9] (semantische Funktion).

Abbildung 7: ISO/OSI-Referenzmodell

Abbildung in dieser Leseprobe nicht enthalten Quelle: eigene Darstellung in Anlehnung an [Schwarze 1997]

Den jeweiligen Schichten im ISO/OSI-Referenzmodell sind folgende Aufgaben zugeordnet [Meyer 1998: S. 22f.; Schwarze 1997: S. 122ff.]:

1. Physical Layer (Bitübertragung):

Diese Schicht (Layer) regelt die Übertragung hinsichtlich der physischen Details, wie beispielsweise der Übertragungsgeschwindigkeit. Sie selektiert ein Übertragungsmedium (z.B. Breitbandkabel, schmalbandige Telefonleitung in S0-Schnittstelle[10] ).

2. Data Link Layer (Sicherung):

Die Aufgabe der Sicherungsschicht ist zum einen der logische Auf- und Abbau von Verbindungen, zum anderen die Erkennung und Beseitigung von möglichen Übertragungsfehlern.

3. Network Layer (Vermittlung)

Sie ist für die Steuerung und die eigentliche Verbindung innerhalb des Datenaustausches zuständig, sucht geeignete Routen bzw. Übertragungswege.

4. Transport Layer (Transport)

Die Transportschicht übernimmt die Übermittlung bzw. Übertragung von Daten oder Datenpaketen (Datagrammen).

5. Session Layer (Kommunikationssteuerung)

Sie organisiert den Datenaustausch hinsichtlich der Adressierung und Sicherung. So regelt sie die Reihenfolge bei unidirektionalem oder bidirektionalem Datentransfer und ermöglicht den Wiederaufbau bzw. Abbau von Verbindungen bei einer Störung oder einem Abbruch.

6. Presentation Layer (Datendarstellung):

Die Darstellungsschicht konvertiert bei Bedarf unterschiedliche Übertragungs-Codes und passt die Syntax[11] zwischen Sender und Empfänger an (z.B. Bildschirmdarstellung oder Druckformate).

7. Application Layer (Anwendung):

Sie ist die Kommunikationsschnittstelle für den Anwender. Durch die Bereitstellung von verschiedenen Diensten und weiteren, definierten Protokollen wird dem Anwender in der Application Layer der Zugang zur Datenübertragung ermöglicht.

[...]


[1] Host bezeichnet ein Zentralrechnersystem, das es einem Anwender ermöglicht, in einem Netzwerk mit anderen Computern zu kommunizieren – synonym wird der Begriff oft für einen Rechner im Internet verwendet.

[2] Metcalfe´s Law beschreibt, dass der Wert eines Netzwerkes (W) im Quadrat der Anzahl seiner Nutzer (n) steigt: W=n2-n [Shapiro/Varian 1998: S. 143].

[3] Lasswell´sche Formel = „Wer sagt was über welchen Kanal zu wem?“ [Gabler 1995: S. 2059]

[4] UMTS: Abk. für “Universal Mobile Telecommunications System”; das System für Mobilfunknetze, welches die Übertragung multimedialer Daten mit bis zu 2Mbit/s ermöglicht.

[5] B-ISDN: Abk. für „Broadband Integrated Services Digital Network“.

[6] ATM: Abk. für "Asynchronous Transfer Mode"; das derzeit leistungsfähigste Transportprotokoll mit max. Übertragungsgeschwindigkeit von 155 Megabit. Eine ISDN-Leitung schafft 0,64 Megabit.

[7] Als Terrestrik bezeichnet man die drahtlose, erdgebundene, mobile oder ortsfeste Übertragung von (Rundfunk-)Signalen, also nicht die Übertragung mittels Kabel oder Satellit [Schneider et al. 2001: S. 191ff.].

[8] ISO/OSI = Abk. für „International Standardization Organization/Open Systems Interconnection“.

[9] BIT = Abk. für „Binary Digit“; eine Einheit bzw. Stelle im binären/dualen Zahlensystem, die nur zwei Zustände (0 oder 1) besitzt [Hering et al. 1999: S. 198].

[10] S0 ist der Begriff für eine einheitliche Schnittstelle für alle ISDN-fähigen Kommunikationsendgeräte. Jedem Gerät können drei Kanäle (zwei zu 64 kbit/s und einer zu 16 kbit/s) zur Verfügung gestellt werden [Schneider et al. 2001: S. 195].

[11] Syntax bezeichnet die Regeln, nach denen Zeichen zu Wörtern und Wörter zu Sätzen einer Sprache verknüpft werden dürfen [Schwarze 1997: S. 17].

Details

Seiten
105
Erscheinungsform
Originalausgabe
Jahr
2002
ISBN (eBook)
9783832459321
ISBN (Buch)
9783838659329
Dateigröße
1.2 MB
Sprache
Deutsch
Katalognummer
v221383
Institution / Hochschule
Hochschule Aalen – unbekannt
Note
1,0
Schlagworte
streaming media kommunikationsmix rich multimedia

Autor

Zurück

Titel: Analyse, Typologisierung und Evaluierung von virtuellen Kongressen