Lade Inhalt...

Servervirtualisierung

Möglichkeiten und Grenzen der Servervirtualisierung im Anwendungsfeld der Hospitality Industry

©2009 Masterarbeit 110 Seiten

Zusammenfassung

Inhaltsangabe:Einleitung:
Diese Arbeit beschäftigt sich mit dem Thema Servervirtualisierung in der Hospitality Industry. Servervirtualisierung ist der Beginn einschneidender Änderungen am Informationstechnologiemarkt.
Die weltweite Marktdurchdringung bei Virtualisierungslösungen, die von 12% im Jahr 2008 auf 20% im Jahr 2009 wachsen wird, stellt laut Platespin kein ‘weiteres Projekt’ der Informationstechnologie(IT)-Abteilungen dar. Vielmehr bedeutet Servervirtualisierung die Ausrichtung auf eine neue, langfristige Strategie. Dabei geht es um das Bestreben der Realisierung von ‘Grüner IT’, die Konsolidierung der Serverlandschaft ebenso wie um effizientere Ressourcennutzung der verwendeten Hardware.
Laut VMware, einem Hersteller von Virtualisierungslösungen, erlaubt die Umsetzung einer Virtualisierung, die Total Cost of Ownership (TCO) der IT-Landschaft um durchschnittlich 67% der operativen Kosten zu senken. Eine Gartner Studie aus dem Jahr 2007 prognostiziert für das Jahr 2009 eine Gesamtzahl von 3 Millionen installierten virtuellen Servern und hebt eine signifikante Durchdringung der gesamten IT bis zum Jahr 2015 hervor: ‘…that virtualization would be part of nearly every aspect of IT by 2015’.
Bereits ein Jahr später, 2008, revidiert Gartner die Studie und spricht von 4 Millionen virtuellen Servern und einer signifikanten Durchdringung des Marktes bis 2012. ‘Virtualization Will Be [!] the Highest-Impact Trend in Infrastructure and Operations Market Through 2012’.
Um diese Trendvorhersage Realität werden zu lassen, müssen die nötigen Rahmenbedingungen und Voraussetzungen in der Infrastruktur der IT-Landschaft geschaffen werden.
Zielsetzung der Master Thesis:
Fraglich ist, ob virtualisierte Server einerseits sämtliche in der Hospitality Industry geforderten relevanten Applikationen, wie auch deren zugrundeliegenden Betriebssysteme abbilden können. Andererseits ist zu klären, ob in der virtualisierten Umgebung die Schnittstellenkommunikation und Interaktion dieser Server zumindest im gleichen Maß gegeben ist wie bisher.
Die Forschungsfrage für diese Untersuchung stellt sich daher wie folgt:
Inwiefern ist bei der InterContinental Hotels Group (IHG) zuverlässige Kommunikation unter Einsatz von virtualisierten Servern möglich, bezogen auf alle durch den Konzern vorgegebenen Standardanwendungen?
Das Ziel dieser Master Thesis stellt die Ausarbeitung der Möglichkeiten von Servervirtualisierungslösungen bezogen auf die IT-Umgebung eines Hotels […]

Leseprobe

Inhaltsverzeichnis


Inhaltsverzeichnis

Tabellenverzeichnis

Abbildungsverzeichnis

Glossar

Abkürzungsverzeichnis

1 Einleitung
1.1 Zielsetzung der Master Thesis
1.2 Untersuchungsdimensionen
1.3 Methodik und Aufbau der Arbeit

2 Grundlagen der Virtualisierung und von Kommunikationsschnittstellen
2.1 Abgrenzung von Servervirtualisierung
2.2 Themenkreis der Servervirtualisierung
2.2.1 Virtualisierung von Servern
2.2.2 Unterscheidung zu Server Based Computing
2.2.3 Desktop- oder Softwarevirtualisierung
2.2.4 Emulation – Nachbildung von Eigenschaften
2.2.5 Partitionierung - logische Segmentierung
2.2.6 Hypervisor - Element der Virtualisierungszwischenschicht
2.3 Geschichte der Virtualisierung
2.4 Virtualisierung vs. konventionelles Rechenzentrum
2.4.1 Klassisches Konzept im Rechenzentrum
2.4.2 Konzeptionelle Darstellung - Virtualisiert
2.5 Evaluierung von Virtualisierungslösungen
2.5.1 Virtualisierungsunterstützung des Prozessors
2.5.2 Datenspeichervirtualisierung
2.5.3 Möglichkeiten der Paravirtualisierung
2.5.4 Emulation in Virtuellen Umgebungen
2.6 Kommunikationsschnittstellen in virtuellen Umgebungen
2.6.1 Definition von Schnittstellen
2.6.2 Technische Unterscheidung von Schnittstellen
2.6.2.1 Ethernet Interfaces und Bandbreitenaspekte
2.6.2.2 Serielle Interfaces nach EIA 232 F
2.7 Auswahlkriterien für Virtualisierungslösungen
2.8 Kostenvergleich Virtualisierung – Klassischer Ansatz
2.8.1 Anschaffungskosten von Hardware
2.8.2 Energiekosten & Kühlung im laufenden Betrieb
2.9 Kritische Betrachtung der Virtualisierung

3 Virtualisierung im Hotelumfeld - generische Sicht
3.1 Systemrelevante Businessprozesse im Hotel
3.1.1 Der Reservierungsvorgang
3.1.2 Check In
3.1.3 Transaktionen während des Aufenthalts
3.1.4 Check Out
3.2 Planungsauswirkungen der kritischen Komponenten auf die Systemumgebung
3.3 Informationstechnologische Strategie durch Virtualisierung
3.4 Reduktion der Administrativen Aufwendungen
3.5 Optimierte Ressourcennutzung der Systeme
3.6 Dynamische Rechenzentrumsumgebung
3.7 Erhöhung der Verfügbarkeitsanforderungen
3.7.1 Kenngrößen der Verfügbarkeit
3.7.1.1 Tolerierbare Wiederherstellungszeit
3.7.1.2 Tolerierbarer Wiederherstellungszeitpunkt
3.7.1.3 Tolerierbare Testzeiten
3.7.2 Wiederherstellungsszenarien mittels Virtualisierung
3.7.3 Aktualisierung der Service Level Agreements
3.8 Schnittstellen des Property Management Systems
3.9 Zusammenfassung der Virtualisierung im Hotelumfeld

4 Möglichkeiten der Virtualisierung anhand des Fallbeispiels IHG
4.1 Beschreibung und Eingrenzung des IT-Systems
4.1.1 Das Property Management System
4.1.2 Schnittstellenanbindung an das Hotel Management System
4.1.3 Standardisierte Systeme bei InterContinental Hotels
4.2 Umsetzung als virtualisierte „Hotel in a Box“ Lösung
4.3 Virtualisierungsmatrix Der Betriebsumgebung
4.4 Schlussfolgerungen für das Fallbeispiel

5 Fazit

6 Literaturverzeichnis

Tabellenverzeichnis

Tabelle 2-1: Ethernet Bandbreiten und Anwendungen

Tabelle 2-2: Anschaffungskostenvergleich; konventionelle vs. virtualisierte Lösung

Tabelle 2-3: Rechenbeispiel Energiekostenvergleich

Tabelle 2-4: Übersicht von Lösungsanbietern

Tabelle 3-1: Begriffsübersicht der Hospitality Industry

Tabelle 3-2: Dateninput des Reservierungsvorgangs

Tabelle 3-3: Kritische Systembestandteile während des Reservierungsvorgangs

Tabelle 3-4: Dateninput bei Check In des Gastes

Tabelle 3-5: Kritische Systembestandteile während des Check Ins

Tabelle 3-6: Dateninput während des Aufenthalts eines Gastes

Tabelle 3-7: Kritische Systembestandteile während des Gästeaufenthalts

Tabelle 3-8: Dateninput bei Check Out des Gastes

Tabelle 3-9: Kritische Systembestandteile während des Check Outs

Tabelle 3-10: Ausfallsichere Umsetzung von Anwendungen, abhängig von ihrer Kritikalität

Tabelle 3-11: Migrationsmatrix zur Vermeidung von Verfügbarkeitsengpässen

Tabelle 3-12: Tabelle der maximal tolerierbaren Wiederherstellungszeiten

Tabelle 3-13: Tabelle des maximal tolerierbaren Wiederherstellungszeitpunktes eines Systems.

Tabelle 3-14: Optimierte Backuplösung pro Anwendung durch Virtualisierung

Tabelle 3-15: Maximal zulässige Zeit zur Erfüllung eines Service Level Agreements

Tabelle 4-1: Abbildung aller für InterContinental Hotels verpflichtend zu installierenden Systeme

Tabelle 4-2: Zusammenfassung der IHG-Anwendungen in Serverbaugruppen

Tabelle 4-3: Virtualisierungsdarstellung mit Daten des Hotels InterContinental Berchtesgaden Resorts

Abbildungsverzeichnis

Abbildung 2-1: Teilbereiche der Virtualisierung

Abbildung 2-2: Darstellung eines Servers mit Virtualisierungssoftware und virtuellen Gastbetriebssystemen

Abbildung 2-3: Darstellung der eingebetteten Virtualisierungsschicht, des Hypervisors

Abbildung 2-4: Layerdarstellung von Servern im konventionellen Rechenzentrum

Abbildung 2-5: Layerdarstellung eines virtuellen Servers

Abbildung 2-6: Trennung des Hostbetriebssystems von den Gastsystemen in der paravirtuellen Umgebung mit den bereitgestellten AP-Interfaces

Abbildung 3-1: Darstellung der zu betrachtenden Prozessebene

Abbildung 3-2: Flussdiagramm des Prozesschrittes Reservierung

Abbildung 3-3: Flussdiagramm des Prozesschrittes Check In

Abbildung 3-4: Flussdiagramm des Prozesschrittes Transaktionen während des Aufenthalts

Abbildung 3-5: Flussdiagramm des Prozesschrittes Check Out

Abbildung 3-6: Komponentenmanagement mittels Einsatz von administrativen Master Status Pages

Abbildung 3-7: Redundante Netzwerkanbindungen an LAN und externe Speicher

Abbildung 3-8: Kommunikation zum oder vom Property Management System

Abbildung 3-9: Darstellung zweier DMZs zum Schutz von Kreditkartendaten

Glossar

Abbildung in dieser Leseprobe nicht enthalten

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

Diese Arbeit beschäftigt sich mit dem Thema Servervirtualisierung in der Hospitality Industry. Servervirtualisierung ist der Beginn einschneidender Änderungen am Informationstechnologiemarkt. (vgl. Platespin, 2008, S. 2)

Die weltweite Marktdurchdringung bei Virtualisierungslösungen, die von 12% im Jahr 2008 auf 20% im Jahr 2009[1] wachsen wird, stellt laut Platespin kein „weiteres Projekt“ der Informationstechnologie(IT)-Abteilungen dar. Vielmehr bedeutet Servervirtualisierung die Ausrichtung auf eine neue, langfristige Strategie. Dabei geht es um das Bestreben der Realisierung von „Grüner IT“,[2] die Konsolidierung der Serverlandschaft ebenso wie um effizientere Ressourcennutzung der verwendeten Hardware. (vgl. ebd.)

Laut VMware, einem Hersteller von Virtualisierungslösungen, erlaubt die Umsetzung einer Virtualisierung, die Total Cost of Ownership (TCO) der IT-Landschaft um durchschnittlich 67% der operativen Kosten zu senken. (vgl. VMware, 2006, S. 3) Eine Gartner Studie aus dem Jahr 2007 prognostiziert für das Jahr 2009 eine Gesamtzahl von 3 Millionen[3] installierten virtuellen Servern und hebt eine signifikante Durchdringung der gesamten IT bis zum Jahr 2015 hervor.

„…that virtualization would be part of nearly every aspect of IT by 2015”.[4]

Bereits ein Jahr später, 2008, revidiert Gartner die Studie und spricht von 4 Millionen virtuellen Servern und einer signifikanten Durchdringung des Marktes bis 2012.

„Virtualization Will Be [!] the Highest-Impact Trend in Infrastructure and Operations Market Through 2012“.[5]

Um diese Trendvorhersage Realität werden zu lassen, müssen die nötigen Rahmenbedingungen und Voraussetzungen in der Infrastruktur der IT-Landschaft geschaffen werden.

1.1 Zielsetzung der Master Thesis

Fraglich ist, ob virtualisierte Server einerseits sämtliche in der Hospitality Industry[6] geforderten relevanten Applikationen,[7] wie auch deren zugrundeliegenden Betriebssysteme abbilden können. Andererseits ist zu klären, ob in der virtualisierten Umgebung die Schnittstellenkommunikation und Interaktion dieser Server zumindest im gleichen Maß gegeben ist wie bisher.

Die Forschungsfrage für diese Untersuchung stellt sich daher wie folgt:

Inwiefern ist bei der InterContinental Hotels Group (IHG) zuverlässige Kommunikation unter Einsatz von virtualisierten Servern möglich, bezogen auf alle durch den Konzern vorgegebenen Standardanwendungen?

Das Ziel dieser Master Thesis stellt die Ausarbeitung der Möglichkeiten von Servervirtualisierungslösungen bezogen auf die IT-Umgebung eines Hotels dar. Dazu gehören die Möglichkeiten der Servervirtualisierung, die Mindestanforderungen an Hotel-Applikationssoftware und die Vorgaben an die jeweiligen Kommunikationsschnittstellen.

Weiters wird anhand eines Fallbeispiels - am InterContinental Berchtesgaden Resort - eine Ausarbeitung des Ist-Standes und die Evaluierung der möglichen Migrationsfähigkeit von Applikationen erfolgen. Die Darstellung erfolgt in Form einer Virtualisierungsmatrix.

Kein Ziel der vorliegenden Arbeit ist es, die bestmögliche technische Virtualisierungslösung, auf die Hardware und reine Performancegesichtspunkte bezogen, zu finden. Der Ansatz wird vielmehr derart gewählt, dass auch bestehende Hardware der x86-Architektur[8] weiterverwendet werden kann und in das Szenario einbezogen wird. Ebenfalls kein Ziel stellt die Aufbereitung des Themas aus betriebswirtschaftlicher Sicht dar. Allerdings wird das Thema Einsparungspotenzial durch Virtualisierung ebenfalls beleuchtet.

1.2 Untersuchungsdimensionen

Die Forschungsfrage wird folgendermaßen abgegrenzt:

Die Eingrenzung der bewerteten Prozessdefinitionen bezieht sich auf die Hospitality Industry allgemein, das Fallbeispiel auf IHG. Es werden operative Prozesse bewertet.

Die Migration konventioneller IT-Umgebungen auf virtuelle Server wird nach dem aktuellen Stand der Technik evaluiert.

Der Umfang der zu virtualisierenden Standardanwendungen wird nach IHG Vorgaben ausgearbeitet.

Zuverlässige Kommunikation bezieht sich auf die ausgearbeiteten und bewerteten kritischen Kommunikationsbereiche oder Prozessschritte und deren Systemschnittstellen.

Als Ergebnis liegt ein Erfüllungsgrad an virtualisierbaren Anwendungen in Form einer Tabelle vor.

1.3 Methodik und Aufbau der Arbeit

Diese Master Thesis beinhaltet zum Ersten die Aufarbeitung des Themas der Servervirtualisierung in generischer Form, also mit Gültigkeit für die gesamte Hospitality Industry als solche. Danach erfolgt die Analyse anhand eines realen Fallbeispiels.

Das zentrale Kapitel behandelt die Modellierung und Visualisierung der operativen Geschäftsprozesse einer Hotelumgebung. Es gilt zu klären, inwieweit Servervirtualisierungen in diesem speziellen Umfeld möglich sind. Die dafür betrachteten relevanten Prozesse werden ausgearbeitet und abgebildet. Dazu erfolgt zunächst eine Diskussion möglicher Ansätze und wichtiger Definitionen zum vorliegenden Themenkomplex der Server-Virtualisierung und deren Kommunikationsanforderungen. Danach wird, unter Berücksichtigung von Mustern sowohl der hierarchischen als auch der heterarchischen Kommunikationsstruktur, eine Kritikalitätsbewertung der Prozesse erarbeitet. Daraus resultiert eine Virtualisierungsmatrix mit effektiven Serverkombinationen.

Im abschließenden Kapitel erfolgen die beispielhafte Darstellung einer realen Geschäftsumgebung und die Ausarbeitung der Ergebnisse in tabellarischer Form. Das InterContinental Berchtesgaden Resort wird dafür beispielhaft für Hotels dieser Kategorie[9] herangezogen.

Die vorliegende Master Thesis ist als qualitative Arbeit ausgeführt und re-flektiert die maßgeblichen Ergebnisse einer ausführlichen qualitativen Inhaltsanalyse. Zur Verfügung standen dafür Werke der deutsch- und englischsprachigen Fachliteratur. Auch Herstellerliteratur und Releasenotes[10] zum Stand der Technik wurden genutzt sowie Onlinequellen.

Die Ausarbeitung des Fallbeispiels erfolgte in enger Zusammenarbeit mit Lieferanten und deren Entwicklungsabteilungen. Die fachliche Fundierung wurde mittels öffentlich verfügbarer Hersteller-Whitepapers und Releasenotes belegt.

2 Grundlagen der Virtualisierung und von Kommunikationsschnittstellen

Im folgenden Kapitel geht es um Begriffsabgrenzungen und Standortbestimmungen der Servervirtualisierung. Zuerst erfolgt eine Eingrenzung, welche Bereiche Servervirtualisierung abdeckt. Anschließend werden die elementaren Virtualisierungsbegriffe erörtert. Nach einem geschichtlichen Überblick der ersten Virtualisierungsansätze erfolgt eine Evaluierung der relevanten Verfahren am momentanen Stand der Technik.

2.1 Abgrenzung von Servervirtualisierung

Virtualisierung lässt sich in zwei Bereiche gliedern, die Servervirtualisierung und die Applikationsvirtualisierung, auch Softwarevirtualisierung genannt. Weitere Granularitätsstufen der Servervirtualisierung bilden die Paravirtualisierung und die „Echte“ Virtualisierung, im Applikationsbereich das Streaming[11] von Diensten einerseits oder die Isolation von Anwendungen andererseits, wie in folgender Abbildung dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-1: Teilbereiche der Virtualisierung

[nach Lüdemann, 2007, S. 24]

Der Fokus der Servervirtualisierung aus Hard- und Softwaresicht liegt dabei auf serverbezogenen Anwendungen und Diensten. Bei allen Virtualisierungsverfahren[12] erfolgt eine Trennung der statischen von der logischen Systemumgebung. Auf die Schicht der Virtualisierungssoftware werden die eigentlichen Arbeitsumgebungen, die Gastsysteme, installiert.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-2: Darstellung eines Servers mit Virtualisierungssoftware und virtuellen Gastbetriebssystemen

[nach Ahnert, 2007, S. 40]

Die Darstellung zeigt, wie direkt auf das Hostbetriebssystem aufsetzend die Virtualisierungssoftware zum Einsatz kommt. Anschließend werden dann die Gastbetriebssysteme installiert. Dienste und Applikationen werden dabei von der physikalischen Umgebung extrahiert. Die Gastbetriebssysteme werden in virtualisierten Betriebssystem-Containern zur Verfügung gestellt. (vgl. Thorns, 2007, S. 21)

2.2 Themenkreis der Servervirtualisierung

Ziel dieses Kapitels ist eine Interpretation der jeweiligen Fachbegriffe des Virtualisierungsumfelds aus Informatiksicht.

Im Langenscheidt findet sich folgende Definition zum Begriff „virtuell“:

„Der Möglichkeit nach vorhanden, ein scheinbares Bild erzeugend“.[13]

Die Abbildung und die Verwaltung dieser „scheinbaren Bilder“ auf einer Hardwarekomponente bezeichnet die Servervirtualisierung.

2.2.1 Virtualisierung von Servern

Servervirtualisierung beschreibt die Entkopplung von Anwendungen und deren zugrundeliegender Hardware. Sie wird auch als Systemvirtualisierung bezeichnet. Die virtuellen Systeme agieren dann vollkommen unabhängig voneinander und können isoliert genutzt werden. (vgl. Lüdemann, 2007, S. 24)

2.2.2 Unterscheidung zu Server Based Computing

Server Based Computing (SBC) ist die zentrale Bereitstellung von Anwendungen. Es verbindet laut Kienle die wichtigsten Vorteile von Client- und Server-Architekturen und Terminalserverumgebungen. (vgl. Kienle, 2004, S. 24f.)

Benutzer greifen über ein Netzwerk auf Anwendungen zu, die auf dem Server ausgeführt werden. Über das Netzwerk werden lediglich Bildschirminformationen und Eingabeinformationen zwischen Server und Anwender übermittelt. Die Anforderungen an das Netzwerk sind gering. Diese Form des Computings stellt die Basis für ressourcenschonende Netzwerkübertragungen dar. (vgl. ebd.)

Das Thema der Desktop Virtualisierung wird in dieser Arbeit nicht näher behandelt, obwohl es eine Schnittmenge mit Server Based Computing und Servervirtualisierung gibt. Die Realisierung eines Virtualisierungsprojekts bedarf ebenso einer detaillierten Untersuchung von am Desktop ausgeführten Prozessen wie deren mögliche Servermigrationen.

2.2.3 Desktop- oder Softwarevirtualisierung

Desktop- oder Softwarevirtualisierung beschreibt die zentralisierte Bereitstellung bisher lokal installierter Anwendungen auf Servern. Einzelne Desktops werden dabei in isolierter Form am Server abgebildet. Kommunikation zwischen den Desktops ist lediglich über das Netzwerk möglich. Das ist gleichzusetzen mit klassischen Client / Serverumgebungen in Local Area Networks (LAN). (vgl. Ahnert, 2007, S. 38)

Verglichen mit dem Szenario des Server Based Computings, stellt diese Variante eine weitere Granularitätsstufe einer isolierten, virtualisierten Umgebung dar. Diese Form der Virtualisierung wird auch als Applikations- oder Anwendungsvirtualisierung bezeichnet. (vgl. Lüdemann, 2007,
S. 28ff.)

2.2.4 Emulation – Nachbildung von Eigenschaften

Emulation[14] bedeutet die Nachbildung von charakteristischen Merkmalen eines bestimmten Gerätes auf einem anderen Gerät. (vgl. Larisch, 2007, S. 445) Dabei kommt ein Softwaremittler zum Einsatz, der Kommunikation zwischen zwei nicht konvergenten Systemen ermöglicht.

In einer virtualisierten Systemumgebung wird der Großteil der auszuführenden Prozesse direkt an das Hostbetriebssystem weitergegeben. Beispielsweise müssen Netzwerkkarten jedoch auch in einer virtualisierten Umgebung durch Emulatoren abgebildet werden. (vgl. Ahnert, 2007,
S. 39)

2.2.5 Partitionierung - logische Segmentierung

Unter Partitionierung[15] versteht man logisch oder physisch abgegrenzte und zusammenhängende Bestandteile eines Servers, einer Festplatte oder eines anderwärtigen Datenträgers.

Partitionierungen im Umfeld der virtuellen Systemumgebungen verfolgen die Strategie, nicht jeder virtuellen Maschine ein eigenes Betriebssystem zugrunde zu legen. Vielmehr teilen sich hier mehrere virtuelle Umgebungen Prozesse und Dateisysteme. (vgl. Thorns, 2007, S. 29)

Bei den Begriffen Emulation und Partitionierung konnten in der Literatur Interpretationsunterschiede ausgemacht werden. Die oben ausgewählten Definitionen bilden aufgrund der Diffizilität der Begriffe die bestmögliche logische Abgrenzung voneinander.

2.2.6 Hypervisor - Element der Virtualisierungszwischenschicht

Die Softwareschicht zwischen dem Gastbetriebssystem und der eigentlichen Hardware wird als Hypervisor bezeichnet.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-3: Darstellung der eingebetteten Virtualisierungsschicht, des Hypervisors

[nach Larson; Carbone, 2008, S. 5]

Der in der Abbildung dargestellte Hypervisor wird auch als Virtualisierungslayer oder herstellerübergreifend als Virtual Machine Monitor[16] (VMM) bezeichnet. Der Hypervisor verwaltet für die Gastbetriebssysteme die Hardwareressourcen. Weiters wird aus dieser Schicht der kontrollierte Zugriff auf bestimmte physische Geräte des Host- oder Wirtssystems gesteuert. (vgl. Ahnert, 2007, S. 36)

2.3 Geschichte der Virtualisierung

Die Virtualisierung als Modewort der IT-Branche ist in aller Munde. Sie ist allerdings keine Erfindung der letzten Jahre.

In der Entwicklungsgeschichte des Computers tauchen immer wieder Lösungen auf, die als virtueller Ansatz zu sehen sind.[17]

Der entscheidende Entwicklungsschritt war die Erfindung des Time Sharing Systems (TSS) und die Vermarktung der ersten diesbezüglichen kommerziell erhältlichen Maschine, genannt PDP 6, im Jahr 1965. Damit wurde erstmals die Möglichkeit eines Mehrbenutzersystems geschaffen, indem die Prozessorzeit des einzig verfügbaren Prozessors aufgeteilt wurde. Sogenannte „Timeslots“ wurden einzelnen Benutzern nach einem vordefinierten Plan zugewiesen und vom Prozessor abgearbeitet.[18]

IBM hat mit der Serie System/360 (vgl. Amdahl et al., 2000, S. 2) in den Sechzigerjahren des letzten Jahrhunderts den Grundstein für die Virtualisierung gelegt. Diese Großrechnermaschine wurde ständig weiterentwickelt und mündet in der aktuellen Form in der z/Serie mit Unterstützung von logischen Partitionen[19] (LPAR) für virtuelle Systeme.

Durch die Firma VMware wurde das Thema der Virtualisierung erstmals auch auf Standardrechner bezogen. 1999 wurde das erste Produkt „VMware Workstation“ veröffentlicht. Weiters folgten im Jahr 2001 Lösungen für den Serverbereich mit den Produktbezeichnungen GSX und ESX. (vgl. Larisch, 2007, S.16)

Dadurch wurde erstmals die Möglichkeit geschaffen, bestehende Server zu konsolidieren und die Auslastung pro Hardwareeinheit zu erhöhen.

2.4 Virtualisierung vs. konventionelles Rechenzentrum

Um Virtualisierung im Rechenzentrum zu erfassen, muss zuerst der unterschiedliche Ansatz eines Rechenzentrums im konventionellen Betrieb, verglichen mit einer virtuellen Lösung, dargestellt werden.

Bisher wurden in der Regel, bei Wachstum eines Unternehmens und damit einhergehend benötigter zusätzlicher Anwendungen, die Rechenzentren um dafür benötigte Server ergänzt. Das sind meist dezidierte Server für wenige Anwendungen. Diese werden in vielen Fällen nur schwach ausgelastet. (vgl. Larisch, 2007, S. 1)

In den folgenden Kapiteln werden die unterschiedlichen Strukturen des konventionellen Betriebs eines Rechenzentrums mit dem eines virtualisierten oder teilvirtualisierten Ansatzes verglichen.

2.4.1 Klassisches Konzept im Rechenzentrum

Im konventionellen Ansatz laufen auf einem physischen Server ein Betriebssystem und diverse Anwendungen. Das dafür benötigte Konfigurationssetup hat generelle Gültigkeit. Beispielsweise können Dienste nur für alle Benutzer des Systems konfiguriert werden. (vgl. Thorns, 2007, S. 28)

Unterschiedliche Konfigurationsanforderungen von Anwendungen oder deren herstellerspezifische Vorgaben an das Betriebssystem erfordern somit eine Vielzahl an dezidierten Servern.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-4: Layerdarstellung von Servern im konventionellen Rechenzentrum

[nach Thorns, 2007, S. 28]

Die hier dargestellte Form der Rechenzentrumsgestaltung verursacht aufgrund der Vielgleisigkeit der Umgebung hohe laufende Kosten. Darauf wird beim Kostenvergleich von Virtualisierung und klassischem Ansatz näher eingegangen.

2.4.2 Konzeptionelle Darstellung - Virtualisiert

In der virtualisierten Umgebung wird versucht die Anzahl der benötigten Hardwarekomponenten zu reduzieren. Dazu werden mehrere Systeme auf einer Hardwareplattform abgebildet. (vgl. Larisch, 2007, S. 2)

Diese Plattform wird als Hostsystem bezeichnet. Um die Entkoppelung von der physischen Hardware zu ermöglichen, wird eine Instanz, ein Virtualisierungslayer, eingeschoben. Darüber erfolgt, wie in Abbildung 2-5 dargestellt, die Installation der eigentlichen Betriebsumgebung.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-5: Layerdarstellung eines virtuellen Servers

[Verfasser, 2009]

Nicht alle Virtualisierungslösungen benötigen das dargestellte Host -Betriebssystem. Im Gegenzug dafür müssen allerdings Einschränkungen bei der unterstützten Hardware und anwendbaren Gästebetriebssystemen akzeptiert werden. (vgl. Larisch, 2007, S. 25)

Larisch sieht die Vorteile solcher Lösungen in besseren Performancewerten und einer nochmaligen Minimierung der Gesamtbetriebskosten der Rechenzentrumsinfrastruktur. (vgl. ebd.)

2.5 Evaluierung von Virtualisierungslösungen

Nun folgend werden unterschiedliche Aspekte, Ansätze und Ausprägungen der Virtualisierung beleuchtet. Der Fokus liegt dabei auf den als „Echten“ Virtualisierungsverfahren oder auch Systemvirtualisierung[20] bezeichneten Lösungen. Der Vollständigkeit wegen wird auch eine Hybridlösung betrachtet, die Paravirtualisierung.

Thorns bezeichnet Virtualisierungsverfahren dann als echt, wenn Anteile der vorhandenen Hardware virtuellen Maschinen zugewiesen werden. Sie entsprechen dabei in ihrer Architektur und in ihren Eigenschaften exakt dem Hostsystem. Somit ist gewährleistet, dass Befehle der virtuellen Maschine zum Hostsystem passen und nicht grundlegend geändert werden müssen. Die Virtualisierungskomponente muss als zentrale Aufgabe die bestehende Hardwareressource zwischen den virtuellen Maschinen aufteilen. (vgl. Thorns, 2007, S. 30)

Die Virtualisierungskomponenten bedienen sich auch weiterer, nicht zwingend vorhandener Ressourcen der Host-Hardware. Im Falle der Verfügbarkeit von solchen Features sind sie somit in der Lage, die Gesamtperformance des Systems zu verbessern. Eine dieser Fähigkeiten stellt die Unterstützung des Prozessors für Virtualisierung dar.

2.5.1 Virtualisierungsunterstützung des Prozessors

Der herstellerübergreifende, maßgebliche Ansatz der Prozessorvirtualisierung beschreibt das Bestreben, Performancenachteile in virtuellen Umgebungen zu minimieren oder diese durch Integration von Elementen in die Prozessorarchitektur auszuschalten.

Sowohl AMD[21] als auch Intel[22] bieten Lösungen, die es Softwareherstellern leichter macht, Virtualisierungslösungen performanter zu gestalten. Diese Prozessortechnologieerweiterungen bieten zusätzliche Hardwareunterstützung, die bestimmte Anwendungsszenarien beschleunigt. Hauptsächlich handelt es sich dabei um Serveranwendungen, die gleichzeitiges Laufen von vielen Prozessen erfordern. (vgl. Thorns, 2007, S. 64)

Beispielsweise hat AMD eine Technologie in seine Serverprozessoren implementiert, die als „I/O Memory Mapping Unit“ (IOMMU) bezeichnet wird. Diese Technologie hilft I/O Anforderungen overhead-minimiert direkt durch den Prozessor zu bedienen, ohne den Umweg über die Virtualisierungssoftware gehen zu müssen. (vgl. AMD, 2008, S. 6)

Dadurch kann für Anwendungen, die hohe I/O Anforderungen stellen, ein deutlicher Geschwindigkeitszuwachs erreicht werden:

Performance issues in virtualized server environments are often the result of a mismatch between the front-end workloads and the back-end” (AMD, 2008, S. 6)

Prozessorvirtualisierung ist ein weiterer Mosaikstein, um optimale Bedingungen für die Virtualisierung zu schaffen. Virtualisierungssoftware wird laufend hinsichtlich vorhandener Hardwaremöglichkeiten optimiert; allerdings entbindet es nicht von einer exakten Systemanalyse im Vorfeld des Virtualisierungsprozesses. Weiters ergibt sich daraus beim aktuellen Stand der Technik nur für spezielle Anforderungen ein Performancevorteil.

2.5.2 Datenspeichervirtualisierung

Dieser Themenbereich behandelt die Abbildung und Bereitstellung von Speichermedien oder Speicherreservoires für einzelne Server, was nicht zwingend deren eigene Virtualisierung voraussetzt. Speichervirtualisierung zielt vielmehr auf die Notwendigkeit der dynamischen Anpassungsfähigkeit von Speicherkapazitäten für einzelne Server ab. Die physikalische Lagerung der Daten erfolgt dabei an zentraler Stelle, systemunabhängig und entfernt von der jeweiligen Serverhardware.

Diese Entkoppelung von Rechenkapazität und Speicherkapazität findet ihre Abbildung in als Storage Area Network (SAN) bezeichneten Speicherumgebungen. Der Einsatz eines Storage Area Networks schafft die Basis, heterogene Betriebsumgebungen zu konsolidieren. Es entsteht dadurch eine Betriebsumgebung, die erlaubt, Altsysteme auf virtuelle Serverumgebungen zu migrieren. (vgl. Larisch, 2007, S. 3)

Die Anbindung der einzelnen Server an ein SAN erfolgt entweder über Host Bus Adapter (HBA) mittels Glasfasertechnologie,[23] oder über herkömmliche GigaBit[24] Adapter mit der als Internet Small Computer System Interface (iSCSI) bezeichneten Technologie.[25] (vgl. Ahnert, 2007, S. 53f.)

Die Struktur der bereits vorhandenen Betriebsumgebung und das zu erwartende Speicherwachstum im Unternehmen stellen die Entscheidungsgrundlagen für Speichervirtualisierung dar. Mit Einschränkungen in Bezug auf die Virtualisierung der Serverumgebung ist bei Einsatzverzicht von SANs nicht zu rechnen.

Herstellerbezogen sind allerdings Lösungen verfügbar, welche die Vorteile der Speichervirtualisierung[26] nutzen und somit beispielsweise Sicherungsmaßnahmen oder das Erstellen von virtuellen Clustern vereinfachen.

2.5.3 Möglichkeiten der Paravirtualisierung

Paravirtualisierung verfolgt den Ansatz, Virtualisierung mit gesteigerter Performance zu betreiben. Der Vergleich gilt Virtualisierungen, die auf eine den gesamten Host betreffenden eingeschobene Hypervisor-Virtualisierungsschicht aufbauen. Im Bereich des Durchsatzes der Input/Output (I/O) Gerätevirtualisierung wird dies durchwegs erzielt.

Diese Komponenten werden bei Einsatz von Paravirtualisierungslösungen nicht emuliert,[27] sondern durch ein Application Programming Interface (API) abgebildet. (vgl. Thorns, 2007, S. 30ff.)

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-6: Trennung des Hostbetriebssystems von den Gastsystemen in der paravirtuellen Umgebung mit den bereitgestellten AP-Interfaces

[nach Ahnert, 2007, S. 35]

Wie in Abbildung 2-6 dargestellt, liegt der Unterschied im Ansatz der Paravirtualisierung gegenüber der „Echten“ Virtualisierung darin, dem Gast-Betriebssystem nicht direkt die Hosthardware „durchzureichen“, sondern gegebenenfalls modifiziert zur Verfügung zu stellen. Damit werden Performance Gewinne erzielt, die wiederum in einer erhöhten Virtualisie-rungsrate ihren Niederschlag finden. Durch gezielte Manipulation im Gastsystem wird der Sicherheitslevel der virtuellen Maschine erhöht. (vgl. Whitaker et al., 2001, S. 4)

Kritiker sagen der Paravirtualisierung keine große Zukunft voraus, da durch die ständige Weiterentwicklung der Prozessortechnik und der Hypervisoren die beschriebenen Vorteile wettgemacht werden.[28]

Für die im Kontext dieser Arbeit beschriebenen Betriebsumgebungen bietet Paravirtualisierung keinen entscheidenden Vorteil. Grund dafür sind die verwendeten Microsoft Betriebssysteme. Da Microsoft keine Modifikationen am Quellcode[29] des Betriebssystems zulässt, ist hier auch keine Optimierung des Gastsystems und seines Verhaltens gegenüber dem Host möglich.

2.5.4 Emulation in Virtuellen Umgebungen

Emulation stellt einen Systembaustein in aktuellen virtuellen Betriebsumgebungen dar. Daher wird sie als Thema in diesem Kapitel näher betrachtet. Oftmals erfolgt in der Allgemein-Literatur eine synonyme Verwendung des Begriffes mit Virtualisierung.

Emulatoren sind Softwaremittler. Ein Emulator beschreibt die Simulation eines Ein-/Ausgabegerätes (abgekürzt E/A, engl. Input/Output, kurz I/O) oder die Nachbildung einer Benutzeroberfläche, die über eine zusätzliche Softwareschicht abgebildet wird.

Um die physikalischen Schnittstellen eines Servers, ausgehend von den virtuellen Gästebetriebssystemen, ansprechen zu können, sind Emulatoren von Bedeutung. Als Beispiele für Emulatoren können virtuelle Netzwerkkarten[30] oder Universal Serial Bus[31] (USB) Schnittstellen genannt werden. (vgl. Ahnert, 2007, S. 56f.)

Der Unterschied zu Virtualisierungslösungen liegt in der vollständigen Entkoppelung zur vorhandenen Hardwarearchitektur. Obwohl über Emulationen auch komplette Betriebssysteme abgebildet werden können, stellen sie dennoch lediglich Anwendungsprogramme aus Sicht des eigentlichen Betriebssystems dar. (vgl. Thorns, 2007, S. 29)

Der wesentliche Unterschied zur echten Virtualisierung liegt in der Systemperformance. Durch die Entkoppelung von der Hardware-Architektur müssen für jeden Befehl des nachgebildeten Systemprozessors (Central Processing Unit, CPU) eine Übersetzung und die Ausführung eines oder mehrerer Befehle im Emulator erfolgen. Diese Arbeitsschritte belasten und verlangsamen den Prozessor des Basissystems.[32] (vgl. Ahnert, 2007, S. 38)

Zusammenfassend ist zu sagen, dass Emulation eine effektive Maßnahme darstellt, um Komponenten abzubilden oder „zu imitieren“, die sich nicht unmittelbar an das Hostsystem „durchreichen“ lassen. Die Effizienz dieser Maßnahmen muss aber in jedem einzelnen Fall, bezogen auf den geforderten Durchsatz, geprüft werden.

2.6 Kommunikationsschnittstellen in virtuellen Umgebungen

Kommunikation im Sinne von technischem Datenaustausch muss einerseits zwischen virtuellen Welten, andererseits aber auch zwischen virtuellen und physikalischen Umgebungen, interaktiv möglich sein. Diese Form des Datenaustauschs wird über Schnittstellendefinitionen reglementiert. Im Bereich der Servervirtualisierung bezieht sich dies auf Maschinenschnittstellen zwischen Hard- und Softwarekomponenten und auf Netzwerkschnittstellen.[33]

McQuerry führt beispielhaft folgende Typen von Schnittstellen an.[34] (vgl. McQuerry, 2000, S. 162)

- Ethernet / Fast Ethernet
- Serielle Schnittstellen (asynchron und synchron)
- Konsole und Hilfsports

Auf diese Unterscheidung aufbauend wird mittels gemeinsamer Protokolle die Kommunikation ermöglicht. Die Schnittstelle beschreibt immer die physikalische Eigenschaft. Das Protokoll hingegen bezieht sich auf die logische Übertragung der Daten. (vgl. Werner; Mildenberger, 2005, S. 5)

2.6.1 Definition von Schnittstellen

Schnittstellen[35] beschreiben die Gesamtheit der Eigenschaften von Verbindungsleitungen sowie die dabei ausgetauschten Signale, deren Bedeutung und das dafür geltende Regelwerk. Die Übergabestelle[36] ist jener Ort, an dem die physikalische Verbindung, meist mittels Steckverbindungen, hergestellt wird. (vgl. Werner; Mildenberger, 2005, S. 5f.)

2.6.2 Technische Unterscheidung von Schnittstellen

Aus technischer Sicht lässt sich Nachrichtenübermittlung in zwei grundlegend unterschiedliche Bereiche unterteilen, in die Leitungsvermittlung und die Paketvermittlung.[37] Sämtliche im Bereich der Virtualisierung verwendeten Transportmechanismen basieren auf paketvermittelnden Diensten. Daher wird auf leitungsvermittelnde Dienste im Weiteren nicht näher eingegangen. (vgl. Werner; Mildenberger, 2005, S. 6f.)

Die Paketvermittlung „zerlegt“ also die zu übertragende Nachricht in Pakete, welche danach entweder verbindungsorientiert oder verbindungslos übermittelt werden. Der Unterschied dabei liegt in der jeweiligen Paketgröße.

Verbindungslose Pakete tragen sämtliche zur Zielinformation benötigten Informationen in jedem Paket mit sich. Sie transportieren daher auch mehr Verbindungsinformationsdaten,[38] welche als „Overhead“ bezeichnet werden. Verbindungsorientierte Übermittlung erfolgt über zuvor definierte Pfade, die den jeweiligen Anforderungen an den Dienst entsprechen müssen. (vgl. Werner; Mildenberger, 2005, S. 8)

In den letzten Jahren hat eine Konsolidierung und eine De-facto Standardisierung von LAN-Protokollen und dem dabei eingesetzten Übertragungs-Kontroll-Protokoll (Transmission Control Protocol, TCP) stattgefunden. (vgl. McQuerry, 2000, S. 251)

Alle Netzsegmente, die nicht LAN-fähig sind, werden weiterhin über serielle Verbindungen angesprochen.

2.6.2.1 Ethernet Interfaces und Bandbreitenaspekte

Hier wird eine Familie von LAN-Implementationen beschrieben, welche die Kommunikationsbasis und die mögliche Bandbreite für Datenübertragungen vorgibt. Aufsteigend gereiht werden unterschiedliche Bandbreiten in diesem Segment unterstützt. Normative Vorgaben erfolgten dafür durch das Institute of Electrical and Electronics Engineers[39] (IEEE).

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2-1: Ethernet Bandbreiten und Anwendungen

[nach McQuerry, 2000, S. 71]

Für Virtualisierungsanwendungen wird als Mindestvorgabe die Verwendung von Ethernet 100 Mbps empfohlen, sowie zusätzlich die redundante Anbindung von Netzwerkeinheiten und Servern. Weiters empfiehlt Larson die unmittelbare Installation der Virtual Machine Additions,[40] (VMA) nach erfolgter Installation der virtuellen Maschine. Grund dafür ist die Erreichung der bestmöglichen Performance und die Ausnutzung von Features für periphere Systeme wie Maustreiber oder der Small Computer System Interface (SCSI) Schnittstelle. (vgl. Larson; Carbone, 2008, S. 183)

2.6.2.2 Serielle Interfaces nach EIA 232 F

Der 1962 in der Urform RS-232 durch die Electronic Industries Alliance (EIA) erstmals definierte „recommended standard“ (RS) für serielle Schnittstellen beschreibt das Regelwerk der Datenkommunikation am RS-232 Port eines Computers oder Peripheriegerätes.

Die aktuell gültige Fassung ist die EIA-RS-232-F. (vgl. Werner; Mildenberger, 2005, S. 26)

Diese Schnittstellen haben ihre klassische Bedeutung der Datenübertragung in Fernverkehrsnetzen verloren. Analog gilt dies für die Datenübertragung an parallelen Schnittstellen. Lediglich in leitungsvermittelnden Netzen bleibt die Wichtigkeit der seriellen Übertragung erhalten. (vgl. Spath; Heermeyer, 1997, S. 209)

Im Virtualisierungsumfeld werden RS-232 Schnittstellen stetig emuliert. Vorrangig handelt es sich bei deren Benutzung um lokal angeschlossene Peripheriegeräte sowie um ihre adäquate Abbildung, jeweils der gegebenen Anzahl an virtuellen Maschinen pro Host entsprechend.

Software wird, abhängig vom jeweiligen Lizenzmodell, auch mit Kopierschutzsteckern oder „Dongles“ ausgeliefert. Dabei erfolgt eine Abfrage durch die Software nach Vorhandensein dieses Steckers, um unerlaubte Installationen zu vermeiden. Diese sind für serielle und parallele
Schnittstellen oder Universal Serial Bus-(USB) Schnittstellen verfügbar. Hier gilt zu prüfen, ob diese auch in der virtuellen Umgebung noch adressierbar sind; falls nicht, müssen sie durch netzwerkintegrierte Lizenzserver ersetzt werden. (vgl. Ahnert, 2007, S. 60)

Unterschiedliche Ansätze der Hersteller von Virtualisierungslösungen in der Durchreichung und Verwaltung von seriellen und parallelen Schnittstellen bedürfen einer exakten Analyse im Vorfeld von Virtualisierungsmaßnahmen. Es gilt, alle geforderten Funktionen auch in der virtuellen Umgebung entsprechend verfügbar zu halten.

Da Datenübertragungsraten von seriellen Schnittstellen in virtuellen Umgebungen nicht ausschlaggebend sind, wird dieser Aspekt nicht weiter betrachtet.

2.7 Auswahlkriterien für Virtualisierungslösungen

Ziel dieses Kapitels ist es, die allgemein gültigen und anwendbaren Punkte der Virtualisierung darzustellen, beginnend bereits in der Planungsphase von Virtualisierungskonzepten.

Ein Unternehmen muss spezifische Anwendungen und die kritische Infrastruktur einer exakten Analyse und Bewertung unterziehen. Diese müssen auch die Identifikation und Bewertung der absehbaren Risiken durch Virtualisierung beinhalten. Dadurch ergeben sich folgende sieben Auswahlkriterien. Die angeführten Kriterien verstehen sich als generelle Mindestmaßnahmen und erheben aufgrund der generischen Aufarbeitung des Themas keinen Anspruch auf Vollständigkeit.

1. Konkrete Hardware- und Workloadanalyse

Die Ausarbeitung der Serverworkloads und eine detaillierte Analyse von Rahmenfaktoren wie Wirtschaftlichkeit, Sinnhaftigkeit im Kontext der Umgebunsgbedingungen und einer Risikoanalyse der Migrationsfähigkeit einzelner Maschinen stellen die Basis für ein entsprechendes Projekt dar. (vgl. Larson; Carbone, 2008, S. 382)

2. Konvertierung

Konvertierung ist die Migration von Servern in virtuelle Umgebungen, bzw. in gewissen Anwendungsfällen auch wieder auf die physikalische Maschine retour. Sie stellen einen weiteren relevanten Faktor für zuverlässige und nachvollziehbare Virtualisierungslösungen dar. Sowohl komfortable Migration in Richtung „physical to virtual“ (P2V) als auch „virtual to physical“ (V2P) stellt die Basis zum fehlerfreien Betrieb virtueller Umgebungen dar. Hier gilt es, die Nachvollziehbarkeit im Falle von Störungen zu gewähren, wie auch entsprechend komfortabel Pilot- und Testumgebungen zu erstellen. (vgl. Ahnert, 2007, S. 614ff.)

3. Managementtool

Management und Überwachung des virtuellen Maschinenparks kann einerseits über selbst erstellte virtual machine remote control clients (VMRC) erfolgen. Als Vorteil ist hier der hohe Grad der möglichen Anpassung zu sehen. Dies ist allerdings auch mit entsprechendem Aufwand verbunden. (vgl. Armstrong, 2007, S. 424ff.) Andererseits bieten alle Hersteller auch vorgefertigte Managementkonsolen passend zur Virtualisierungssoftware.[41]

4. Performanceverwaltungsmöglichkeit

Ein weiterer Aspekt ist die aktuellen Zustände im laufenden Betrieb zu verwalten und die Möglichkeit, sie zu überwachen.

Die virtuelle Umgebung kann auch in bestehende Überwachungslösungen eingebettet werden. (vgl. Larson; Carbone, 2008, S. 386)

Wichtige Aspekte bei der Überwachung sind Performanceengpässe der Central Processing Unit (CPU), der Netzwerkanbindungen und verfügbare Kapazitäten der virtual hard disc (VHD), also der für das Gastbetriebssystem konfigurierten Festplatte.

5. Lizenzierungsmodelle / Kosten

Die Auswahl des Virtualisierungsproduktes bedarf auch jeweils der entsprechenden Auswahl von Serverhardware. Hier kann durch unterschiedliche Modelle und die entsprechende Abstimmung der Hardware eine erhebliche Kostenreduktion erzielt werden. Beispielsweise werden bei VMware nur physische CPUs lizenziert, auch wenn es sich um Dual Core Prozessoren mit der Unterstützung von Hyperthreading handelt. (vgl. Ahnert, 2007, S. 391f.)

6. Plattformunterstützung

Anhand der erwähnten Hardwareanalyse und der Erörterung der weiteren Plattformstrategie eines Unternehmens kann die Eingrenzung auf entsprechende Produkte erfolgen. Am Beispiel des Microsoft Virtual Servers 2005 R2 ist ersichtlich, dass der Bedarf an Unterstützung sowohl für Host- als auch Gastbetriebssysteme mit jedem verfügbaren Service Pack (SP) oder jeder neuen Release steigt. (vgl. Larson; Carbone, 2008, S. 18) Andere Hersteller verfahren hier analog.

7. Ausfallsicherheit und Verfügbarkeit von virtuellen Maschinen

Dieser Themenkreis enthält die Teilaspekte der Ausfallsicherheit von zugrundeliegender Hardware einerseits und andererseits die Ausfallsicherheit einzelne virtuelle Maschinen betreffend. (vgl. Ahnert, 2007, S. 601f.)

Die Ausfallswahrscheinlichkeit von Hardware oder deren Teilkomponenten muss durch entsprechende Redundanzen minimiert werden.[42] Dem Ausfall einzelner virtueller Maschinen, bzw. dahinterliegender Applikationen, wird durch entsprechendes Design und durch die Schaffung von virtuellen Clusterkonfigurationen vorgebeugt (vgl. ebd.)

2.8 Kostenvergleich Virtualisierung – Klassischer Ansatz

Dieses Kapitel stellt betriebswirtschaftliche Auswirkungen der Servervirtualisierung dar. Es wird zuerst anhand eines Beispieles demonstriert, wie sich die Anschaffungskosten zu den laufenden Betriebskosten in Bezug auf die Hardware verhalten. Danach erfolgt ein Vergleich im laufenden Betrieb. Dabei wird jeweils eine konventionelle Umgebung einer virtualisierten gegenübergestellt. Dies ist allerdings keine detaillierte Berechung eines Return on Investments (ROI).

2.8.1 Anschaffungskosten von Hardware

In diesem Beispiel von Better-Office[43] mit Preisvergleichen aus 06/2006 und einem Virtualisierungsfaktor von 1:8,[44] unter der beispielhaften Anwendung der Virtualisierungssoftware von Vmware, werden die Initialkosten der Hardwareanschaffung verglichen.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2-2: Anschaffungskostenvergleich; konventionelle vs. virtualisierte Lösung

[nach http://www.virtualisierung-server.de/ (08.03.2009)]

Es wird ersichtlich, dass die Anschaffungskosten einer virtuellen Serverumgebung noch um etwa 6% höher liegen als im Fall von dezidierten Rack-Servern, jeweils pro Anwendung ausgelegt. Aufgrund der geringeren Ausfalltoleranz bei Hardwarestörungen für die Virtualisierungsplattformen wurden zusätzlich kürzere Reaktionszeiten für den Hersteller-Hardwaresupport gewählt.

2.8.2 Energiekosten & Kühlung im laufenden Betrieb

Im Folgenden werden die laufenden Betriebskosten für Energie inklusive der anzusetzenden Kühlungskosten dargestellt. Die Europäische Union hat in einem „Code of Conduct on Data Centres Energy Efficiency”[46] die Vorgaben an Servereffizienz in Bezug auf deren Energieverbrauch wie folgt definiert:

Data centre infrastructure efficiency (DCIE):

Abbildung in dieser Leseprobe nicht enthalten

(vgl. EC Joint Research Centre, 2009, S. 14f.)

Der Energieverbrauch eines Servers multipliziert mit dem Faktor 1,8 entspricht dem Energieverbrauch des Servers inklusive der dafür benötigten Kühlleistung zum Stand 06/2006.[47]

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2-3: Rechenbeispiel Energiekostenvergleich

[nach http://www.virtualisierung-server.de/ (08.03.2009)]

Aus dieser Tabelle lässt sich der Vorteil von virtualisierten Plattformen klar erkennen. Pro Betriebsjahr wird eine Einsparung des 4,6-fachen Wertes an Energiekosten erzielt.

Die Berechnung im Beispiel bezieht sich auf eine Volllastberechnung. Dabei wird ein konstant zu 100% ausgelasteter Server kalkuliert. Diese Annahme entspricht nicht in allen Fällen der tatsächlichen Gegebenheit. Seit 2008 existiert ein Benchmarking,[48] welches die Performance des Servers in Verhältnis zur Energieaufnahme stellt. Die Maßeinheit dafür ist ssj_ops/Watt.[49] (vgl. Huppler, 2008, S.17)

Diese Art der Berechnung erlaubt zuverlässigere Schlüsse über die tatsächlich erfolgte Leistungsaufnahme und ist eine Basis zur Leistungsberechnung für die Energieaufnahme in Rechenzentren.

2.9 Kritische Betrachtung der Virtualisierung

Die bisher diskutierten Szenarien beim aktuellen Stand der Technik sind für den Einsatz in Arbeitsumgebungen bereits gut geeignet. Die Umsetzbarkeit hängt aber nicht allein von der technischen Lauffähigkeit von Maschinen in virtuellen Umgebungen ab. Unabdingbar für eine komfortable Wartung in einer echten Betriebsumgebung sind unterstützende Tools. Dies ist sogar ein entscheidender Punkt. Virtualisierung darf nicht dazu führen, IT wieder undurchsichtig zu verflechten. Alle in den letzten Jahren angewendeten und entwickelten Standardisierungs- und Messsysteme müssen Berücksichtigung finden, analog gültig wie bereits in physikalischen Umgebungen.

Ein erkennbarer Trend ist die vermehrte Annäherung und Vergrößerung der gemeinsamen Schnittmenge unterschiedlicher Virtualisierungslösungen. Auch die ständige Erweiterung von unterstützten Host- und Gastbetriebssystemen ist markant. (vgl. Larson; Carbone, 2008, S. 17ff.)

Unabhängig davon, ob Hardware-, Prozessor- oder Servervirtualisierung, alle teilnehmenden Parteien und Hersteller sind bestrebt, fehlende Fea-tures ihrer Lösungen durch Updates oder neue Releases verfügbar zu machen.

In jedem Fall kann die Servervirtualisierung im Umfeld von Testsystemen bereits durch ihre kurzfristige Verfügbarkeit in Aufbau und Einsatz einen entscheidenden Wettbewerbsvorteil ausmachen.

Dabei sind sowohl wirtschaftliche als auch risikoanalytische Ansätze noch einer extra zu betrachtenden Bewertung zu unterziehen. Sie müssen ein Proof of Concept[50] durchlaufen.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2-4: Übersicht von Lösungsanbietern

[nach http://itmanagement.earthweb.com/ (20.05.2009)]

Diese abschließend angeführte Darstellung stellt einen Vergleich von Vor- bzw. Nachteilen bekannter Lösungslieferanten dar. Es überwiegen in keinem Fall die Vorteile einer Lösung. Die Auswahl muss anhand des in Kapitel 3 entwickelten Kriterienkatalogs erfolgen, um anwendungsabhängig die beste Lösung wählen zu können.

[...]


[1] Siehe auch: http://www.it-online.co.za/content/view/659946/142/. (04.03.2009)

[2] „Grüne IT“ beschreibt den nachhaltigen ökologischen Einsatz von IT in Unternehmen.

[3] Bezogen auf x86-Architektur basierenden Hostsystemen.

[4] http://www.cio.in/news/viewArticle/ARTICLEID=3266. (07.03.2009)

[5] http://www.gartner.com/it/page.jsp?id=638207. (09.03.2009)

[6] Dieser Begriff wird synonym für die Hotel- und Beherbergungsindustrie von international agierenden Unternehmen verwendet.

[7] Diese Applikationen werden in Kapitel 4.4 im Detail evaluiert.

[8] Beschreibt die Prozessor Architektur der 32 Bit Generation, eine detaillierte Übersicht
über Prozessorarchitekturen findet sich unter www.sandpile.org. (06.03.2009)

[9] Details zu Standardisierungen der Betriebsumgebung in der InterContinental Hotels Group (IHG) werden ebenfalls im Schlusskapitel erläutert.

[10] Releasenotes beschreiben bestimmte Fähigkeiten von Software im Vergleich und in Bezug zu ihrer Vorgängerversion.

[11] Streaming bedeutet die Übertragung eines Datenstroms.

[12] Eine detaillierte Beschreibung von Virtualisierungsmöglichkeiten erfolgt in Kapitel 2.2.

[13] http://services.langenscheidt.de/fremdwb/fremdwb.html. (21.02.2009)

[14] lat. aemulare „nachahmen“.

[15] lat. Partito = „(Ein)teilung“.

[16] Dieser Begriff wurde maßgeblich durch die Firma VMware geprägt, siehe auch: http://pubs.vmware.com/vi3/resmgmt/wwhelp/wwhimpl/common/html/wwhelp.htm?context=resmgmt&file=vc_basic_mgmt.4.11.html. (20.03.2009)

[17] http://www.alanturing.net/turing_archive/pages/Reference%20Articles/
BriefHistofComp.html. (22.02.2009)

[18] http://americanhistory.si.edu/collections/comphist/bell.htm#first%20commercial%20timesharing. (22.02.2009)

[19] LPAR = Logical Partitioning, siehe auch: http://www.03.ibm.com/systems/i/os/?ca= takebackcontrol&me=w&met=inli&re=takebacklearnflat. (28.02.2009)

[20] Der Begriff der Systemvirtualisierung wird in der Fachliteratur auch synonym verwendet. Oftmals werden auch Virtualisierungen, die in logischen Partitionen laufen so bezeichnet; beispielweise bei Großrechnersystemen wie IBM mit logischen Partitionen (LPAR).

[21] Die AMD Prozessor-Technologie zur Virtualisierungsunterstützung wird als Secure Virtual Machine (SVM) bezeichnet.

[22] Intel bezeichnet seine Lösung als Virtualization Technology (VT).

[23] Durchsatzrate: 2-4Gbit/sec.

[24] Aktuelle Durchsatzrate 1 Gbit/sec, der Standard für 10 Gbit/sec (802.3an) wurde 2006 verabschiedet und findet zunehmend Verbreitung, siehe auch: http://standards.ieee. org/. (14.03.2009)

[25] Darüber hinaus sind weitere Technologien verfügbar, die aber nicht die Verbreitung der oben genannten finden. Seit 1997 gibt es dafür eine Vereinigung, die Storage Networking Industry Association (SNIA), siehe dazu auch: http://www.snia.org/tech_activ-ities/standards/curr_standards. (14.03.2009)

[26] Siehe beispielsweise VMware mit dem Produkt Virtual Machine File System (VMFS) unter: http://www.vmware.com/products/vi/esx/vmfs.html. (14.03.2009)

[27] In Kapitel 2.5.4 wird die Emulation im Detail beschrieben.

[28] Siehe dazu: http://www.golem.de/0804/58957.html. (16.03.2009)

[29] Diese Form der Geheimhaltung des Programmquellcodes wird als „Closed Source“ bezeichnet.

[30] Microsoft emuliert beispielsweise in virtuellen Serverumgebungen Intel-Netzwerkkarten.

[31] VMware emuliert beispielsweise virtuelle USB 1.1 Schnittstellen.

[32] Microsoft bezeichnet diese Software beispielsweise als Virtual Machine Network
Service (VNMS).

[33] Weiterführend werden in der Informationstechnologie (IT) Interfaces beispielhaft auch an Programmübergabestellen definiert oder aber auch zwischen einer Anwendung und dem Benutzer, das sogenannte „Human Interface“.

[34] Auch Glasfaserverbindungen (FDDI) sind hier noch anzuführen, Übertragungsmedien werden im Detail von Holzmann beschrieben. (vgl. Holzmann; Plate, 1997, S. 18ff.)

[35] Engl. Interface; wird im Kontext der IT auch als „Grenzfläche“ verstanden.

[36] In der Fachliteratur auch als „Interchange Point“ beschrieben.

[37] Auch als „Circuit Switching“ und „Packet Switching“ bekannt.

[38] Ahnert empfiehlt zur Minimierung die Verwendung von sogenannten „Jumbo Frames“, das sind Datenpakete mit wesentlich höherer Gesamtgröße, auch als Maximum Transmission Units (MTU) bezeichnet, um Overhead Verkehr zu minimieren.(vgl. Ahnert, 2007, S. 54)

[39] Siehe auch: http://www.ieee.org/portal/site. (21.03.2009)

[40] Virtual Machine Additions (VMA) beinhalten ein Packet an Treibern und Diensten, um die Systemgeschwindigkeit einer virtuellen Maschine in Bezug auf deren Schnittstellen und Eingabegeräte zu verbessern.

[41] Beispielhaft angeführt, die VMware Server Console.

[42] Die Verwendung von sogenannten Blade-Systemen oder Blade-Servern stellt hier eine interessante Alternative dar. Bestimmbare Komponenten wie beispielsweise Netzteile oder Lüfter des Blades sind bereits im Chassis in sich redundant ausgeführt. Siehe dazu auch: http://h71028.www7.hp.com/enterprise/cache/80316-0-0-0-121.html. (21.03.2009)

[43] Siehe dazu: http://www.better-office.com/de/. (20.05.2009)

[44] Der Virtualisierungsfaktor bezeichnet jene Anzahl Server, die auf einem Host mit Virtualisierungssoftware installiert werden können. Zusätzlich kalkuliert wird dabei die Anforderung an die jeweils erforderliche Leistung der einzelnen Gastbetriebssysteme.

[45] Im Zuge der jährlich stattfindenden Virtualisierungskonferenz VMworld haben viele Hersteller Ihre Lizenzmodelle adaptiert, siehe dazu auch: http://www.vmworld.com/index.jspa. (02.05.2009)

[46] Siehe dazu auch: http://re.jrc.ec.europa.eu/energyefficiency/html/ standby_initiative _data% 20centers.htm. (08.03.2009)

[47] Siehe dazu auch: http://www.virtualisierung-server.de/de/321/Total-Cost-of-Ownership-(TCO)/Rechenbeispiele. (08.03.2009)

[48] Benchmark wird in diesem Kontext als Bezugspunkt, Referenzwert verstanden.

[49] Der Test wird anhand einer Java Anwendung durchgeführt, weiterführende Details dazu unter: http://www.spec.org/power_ssj2008/. (08.03.2009)

[50] Proof of Concept wird als Machbarkeitsstudie in Zusammenhang mit der Entwicklung einer prototypischen Umgebung verstanden.

Details

Seiten
Erscheinungsform
Originalausgabe
Jahr
2009
ISBN (eBook)
9783842813779
DOI
10.3239/9783842813779
Dateigröße
5.7 MB
Sprache
Deutsch
Institution / Hochschule
Donau-Universität Krems - Universität für Weiterbildung – Informationssicherheitsmanagement, Information Security Management
Erscheinungsdatum
2011 (April)
Note
2,5
Schlagworte
virtualisierung hospitality hotelschnittstelle geschäftsprozess migration
Zurück

Titel: Servervirtualisierung
Cookie-Einstellungen