Lade Inhalt...

Einsatz von Virtualisierungstechnologien in der IT-Infrastruktur eines Unternehmens

Vergleich und Einteilung mit Ausrichtung auf Desktopbereitstellung

©2008 Diplomarbeit 147 Seiten

Zusammenfassung

Inhaltsangabe:Textprobe:
Kapitel 3.1, Was ist Virtualisierung:
Die Komplexität der IT-Infrastruktur wächst mit ihrer Größe, dagegen sinkt aber die durchschnittliche Wirtschaftlichkeit. Dennoch wünschen sich die CIOs und IT-Manager dieselbe Effizienz und Produktivität bei dem gleichen, oder sogar niedrigeren Budget im Vergleich zu Vorjahr. IT-Zuständige sind konfrontiert mit sinkendem Personal und sinkenden Administrations- und Wartungskosten. Die Kosten für Räume, Strom, HVAC sowie Verkabelungen müssen ebenfalls reduziert werden. All dies gleichzeitig mit besserer Kontinuität, Verfügbarkeit und Sicherheit zu ermöglichen, ist auf alle Fälle eine große Herausforderung. Nun versucht man all diese Probleme durch die Einführung von Virtualisierungstechnologien zu lösen. Virtualisierung ist heutzutage ein großes Thema auf den Technologienkonferenzen geworden. Zahlreiche Technologienanbieter versuchen zu beschreiben, dass ihre Produkte die Virtualisierungstechnologien unterstützen und die beste Lösung dafür anbieten.
Der Begriff „Virtualisierung“ (auf Englisch Virtualization) selber ist eine allgemeine Bezeichnung bezogen auf eine Art Abstraktion von Ressourcen. Damit werden die physikalischen Merkmale der Rechenressourcen vor dem Weg versteckt, durch den andere Systeme, Anwendungen oder Endnutzer mit diesen Ressourcen interagieren. Durch Virtualisierung wird ermöglicht, dass einzelne physische Ressourcen (wie z.B. ein Server, ein Betriebssystem, eine Anwendung oder ein Speichergerät) als mehrfache logische Ressourcen erscheinen, oder mehrfache physische Ressourcen (wie z. B. Speichergräte oder Server) als eine einzelne logische Ressource. Das ist die Technologie für ein funktionales Management von Systemen und Ressourcen ohne Einschränkung der physischen Ausprägung und Lokalisierung.
Aufgrund dieser Eigenschaft ist Virtualisierung ein effektives Verfahren zur Zusammenfassung und Verteilung von IT-Ressourcen, um die dynamischen Geschäftsanforderungen zu unterstützen und Virtualisierung ermöglicht die Transformation zur anpassungsfähigen IT-Infrastruktur.
Allerdings ist Virtualisierung keine neue Erfindung. Als der Pionier im Bereich Virtualisierung hat es IBM schon in den 1960er Jahren ermöglicht, mehrere Betriebssysteme auf ihren Mainframes gleichzeitig auszuführen. Im Jahr 1972 wurde es auf ihrer berühmten Mainframe VM/370 realisiert, virtuelle Maschinen mit verschiedenen Betriebssystemen unter Aufsicht eines Kontrollprogramm -heute als Virtual […]

Leseprobe

Inhaltsverzeichnis


Gliederung

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1 Einleitung

2 IT-Management und IT Governance
2.1 IT-Infrastruktur
2.1.1 Wichtige Definitionen
2.1.2 Komponenten der IT-Infrastruktur
2.1.3 De- und Zentralisierung der IT-Infrastruktur
2.1.4 Tendenzen der Entwicklung von IT-Infrastruktur
2.2 IT in der Organisation
2.2.1 Wertbeitrag von IT
2.2.2 Anforderungen der IT-Infrastruktur
2.2.3 IT-Management und IT-Governance
2.2.4 ICT-Management
2.3 Tendenzen beim IT-Management
2.3.1 Tendenzen bei der IT-Ausgabe
2.3.2 Beobachtung der Systemkomplexität

3 Die Virtualisierungstechnologien
3.1 Was ist Virtualisierung
3.2 Plattform-Virtualisierung
3.2.1 Virtualisierung mittels Software
3.2.2 Hardware-unterstützte Virtualisierung
3.2.3 Cluster
3.3 Anwendungsvirtualisierung
3.3.1 Lokale Anwendungsvirtualisierung
3.3.2 Anwendungsvirtualisierung im Netzwerk
3.4 Virtualisierung der Betriebsmittel
3.4.1 Netzwerk-Virtualisierung
3.4.2 Storage-Virtualisierung
3.5 Einsatzmöglichkeiten der Virtualisierungstechnologien

4 Virtualisierungstechnologien zur Desktopbereitstellung
4.1 Herausforderungen an Desktop-Management
4.2 Ansätze von Desktop-Virtualisierung
4.3 Virtuelle Desktop-Infrastruktur
4.3.1 Clientsysteme
4.3.2 Die Verbindungsinfrastruktur
4.3.3 Die Backend-Infrastruktur
4.4 Management virtueller Umgebungen
4.4.1 Komplexität virtueller Umgebungen
4.4.2 Aufgaben bei Management virtueller Umgebungen
4.4.3 Management virtueller Desktop Infrastruktur
4.4.4 Gewünschte Features für VDI-Management
4.5 Wert der virtuellen Desktop-Infrastruktur
4.5.1 Strukturierung der Kosten virtueller Desktop-Infrastrukturen
4.5.2 Möglichkeiten zur TCO-Reduzierung durch VDI
4.5.3 Immaterielle Beiträge virtueller Desktop-Infrastrukturen
4.5.4 Mehrwerte von VDI bei dem strategischen IT-Controlling

5 Zusammenfassung

Anhang 1: Marktinformation für Virtualisierungstechnologien

Anhang 2: Produkte von virtueller Infrastruktur

Anhang 3 Gegenüberstellung der Connection-Broker

Literaturverzeichnis

Abbildungsverzeichnis

Abbildung 2-1 Pyramide der Unternehmensarchitektur

Abbildung 2-2: Die neue Infrastruktur

Abbildung 2-3: IT-Kosten der Sparkasse

Abbildung 2-4: Das grundlegende Gedankenmodell zur IT-Wirkung

Abbildung 2-5: IT-Governance und IT-Management

Abbildung 2-6 Einordnung der Prozesse von ICTIM in ITIL

Abbildung 2-7: Entwicklung der IT-Ausgaben

Abbildung 2-8: Veränderung des IT-Ausgabeverhaltens

Abbildung 2-9: Kosten für Servermanagement und -administration

Abbildung 3-1: Einzelnes Betriebssystem vs. OS- Virtualisierung mittels Virtuozzo Container

Abbildung 3-2: Hosted-Architektur

Abbildung 3-3: Bare-Metal-Architektur

Abbildung 3-4: Gegenüberstellung der Bare-Metal-Ansätze

Abbildung 3-5: Architektur verschiedener Ansätze von CPU-Virtualisierung

Abbildung 3-6: Java VM und Thinstall Container

Abbildung 3-7: Application-Streaming mittels Wyse-Streaming-Manager

Abbildung 3-8: VLANs für verschiedene Abteilungen

Abbildung 3-9: Netzwerk-Virtualisierung in einer VMware-Infrastruktur

Abbildung 3-10: Klassifizierung von Storage-Virtualisierung

Abbildung 3-11: Einsatz von Storage-Virtualisierung in einer VMware-Umgebung

Abbildung 4-1: Ansätze für Desktopvirtualisierung

Abbildung 4-2: Architektur für Desktopkonsolidierung

Abbildung 4-3: Virtuelle Desktop-Infrastruktur mit VMware ESX Server

Abbildung 4-4: VDI-Implementierungen mittels Connection-Broker

Abbildung 4-5: VMware Architektur

Abbildung 4-6: Xen Architektur

Abbildung 4-7: Viridian Architektur

Abbildung 4-8: Multivektor der Komplexität virtueller IT-Umgebung

Abbildung 4-9: TCO-Komponenten virtueller Desktop-Infrastruktur

Abbildung 4-10: Exemplarische Balanced-Scorecard für strategische Entscheidungen über virtuelle Desktop-Infrastruktur

Tabellenverzeichnis

Tabelle 2-1: Drei Governance-Ansätze

Tabelle 2-3: Prioritäten der verschiedenen Funktionsbereiche

Tabelle 3-1: Ansätze für CPU-Virtualisierung

Tabelle 3-2: Ansätze zur Implementierung von Storage-Virtualisierung

Tabelle 3-3: Einsatzmöglichkeiten der Virtualisierungstechnologien

Tabelle 3-4: Ansätze für Plattform-Virtualisierung

Tabelle 4-1: Gegenüberstellung der Ansätze für Desktopvirtualisierung

Tabelle 4-2: Vergleich der Gesamtkosten von einem PC und Thin-Client

Tabelle 4-3: Beispiel zur Nutzwertanalyse bei der Auswahl von Desktoplösungen

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

Zur Erfüllung von Unternehmensstrategien werden immer neue Methoden und Technologien erfunden und eingesetzt, die Informationstechnologie zählt zu einer der revolutionärsten. Im Zeitalter von Globalisierung ist die Verwendung von Informations- und Kommunikationssystemen bei vielen Unternehmen zu einem kritischen Erfolgsfaktor geworden. Weltweit sind Unternehmen mit einer digitalen Arbeitsweise konfrontiert, um in der dynamischen globalen Geschäftsumgebung wettbewerbsfähig sein zu können. Aufgrund beschränkter Ressourcen und dynamischer Marktänderung ist der Druck von Kosten und Performance im Bereich von IT-Infrastruktur enorm geworden, während zugleich auch Probleme wie Sicherheit, Komplexität sowie Systemübereinstimmung gelöst werden müssen. Daher wird permanent nach neuen Möglichkeiten zur effizienteren und effektiveren Nutzung derartiger Systeme gesucht, um Wettbewerbsvorteile zu ermöglichen.

Die Einführung von virtualisierten IT-Systemen bietet die Möglichkeit zur Erfüllung dieser neuen Anforderungen. Ursprünglich wurden Virtualisierungstechnologien für Ressourcenkonsolidierung Datenzentren eingesetzt. Heutzutage finden sie in dem gesamten IT-Spektrum Einsatzmöglichkeiten. Ziel ist die effiziente Nutzung physikalischer Systemressourcen, um Kosten einzusparen. Außerdem ermöglichen diese Technologien zusätzliche Funktionalitäten und deutlich mehr Flexibilität.

"Virtualization is about making IT resources changeable matching IT-supply to business demand, which is key to becoming an Adaptive Enterprise, where business and IT are synchronized to capitalize on change." - Rick Becker, Vice President and General Manager, HP Blade System (Marcusevans, 2008)

Virtualisierung boomt. Laut einer Schätzung vom Marktforscher IDC sollte das Markvolumen von Server-Virtualisierung im Jahr 2008 auf 18 Milliarden Dollar ansteigen. Im Jahr 2007 waren allerdings erst 5% aller neu installierten Betriebssysteme auf virtuellen Maschinen. Dieser Anteil soll -dem Marktforscher Gartner zufolge -bis zum Jahr 2009 schon 40% betragen. In diesem Bereich gibt es immer mehr Produkte und Lösungen und die Unternehmen können leicht den Überblick verlieren. In manchen Bereichen haben die Virtualisierungstechnologien schon reife Anwendungen gefunden, wie z. B. Storage-Virtualisierung oder Thin-Client-Computing. Es gibt auch Bereiche, in denen sich diese Technologien noch am Anfang befinden, aber gleichzeitig auch immer mehr Aufmerksamkeiten auf dem Markt bekommen, z.B. Application-Streaming. Von vielen Stellen werden die Vorteile durch den Einsatz von Virtualisierungstechnologien gelobt. Jedoch sind diese Technologien dadurch auch mit neuen und spezifischen Herausforderungen konfrontiert, besonders im Bereich IT-Management.

Bei allen Virtualisierungstechnologien handelt sich vor allem um das Ziel, abstrahierte Systemressourcen nach Bedarf bereitzustellen. Anlass dafür ist die feste Zuordnung der Systemressourcen für einzelne Anwendungen, was eine ineffiziente Ressourcennutzung verursacht und das Management der IT-Systeme erschwert. Das Problem ist, dass jeder Virtualisierungsansatz auf eine eigene Weise funktioniert und die Unterschiede zwischen verschiedenen Technologien eng mit ihren Einsatzmöglichkeiten verbunden sind. In der Tat ist jede IT-Umgebung individuell und besitzt eigene betriebliche Eigenschaften und technische Gestaltung. Jeder Hersteller in diesem Bereich versucht, auf eigene Weise die technischen und wirtschaftlichen Herausforderungen zu erfüllen, was auch dazu führt, dass man schnell die Übersicht verlieren kann. Als Anwender wünscht man sich die passende Lösung für die eigenen Geschäftsanforderungen, daher wird in dieser Arbeit versucht, einen klaren Überblick für diesen Bereich zu schaffen.

Ziel der vorgelegten Arbeit ist es, die Einsatzmöglichkeiten von Virtualisierungstechnologien in IT-Systemen eines Unternehmens sowie wichtige Produkte und Lösungen in diesem Bereich zu analysieren. Dabei wird gezeigt, wie durch Virtualisierungstechnologien ein effektives und effizientes IT-Management ermöglicht wird und Unternehmensziele unterstützt werden. Diese Arbeit soll einen Beitrag leisten, eine technische Wissensbasis für die IT-Beratung im Bereich Virtualisierung auf der Ebene von IT-Management aufzubauen.

Die Arbeit ist folgendermaßen aufgebaut: Im Kapital 2 werden zunächst Definitionen im Bereich IT-Management verdeutlicht. Dabei werden die Komponenten der IT-Infrastruktur und die Herausforderungen an IT-Management vorgestellt. Zur Erfüllung dieser Herausforderungen werden Virtualisierungstechnologien eingeführt, die im Kapital 3 vorgestellt werden. Die verschiedenen Virtualisierungstechnologien werden anschließend klassifiziert und einander gegenübergestellt. Ihre Einsatzmöglichkeiten werden am Ende dieses Kapitals aufgezeigt. Im Kapital 4 werden die Virtualisierungsansätze zur Desktopbereitstellung vorgestellt. Dabei werden anhand der Herausforderungen an das Management der Desktop-Infrastruktur verschiedene Ansätze vorgestellt und miteinander verglichen. Die möglichen Probleme bei dem Management virtueller Umgebungen werden anschließend analysiert. Zur Bewertung der Mehrwerte virtueller Desktop-Infrastrukturen werden sie anschließend unter verschiedenen Blickwinkeln analysiert. Ziel dabei ist, ein allgemeines Bewertungsmodell für die virtuelle Desktop-Infrastruktur zu erstellen. Diese Arbeit wird mit einer kurzen Zusammenfassung in Kapital 5 abgeschlossen.

2 IT-Management und IT Governance

Zur Analyse von Gründen für den Einsatz bestimmter IT-Technologien und -Produkte in einem Unternehmen sind die IT-Infrastruktur und die wirtschaftlichen sowie technischen Anforderungen des Unternehmens zusammen zu betrachten. Die Informationstechnik hat in vielen Organisationen immer größere Bedeutung gewonnen. Der Grund dafür ist vor allem, dass sie weitgehend über Erfolg oder Misserfolg der Unternehmenstätigkeit entscheiden kann. Besonders im Zeitalter der Globalisierung mit extrem dynamischer Marktänderung und Wissensexplosion ist die "richtige" Verwendung von IT in jedem Unternehmen von sehr großer Bedeutung.

Bevor auf das Hauptthema dieser Arbeit eingegangen wird, werden zunächst in diesem Kapitel mit dem Gedanken „Serviceorientierung“ die allgemeinen Begriffe von Informationstechnik und IT-Management erläutert, weil die Virtualisierungstechnologien ein Bestandteil der IT-Infrastruktur sind und wiederum zu den Objekten von IT-Management gehören.

2.1 IT-Infrastruktur

Heutzutage besitzt fast jede Organisation eine IT-Infrastruktur, die ein unverzichtbarer Bestandteil der Organisation geworden ist und allmählich die Rolle als Nervensystem übernimmt.

2.1.1 Wichtige Definitionen

Der Begriff Informationstechnologie, abgekürzt als IT, ist der Oberbegriff für die Informations- und Datenverarbeitung und beschreibt Verfahren zur Verarbeitung von Informationen und Daten sowie Verfahren für die Telekommunikation (vgl. [Laudon et al., 2006]). In vielen Fällen wird auch über die „Informations- und Kommunikationstechnologie“ (IKT) gesprochen oder auch über „IuK-Technologie“ bzw. auf Englisch „Information and Communications Technology“ (ICT). Der letztgenannte Begriff betont die Zusammenfassung der Technologien im Bereich der Information und Kommunikation. In der Praxis werden beide nicht klar unterschieden.

Eine klare Abgrenzung für den Begriff IT-Infrastruktur ist schwer zu finden. Das Wort Infrastruktur (lat. Infra = „Unter“) bezieht sich auf ein System mit mehreren Ebenen. Die IT-Infrastruktur ist die Gesamtheit aller technischen Ressourcen, die einer übergeordneten Ebene durch eine untergeordnete Ebene zur automatisierten Informationsverarbeitung zur Verfügung gestellt werden. Die übergeordnete Ebene hat hierbei keine direkte Möglichkeit zur Beeinflussung der Prozesse auf der untergeordneten Ebene und die Planungshoheit für die Prozesse verbleibt bei der untergeordneten Ebene. Daher gibt es verschiedene Definitionen von IT-Infrastruktur, je nach den Anwendungsebenen, auf denen sich die Interessengruppen befinden (vgl. [Lee, 2006]).

Die gesamte IT-Unterstützung eines Unternehmens ist ein System von Systemen, eine Aggregation von Komplexität (vgl. [Niemann 2005 S.14]). Zur Beobachtung der IT-Infrastruktur in einem Unternehmen ist die Unternehmensarchitektur des gesamten Unternehmens zu analysieren.

Eine Unternehmensarchitektur ist eine strukturierte und aufeinander abgestimmte Sammlung von Plänen für die Gestaltung der IT-Landschaft eines Unternehmens, die in verschiedenen Detaillierungen und Schichten, ausgerichtet auf spezielle Interessengruppen (z.B. Manager, Planer, Auftraggeber, Designer), unterschiedliche Aspekte von IT-Systemen (z.B. Daten, Funktionen, Schnittstellen, Plattformen, Netzwerke) und deren Einbettung in das Geschäft (z.B. Ziele, Strategien, Geschäftsprozesse) in vergangenen, aktuellen und zukünftigen Ausprägungen darstellen. Innerhalb der Unternehmensarchitektur werden die fachlichen Aspekte zu einer Geschäftsarchitektur, die Aspekte der fachlichen IT-Unterstützung zu einer Anwendungsarchitektur, die der technischen IT-Unterstützung zu einer Systemarchitektur zusammengefasst. (vgl. [Niemann 2005, S.21]) Im unteren Diagramm wird eine Unternehmensarchitekturpyramide skizziert:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-1 Pyramide der Unternehmensarchitektur (vgl. [Niemann 2005, S.21])

Als IT-Infrastruktur im IT-Management wird die technische Plattform für die Informations- und Kommunikationssysteme zur Unterstützung der Informationsverarbeitung bezeichnet (vgl. [Grob et al., 2004, S.1]). IT-Infrastruktur dient dazu, einen fortlaufenden und zuverlässigen IT-Betrieb zu gewährleisten (vgl. [Tiemeyer, 2006, S.72]). Darunter versteht man die Gesamtheit aller technischen und logischen Elemente innerhalb einer Organisation, die zur automatisierten Informationsverarbeitung eingesetzt werden, z.B. Kommunikationsdienste (Netzwerk), Maschinen (Hardware), Programme (Software auf der Ebene Systemarchitektur) und andere Ressourcen (vgl. [Laudon et al., 2006, S40, S.61], [Grob et al. 2004, S.67]).

Im Laufe der Entwicklung von IT hat sich die IT-Infrastruktur dramatisch geändert. Eine 3-Schichtendarstellung von Broadbent und Weill skizziert die "neue" Infrastruktur: Die öffentliche Infrastruktur funktioniert als Grundlage der neuen Infrastruktur. Diese wird wiederum mit externen industriellen Infrastrukturen wie Internet, EDI-Netzwerken usw. verbunden, die zur automatisierten Kommunikation mit Kunden, Lieferanten und Geschäftspartnern dienen. Die IT-Infrastruktur der Unternehmen ermöglicht die automatische Kommunikation unter der lokalen IT sowie zwischen der lokalen IT und der öffentlichen Infrastruktur. Zusammen mit der lokalen IT für Geschäftsprozesse wird die neue Infrastruktur als das Portfolio der Unternehmensinformationstechnologien betrachtet (vgl. [Grembergen 2004]).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-2: Die neue Infrastruktur (vgl. [Grembergen, 2004])

2.1.2 Komponenten der IT-Infrastruktur

Der Einsatz mehrerer durch ein Kommunikationsnetzwerk miteinander verbundener Computersysteme zur Datenverarbeitung wird Network-Computing bezeichnet. Die gängige Form der Verteilung von Rechenaufgaben im gesamten System ist das Client-Server-Modell, auf dem das Internet basiert. Im Client-Server-Modell wird die Datenverarbeitung zwischen verschiedenen Komponenten einer verteilten Anwendung, den sogenannten Clients und Servern, aufgeteilt, die sich in der Regel auf unterschiedlichen Computersystemen befinden und über Netzwerke miteinander kommunizieren. Für die Verteilung notwendiger Aufgaben auf die Server- bzw. Client-Komponenten gibt es bei der Realisierung einer Anwendung verschiedene Möglichkeiten, die von der Leistungsfähigkeit der Rechner sowie der Netzwerk abhängig sind. Entsprechend dieser Aufgabenverteilung besteht die IT-Infrastruktur eines Unternehmens aus folgenden Komponenten:

- Clientware: Software auf den Rechnern an Arbeitsplätzen. Subkategorien davon sind z.B. Software für Büroarbeit, Internetanwendungen, Grafikbearbeitung und Veröffentlichung usw.
- Serverware: Software auf den Servern. Subkategorien davon sind Basisanwendungen (z.B. File-Server und Drucker-Server), Internet (z.B. Webserver und Applikationsserver), Datenbanken (z.B. SQL-Server und XML-Server) usw.
- Middleware: anwendungsneutrale Software, die so zwischen Anwendungen vermittelt, dass die Komplexität dieser Applikationen und ihrer Infrastruktur verborgen wird. Subkategorien davon sind Formate & Protokolle, Verzeichnis & Sicherheit, Applikationspartitionierung, Applikationsintegration, Web-Service usw.
- Plattform: bietet die Grundlage für EDV und Kommunikation. Subkategorien davon sind Betriebssysteme, Hardware, Peripheriegeräte, Netzwerke usw.
- Manageware: überwacht und verwaltet verschiedene Segmente der Elemente der IT-Infrastruktur. Subkategorien davon sind Überwachung und Verwaltung der Performance, Sicherheit, Netzwerke, Konfiguration, Probleme, Operation, des Systems usw. (vgl. [Tash 2005], [Grob et al., 2004])

Eine ideale Aufgabenaufteilung zwischen den Komponenten der IT-Infrastruktur hängt von den Anforderungen der jeweiligen Anwendungen ab, bei denen die Anzahl von Benutzern und die verfügbaren Ressourcen zu berücksichtigen sind. Entscheidungen in diesem Bereich werden jedoch durch viele Faktoren beeinflusst, zu denen neben den Kosten für Computerhardware auch die Anschaffung neuer Software, Schulung und neue Arbeitsabläufe im Unternehmen zählen (vgl. [Laudon et al., 2006, S.290 ff.]).

2.1.3 De- und Zentralisierung der IT-Infrastruktur

Anfang der 1980er Jahre bestand die IT-Landschaft vor allem aus zentralisierten Rechenumgebungen, in denen die Bearbeitung und Speicherung der Daten zentral durchgeführt wurde. Dabei kommunizieren die Endanwender durch Terminals (Endgeräte für Ein- und Ausgabe) mit einem entfernten Mainframe-Server. Während die Computersoftware immer komplizierter geworden ist und immer höhere Anforderungen an die Hardware stellt, sind immer mehr Rechenaufgaben aus Datenzentren auf Kleinrechner, später auf PCs an einzelnen Arbeitsplätzen, übertragen worden. Diese dezentralisierte Architektur ermöglicht enorme Rechenfähigkeit, Flexibilität und Individualität für die Endanwender und erhöht ihre Produktivität sowie Kreativität bei der Arbeit. Die Erfindung von Laptops hat weiterhin die Mobilität der Rechenressourcen vorangetrieben. Aber durch die Dezentralisierung der IT-Infrastruktur entstehen für das Management neue Probleme, was wiederum zur Rückkehr der zentralisierten Systemarchitektur führt (vgl. [Humphreys et al., 2007]).

Hinsichtlich der Informationsarchitektur und der IT-Infrastruktur werden jetzt typische Fragen aufgeworfen: Sollen die Vertriebsdaten und Vertriebsfunktionen des Unternehmens auf die verschiedenen Standorte des Unternehmens verteilt oder in der Hauptniederlassung zentral verwaltet werden? Soll das Unternehmen Systeme entwickeln, um sämtliche Unternehmensteile zu verbinden, oder sollen voneinander unabhängige Anwendungen beibehalten werden? Sollten Benutzer über Netzwerke auf unternehmensweite Anwendungssysteme zugreifen oder sollte es Benutzern erlaubt sein, Anwendungen und Daten auf ihren eigenen Arbeitsplatzrechnern zu verwalten? Soll das Unternehmen seine Infrastruktur nach außen hin erweitern, so dass Kunden oder Lieferanten eingebunden werden? ([Laudon et al., 2006, S.62, S.277]) Diese Fragen sind sowie technisch als auch fachlich zu betrachten. Eine allgemein richtige Antwort auf diese Fragen gibt es nicht, die Lösungen sind von den speziellen Anforderungen des Unternehmens und den gegenwärtigen Technologien abhängig. Je nach Ausrichtung auf globale Integration und lokale Anpassung lassen sich drei Governance -Ansätze unterscheiden: zentralisiert, föderal und multi-lokal.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2-1: Drei Governance-Ansätze (in Anlehnung an [Simon, 2008])

Viele Unternehmen sind mit redundanter, inkompatibler Hardware und Software ausgestattet, weil Abteilungen und Unternehmensbereiche dezentral über die Beschaffung von Hardware und Software entscheiden durften. Die Verwaltung derartiger IT-Infrastruktur ist äußerst aufwändig und kostspielig. Wenn man all diese Kostenarten berücksichtigt, können die TCO für einen PC bis zu dreimal höher als der ursprüngliche Anschaffungspreis des PC-Systems liegen. Aufgrund verborgener Kosten für Support, Ausfallzeiten und zusätzliche Netzwerkverwaltung kann der Betrieb verteilter Client-Server-Architekturen, insbesondere wenn diese mobile Endgeräte umfassen, teurer sein als bei zentralisierten Mainframe-Architekturen. Diese Unternehmen könnten ihre TCO durch eine stärkere Zentralisierung und Standardisierung ihrer Informationssysteme senken. Außerdem könnte so der Mitarbeiterstab im IT-Bereich verringert werden, der zur Unterhaltung der Infrastruktur erforderlich ist. In einer derartigen Infrastruktur können die Systeme von einem zentralen Standort aus verwaltet werden. Die Problembehandlung kann ebenfalls von diesem Standort aus erfolgen (vgl. [Laudon et al., 2006, S.302]).

Für den Abgleich der beiden Ansätze ist in den meisten Fällen eine enge Zusammenarbeit zwischen lokalen Geschäftseinheiten und lokaler IT notwendig. Aber wie kann ein Unternehmen diese Herausforderungen, die auf den ersten Blick widersprüchlich sind -Zentralisierung für Effizienz, Lokalisierung für Effektivität-miteinander in Einklang bringen? Schlüssel zum Erfolg soll die richtige und vor allem unternehmensspezifische Mischung aus zentraler und lokaler Governance sein. Dafür entsteht das Kunstwort "Glokalisierung". Für die IT-Zuständigen stellt sich nun nicht die Entweder-Oder-Frage, sondern wie das Gleichgewicht zwischen Zentralisierung und Dezentralisierung für das Geschäftsnutzen optimiert werden soll. Grundsätzlich gilt: Zentralisierung so weit wie möglich, aber nicht weiter als nötig. (vgl. [Simon, 2008])

Beispielsweise entfallen fast 20 Prozent des ordentlichen Aufwandes einer Sparkasse auf die Informationstechnologien, davon mehr als die Hälfte auf den dezentralen Bereich. Die Konsolidierung der dezentralen IT-Infrastruktur und die Bereitstellung zentraler IT-Services bieten die Chance, die IT-Kosten der Sparkassen weiter zu senken. Parallel zu den Maßnahmen der Re-Zentralisierung hat die Sparkassen Informatik auch ihr Angebot an zentralen IT-Services weiter ausgebaut. Zielsetzung war es dabei, den Sparkassen eine einheitliche Infrastruktur und technische Produktivitätsplattform zu schaffen, die effiziente interne Prozesse ermöglicht. Diese soll als einheitliche Plattform im gesamten Geschäftsgebiet der Sparkassen Informatik etabliert werden. Großes Synergiepotenzial ermöglicht auch ein zentraler Einkauf von IT-Komponenten. Durch Bündelung hoher Einkaufsvolumen erzielt man besonders günstige Einkaufs- und Wartungs-Konditionen bei den Herstellern. Weitere zentrale Dienstleistungen, wie der ganzheitliche Betrieb inklusive Wartung und Service von Bankspezialsystemen, Dienstleistungen zur IT-Sicherheit oder die Unterstützung der IT-Organisationen leisten auch einen großen Beitrag für das IT-Management (vgl. [Brockhoff 2004]).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-3: IT-Kosten der Sparkasse (in Anlehnung an [Brockhoff 2004, S. 2])

2.1.4 Tendenzen der Entwicklung von IT-Infrastruktur

Im Laufe der Zeit ist die IT-Infrastruktur in Unternehmen immer weiter entwickelt worden. Tendenzen dieser Entwicklung können u.a. folgendermaßen aufgelistet werden (vgl. [Citrix, 01]):

- Es gibt eine zunehmende Anzahl von Benutzern, die zwar zusammenarbeiten, sich aber an unterschiedlichen Standorten befinden. Dies stellt große Anforderungen an die Skalierbarkeit der IT-Infrastruktur.
- Die Verwendung entwickelter Webtechnologien und mobiler Geräte führt dazu, dass die IT den Benutzern überall zur Verfügung gestellt wird, was den sicheren, einfachen und schnellen Zugriff auf die IT-Infrastruktur des Unternehmens fordert. Dazu gehören auch die ausgelagerten Helpdesks, Call -Center, Heimarbeiter, Day-Extenders und Mobile Arbeiter. IT muss jeden Benutzertyp individuell unterstützen, was höhere Management- und Betriebskosten sowie inkonsistente Datensicherheit zur Folge hat.
- Die Expansion des Geschäfts durch Niederlassungen, Fusionen und Übernahmen sowie durch die Globalisierung stellt eine große Herausforderung an die IT-Infrastruktur dar, die auf die Entwicklung des Geschäfts reagieren muss.
- Die Wanderung von Client-Server-Architektur zur webbasierten Architektur fordert die Zentralisierung der Daten, der Anwendungen und der Verwaltung der IT-Infrastruktur. Die Konsolidierung der Datenzentren und die zunehmende Anzahl von räumlich verteilten Benutzern verursachen auch Performanceprobleme bei dem Zugreifen von Kunden und Mitarbeitern auf die Unternehmensnetzwerke.
- Neue Anwendungen und Betriebssysteme fordern immer mehr Rechenressourcen.
- Die Inkompatibilität durch die Koexistenz "neuer" und "alter" Hardware sowie Software kommt immer vor.

Die Entwicklung der IT-Infrastruktur stellt immer größere Herausforderungen an die IT-Abteilungen. Einige davon werden anschließend vorgestellt:

- Verwaltung der Software auf zahlreichen Desktops, z.B. Installation, Aktualisierung, Überwachung: Die elektronische Verteilung von Software auf die verteilten Arbeitsplätze ist aufwendig und kompliziert.
- Verwaltung der Daten außerhalb der Datenzentren für maximale Sicherheit, leichte Wiederherstellung und Übereinstimmung: Auch die Gewährleistung der Sicherheit bei der Verbindung der zunehmenden Niederlassungen mit den Netzwerken des Unternehmens ist schwierig. Die räumlich verteilten Benutzer von verschiedenen Typen stellen eine große Herausforderung dar.
- Zunehmende Anforderung an Netzwerkgröße und SLAs für Performance und Verfügbarkeit werden gestellt
- Die Migration von Client-Server-Anwendungen zu Webanwendungen: Es gibt zunehmenden Bedarf zur Optimierung der Webanwendungen, die Betriebseinkommen schaffen, z.B. E-Commerce und Online-Banking. Auch immer mehr Mitarbeiter greifen auf die internen Webanwendungen zu, z.B. SAP, MS-Exchange oder IBM WebSphere.

Um die sich dynamisch ändernden technischen sowie fachlichen Anforderungen an die IT-Infrastruktur zu erfüllen, wird auch eine dynamische IT-Infrastruktur erwartet. Unter einer dynamischen IT-Infrastruktur versteht man die IT-Umgebung einer Organisation zur Unterstützung der Proaktion und Reaktion dynamischer Geschäftsherausforderungen und -opportunitäten. Sie erhöht die Fähigkeit einer Organisation zur Erfüllung der sich dynamisch ändernden Anforderungen mit schnellen und effektiven Reaktionen, damit auf den unendlichen Streit zwischen der IT und ihren Benutzern besser reagiert werden kann. Neben der Forschung innovativer Managementansätze im Bereich IT-Management erlebt die technologische IT-Architektur und Infrastruktur heutzutage eine neue fundamentale Veränderung seit der Einführung von Client-Server-Architektur. Viele Organisationen bemühen sich schon, eine virtuelle IT-Infrastruktur aufzubauen, die IT-Ressourcen für alle Anwendungen innerhalb der Organisation automatisch verteilt und verwaltet (vgl. [Bishop, 2004]).

2.2 IT in der Organisation

2.2.1 Wertbeitrag von IT

Die Unternehmensinformationstechnologien haben nicht nur das Potential zur Unterstützung der bestehenden Geschäftsstrategien, sondern bilden auch neue Strategien. Daher stellt IT nicht nur ein Erfolgsfaktor für das Überleben und Wohlstand eines Unternehmens dar, sondern auch eine neue Chance zur Differenzierung und zum Wettbewerbsvorteil. IT ermöglicht zudem eine hohe Produktivität. Unter diesem Aspekt ist die IT-Abteilung von einer Kostenstelle zum Zukunftspotential geworden (vgl. [Grembergen 2004]).

Zur Analyse des IT-Wertbeitrags wird die Wirkung der Unterstützung für Geschäftsprozesse durch die IT als eine wesentliche Maßgröße betrachtet, die sowohl spezifische Gesichtspunkte des Fachbereichs als auch IT-technische Aspekte umfasst.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-4: Das grundlegende Gedankenmodell zur IT-Wirkung (in Anlehnung an [Pfeifer 2003, S.25])

Das Wertschöpfungsmodell von Pfeifer skizziert die Wechselwirkung der IT-Funktion mit den Geschäftsprozessen eines Unternehmens aus einer Managementperspektive. Die IT-Geschäftsfunktion besteht aus vier Werttreiber, nämlich IT-Ausgabeverhalten, IT-Organisation, IT-Managementverfahren und IT-Mitarbeiter. Die Umsetzung oder Transformation ihrer Wirkung spiegelt sich in der Leistungsfähigkeit der Geschäftsprozesse eines Unternehmens wider, die wiederum auch das Verhalten in der IT-Geschäftsfunktion beeinflussen. Der IT-Wertbeitrag im Sinne einer wertorientierten Unternehmensführung wird letztlich mit dem Unternehmenserfolg durch die Prozessleistung der Wertschöpfungskette verbunden.

2.2.2 Anforderungen der IT-Infrastruktur

Die Anforderungen der IT-Infrastruktur werden in den folgenden Kapiteln als Grundlage für die Bewertung der Mehrwerte von Virtualisierungstechnologien dargestellt.

Die Einführung jeglicher Technologien hat immer das Ziel, Mehrwert mit neuen Funktionalitäten mitzubringen. Fast alle Geschäftsmodelle erfordern eine hohe Flexibilität, Schnelligkeit, Verfügbarkeit, Skalierbarkeit und Sicherheit in der IT-Infrastruktur. Kapital muss Wert schaffen, Return on Assets wird entscheidend. IT-Infrastruktur ist die Plattform für die langfristige Produktivität. Die Dynamik und die Komplexität eines Unternehmens erzeugt auch Anforderungen an die IT (vgl. [Niemann, 2005, S.14, 65]).

Das störungsfreie Funktionieren der IT-Infrastruktur ist für Unternehmen eine Überlebensfrage. Systemausfälle machen nicht vor der Grenze des eigenen Unternehmens Halt, sondern betreffen auch Kunden und Geschäftspartner, was die Geschäftsbeziehung entscheidend beeinträchtigen kann. Der Betrieb und die Weiterentwicklung der IT-Infrastruktur zählen für die meisten Unternehmen jedoch nicht zu deren Kernkompetenzen, obgleich die IT-Infrastruktur durch ihr unmittelbares Einwirken auf die Kernprozesse einen zunehmend strategischen Charakter erhält. Hieraus resultiert ein Spannungsfeld von Komplexität, Projektstress und Kostenkontrolle, das zu einem Dilemma für die IT-Führung führt: Es gilt gleichermaßen die Aufrechterhaltung der Zuverlässigkeit, als auch der Forderung nach Kostensenkungsmaßnahmen der Unternehmensführung. IT-Infrastruktur-Management muss daher zum Gewährleisten der Zukunftssicherheit der Unternehmens-IT verschiedene wichtige Ziele gleichzeitig erreichen: Betriebskosten senken, Serviceausrichtung der IT stärken, Standards etablieren, die Sicherheit gewährleisten und die Integration neuer Projekte fördern. Durchgängige interne Standards, Best-Practices wie aus ITIL ("IT Infrastructure Library"), neue ganzheitliche IT-Management-Systeme und nicht zuletzt Outsourcing der IT-Managementaufgaben an Dienstleister sind hierbei angesprochen (vgl. [Brun et al., 01]).

Mit der zunehmenden Bedeutung der IT für den Unternehmenserfolg ändern sich auch die Anforderungen der Empfänger von IT-Leistungen in den Geschäftsbereichen an die IT-Leistungsbringer, d.h. an die internen IT-Bereiche und externen IT-Dienstleister (vgl. [Zarnekow et al., 2005, S.3]). Die Erwartungshaltung hinsichtlich Kosten und Qualität der gelieferten IT-Leistungen steigt permanent. Das ist allerdings kein IT-Spezifisches Phänomen. IT -Empfänger erwarten heute eine bestimmte Funktionalität und eine bestimmte Qualität zu einem bestimmten Preis. Für viele Unternehmen ist es heutzutage entscheidend, ihre IT-Leistungen so günstig wie möglich zu beziehen. Entsprechend können sich IT-Dienstleister mit ähnlichem Leistungsportfolio und vergleichbaren Qualitätseigenschaften immer häufiger nur durch den Preis von anderen Wettbewerbern differenzieren. Nicht mehr die Technologien stehen für den heutigen IT-Leistungsempfänger im Vordergrund, sondern der durch die Technologien bei Kunden geschaffene konkrete Nutzen. Die heutigen IT-Leistungsempfänger interessieren sich nicht mehr für die Art und Weise der Herstellung von IT-Leistungen, sondern lediglich für den Output, d.h. die IT-Leistungen an sich. Die Qualitätsparameter wie Funktionalität, Verfügbarkeit, Sicherheit oder Kosten spielen aus Sicht der Kunden die zentrale Rolle. (vgl. [Zarnekow et al., 2005, S.6-8])

Noch zu beachten ist, das unterschiedliche Rollen innerhalb der IT-Organisation unterschiedliche Erwartungen an die IT-Infrastruktur haben. Beispielerweise gibt es folgende vier Funktionsbereiche in der IT-Organisation:

- Strategische IT: verantwortlich für sämtliche Wirkungen der IT auf die gesamte Unternehmensstrategie. Die strategischen IT-Entscheider etablieren die IT-Prioritäten zur optimalen Unterstützung und Realisierung der dynamischen Änderung des Geschäfts. Außerdem definieren die strategischen IT-Entscheider Anforderungen für die anderen unterliegenden Rollen. Die für die strategische IT Zuständigen können verschiedene Hintergründe haben. Der Großteil von ihnen ist aus den Bereichen Anwendungssysteme oder IT-Infrastruktur-Management, einige kommen auch aus den betrieblichen Bereichen.
- Netzwerkarchitektur: verantwortlich für die Bereitstellung webbasierter Anwendungen. Dabei werden die Webanwendungen optimiert und deren Sicherheit gewährleistet. Außerdem werden die strategischen Anforderungen für die Performance der Anwendungen definiert. Die dafür Zuständigen sind aus den Bereichen Unternehmensarchitektur, Netzwerkarchitektur, Netzwerkverwaltung usw.
- System-Infrastruktur: verantwortlich für die Bereitstellung der Geschäftsanwendungen. Dabei werden die Geschäftsprozesse für die Anwendungssystemen optimiert und die Anforderungen für die Hintergrundanwendungen definiert. Die Zuständigen dafür sind aus den Bereichen Unternehmensarchitektur, Serverarchitektur, Datenzentrummanagement usw.
- Desktop-Operationen: verantwortlich für Desktop-Umgebungen. Dabei werden Bedingungen für eine bessere Produktivität der Endbenutzer geschafft und die Anwendungen an Arbeitsplätzen optimiert. Außerdem werden die Anforderungen zur Rationalisierung der zusammenspielenden Systeme definiert. Die dafür Zuständigen sind aus den Bereichen Unternehmensarchitektur, Desktop-Architektur, IT-Management usw.

In allen Funktionsbereichen werden ähnliche Anforderungsparameter für die IT-Infrastruktur erstellt, nämlich Performance, Sicherheit, Verfügbarkeit und Kosten. Allerdings hat jeder Funktionsbereich verschiedene Prioritäten bei den Anforderungen. Zudem ist zu beachten, dass die strategische IT den größten Wert bei IT-Infrastruktur darauf legt, dass die IT schnell auf dynamische Änderungen des Geschäfts reagieren oder proagieren kann. Daher ist die Agilität der IT-Infrastruktur am wichtigsten für sie. Für andere Funktionsbereiche ist diese aber nicht so interessant (vgl. [Citrix 01]). In der folgenden Tabelle werden die Prioritäten der verschiedenen Funktionsbereiche in der IT-Organisation aufgezeigt.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2-2: Prioritäten der verschiedenen Funktionsbereiche („1“ ist „am wichtigsten“, vgl. [Citrix, 01])

2.2.3 IT-Management und IT-Governance

IT spielt eine wichtige Rolle, wenn es um Themen der Corporate-Governace geht. Jedoch ist IT selten Selbstzweck des Unternehmens, sondern soll der Geschäftsstrategie und deren Anforderungen folgen. Erfolgreiches IT-Management ist nach unabhängigen Untersuchungen zwischenzeitlich zu einem der wichtigsten Erfolgsfaktoren eines Unternehmens geworden (vgl. [Tiemeyer et al., 2006]). Das zeigen uns auch immer wieder gesetzliche Vorgaben, die erhöhte Anforderungen an das Unternehmensinterne Kontrollsystem und damit an die IT stellen wie z.B. Sarbanes Oxley Act, Section 404 ([Sarbanes, 2002]) oder die Risk Map aus Solvency II ([Solvency 2]) sowie Basel II (Drefs, 2004). Die Analyse von IT-Geschäftsfunktionen bezieht sich auf IT-Governance und IT-Management.

IT-Governance liegt in der Verantwortung des Vorstands und des Managements und ist ein wesentlicher Bestandteil der Unternehmensführung. IT-Governance besteht aus Führung, Organisationsstrukturen und Prozessen, die sicherstellen, dass die IT die Unternehmensstrategie und -ziele unterstützt (ITGI, 2003). Der Begriff IT-Governance steht in enger Beziehung zu dem Begriff Corporate-Governance (auf Deutsch Unternehmensführung). Die Abhängigkeit des Geschäfts von der IT führt dazu, dass das Corporate-Governance ohne IT nicht vorstellbar wäre. Der Einsatz von IT beeinflusst die strategischen Opportunitäten und liefert kritische Beiträge für die strategische Unternehmensführung. Daher ermöglicht IT-Governance die Förderung vom Mehrwert durch IT und wird als der Treiber von Unternehmensführung betrachtet. Es gibt aber auch weitere Definitionen. Die Gemeinsamkeit all dieser Definitionen liegt bei der engen Beziehung zwischen Geschäft und IT. IT-Governance wird als ein Teil der Corporate-Governance betrachtet. Dabei sind folgende Fragen zu beantworten: Wird die richtige Sache getan? Werden beschränkte Ressourcen für die beste Leistung investiert? Ziel ist die beste Nutzung der Ressourcen.

Das IKS wird durch das IKS-Management im Hinblick auf die Erfüllung kurz- und langfristiger Ziele gestaltet. Gestaltungobjekt des IKS-Managements ist nicht nur das EDV-System eines Unternehmens, sondern auch die im IKS implementierten datenverarbeitenden Prozesse sowie die davon abhängigen Organisationsstrukturen in der Institution und zwischen Institutionen. Das IT-Management umfasst traditionell sowohl die Planung und Entwicklung von IT-Anwendungen, als auch den Betrieb der IT-Infrastrukturen. Dem Betrieb der erforderlichen IT-Infrastrukturen wurde nur eine untergeordnete Bedeutung innerhalb des IT-Managements zugeordnet (vgl. [Zarnekow et al., 2005. S. 5]). Die Aufgabenfelder des IT-Managements sind Folgende (Grob et al., 2004, S. 391-392):

- IT-Controlling: auch als IKS-, IV- oder DV-Controlling bezeichnet.
- Sicherheitsmanagement: Das IKS gegen technische Störungen, Fehlbedienungen oder unbefugte Eingriffe abzuschirmen.
- Rechtsmanagement: sämtliche rechtliche Bestimmungen umzusetzen, die mit dem IKS zusammenhängen.
- Systembetrieb: sämtliche administrative Aufgaben, die die Funktionsfähigkeit der betrieblichen Informationsverarbeitung sicherstellen sollen.
- Systemplanung: konzeptionell als Gegenstand des IT-Controlling anzusehen. Planungsaktivitäten zur zielorientierten Gestaltung der betrieblichen Anwendungsarchitektur.

Eine zentrale Herausforderung und Aufgabe des IT-Managements besteht darin, eine strategische Planung der IT-Architekturen für die eigene Organisation vorzunehmen, die aktuell installierten IT-Systeme zur gegebenen Zeit zu modernisieren und (mit einem ausgewogenen Migrationskonzept) auf den neusten Stand zu bringen, sowie eine zunehmend komplexe IT-Infrastruktur zu verwalten. Ziel ist letztlich die Bereitstellung einer anpassungsfähigen IT-Infrastruktur, die einen fortlaufenden und zuverlässigen IT-Betrieb gewährleistet. Außerdem muss die vorhandene Infrastruktur mittels intelligenter und dynamischer Verwaltung optimal genutzt werden. Die "Best-Practices" für ein serviceorientiertes IT-Management werden durch die IT-Infrastructure-Library (ITIL) beschrieben. Beim serviceorientierten IT-Management werden die IT-Leistungen konsequent an den Anforderungen der Kunden und für die kontinuierliche Überwachung und Steuerung der IT-Services im Sinne der Kundenanforderung ausgerichtet. Die traditionellen, eher reaktiven, Aufgaben werden durch proaktive Aufgaben ersetzt (vgl. [Zarnekow et al., 2005, S.6-8])

Eine klare Abgrenzung zischen IT-Governance und IT-Management ist schwer festzumachen. IT Management ist auf die interne effektive Unterstützung von IT-Dienstleistungen und Produkten und das Management der gegenwärtigen IT-Operationen fokussiert. IT-Governance geht darüber hinaus und konzentriert sich auf die Durchführung und Transformierung der IT zur Erfüllung des gegenwärtigen sowie zukünftigen Bedarfs von dem Geschäft (intern fokussiert) und Kunden (extern fokussiert). Das unterminiert die Bedeutung und Komplexität von IT-Management nicht. Aber während die Elemente IT-Management und die Lieferung von gewissen IT-Dienstleistungen und -Produkten an einen externen Anbieter ausgegliedert werden können, ist IT-Governance organisationsspezifisch. Die Führung und Kontrolle über IT darf nicht vom Markt delegiert werden (vgl. [Grembergen 2004]).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-5: IT-Governance und IT-Management (vgl. [Grembergen 2004])

2.2.4 ICT-Management

Obwohl dem Betrieb der erforderlichen IT-Infrastrukturen nur eine untergeordnete Bedeutung innerhalb des IT-Managements zugeordnet wurde, ist das Management der Informations- und Kommunikationsinfrastruktur (ICT -Infrastruktur) ein grundlegender Prozessbereich des IT-Managements (vgl. ITIL). Das ICT-Infrastruktur-Management umfasst sämtliche Prozesse, welche dazu dienen, eine stabile, den Serviceanforderungen gerecht werdende Informations- und Kommunikationsinfrastruktur bereitzustellen. Dazu gehören die Bereiche Design und Planung, Bereitstellung, Betrieb und Technical Support (vgl. [Zarnekow et al., 2005, S.251], [Marcu, 2003]). Es geht um Effektivität, Effizienz und Sicherheit. Die richtigen Dinge richtig und auf sichere Weise zu tun (Niemann 2005, S.29). Die folgende Abbildung zeigt die Einordnung des ICTIM sowie deren Prozesse in die ITIL.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-6 Einordnung der Prozesse von ICTIM in ITIL (in Anlehnung an [Marcu, 2003])

Es gibt folgende Gründe, warum das Management von ICT sehr wichtig ist:

- Abhängigkeit: Organisationen sind zunehmend von ICT abhängig.
- Überallverfügbarkeit: ICT ist ein bedeutender Kanal zur Erbringung der Produkte und Dienstleistungen der Organisation.
- Komplexität: ICT-Infrastrukturen werden immer größer, verteilter, und komplexer.
- Flexibilität: Änderung der Business-Anforderungen heißt, dass die Benutzer neue Dienste fordern; oft werden diese mit Hilfe der existierenden Infrastruktur angeboten.
- Kundenzufriedenheit: Die Unternehmensführung muss sicherstellen, dass sie die Entscheidungen fällt, die mit den strategischen Zielen des Unternehmens vereinbar sind (Laudon et al., 2006, S.277).
- Kapazitätsplanung: Vorherzusagen, wann ein IKS ausgelastet sein wird, um sicherzustellen, dass für aktuelle und künftige Anforderungen eines Unternehmens genügende Rechen- und Speicherressourcen zur Verfügung stehen.
- Skalierbarkeit: Erweiterbarkeit eines IKS, um eine größere Anzahl von Benutzern (oder Anwendungen) bedienen zu können, ohne funktionsuntüchtig zu werden. Neue Anwendungen, Unternehmensakquisitionen sowie Änderungen im Umsatzvolumen wirken sich auf die Auslastung des IKS aus und müssen bei der Kapazitätsplanung berücksichtigt werden. Daher spielt die Skalierbarkeit einer IT-Infrastruktur eine bedeutende Rolle. (vgl. [Laudon et al., 2006, S.301]) Die Kunden sind wenig tolerant, wenn es um schlechte Dienste geht.
- Investition: Für viele Organisationen repräsentiert ICT einen beträchtlichen Teil der Gelder, und es gibt eine steigende Nachfrage nach ICT als langfristige Investition. Effektive ICTIM haben Vorteile für Business und ICT. Die meisten dieser Vorteile sind greifbar und können gemessen werden, und zeigen somit die Wirksamkeit der ICTIM-Prozesse.
- Software-Lizenzierung und IT-Asset-Management: Die Untersuchung zeigt, dass der Wert, die Risiken und der Haftungsumfang für die IT-Geräte in den Unternehmen gestiegen sind. So kann beispielsweise die Nichteinhaltung von staatlichen Bestimmungen, die den Datenschutz der Mitarbeiter festschreiben und die Geschäftsprozesse kontrollieren, zu hohen Bußgeldern und Strafverfolgung führen. Aus diesem Grund ist es wichtig, dass die IT-Zuständigen darüber nachdenken, wie sich das IT-Asset-Management (ITAM) weiter entwickeln wird.

2.3 Tendenzen beim IT-Management

2.3.1 Tendenzen bei der IT-Ausgabe

Für die meisten Unternehmen und Organisationen ist die Investition im IT-Bereich bereits zu einer unentbehrlichen Unternehmensstrategie geworden. Dabei ist es notwendig, die Frage von TCO, also die Gesamtkosten, die durch die Beschaffung und den Betrieb eines gesamten IT-Systems verursacht werden, zu beantworten. Die sind seit einigen Jahren folgende vier Tendenzen zu beobachten (vgl. [Golden, 2007]):

- Hardware ist zu wenig ausgelastet: Laut einer Statistik aus dem Jahr 2006 sind nahezu 95% der Windows-Server und fast 80% der Unix-Server zu weniger als 20% ihrer Gesamtkapazität ausgelastet worden. Der Rest wurde verschwendet. Bei PCs in Unternehmen ist die Situation noch dramatischer: nur weniger als 5% der Kapazität der PCs wurde ausgenutzt (vgl. [Fischer, 2008]).
- Die Datenzentren werden immer weiter ausgedehnt: Mit der Entwicklung des webzentrierten Rechnens zur Unterstützung des wachsenden Geschäfts sind die Datenzentren immer größer geworden. Dadurch entsteht "Server Spawl". Ergebnis davon sind zunehmende Größe, Multiplattform und heterogene IT-Infrastrukturen mit geographisch verteilten Anwendungen und Personalressourcen. Die Verwaltung dieser IT-Infrastrukturen ist zu einer immer größeren Herausforderung geworden.
- Systemadministration kostet immer mehr: Die durchschnittlichen Kosten verbunden mit der Beschaffung von Server-Hardware (Einkaufspreis) haben in den vergangenen 10 Jahren dank der industriellen Standardisierung stark abgenommen. Aber die gesamten IT-Kosten sind nicht gesunken. In der Tat ist der Anteil der Administrationskosten bei den Gesamtkosten vom Datenzentrum kontinuierlich gestiegen.
- Die Energiekosten sind enorm gestiegen: Mit dem steigenden Energiepreis und den wachsenden Datenzentren steigen die Energiekosten im Datenzentrum stetig an. Laut IDC werden die Energiekosten sogar in einer absehbaren Zeit die Ausgaben für IT-Anlagen überschreiten. Demzufolge ist "Grüne IT" ein neues heißes Thema geworden.

All die oben genannten Tendenzen führen zu steigenden IT-Ausgaben. Dies soll auch anhand der IDC-Statistik in der folgenden Abbildung bewiesen werden (Abb. 2-7).

IT-Management richtet sich insbesondere an die IT-Entscheider, die vor der Aufgabe stehen, Innovationspotentiale der IT trotz schrumpfender Budgets zu erhalten und sogar neu zu erschaffen. IT-Verrechnungssysteme können zwar die Ursachen dafür nicht beheben, zumindest aber helfen, den finanziellen Aufwand der DV verursachergerecht zuzuordnen. Wenn Firmen Unternehmensbereiche vom Costcenter zum Profitcenter umfunktionieren, bleibt die IT-Abteilung zumeist ausgeklammert. Sie zählt nicht zum Kerngeschäft, sondern zur Infrastruktur. Das darf aber nicht so bleiben. Der Wandel vom Costcenter zum Profitcenter soll auch auf IT-Abteilungen großer und mittelständischer Unternehmen übertragbar sein (vgl. [Stier 2006]).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-7: Entwicklung der IT-Ausgaben (vgl. ([Strate, 2008])

Die Ergebnisse einer Forschungsarbeit (Pfeifer 2003) zeigt die deutliche Reduktion des Innovationsanteils am gesamten IT-Budget über die letzten Jahre. Aktuelle Beobachtungen deuten sogar auf eine noch weitergehende Einschränkung des Innovationsanteils hin, was mit sinkender Innovationskraft eng gebunden ist (vgl. [Niemann 2005, S33]).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-8: Veränderung des IT-Ausgabeverhaltens (vgl. [Pfeifer 2003, S.43])

In Folge von Anstrengungen, IT-Kosten zu senken, rücken immer die Infrastrukturkosten in den Mittelpunkt der Betrachtung. Dabei sollten die Bemühungen auch auf Überlegungen zur optimierten Bereitstellung von Infrastrukturservices fokussiert werden (vgl. [Niemann 2005, S.108]). Hier greifen populäre Modelle wie ITIL, die auf eine serviceorientierte Aufstellung des Infrastruktur- und Betriebsbereichs abzielen. Die Untersuchung von IDC zeigt, dass der große Teil der Nach-Kauf-Kosten verbunden mit Server-Plattformen durch ineffiziente Nutzung von Managementressourcen, Ausfall sowie die verminderte Produktivität der Angestellten und Benutzer verursacht werden. Nicht nur die Datenzentrum und die Managementkomplexität sind vergrößert worden, sondern auch die Kosten durch Systemausfälle bei der wachsenden Beschaffung von IT-Ausstattung zur Unterstützung des Geschäfts sind erhöht. Beispielerweise würde eine Fluggesellschaft mehrere Tausend Euro vom Buchungseinkommen pro Minute bei dem Ausfall ihres Buchungssystems verlieren (Cohen, 2004). Zudem darf nicht außer Acht gelassen werden, dass die Energiekosten stetig ansteigen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2-9: Kosten für Servermanagement und -administration (vgl. [Cohen, 2004])

2.3.2 Beobachtung der Systemkomplexität

Die Komplexität in der Informationstechnologie wächst ständig durch die Einführung neuer Dienste, die dem Benutzer einen Mehrwert liefern sollen. Die Realität zeigt, dass in vielen Fällen eine schwache Infrastruktur den wahren Mehrwert einer IT-Dienstleistung mehr oder weniger absorbiert (vgl. [Sirius, 2002, S. 2]). Noch problematischer ist die wachsende Komplexität der Benutzer in der großen Organisation, was u. a. Probleme bei Verwaltung und Sicherheit bringt.

Das „Produktivitätsparadoxon“ der Informationstechnologie zeigt, dass viele Unternehmen mit redundanter, inkompatibler Hardware und Software ausgestattet sind. Die jeweils besten Unternehmen weisen nicht die höchsten IT-Ausgaben auf. Vielmehr steht bei diesen Unternehmen die Fähigkeit zur effektiven Mittelverwendung im Vordergrund. Es kann auch kein überzeugender Nachweis erbracht werden, dass eine Erhöhung des IT-Budgets einen deutlichen Beitrag zur Verbesserung von Kenngrößen auf Unternehmensebene leistet, wie z.B. Wachstum des Umsatzes, Erhöhung der Profitabilität oder Reduktion der operativen Kosten. Somit erstreckt sich der Fragebereich zum Ausgabeverhalten sowohl auf die notwendige Höhe der IT-Budgets, als auch zur effektiven Mittelverwendung und den zugehörigen Mechanismen im jeweiligen Unternehmensvergleich. Letztlich ist eine Betrachtung der Kosten allein keine befriedigende Richtgröße für den optimalen Einsatz von IT (Pfeifer 2003, S.20 ff.). Viele Unternehmen sind mit teuren und komplizierten IT-Plattformen ausgerüstet, die nicht für Innovationen und Änderungen offen sind. Ihre Informationssysteme sind so komplex und träge, dass sie die Unternehmensstrategie und deren Umsetzung einschränken. Zur Lösung von Problemen, die sich durch neue Marktbedingungen und neue Techniken stellen, sind u. a. eine Umstrukturierung des Unternehmenes und der Aufbau einer neuen Informationsarchitektur und IT-Infrastruktur erforderlich. (vgl. [Laudon et al., 2006, S. 61, S.11])

In den 1990er Jahren bestand der thematische Schwerpunkt des IT-Controllings noch in der Verrechnung von IT-Kosten und in der Wirtschaftlichkeitsanalyse der entsprechenden Investitionen. Aber in der näheren Vergangenheit sind immer mehr strategische Fragen in den Mittelpunkt des Interesses gestellt worden. So wird die zentrale Managementaufgabe aus der Formulierung von IT-Strategien, der Implementierung von IT-Systemen und der Unterstützung strategischer Unternehmensziele durch IT gebildet. (vgl. [Grob et al., 2004, S. 516])

3 Die Virtualisierungstechnologien

Im diesem Kapitel werden die Definitionen und Geschichte von Virtualisierung erklärt. Anschließend werden die Typen von Virtualisierungstechnologien und deren Einsatzmöglichkeiten in der IT-Infrastruktur aufgezeigt.

3.1 Was ist Virtualisierung

Die Komplexität der IT-Infrastruktur wächst mit ihrer Größe, dagegen sinkt aber die durchschnittliche Wirtschaftlichkeit. Dennoch wünschen sich die CIOs und IT-Manager dieselbe Effizienz und Produktivität bei dem gleichen, oder sogar niedrigeren Budget im Vergleich zu Vorjahr. IT-Zuständige sind konfrontiert mit sinkendem Personal und sinkenden Administrations- und Wartungskosten. Die Kosten für Räume, Strom, HVAC sowie Verkabelungen müssen ebenfalls reduziert werden. All dies gleichzeitig mit besserer Kontinuität, Verfügbarkeit und Sicherheit zu ermöglichen, ist auf alle Fälle eine große Herausforderung (Cohen, 2004). Nun versucht man all diese Probleme durch die Einführung von Virtualisierungstechnologien zu lösen. Virtualisierung ist heutzutage ein großes Thema auf den Technologienkonferenzen geworden. Zahlreiche Technologienanbieter versuchen zu beschreiben, dass ihre Produkte die Virtualisierungstechnologien unterstützen und die beste Lösung dafür anbieten.

Der Begriff "Virtualisierung" (auf Englisch Virtualization) selber ist eine allgemeine Bezeichnung bezogen auf eine Art Abstraktion von Ressourcen (vgl. [Hammersley 2007, Golden 2007]). Damit werden die physikalischen Merkmale der Rechenressourcen vor dem Weg versteckt, durch den andere Systeme, Anwendungen oder Endnutzer mit diesen Ressourcen interagieren (vgl. [IBM, 2007]). Durch Virtualisierung wird ermöglicht, dass einzelne physische Ressourcen (wie z.B. ein Server, ein Betriebssystem, eine Anwendung oder ein Speichergerät) als mehrfache logische Ressourcen erscheinen, oder mehrfache physische Ressourcen (wie z. B. Speichergräte oder Server) als eine einzelne logische Ressource. Das ist die Technologie für ein funktionales Management von Systemen und Ressourcen ohne Einschränkung der physischen Ausprägung und Lokalisierung (vgl. [EMA, 03]).

Aufgrund dieser Eigenschaft ist Virtualisierung ein effektives Verfahren zur Zusammenfassung und Verteilung von IT-Ressourcen, um die dynamischen Geschäftsanforderungen zu unterstützen und Virtualisierung ermöglicht die Transformation zur anpassungsfähigen IT-Infrastruktur (vgl. [HP, 01]).

Allerdings ist Virtualisierung keine neue Erfindung. Als der Pionier im Bereich Virtualisierung hat es IBM schon in den 1960er Jahren ermöglicht, mehrere Betriebssysteme auf ihren Mainframes gleichzeitig auszuführen. Im Jahr 1972 wurde es auf ihrer berühmten Mainframe VM/370 realisiert, virtuelle Maschinen mit verschiedenen Betriebssystemen unter Aufsicht eines Kontrollprogramm -heute als Virtual Maschine Monitor (VMM) oder Hypervisor bezeichnet - gleichzeitig auszuführen. Die Motivation dafür war eine effiziente Ressourcennutzung (vgl. [Brendel 2007, 9]). Diese Art von Virtualisierung wird auch als Plattform-Virtualisierung bezeichnet. Im Laufe der Zeit haben die Begriffe Virtualisierung sowie virtuelle Maschine jedoch zusätzliche Bedeutungen erworben.

Die Idee von virtuellen Maschinen kam aus der Bemühung um effiziente Nutzung der Hardware-Ressourcen. Durch Entwurf virtualisierungsfähiger Hardware wurden viele Performanceherausforderungen erfüllt. Aber mit der Entwicklung preiswertiger Rechenbetriebsmittel und einer starken Verbreitung der massenproduzierten Hardware war das Thema Virtualisierung langsam veraltet. Das hat sich auch in der x86-Architektur reflektiert. Während der zunehmenden Komplexität der Softwaresysteme ist es üblich geworden, dass eine einzelne Anwendung einen eigenen Server besitzt, um den Konflikt mit anderen zu vermeiden. Dadurch entsteht aber ein neues Problem, nämlich Server-Sprawl. Die Nutzung der Serverkapazität ist immer ineffizienter geworden. Allgemein erkannt ist die durchschnittliche Nutzungseffizienz von Windows-Server lediglich zwischen 5% bis 15%. Durch Einführung neuer Chip-Technologien wird diese noch niedriger (vgl. [PuneTech, 2008]). Außerdem werden noch andere Kosten wie Energiekosten und Raumverschwendung verursacht. Das alte Problem ineffizienter Nutzung der Hardware-Ressourcen kehrt wieder zurück.

Es gibt viele Konzepte und Technologien im Bereich Hardware und Software, die diesen Begriff verwenden. Bespiele dafür sind u. a. Hardware- und Software-Partitionierung, teilweise oder komplette Maschinensimulation, Emulation, Time-Sharing, Quality-of-Service (vgl. [Kernelthread, 01]). Diese werden für Endgeräte, Server, Betriebssysteme, Anwendungen sowie Netzwerke eingesetzt (vgl. [IBM, 2007]). Allgemein werden drei Prinzipien dafür unterschieden: Plattform-, Anwendungs- und Betriebsmittel-Virtualisierung, die in folgenden Abschnitten vorgestellt werden.

Zur Realisierung von System-Virtualisierung gibt es unterschiedliche Methoden, z.B. durch Partitionierung von Hardware und Software, Time-Sharing, teilweise oder komplette Maschinen-Simulation, Emulation usw.

3.2 Plattform-Virtualisierung

Typischerweise wird durch Plattform-Virtualisierung auf einem Host-System eine Steuer-Software gestartet, die ein Rechnersystem (virtuelle Maschine) simuliert und auf der eine (Gast-) Software abläuft. In meisten Fällen ist diese Gast-Software ein Betriebssystem. Die Voraussetzungen dafür sind laut Goldenberg (vgl. [Goldenberg, 1973]):

- zwei Prozessormodi
- Eine Methode für nicht privilegierte Programme privilegierte Systemroutinen aufzurufen
- Mechanismen für Speicherschutz und -zuteilung wie Paging oder Segmentierung
- Asynchrone Interrupts (I/O)

Die Bedeutung der Begriffe "Virtualisierung" und "Virtueller Maschine" ist im Laufe der Zeit erweitert worden. Entsprechend der Virtalisierungsformen gibt es verschiedene Arten von VMs, die in folgenden Abschnitten entsprechend dem jeweiligen Virtualisierungsansatz vorgestellt werden:

- Hardware Virtuelle Maschine: Durch System-Virtualisierung werden Hardware-VM generiert, die der ursprünglichen Bedeutung von "VM" entsprechen. Dabei werden eine oder mehrere von einander getrennte virtuelle Ausführungsumgebungen auf einem einzelnen Computer hergestellt, in denen jeweils ein eigenes Betriebssystem auf einer entsprechenden virtualisierten Hardware ausgeführt wird.
- Applikation-Virtuelle-Maschine: Diese Art von VM entspricht der Anwendungsvirtualisierung. Dabei wird eine Ausführungsumgebung durch eine Software hergestellt. Die virtuelle Maschine bietet einen einheitlichen Befehlssatz auf jeder Plattform an, auf die sie portiert worden ist. Dadurch wird die auszuführende Anwendung selber ohne Portierung auf verschiedenen Plattformen (z.B. MS Windows, Linus, Mac OSX) lauffähig, ein Beispiel dafür ist SUN JRE (Java VM).
- Virtuelle Betriebsumgebung: Diese Art von VM entspricht der Betriebssystem-Virtualsierung. Dabei werden verschiedene sogenannte "Userland-Umgebungen" auf einem Betriebssystem- Kernel ermöglicht. Diese Technologie wird intensiv von Webhosting-Unternehmen eingesetzt, um ihre Hardware-Ressourcen flexibler und effizienter zu verwalten. Beispiele dafür sind Free-BSD Jails, Linux-VServer, OpenVZ, Virtuozzo, Solaris Container.

Es gibt eine Reihe verschiedener Ansätze zur Realisierung von Plattform-Virtualisierung, die anschließend vorgestellt werden.

3.2.1 Virtualisierung mittels Software

Die herkömmlichen Virtualisierungstechnologien basieren auf Softwarelösungen, wobei die Systemressourcen durch Software abstrahiert und virtuelle Betriebsumgebungen für andere Software hergestellt werden. Diese Art von Virtualisierung wird häufig als Software-Virtualisierung bezeichnet. Durch Software-Virtualisierung werden die Gegebenheiten eines Rechnersystems (Hardware) vor den Anwendungen versteckt. Das heißt, dass die Anwendungen keinen direkten Zugriff auf die Hardware erhalten und in Folge alles über eine Zwischenschicht umgeleitet wird (vgl. [Mayerhofer, 2007, S.3]). Die Software-Virtualisierung kann für mehrere Zwecke eingesetzt werden, z.B. zum Simulieren eines Rechner-Systems, eines Betriebssystems oder nur einer Anwendung.

Die älteste Technik für Virtualisierung ist Emulation. Da die x86-Architektur Virtualisierung ursprünglich nicht unterstützt hat, war es auch schwierig, virtuelle Maschinen sicher auf einem System zu betreiben. Die Trennung mehrerer Umgebungen war nicht möglich und privilegierte Systemaufrufe der Betriebssysteme hätten zu Konflikten geführt (vgl. [Karpf et al. 2007, S. 30]). Daher wird eine Softwareschicht als Emulator eingesetzt, der den Status von der CPU und Hauptspeicher der zu emulierenden Maschine verfolgt und jeden Befehl entsprechend dem virtuellen Status der erstellten Maschine interpretiert. Die Befehle werden daher nicht mehr direkt durchgeführt. Stattdessen werden sie an den Emulator übergeben und durch diesen für die unterliegende physische Maschinen in einen (ggf. anderen) Satz von Befehlen umgesetzt (vgl. [PuneTech, 2008]). Heutzutage wird Voll-Emulation noch bei vielen Produkten verwendet. Beispiele dafür sind QEMU, BOCHS, MAME (Arcade Spielautomaten Emulation), PearPC. Um Anwendungen, die eigentlich für eine andere CPU oder ein anderes Betriebssystem als die eingesetzte Systemumgebung entworfen sind, ohne Modifikation des Quellcodes auszuführen, wird dann die sogenannte Cross-Platform-Virtualisierung eingesetzt, Beispiele sind Apple Rosetta, IBM PowerVM Lx86 und Transitive QuickTransit.

Laut Goldberg bestehen folgende formale Anforderungen für Plattform-Virtualisierung (vgl. [Goldberg et al., 1974], [Kieselbach, 2008]):

- Gleichwertigkeit: Eine Software, die in einer virtuellen Maschine läuft, muss sich exakt genauso verhalten, als ob sie auf einer "realen" Maschine ausgeführt wird (abgesehen von der zeitlichen Ausführungsgeschwindigkeit).
- Geschwindigkeit: Die weitestgehende Mehrheit der ausgeführten Maschinenbefehle in einer virtuellen Maschine sollte auf der realen Maschine (nativen) ohne Eingriff des "Virtual Machine Monitors (VMM)" ausgeführt werden.
- Betriebsmittel Kontrolle: Der VMM muss im Besitz der kompletten Kontrolle der Hardwarebetriebsmittel sein.

Voll-Emulation ist ein flexibles Verfahren für Virtualisierung, hat aber auch bemerkbare Mängel bei der Performance. Zur Erstellung virtueller Betriebsumgebungen, die die gleiche Systemarchitektur wie der Host besitzen, werden weitere Ansätze entworfen. Je nach der Software-Architektur gibt es folgende drei Ansätze zur Realisierung von Plattform-Virtualisierung mittels Software, die anschließend vorgestellt werden:

- Hosted-Architektur
- Bare-Metal-Architektur
- OS-Virtualisierungs Architektur

3.2.1.1 OS-Virtualisierungs Architektur

Zu den Hauptaufgaben moderner Betriebssysteme gehören die Verwaltung von Prozessen, Dateien, angeschlossenen Geräten, Benutzern und Objekten, die der Interprozess-Kommunikation dienen. Traditionell befindet sich auf einem physischen Rechner genau eine Betriebssystem-Installation, die die genannten Aufgaben für die physischen und logischen Betriebsmittel dieses Rechners übernimmt. Zwar lassen sich auf einem Rechner auch mehrere Betriebssysteme installieren, in der Regel aber nicht parallel nutzen (vgl. [Hegering, 2008]).

Betriebssystem-Virtualisierung, auch als OS-Level-oder Shared-OS-Virtualisierung bezeichnet, meint die Virtualisierung auf Betriebssystemebene. Dabei werden verschiedene isolierte Partitionen oder virtuelle Umgebungen (Virtual Enviroments, abk. VEs) auf einem Betriebssystem-Kernel ermöglicht, in denen Prozesse unabhängig voneinander ablaufen, die auf die zur Verfügung stehenden physischen Ressourcen konfliktfrei zugreifen können. Obwohl Ressourcen wie CPU oder Netzwerkinterface nur einmal für alle virtuellen Umgebungen zur Verfügung stehen, können sie in jeder virtuellen Umgebung pseudo-exklusiv genutzt werden. Als Container (oder "Jails") für die darin laufenden Programme wird diese virtuelle Umgebung auch häufig als virtuelle Maschine bezeichnet, weil diese eine komplette Laufzeitumgebung bereitstellt. Dabei wird aber kein zusätzliches Betriebssystem gestartet. Die OS-Container stellen nur eine Teilmenge des Wirtbetriebssystems (Host-OS) dar (vgl. [Karpf et al., 2007, S. 30]).

Abbildung 3-1: Einzelnes Betriebssystem vs. OS- Virtualisierung mittels Virtuozzo Container

Abbildung in dieser Leseprobe nicht enthalten

Vorteil dieses Konzepts liegt in der guten Integration der Container in das Gastbetriebssystem. Durch Betriebssystem-Virtualisierung können Hardware- und ggf. auch Softwarelizenzkosten eingespart werden. Bei der OS-Virtualisierung läuft immer nur ein Kernel. Dadurch wird ein relativ niedriger Overhead im Vergleich zu System-Virtualisierung von VMware ESX oder Citrix XenServer verursacht und eine effiziente Nutzung der Serverressourcen ermöglicht. Der Nachteil dieses Konzepts liegt auch in den Containern. Aus den Containern heraus können keine Treiber geladen bzw. andere Kernel geladen werden. Daher ist die Virtualisierung auf der OS-Ebene eher ein Verfahren für Serverkonsolidierung als für Plattform-Virtualisierung und wird auch als Partitionierung bezeichnet (vgl. [Virtualisierung, 01], [Desai, 2007, S. 71], [Kieselbach, 2008]).

Diese Technologie wird intensiv von Webhosting-Unternehmen eingesetzt, um ihre Hardware-Ressourcen flexibler und effizienter zu verwalten. Beispiele dafür sind Free-BSD Jails, Linux-VServer, OpenVZ, Virtuozzo, Solaris Container, Mac-on-Linux, auch das neue AIX von IBM wird Virtualisierung in diese Richtung bieten.

3.2.1.2 Hosted-Architektur

Durch Virtualisierung auf der OS-Ebene werden isolierte virtuelle Betriebsumgebungen hergestellt. Aber die am weitesten verbreiteten Ansätze sind die Erstellung von Hardware-Virtuelle-Maschinen. Das ermöglichen die Hosted-Architektur und Bare-Metal-Architektur. Daher werden die beiden Ansätze auch als Hardware-Virtualisierung bezeichnet (Diese Hardware-Virtualisierung wird in manchen Fällen mit der Hardware-unterstützten Virtualisierung verwechselt).

Bei der Hosted-Architektur läuft die Virtualisierungsplattform innerhalb eines Wirtbetriebssystems, das in meisten Fällen ein Standardbetriebssystem wie Windows oder Linux ist und direkt auf der Hardware läuft. Darin wird ein Virtuelle-Maschine-Monitor (VMM, auch als "Hypervisor" genannt, wird uneinheitlich von verschiedenen Autoren verwendet, vgl. [EMA, 03], [IBM, 2005] ) als ein Dienst installiert. Wie in der Abbildung 3-2 gezeigt wird, werden mittels VMM die Rechenressourcen eines Rechners in mehrere isolierte Ausführungsumgebungen geteilt, die als virtuelle Maschinen bezeichnet werden. Eine derartige virtuelle Maschine ist eine logische Repräsentation eines physischen (rechten) Rechners in der Software. In einer VM wird ein normales Betriebssystem installiert, auf dem Anwendungen laufen. Dieses Betriebssystem wird als Gast-Betriebssystem (Guest OS) bezeichnet. Das Guest-OS ist selber für die Anwendungen darauf genau wie ein normales, vollständiges Betriebssystem. Das Guest-OS selber bemerkt auch nicht, dass es auf der Ebene einer Virtualisierungssoftware, statt direkt auf der physischen Hardware, läuft (vgl. [Kernelthread, 01], [EMA, 03]).

Abbildung 3-2: Hosted-Architektur

Abbildung in dieser Leseprobe nicht enthalten

Vorteil dieses Ansatzes ist, dass der Entwurf von VMM offensichtlich vereinfacht wird, da der VMM die vom Host-OS angebotenen Dienste direkt verwenden kann. Daher können die VMs die vom Host-OS unterstützte Hardware einfach verwenden. Solange die Betriebsumgebung der VM durch bestimmte OSs, Anwendungen und Dienste unterstützt wird, sollten jegliche Workloads innerhalb der VM richtig funktionieren. Die Implementierung dieser Architektur ist auch relativ einfach. Preiswerte und sogar kostenlose Virtualisierungs- Plattformen werden von vielen Herstellern zur Verfügung gestellt. Deren Installation ist in meisten Fällen auch sehr einfach. Ein weiterer Vorteil ist die Isolation der Betriebsumgebungen der einzelnen VMs. Jede VM ist unabhängig voneinander. Diese Eigenschaft ermöglicht die gleichzeitige Ausführung verschiedener OSs auf einer einzelnen physischen Maschine. Die potentiellen Konflikte zwischen den verschiedenen Anwendungen und Diensten werden dadurch auch eliminiert. Da die Virtualisierungsplattform auf einem vollständigen Host-OS läuft, kann sie auch die Features für Sicherheit und Administration von Host-OS verwenden, was vorteilhaft für die Kosten und das Management der Virtualisierungslösungen ist.

[...]

Details

Seiten
Erscheinungsform
Originalausgabe
Jahr
2008
ISBN (eBook)
9783836625715
DOI
10.3239/9783836625715
Dateigröße
2.8 MB
Sprache
Deutsch
Institution / Hochschule
Universität Leipzig – Wirtschaftswissenschaftliche Fakultät, Wirtschaftsinformatik
Erscheinungsdatum
2009 (Februar)
Note
1,3
Schlagworte
virtualisierung it-management virtualisierungstechnologie desktop-infrastruktur tco/roi
Zurück

Titel: Einsatz von Virtualisierungstechnologien in der IT-Infrastruktur eines Unternehmens
Cookie-Einstellungen