Web- und OLAP-basierte Controlling-Systeme
Auswirkungen auf die Arbeit des Controllers
Zusammenfassung
Ziel dieser Arbeit soll es sein, dem Leser die Vielgestaltigkeit möglicher Auswirkungen aufzuzeigen, welche mit der Einführung eines Web- und OLAP-basierten Controlling-Systems einhergehen (können). Dabei lässt sich die Arbeit in zwei große Blöcke gliedern:
Block 1 Zunächst einmal werden wichtige Begriff wie E-Controlling, Web-Controlling usw. genau definiert und voneinander abgegrenzt. Dann folgt ein historischer Abriß über die Entwicklung von elektronischen Informationssystemen. Weiter geht es mit einer ausführlichen Beschreibung der Bausteine moderner Analytischer Informationssysteme (Data Warehouse, Business Intelligence Tool usw.). Daran anschließend wird dem Leser ein Ausblick auf zukünftige Trends und Entwicklungsperspektiven elektronischer Informationssysteme gegeben. Der Block schließt durch eine genaue Beschreibung der Spezfika Web- und OLAP-basierter Controllingsysteme. Die Ausführungen werden ergänzt durch die Miteinbeziehung eines praktischen Anwendungsbeispiels eines Web- und OLAP-basierten Controllingsystems in einem führenden Industrieunternehmen.
Block 2 In diesem Block werden die Wirkungen von Web- und OLAP-basierten Controllingssystemen näher analysiert. Dabei stehen einmal die Wirkungen auf die Organisationsstruktur (z. B. Lean Controlling und Outsourcing) und einmal die sozialen Wirkungen auf die Menschen im Unternehmen (z. B. Verhältnis Controller und Manager) im Blickpunkt der Betrachtung. Auch dieser Block schließt mit einem praxisorientierten Abschnitt, einem Praxis-Leitfaden für die Einführung Web- und OLAP-basierter Controlling-Systeme.
Wir hoffen, dass jeder Leser (sowohl Theoretiker als auch Praktiker) die von ihm gewünschten Informationen findet bzw. er in Bezug auf die Thematik, neue Perspektiven und Bezugspunkte gewinnen kann.
Inhaltsverzeichnis:Inhaltsverzeichnis:
1.VORWORT4
2.EINFÜHRUNG7
2.1METHODOLOGIE11
3.DEFINITION UND ABGRENZUNG WICHTIGER BEGRIFFE15
3.1E-CONTROLLING15
3.2E-BUSINESS16
3.3WEB-CONTROLLING17
3.4E-REPORTING18
4.TECHNISCHE GRUNDLAGEN19
4.1HISTORISCHE ENTWICKLUNG19
4.1.1Management-Informationssysteme20
4.1.2Entscheidungsunterstützungssysteme21
4.1.3Führungs-Informationssysteme22
4.1.4Analytische-Informationssysteme24
4.2DIE BASISKOMPONENTEN EINES ANALYTISCHEN-INFORMATIONSSYSTEMS26
4.2.1Data Warehouse26
4.2.2On-Line Analytical Processing30
4.2.3Data Mining35
4.2.4Business Intelligence Tool40
4.3TRENDS UND […]
Leseprobe
Inhaltsverzeichnis
INHALTSVERZEICHNIS
1 Vorwort
2 Einführung
2.1 Methodologie
3 Definition und Abgrenzung wichtiger Begriffe
3.1 E–Controlling
3.2 E-Business
3.3 Web-Controlling
3.4 E-Reporting
4 Technische Grundlagen
4.1 Historische Entwicklung
4.1.1 Management-Informationssysteme
4.1.2 Entscheidungsunterstützungssysteme
4.1.3 Führungs-Informationssysteme
4.1.4 Analytische-Informationssysteme
4.2 Die Basiskomponenten eines Analytischen-Informationssystems
4.2.1 Data Warehouse
4.2.2 On-Line Analytical Processing
4.2.3 Data Mining
4.2.4 Business Intelligence Tool
4.3 Trends und Entwicklungsperspektiven
4.3.1 Web-Anbindung
4.3.2 Active Data Warehouse
4.3.3 Advanced Analytics
4.3.4 Knowledge Management
4.4 Web- und OLAP-basierte Controlling-Systeme
5 Anwendungsbeispiel
5.1 Vorstellung des Unternehmens
5.2 Vorstellung der Software
5.3 Der Online Business Desktop bei der GKN Sinter Metals
5.4 Abschließende Bewertung der Software
6 WIRKUNGEN - ORGANISATIONSSTRUKTURELL
6.1 Zentralisierung vs. Dezentralisierung
6.1.1 Das Verhältnis zwischen zentralen und dezentralen Controllerstellen
6.1.2 Telekooperation und Dezentralisierung des Controllings
6.2 Reorganisation und Business Process Reengineering
6.2.1 Veränderungen in der Unternehmensorganisation durch IuK
6.2.2 Das Virtuelle Unternehmen
6.2.3 Business Process Reengineering
6.2.3.1 Business Process Reengineering und IuK
6.3 Outsourcing
6.3.1 Outsourcing im Wandel
6.3.2 Erfolgsfaktoren und Risiken des Outsourcing
6.3.3 Pro & Contra des Outsourcing
6.3.4 Wirtschaftlichkeitsbetrachtung zu Outsourcing-Projekten
6.3.5 Operative und strategische Aspekte des Outsourcing
6.4 Rationalisierung und Lean-Controlling
6.4.1 Rationalität und Rationalisierung
6.4.2 Lean-Controlling und das Schlanke Unternehmen
6.4.3 Realisierung eines Lean-Controlling
6.4.4 Auswirkungen auf Kosten und Personal
6.5 Resümee – Der Controller als Systemarchitekt
7 WIRKUNGEN - SOZIAL
7.1 Verhältnis Controller und Mitarbeiter
7.1.1 Kommunikation als Basis
7.1.2 Wirkungen auf Controller und Mitarbeiter
7.2 Verhältnis Controller und Manager
7.2.1 Wirkungen aus der Sicht des Managers
7.2.1.1 Machtverlust des Managers
7.2.1.2 Entschärfung der Prinzipal-Agenten-Problematik
7.2.2 Wirkungen aus der Sicht des Controllers
7.2.2.1 Controller vs. Manager
7.2.2.2 Controller vs. Computer
7.2.3 Kommunikation zwischen Controller und Manager
7.2.3.1 Das Kanalreduktions-Modell
7.2.3.2 Das Digitalisierungs-Modell
7.2.3.3 Web- und OLAP-basierte Controlling-Systeme und Kommunikation
7.3 Resümee – Der Controller als Betriebspsychologe
8 Leitfaden
8.1 Einführung eines Web- und OLAP-basierten Controlling-Systems
8.2 Psychologische Aspekte und Erfolgsfaktoren
8.3 Anforderungsprofil: „Web- und OLAP-fähiger Controller“
9 Schlussbetrachtungen
9.1 Neues Controller-Umfeld
9.2 Persönlicher Ausblick
9.3 Controller 2100
10 Abkürzungsverzeichnis
11 Literaturverzeichnis
12 Abbildungsverzeichnis
13 Tabellenverzeichnis
14 Verzeichnis der Internetadressen
1 Vorwort
Ziel dieser Arbeit soll es sein, dem Leser die Vielgestaltigkeit möglicher Auswirkungen aufzuzeigen, welche mit der Einführung eines Web- und OLAP-basierten Controlling-Systems einhergehen (können). Um neben dem theoretischen Konstrukt auch den Praxisbezug zu wahren, wurden ein praktisches Anwendungsbeispiel und ein Praxis-Leitfaden für die Einführung Web- und OLAP-basierter Controlling-Systeme mit in die Arbeit aufgenommen. Mit der Arbeit erheben wir nicht den Anspruch auf Vollständigkeit, dazu ist der Themenbereich zu komplex. Allerdings glauben wir, dass es uns gelungen ist besonders relevante und interessante Aspekte herauszugreifen und näher zu analysieren. Wir hoffen, dass jeder Leser (sowohl Theoretiker als auch Praktiker) die von ihm gewünschten Informationen findet bzw. er in Bezug auf die Thematik, neue Perspektiven und Bezugspunkte gewinnen kann.
Danken möchten wir dem Institut für Organisation und Lernen – Abteilung Controlling, ganz besonders aber Univ. Ass. Dr. M. Piber. Er schenkte uns immer ein offenes Ohr und unterbreitete uns viele wertvolle Vorschläge.
Ebenfalls bedanken möchten wir uns bei den beiden Unternehmen ABusCom und GKN Sinter Metals die uns tatkräftig unterstützten und uns wertvolle Einblicke in die Praxis ermöglichten.
Ein weiterer großer Dank geht an unsere Eltern. Auch wenn es mal nicht so lief, wie wir uns es vorgestellt haben, waren sie es, die uns immer Mut zugesprochen haben. Durch den Glauben und das Vertrauen in uns, haben sie uns gezeigt, dass wir es schaffen können.
Nicht vergessen möchten wir außerdem unsere vielen Studienkollegen, die wir neu kennen lernen und mit denen wir eine schöne Zeit verbringen durften. Ganz besonders denken wir dabei auch an unseren guten Freund Roland Moser, der im Winter 2003 im Alter von 23 Jahren bei einem Lawinenabgang ums Leben kam.
2 Einführung
Im heutigen Informationszeitalter kommt der Entwicklung neuer, modernerer und leistungsfähigerer Technologien eine fundamentale Bedeutung zu. Begreift man nun Controlling als informationsverarbeitenden Prozess, so wird man sich wohl oder übel auch mit den neuen Technologien auseinandersetzen müssen. Unter dem Begriff „Technologie“ wird in erster Linie die Kombination technischer Produkte und deren Verwendung verstanden. Im Vordergrund stehen also die Geräte zur Verarbeitung, Speicherung und Übertragung digitalisierter Daten (Hardware), die Anweisungen für diese Maschinen (Software), sowie das Wissen über ihre Einsatzmöglichkeiten (Know How). Zusammengefasst können wir also unter moderner Informationstechnologie all das verstehen, was mit Computern und deren Vernetzung zusammenhängt.[1]
Es erscheint sinnvoll den Blick in die Vergangenheit schweifen zu lassen und zunächst einmal die Anfänge der informationstechnologischen Entwicklung zu betrachten. Wenn wir nun auf die bisherige Entwicklung zurückblicken, können wir wohl sagen, dass sich in relativ kurzer Zeit sehr revolutionäre Veränderungen vollzogen haben: den Anfang bildet die gesprochene, mündlich weitergegebene Nachricht. Erst die Erfindung der Schrift aber macht es möglich, Daten und Informationen in eine Art „Tiefschlaf“ zu versetzen und sie sich durch das Lesen wieder zu „reaktivieren“. Der bis heute letzte Schritt in der Entwicklung wird markiert durch die elektronische Speicherung und Verarbeitung von Daten und Informationen.[2] Hierbei geht es zunehmend darum, durch die unbeschränkte Vernetzung von Computern, die Verfügbarkeit bzw. die Verbreitung von digitalisierten Daten und Informationen zu erhöhen.
Schauen wir aber nun nochmals auf die Geschichte zurück, so können wir erkennen, dass es sich um eine Kette von Entwicklungen handelt, bei der eine neue die vorherige nicht ersetzt sondern ergänzt. Der erste Schritt war der, von der Sprache zum Bild und wurde schon in der Steinzeit bei den Höhlenbewohnern vollzogen. Darauf aufbauend entwickelten sich aus den Bildern und Zeichen die ersten Schriften, wobei das Bild für Menschen, die nicht lesen konnten, immer noch die Grundlage aller nicht sprachlichen Informationen war. In der heutigen Zeit können wir von einer Rückkehr in die Vergangenheit auf technischem Höchstniveau sprechen, da das Bild durch Film, Fernsehen und graphischen Aufbereitungen wieder einen großen Teil der Information übernommen hat.[3]
Von den beschriebenen technologischen Entwicklungen ist kein Bereich unseres Lebens und Arbeitens unberührt geblieben, so auch nicht das Controlling, wo in den späten 50er- bzw. frühen 60er-Jahren die ersten EDV-Anwendungen zum Einsatz kamen.[4] Damals stand in erster Linie die Automatisierung bestimmter, standardisierbarer Routinetätigkeiten im Vordergrund. Wenn der Controller dagegen heute in Fachzeitschriften blättert oder im Internet surft, so wird er mit einer unüberschaubaren Fülle von Softwarelösungen für verschiedenste Aufgabenbereiche und mit unterschiedlichstem Funktionsumfang konfrontiert. Und manch einer wird sich fragen, ob denn der „menschliche Controller“ mittlerweile überflüssig geworden ist? Um es vorwegzunehmen: Nein! Dennoch kann nicht eindeutig gesagt werden, wie die neuen Technologien auf das Controlling bzw. den Controller wirken und inwieweit sich die Serviceleistung für das Management durch deren Einsatz tatsächlich verbessert. Sicher ist, dass durch die unternehmerischen Verflechtungen und die zunehmende Internationalisierung der Wettbewerbsintensität die betriebswirtschaftlichen Probleme komplexer und unüberschaubarer als je zuvor sind. Gerade deshalb sind Entscheidungen immer mehr von der schnellen Verfügbarkeit von Informationen abhängig, die zudem noch eine möglichst hohe Qualität aufweisen sollten. Kurzum, die entscheidungsrelevanten Informationen sollen „zur richtigen Zeit - am richtigen Ort – in der richtigen Form - der richtigen Person„ verfügbar sein. Diesem Anspruch kann man nur durch den Einsatz moderner computergestützter Informationssysteme gerecht werden, da nur sie in kürzester Zeit große Daten- und Informationsmengen verwalten, speichern und verfügbar machen können. Allerdings reicht die bloße Verfügbarkeit riesiger Datenmengen nicht aus – im Gegenteil. Das zeigt sich darin, dass die Controlling-Verantwortlichen vielfach in der Fülle der Informationen zu ersticken drohen. Es kommt zum so genannten „Information Overload“. Die sowohl intern im Unternehmen, als auch extern beschafften Daten und Informationen erweisen sich vielfach als nicht problemrelevant, nicht korrekt oder nicht aktuell. Im Informationszeitalter will man somit nicht mehr, sondern weniger Informationen und zwar „schlagzeilenmäßig“.
Es dürfte klar geworden sein, dass computergestützte Informationssysteme die grundsätzliche Eignung besitzen, die Arbeit des Controllers zu verbessern bzw. zu erleichtern und sie zudem in der Lage sind, dem Controller neue Möglichkeiten und Chancen zu eröffnen. Deshalb werden solche Systeme mittlerweile zunehmend auch als Gestaltungselement der Unternehmens- und Prozessorganisation verstanden und eingesetzt.[5] Allerdings sind jedoch auch einige Risiken und Regeln für deren Einsatz zu beachten: zunächst gilt es einmal die Wirtschaftlichkeit zu sichern, d. h. die Kosten sollen den Nutzen nicht überschreiten.
Möglicherweise anfallende Kosten sind jene für externe Berater, für Anschaffung oder Erweiterung der Hardware- und Software, Kosten für die Abstellung von Mitarbeitern für das Einführungsprojekt, Anschaffungs- und Wartungskosten sowie Kosten für Schulungsmaßnahmen. Diesen Kosten steht ein höherer Nutzen in Form von besserer Planung, Steuerung und Kontrolle der betrieblichen Geschäftsprozesse, eine einheitliche Datenbasis, höhere Flexibilität im Hinblick auf eine Anpassung der Informationssysteme und Geschäftsprozesse an geänderte Anforderungen, kürzere Durchlaufzeiten der betrieblichen Geschäftsprozesse und qualitative Verbesserung der betrieblichen Geschäftsprozesse gegenüber.[6]
Andererseits sind natürlich auch gewisse Risiken zu beachten, welche zumeist auf das System selbst zurückzuführen sind. So erweist sich ein System als nicht brauchbar, wenn funktionale Anforderungen, wie z. B. Effizienz, Zuverlässigkeit und Benutzerfreundlichkeit nicht erfüllt werden. Weitere Risiken betreffen die mangelnde Leistungsfähigkeit des Systems, wie Durchsatz, Antwortzeit, Verfügbarkeit und nicht ausreichender Anwendungs- und Einsatzflexibilität. Nicht zu vergessen ist der Aspekt der Informations- und Datensicherheit, sowie des Datenschutzes.
Zusammengefasst kann man sagen, dass computergestützte Informationssysteme eine bessere Nutzung der Informationen ermöglichen und so die Chancen zur Erzielung strategischer Vorteile entscheidend verbessern. Diese Chancen und Risiken treffen grundsätzlich auf alle Unternehmen, sowohl kleine als auch mittlere und große, zu. Mittlere und große Unternehmen stellen dabei ähnliche Anforderungen an die Anwendung von Methoden und Werkzeugen im Controlling und konkurrieren somit auch hinsichtlich des Einsatzes moderner Informationstechnologien. Unternehmen sind daher im Wettbewerb bezüglich der Leistungsfähigkeit der Informationsverarbeitung.[7]
Aufgabe des Controllers wird es nun unter anderem sein, für die nötigen Strukturen im Unternehmen zu sorgen. Gleichzeitig wird er sich immer mehr mit der betriebswirtschaftlichen Beratung auseinandersetzen müssen bzw. können. Während die Controller sich früher oft den Vorwurf gefallen lassen mussten, sie seien erweiterte Buchhalter, die sich nur an Vergangenheitswerten orientieren, hat sich dieses Bild nun grundlegend geändert. Sie können ihren Blick jetzt verstärkt nach vorne richten und sich vermehrt auf ihre eigentliche Aufgabe, ökonomische Transparenz herzustellen, konzentrieren. Gerade deshalb erscheint es für den Controller sinnvoll, neue informationstechnische Entwicklungen zwar skeptisch, aber nicht ablehnend zu verfolgen und generell eine stärkere Ausrichtung im Bereich der Informationstechnologie anzustreben. Da aber Information ja immer auch etwas mit Kommunikation zu tun hat, ist auch in dieser Hinsicht ein Umdenken erforderlich.
Danach muss der Controller fähig sein, zu kommunizieren und im Team zu arbeiten. Am erfolgreichsten sind demnach jene Controller, die sich nicht hinter den Zahlen verstecken und bereit sind sich zu exponieren, d. h. vor die Zahlen zu treten und in der Lage zu sein diese zu interpretieren und zu kommunizieren. Controller müssen reden, mit den Beteiligten Kontakt aufnehmen und ihre sozialen Beziehungen pflegen. Dabei fungiert der Controller auch als „Betriebspsychologe“, der zuhören und Verständnis für die Sorgen und Nöte im Unternehmen aufbringen muss.[8]
Aus diesen einführenden Überlegungen ergeben sich eine Reihe von Fragen: wie funktioniert das Controlling tatsächlich in Unternehmen, die sich dieser neuen Informationstechnologien bedienen? Welche Änderungen gehen damit einher und welche Auswirkungen ergeben sich daraus für das Controlling? Wie verändern sich Aufgaben und Rollen Controllers und wie kann er auch weiterhin die Zukunft erfolgreich mitgestalten? Diese und andere Fragen sollen nun näher analysiert werden.
2.1 Methodologie
Zur Struktur der Arbeit gilt zu sagen, dass wir zunächst einmal versucht haben, die wichtigsten im Zusammenhang mit Controlling und Computer verwendeten Begriffe zu definieren und voneinander abzugrenzen. Dies deshalb, da in Literatur und Praxis eine Vielzahl verschiedener - zum Teil synonymer Begriffe - verwendet werden.
Es folgt ein allgemeiner Überblick über die technischen Grundlagen rund um die Thematik Web- und OLAP-basierter Controlling-Systeme. Zwar stehen bei unserer Arbeit wirtschafts- und sozialwissenschaftliche Aspekte im Vordergrund, dennoch erachten wir die technischen Erörterungen als sinnvoll, da die Auseinandersetzung mit und die Kenntnis von Informationstechnologie auch (oder besonders) für die Absolventen von Wirtschaftsstudien zunehmend an Bedeutung gewinnen.
Zum besseren Verständnis der technischen Grundlagen folgt ein praktisches Anwendungsbeispiel. Es soll dem Leser die Ausgestaltung und die Anwendung eines Web- und OLAP-basierten Systems in der Praxis zeigen. Wir glauben so dem Leser eine gute Vorstellung darüber vermitteln zu können, was Web- und OLAP-basierte Controlling-Systeme sind und wie sie funktionieren.
Der Hauptteil ist in zwei Bereiche gegliedert: einerseits die organisationsstrukturellen Wirkungen, wobei primär aufbau- und ablauforganisatorische Wirkungen bezüglich der Einführung Web- und OLAP-basierter Controlling-Systeme beschrieben werden und andererseits die sozialen Wirkungen, wo die Wirkungen auf die zwischenmenschliche Zusammenarbeit und Kommunikation im Vordergrund stehen. Durch diese Unterteilung wollen wir unterstreichen, dass die Einführung eines neuen bzw. erweiterten Informationssystems nie nur einseitig wirkt, sondern mit einer Vielzahl von Rückkoppelungen in verschiedenste Bereiche verbunden ist.
Es folgt ein praktischer Leitfaden, welcher dem interessierten Controller eine Hilfe sein soll, bei der Auswahl, der Konzipierung und der Implementierung Web- und OLAP-basierter Systemlösungen. Zwar kann dieser Leitfaden keinesfalls Universalrezept für jedes Unternehmen sein, dennoch glauben wir, dass er dem Controller manch wertvolle Anregung geben kann.
Im Schlussteil haben wir versucht noch mal die wesentlichen Aussagen unserer Arbeit zusammenzufassen und einen kurzen persönlichen Ausblick zu geben. Weiters enthält der Schlussteil eine kurze – für den einem mehr, für den anderen weniger übertriebene - Geschichte, welche ein mögliches Zukunftsbild eines „Computer-Controllers“ zeichnet.
Die Arbeit besteht aus 9 Punkten, die von uns wie folgt erarbeitet wurden:
Abbildung in dieser Leseprobe nicht enthalten
(jede Zahl in der Tabelle entspricht dem gleichlautenden Punkt im Inhaltsverzeichnis)
Es lag uns sehr am Herzen, dass wir keinesfalls eine rein theoretische Arbeit abliefern wollten. Vielmehr wollten wir Theorie und Praxis miteinander verknüpfen. Aus diesem Grund stand für uns die Integration eines Praxisbeispiels von vornherein fest. Dazu war ursprünglich eine Umfrage unter drei Unternehmen unterschiedlicher Größen und Branchen geplant. Ziel sollte es sein, mögliche Parallelen bzw. Unterschiede in der Anwendung und Bewertung Web- und OLAP-basierter Controlling-Systeme herauszufinden. Um einen möglichst hohen Grad an Objektivität zu erreichen, entschieden wir uns für eine schriftliche Befragung. Des weiteren haben wir bei der Erstellung der Fragen, die Methode der offenen Fragen benutzt, da es so dem Befragten möglich ist, innerhalb seiner Vorstellungen und Überzeugungen zu antworten, ohne dass er durch die Vorgabe möglicher Antworten bereits in eine bestimmte Richtung gelenkt wird. Die Fragebögen, die an die drei Unternehmen in den Controllingabteilungen verteilt wurden, setzten sich aus folgenden Fragen zusammen:
ALLGEMEINE INFORMATIONEN
1. Seit wann gibt es Controlling bzw. eine Controllingabteilung in ihrem Unternehmen?
2. Was waren die Hauptursachen für die Einführung des Controllings?
3. Welche Aufgaben hat das Controlling in ihrem Unternehmen?
4. Wie hoch schätzen Sie den Beitrag des Controllings zum Unternehmenserfolg ein?
EINFÜHRUNG DES SYSTEMS
5. Was waren die Ursachen für die Einführung eines solchen Systems (OBD)?
6. Welche Ziele sollten mit der Einführung des Systems erreicht werden?
7. Von wem/welcher Abteilung wurde das Projekt initialisiert?
8. Von wem/welcher Abteilung wurde das Projekt eher positiv/negativ bewertet?
9. Welche Rolle hatte die Controllingabteilung hinsichtlich Einführung, Spezifizierung und Auswahl des Systems?
10. Warum entschied man sich für eine Eigenentwicklung und nicht für eine Standartsoftware?
ARBEITEN MIT DEM SYSTEM
11. Wie haben sich das Controlling bzw. die Aufgaben des Controllers durch die Einführung des Systems verändert?
12. Hat das System eine Zentralisierung oder Dezentralisierung des Controllings gefördert bzw. bewirkt?
13. Hat das System organisatorische Umstrukturierungen verlangt?
14. Hat das System Rationalisierungsmaßnahmen erlaubt? Wie bzw. wo?
15. Wie und in ungefähr welcher Größenordnung hat das System Kosteneinsparungen bewirkt?
16. Wie hat das System das soziale Verhältnis (Umgang/Kommunikation) zwischen Controller und den Mitarbeitern verändert?
17. Wie hat das System das soziale Verhältnis (Umgang/Kommunikation) zwischen Controller und Manager(n) verändert?
18. Können Sie sich heute ein Arbeiten ohne das System noch vorstellen?
AUSBLICK
19. Wo liegen besondere Stärken/Schwächen des Systems? Was wünschen Sie sich?
20. Wohin soll sich das System zukünftig entwickeln und welche Implikationen ergeben sich hieraus für das Controlling/den Controller?
Leider mussten wir bei Erhalt der Fragebögen feststellen, dass 2 der 3 Unternehmen nicht mit Web- und OLAP-basierten Systemen arbeiten und wir die Ergebnisse dieser Fragebögen daher nicht in die Arbeit mit aufgenommen haben. Wir entschlossen deshalb, uns auf das letzte verbleibende Unternehmen zu konzentrieren und zu analysieren, wie ein Web- und OLAP-basiertes System in der Praxis konkret funktioniert.
Abschließend möchten wir noch anführen, dass es uns indirekt möglich war, während unserer Praktikantenzeit in den Sommermonaten, wichtige und interessante Beobachtungen in den betreffenden Unternehmen (Hersteller und Kunde) zu machen, und auch versucht haben, diese so gut wie möglich in unsere Arbeit einfließen zu lassen.
3 Definition und Abgrenzung wichtiger Begriffe
Wie sich im Laufe unserer Nachforschungen zeigte, tauchen in Zusammenhang mit Controlling und Computer (bzw. Software) verschiedenste Begriffe auf, die fälschlicherweise oft synonym verwendet werden. Um Unklarheiten und Missverständnisse zu vermeiden, sollen diese hier nun kurz definiert und voneinander abgegrenzt werden.
3.1 E–Controlling
Für den Begriff "E-Controlling" hat sich bis heute noch keine einheitliche und allgemein akzeptierte Begriffsbestimmung durchsetzen können. Vielmehr wird auf die unterschiedlichen Aspekte des Themenkomplexes hingewiesen. Für die heute gängigen Definitionen lässt sich eine Untergliederung in eher technisch-orientierte und in eher management-orientierte Ansätze vornehmen. Bei näherer Betrachtung des Stichwortes E-Controlling stellt sich also die Frage, ob nun das Controllen von E-Business-Tätigkeiten im Vordergrund steht oder doch die Unterstützung des Controlling-Prozesses durch neue Technologien.
Einerseits kann unter E-Controlling somit die systematische Analyse und Auswertung von Besucheraktivitäten auf Internetpräsenzen, d. h. die Untersuchung von Zugriffen und Aktivitäten auf Internetseiten aber auch Firmenintranets, verstanden werden.
Andererseits lassen sich unter dem Begriff E-Controlling all jene Anwendungsfelder zusammenfassen, die sich durch moderne Informations- und Kommunikationstechnologien (IuK) auf das Controlling ergeben. Gemeint ist damit die Ausrichtung des strategischen Controllings auf die Umweltveränderungen, die durch IuK ausgelöst wurden, die Anpassung operativer Controlling-Instrumente an die durch IuK veränderten intra- und interorganisationalen Wertschöpfungsprozesse, sowie die Nutzung der IuK innerhalb der Controlling-Prozesse selbst.
Zusammenfassend, kann man unter E-Controlling also ein Konzept zur wirtschaftlichen Planung, Steuerung und Kontrolle unternehmens- und wertschöpfungskettenübergreifender Geschäftsprozesse, unter Verwendung bestimmter, neuer, Informations- und Kommunikationstechnologien, verstehen. Das E-Controlling wird also zukünftig seine Aufgaben nicht mehr nur auf das Unternehmen und seine direkten Schnittstellen ausrichten können, sondern der gesamten Wertschöpfungskette, vom Rohstofflieferanten bis zum Endkunden verpflichtet sein.[9]
Als Ausgangspunkt für diese Arbeit haben wir die letztere der beiden Definitionen gewählt. Allen nun folgenden Überlegungen liegt dieses Begriffsverständnis zugrunde.
3.2 E-Business
Unter „E-Business“ sind alle Formen der elektronischen Geschäftsabwicklung zwischen Unternehmen (business to business) einerseits sowie zwischen Unternehmen und Endverbrauchern (business to consumer) andererseits über öffentliche oder private Computernetzwerke zu verstehen. Ziel ist in erster Linie die Minimierung von Zeitaufwand und Kosten, bei gleichzeitiger Maximierung von Transparenz und Flexibilität.
Das Netzwerk, dem wohl die größte Bedeutung zukommt, ist das Internet. Gründe für diese Überlegenheit gegenüber anderen Netzwerken sind vor allem im einheitlichen technologischen Standard, der räumlichen und zeitlichen Unbegrenztheit des Zugangs und vor allem im rasanten Wachstum der Zahl der Internet-Nutzer zu finden.[10] Hinsichtlich der Intensität der Nutzung des Internets und der Bedeutung, die das E-Business für das Geschäftsmodell eines Unternehmens haben kann, können wir drei Kategorien von Unternehmen unterscheiden:[11]
(1) Klassische Unternehmen, die keine Präsenz im Internet aufweisen.
(2) Unternehmen der Old Economy, die ihr bestehendes Geschäftsmodell durch E-Business-Aktivitäten ergänzen oder die Vorteile des Internets zur Effizienzsteigerung in bestimmten Unternehmensfunktionen zu nutzen versuchen.
(3) Unternehmen der New Economy (oder so genannte „dot-com"-Unternehmen) deren Geschäftsmodell hauptsächlich auf dem Internet basiert wie z. B. Internet-Händler, Portale und Suchmaschinen im Netz usw. Da es sich beim Internet um ein vergleichsweise junges Medium handelt umfasst die Unternehmensgruppe, die in diesem Bereich tätig ist, hauptsächlich Unternehmen, die erst in den letzten Jahren gegründet worden sind und sich somit in ihrem Lebenszyklus noch in der „Start-Up-Phase“ befinden.
3.3 Web-Controlling
Durch die Digitalisierung des Kundenkontaktes im Internet hat sich eine neue Controlling-Aufgabe herauskristallisiert, die ursprünglich aus der Nutzung des Internets als universelles Medium für Marketing und Vertrieb entstanden ist. Bei dieser neuen Aufgabe handelt es sich um das so genannte „Web-Controlling“.
Der Nutzer hinterlässt entlang der Online-Wertschöpfungskette mit jedem seiner Schritte digitale Spuren. Die neuen Web-Controlling-Instrumente funktionieren nach dem Prinzip, diese Spuren aufzufinden. Somit können unter Web-Controlling all jene Controlling-Aktivitäten zusammengefasst werden, die sich mit der Planung, Steuerung und Kontrolle der eigentlichen Internetaktivitäten eines Unternehmens befassen. Im Mittelpunkt stehen dabei die Beobachtung und die Analyse des Nutzerverhaltens, sowie die laufende Optimierung der Webpräsenz des Unternehmens und der Präsentation der angebotenen Produkte bzw. Leistungen.
Allerdings besteht die Gefahr, dass durch die Sammlung der entsprechenden Daten eine zu hohe Genauigkeit generiert wird und der so erhaltene Detaillierungsgrad den Blick auf das Wesentliche verdeckt. Die wesentliche Aufgabe des Web-Controllings liegt also nicht darin, das ohnehin schon komplexe Kennzahlensystem durch weitere Kennzahlen zu ergänzen, sondern die eigentliche Bedeutung dieser Kennzahlen aufzuzeigen, ihre Wirkungszusammenhänge zu erklären und sie in sinnvolle Beziehungen zueinander zu setzen.
Zusammenfassend kann deshalb gesagt werden, dass das Web-Controlling auf eine Optimierung aller Internet-Aktivitäten gerichtet ist, und sich deshalb um eine laufende Analyse und Steuerung derselben, auf Basis eines ganzheitlichen Informations- und Kennzahlensystems, bemühen muss.[12]
3.4 E-Reporting
Grundlage für das „E-Reporting“ bilden die klassischen Management-Informationssysteme (MIS). Die MIS übernehmen dabei die Aufgabe, das Management mit vordefinierten Informationen rechtzeitig und in geeigneter Form, sowohl graphisch als auch in Textform, zu versorgen. Die Stärken des E-Reportings sind sowohl in den technischen wie auch in den betriebswirtschaftlichen Möglichkeiten der Systeme zu finden.[13]
Technisch gesehen liegen die Potenziale darin, durch eine zentrale Datenhaltung einen aktuellen und konsistenten Datenbestand unternehmensweit sicherzustellen, der sich jedoch dezentral bereitstellen und pflegen lässt.
Betriebswirtschaftlich gesehen zeigen sich die Vorteile in einer räumlich nicht beschränkten ständigen Verfügbarkeit entscheidungsrelevanter Informationen. Für die Entscheidungsfindung eröffnet sich durch den vorhandenen umfassenden und aktuellen Datenbestand die Möglichkeit wesentliche Zeitvorteile und Qualitätsverbesserungen auszuschöpfen und dadurch Wettbewerbsvorteile für das Unternehmen zu nutzen.
Für die Informationsbereitstellung werden vorwiegend Browser oder andere plattformunabhängige Anwendungen verwendet. Um jedem Benutzer eine individuelle Auswertung der Daten zu ermöglichen, werden im System Standardberichte hinterlegt, die die Teilnehmer nach eigenen Wünschen abändern können.
4 Technische Grundlagen
In diesem Teil der Arbeit werden die technischen Grundlagen - insbesondere Aufbau und Funktionsweise - Web- und OLAP-basierter Controlling-Systeme näher beschrieben. Nach einem kurzen Überblick über die historische Entwicklung, werden die Basiskomponenten heutiger Analytischer Informationssyteme detailliert charakterisiert. Daran anschließend wird kurz auf aktuelle Trends und zukünftige Entwicklungsperspektiven im Bereich Analytische-Informationssysteme eingegangen. Abschließend werden noch mal genauer die Besonderheiten Web- und OLAP basierten Controlling-Systeme hervorgehoben.
4.1 Historische Entwicklung
Moderne Technologien erlauben es Unternehmen, ihre Daten so differenziert, komplex und ausgeklügelt zu analysieren und kontrollieren wie nie zuvor. Analyselösungen besitzen das Potenzial und die Flexibilität einem Unternehmen in Echtzeit, d. h. innerhalb von Sekunden, Informationen über Geschäftsentwicklungen zu liefern. Fast evolutionär haben sich in den letzten 30 Jahren solche Systeme entwickelt und versucht, sich unter wechselnden Bezeichnungen auf dem IT-Markt zu behaupten[14]. Die Abgrenzungen sind dabei unscharf und nicht selten sogar widersprüchlich.
Hinzu kommt, dass die verschiedenen Systeme unter dem Begriff „Management Support Systeme“ (MSS) zusammengefasst werden und nicht etwa von „Controlling Support Systemen“ gesprochen wird. Dies mag wohl primär auf die Anfänge der Entwicklung dieser Systeme zurückgehen, wo als Zielgruppe ausschließlich das Management fokussiert wurde – wohl auch deshalb, weil das Controlling – zumindest so wie man es heute kennt – noch nicht sehr verbreitet war. Heute aber werden solche Systeme von Managern und Controllern gleichermaßen genutzt. Bereits heute ist aber erkennbar, dass auf die spezifischen Informationsbedarfe der Controller zugeschnittene Lösungen, zunehmend gefordert und auch realisiert werden. Zumindest für die Beschreibung der historischen Entwicklung wollen wir an der theoretisch korrekten Bezeichnung „Management Support Systeme“ festhalten.
Eine grobe Klassifikation der unterschiedlichen Management Support Systeme lässt sich nach den historischen Entstehungszeiten und Einsatzmustern vornehmen[15]. Grundsätzlich können 3 große Entwicklungsstufen identifiziert werden:
4.1.1 Management-Informationssysteme
Management-Informationssysteme (MIS) entstanden Mitte der 60er Jahre in den USA[16]. Da es bis heute keine einheitliche Definition von MIS gibt, soll hier stellvertretend jene von Elm angeführt werden: „Ein Management-Informationssystem ist ein Dienstleistungssystem, das in einem fest vorgegebenen betrieblichen Kommunikationssystem verursachungs- und zeitnah für die Unternehmensführung die Daten der verschiedenen Unternehmensbereiche nach Maßgabe der vorliegenden Ordnungskriterien sammelt, umordnet und für Auswertungen verfügbar macht und das die so aufbereiteten Daten zu zweckgerichteten und funktionalen Informationen verdichtet und diese dosiert und differenziert den vertikalen und horizontalen Management-Ebenen mit klarer Abgrenzung von Verantwortung und Kompetenz zuordnet.“[17]
MIS arbeiteten grundsätzlich computergestützt. Ziel sollte es sein, das Gesamtunternehmen in einem einzigen Informationssystem abzubilden (sog. Total-Konzept)[18]. Die an MIS gestellten Ansprüche waren demzufolge groß[19]:
- umfassende, unternehmensweite Informationsversorgung aller Managementebenen,
- Verdichtung sämtlicher Unternehmensdaten,
- Zugriffsmöglichkeiten auf alle Daten bzw. Informationen zu jedem beliebigen Zeitpunkt,
- Automatisierung der Unternehmensführung.
Schon 1967 aber erkannte Ackoff, dass diese Erwartungen sich als zu hoch erweisen würden und schuf den Begriff der „Management-Mißinformationssysteme“[20]. So setzte in den 70er Jahren tatsächlich eine Phase der Frustration und Ernüchterung ein, deren Ursache vor allem in der technischen Machbarkeit lag[21]: die schlechte DV-technische Realisierbarkeit hinsichtlich Hard- und Software, die zu großen Datenbestände, der immense Aufwand für die Erfassung und Pflege der Daten sowie die mangelnde Benutzerfreundlichkeit, waren kritische Hürden an denen man scheiterte. Hinzu kam die mangelnde Flexibilität und Wirtschaftlichkeit[22] damaliger MIS.
Somit leisteten MIS lediglich die Automatisierung des bestehenden Standartberichtwesens. Ergebnis für den Endanwender waren umfangreiche Listen, die in periodischen Abständen automatisch generiert wurden und aus denen er sich die relevanten Informationen mühsam heraussuchen musste. Zudem orientierten sich die generierten Listen sehr eng an den Datenstrukturen der operativen Systeme und konnten somit ein erweitertes Informationsbedürfnis nur in Ansätzen befriedigen. Damit konnten die MIS ihren eigentlichen Zweck nicht erfüllen. Allerdings sind modifizierte ex-post-orientierte Berichtssysteme bis heute in fast jeder Unternehmung im Einsatz und bilden die Basis des betrieblichen Berichtswesens.[23]
„Durch das Scheitern der MIS ist der Begriff negativ belegt und sollte für die heutige Generation von Informationssystemen nicht mehr benutzt werden, obwohl er in der Praxis noch gängig ist.“[24]
4.1.2 Entscheidungsunterstützungssysteme
Der Begriff der Entscheidungsunterstützungssysteme (EUS) bzw. Decision Support Systems (DSS) geht auf das Jahr 1971 zurück[25]. Picot und Maier definieren diese wie folgt: „Als Entscheidungsunterstützungssysteme werden interaktive, rechnergestützte Systeme bezeichnet, die Entscheidungsträger in schlechtstrukturierten oder unstrukturierten Entscheidungssituationen unterstützen.“[26]
Im Unterschied zu den MIS wurden EUS nicht für alle Managementebenen, sondern vor allem für die mittlere Führungsebene konzipiert[27]. Außerdem konzentrieren sich EUS auf bestimmten konkrete Entscheidungen bzw. Klassen von Entscheidungen[28] und versuchen nicht das gesamte Unternehmen zu erfassen. Ziel der EUS ist es die Entscheidungsfindung zu unterstützen – ersetzen können und wollen sie diese aber nicht[29]. Die Unterstützung besteht aus formalen, computergestützten Methoden und Modellen wie statistisch-ökonometrischen Auswertungen, Prognose- und Planungsverfahren[30]. Dabei sollen alle Phasen und Formen von Entscheidungsprozessen und -stilen unterstützt werden[31].
Eine weitere Verbreitung von EUS wurde zunächst durch ihre geringe Benutzerfreundlichkeit und den hohen Anspruch bezüglich des Methodenwissens an den Benutzer verhindert[32]. Später jedoch, bedingt durch den Siegeszug der Tabellenkalkulationsprogramme als Werkzeuge zur Erstellung von EUS, konnten sich EUS vor allem in Stabstellen und Fachabteilungen fest etablieren[33].Hier allerdings liegt ein wesentlicher Kritikpunkt begründet[34]: durch die lokale Ausrichtung der Werkzeuge wird zwar die Autonomie des Endbenutzers vergrößert, allerdings ist eine Integration der Lösungen in ein unternehmensweites DV-Konzept kaum möglich.
Dennoch sind EUS heute weit verbreitet, wobei sie vor allem im Rahmen der Generierung und Bewertung von Alternativen wertvolle Dienste leisten. Als weniger geeignet präsentieren sie sich dagegen bei der Problemerkennung und Wahrnehmung von Signalen – hier liegt die Stärke der zeitlich nachfolgenden Systeme[35].
4.1.3 Führungs-Informationssysteme
Der Begriff der Führungs-Informationssysteme (FIS) - auch Chef-Informationssysteme (CIS) - bzw. Executive Information Systems (EIS) geht auf Rockart und Treacy[36] zurück. 1982 veröffentlichten sie einen Artikel in dem sie ausführten, wie wichtig zeitnahe Informationen und Analysen für Führungskräfte seien und dass Führungskräfte mit Hilfe eines Führungs-Informationssystems ein tieferes Verständnis für ihr Unternehmen bekommen. Eine prägnante Beschreibung formulierten Berger und Weiss-Trapp: „Ein Führungs-Informationssystem ist ein computerbasiertes Instrument, das Führungskräfte schnell, übersichtlich und bereichsübergreifend mit den relevanten internen und externen Informationen versorgt und dabei sowohl das aktuelle Tagesgeschehen als auch langfristige strategische Planung berücksichtigt.“[37]
Im Mittelpunkt von FIS steht die Selektion, Verdichtung, Analyse und Präsentation der Informationen[38]. Dazu greifen FIS auf die Daten vorgelagerter Subsysteme zu und ergänzen diese durch externe Daten. „Dabei muss das Problem gelöst werden, dass die Führungskräfte in der Regel zwar auf alle unternehmensrelevanten Informationen Zugriff haben möchten, diese aber kurz, prägnant und übersichtlich dargestellt (Grafiken, Tabellen, Texte) und möglichst einfach aufrufbar sein müssen. Weiters muss die Informationsbereitstellung entsprechend dem Informationsbedarf des Anwenders erfolgen, welcher individuell verschieden und von einer Reihe von Faktoren abhängig ist.“[39] Durch neuartige Techniken wie Drill-Down (disaggregierende Informationsanalyse auf Knopfdruck) und Exception Reporting (Ausnahme-Berichtswesen mit Kennzeichnung auffälliger Abweichungen) will man diesen Anforderungen Rechnung tragen. Eine größere Benutzerfreundlichkeit soll vor allem durch intuitiv benutzbare und individuell anpassbare Benutzeroberflächen erzielt werden[40].
Für heute muss man feststellen, dass auch FIS vor allem in entscheidungsvorbereitenden Stellen sowie in Fachbereichen Einzug gehalten haben, während ihnen ein breiter Einsatz im Top-Management verwehrt blieb. Als Hemmnisfaktoren erweisen sich primär die fehlende Integration und die mangelnde Flexibilität[41]: so kann die FIS-Datenbasis oftmals nur einen kleinen Teil des gesamten Informationsbedürfnisses abdecken und Anpassungen bzw. Erweiterungen arten schnell zu größeren EDV-Projekten aus. Dennoch können FIS helfen, die Informationsbasis zu erweitern und eine schnellere Entscheidungsfindung herbeizuführen[42].
4.1.4 Analytische-Informationssysteme
Aufgrund des grundlegenden Wandels der betrieblichen Aufbau- und Ablauforganisation (Erweiterung der individuellen Ermessensspielräume durch verstärkte Kompetenzverlagerung nach unten) erscheint heute eine personengruppenspezifische Klassifikation betrieblicher Informationssysteme nicht mehr zeitgemäß[43]. „Sinnvoller dagegen ist eine tätigkeitsorientierte Unterteilung der Systeme nach der Art der unterstützten Arbeitsinhalte.“[44] Grob lassen sich hier die beiden Klassen der operativen und der dispositiven bzw. analytischen Aufgaben voneinander abgrenzen. Operative Systeme sind auf die Unterstützung operativer Anwendungsfelder ausgerichtet und sind heute für nahezu jede Unternehmung unverzichtbar. Einsatzgebiete sind etwa die Verwaltung von Kunden- und Lieferantendaten oder die Erfassung, Bearbeitung und Kontrolle von Kundenaufträgen, Lagerbeständen und Bestellungen. Operative Systeme sind heute auf der Basis betriebswirtschaftlicher Standardsoftware für nahezu jeden Anwendungsbereich erhältlich und zeigen sich aufgrund des zum Teil langjährigen Einsatzes ausgereift und stabil[45].
Anders dagegen die Situation bei der Unterstützung dispositiver bzw. analytischer Tätigkeiten. Obwohl die Anfänge der so genannten „Analytischen-Informationssysteme“ (AIS) bereits weiter zurück liegen, kam es erst in den beginnenden 90er Jahren und besonders in den letzten Jahren zu einer breiten Entwicklung und Durchsetzung derselbigen. „Analytische-Informationssysteme können als solche Systeme der Informationsverarbeitung aufgefasst werden, die Fach- und Führungskräfte bei der Untersuchung von betriebswirtschaftlichen Sachzusammenhängen zur Lösung von Problemsituationen unterstützen.“[46] Die folgende Abbildung zeigt die Referenzarchitektur eines AIS.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1 Referenzarchitektur Analytischer-Informationssysteme[47]
Es muss festgehalten werden, dass im betrieblichen Umfeld häufig Architekturformen auszumachen sind, die einen oder mehrere dieser Bausteine nicht abdecken und dennoch zufrieden stellend funktionieren.
Im nun folgenden Abschnitt sollen die Funktionsweisen bzw. die Komponenten moderner AIS näher beleuchtet und ein kurzer Ausblick auf zukünftige Trends und Entwicklungen gegeben werden.
Für den Abschnitt „Historische Entwicklung“ kann, unter Bezugnahme auf vergangene und aktuelle Entwicklungen, abschließend festgehalten werden, dass sich das Controlling auf dem Weg vom „Computing zum Informing“ befindet[48].
4.2 Die Basiskomponenten eines Analytischen-Informationssystems
4.2.1 Data Warehouse
„Ein Data Warehouse (DW) wird als ein unternehmensweites Konzept verstanden, dessen Ziel es ist, eine logische, einheitliche, themenorientierte und konsistente zentrale Datenbasis von dauerhaft gespeicherten Zeitreihen zur Unterstützung der analytischen Aufgaben von Fach- und Führungskräften aufzubauen.“[49] Es geht also um die Zusammenführung von verschiedenen dezentralen Datenquellen in eine zentrale Datenbasis mit dem Zweck, diese Daten nutzungsbezogen aufzubereiten und bedarfsgerecht zur Verfügung zu stellen[50]. Als dezentrale Datenquellen kommen dabei sowohl interne und externe als auch strukturierte und unstrukturierte Daten in Frage.
Die Informationseinheiten in einem DW sind auf die inhaltlichen Kernbereiche der Organisation fokussiert. Dies bildet einen Unterschied zu den Konzepten der operativen DV-Anwendungen, die auf eine effiziente Abwicklung des Tagesgeschäftes ausgerichtet sind. DW konzentrieren sich also auf inhaltliche Themenschwerpunkte, wie z. B. Produkte und Kunden. Operative Daten, die lediglich für die Prozessdurchführung wichtig sind und nicht der Entscheidungsunterstützung dienen, finden in ein DW keinen Eingang.[51]
Die mit dem DW-Konzept verbundenen Zielsetzungen können wie folgt zusammengefasst werden[52]:
- Datenkonsistenz bei Auswertungen und Analysen,
- Flexibilität beim Datenzugriff,
- Schnelligkeit bei Anfragen,
- Sicherung von zeitbezogenen und beständigen Unternehmensdaten.
Ein DW besteht in vereinfachter Form aus 4 Schichten[53]:
Schicht 1 – Operative Daten
Operative Daten bilden die Quelle, aus denen das DW gespeist wird. Gegen eine unmittelbare Verwendung dieser operativen Daten bzw. ihrer Datenhaltungssysteme als Basis von Analysevorgängen sprechen mehrere Gründe:
- Die Systeme sind in der Regel schon durch die im täglichen Betrieb anfallenden Transaktionen stark ausgelastet und erlauben keine zusätzlichen Aufgaben.
- Die für statistische und andere Analysen notwendige Zugriffsunterstützung können die bestehenden Systeme nicht bieten.
- In operativen Systemen werden Daten üblicherweise nur bis zu einem begrenzten Zeithorizont (z. B. 60 bis 90 Tage) gespeichert.
Schicht 2 – Datenmigration
In dieser Schicht werden die Daten aus den operativen Systemen in den integrierten Datenbestand des DW übernommen. Üblicherweise wird dieser Vorgang als ETL-Prozess bezeichnet (Extraction, Transformation and Load). Die dabei zu lösenden Probleme können grob den folgenden fünf Kategorien zugeordnet werden:
- Transformation: In einem ersten Schritt müssen die Unterschiede in den Datenstrukturen der Ausgangsdaten überbrückt werden.
- Integration: Nach ihrer Transformation müssen die Datenbasis-Schemata zu einem gemeinsamen Schema vereinigt werden.
- Säuberung: Fehler und Unvollständigen in den operativen Daten sind unvermeidlich. Die Säuberung umfasst Maßnahmen diese zu erkennen und zu beheben.
- Aktualisierung: Es sind Strategien für das Zusammenführen (Laden) und Aktualisieren der Daten vorzusehen. Für das Aktualisieren ist festzulegen, in welchen Abständen und in welchen Umfang dies geschehen soll.
- Katalogisierung: Bei der Katalogisierung werden den operativen Daten Beschreibungen, so genannte Metadaten (=Daten über Daten), hinzugefügt. Diese setzen sich zum einen aus administrativen Deskriptoren wie Herkunft-, Transformations-, Integrations- und Säuberungsinformationen zusammen. Zum anderen beinhalten sie operative Deskriptoren wie Aktualität von Daten und Statistiken.
Schicht 3 – Data Warehouse Management
Das Ergebnis der Zusammenführung der dezentralen Datenquellen ist das eigentliche DW. Zur besseren Handhabbarkeit lassen sich aus dem DW kleinere, abteilungs- oder bereichsspezifische Datensammlungen abzweigen, die so genannten Data Marts.
Die Speicherung der Daten in einem DW erfolgt in einer für die Auswertung und Analyse optimierten Form[54], d. h. die Datenobjekte werden auf Basis vielfältiger Kriterien gespeichert. Somit werden in einem DW, anders als bei relationalen Datenbanksystemen, Redundanzen in den gespeicherten Daten bewusst erzeugt[55]. Schrittweise wird so ein Datenbestand aufgebaut, der im Umfang eine rein operative Datenbasis um ein Vielfaches übersteigt[56].
Erwähnt werden muss auch der Begriff der Nicht-Volatilität. Damit bezeichnet man die Eigenschaft von DW-Systemen, dass Daten nach der Übergabe (und gegebenenfalls vorgenommenen Korrekturen) nicht mehr aktualisiert oder verändert werden. Damit sind jemals mit einem derartigen System durchgeführten Auswertungen jederzeit nachvollziehbar, soweit die entsprechenden Daten im System auch noch verfügbar sind.[57] Da ein DW aber ja Vergleiche über die Zeit ermöglichen soll, ist eine Datenhaltung über einen längeren Zeitraum ohnehin unabdingbar[58].
Schicht 4 – Präsentation
So genannte Frontend-Werkzeuge fungieren als Schnittstelle zwischen Benutzer und DW. Frontends ermöglichen es dem Benutzer auf die Daten zuzugreifen und diese auszugeben. Zu den Frontends zählen eine breite Palette von Anwendungen wie einfache Visualisierungsverfahren, Tabellenkalkulationen, interaktive Anfrageumgebungen usw.
Das DW ist somit sowohl eine Architektur als auch eine Technologie, aber kein Produkt. Das Erstellen einer DW-Architektur ist ein Prozess („Data Warehousing“), der für jedes Unternehmen unterschiedlich ist, und eine Vielzahl von Variationen bei der Realisierung und Implementierung aufweist. Ein generell einheitliches Vorgehensmodell existiert aufgrund der unterschiedlichen Datenstrukturen der Unternehmen nicht. Es gibt auch keine fertige Lösung, die einfach zu kaufen und zu installieren ist, sondern nur ein Projekt, das eine individuell auf die Unternehmensstruktur abgestimmte Konzeption und Integration verlangt.[59]
Möglichen Anwendern wird der Start von DW-Projekten mit entsprechenden Investitionsrechnungen schmackhaft gemacht: aus einer amerikanischen Studie der International Data Corporation mit 62 befragten Unternehmen geht beispielsweise hervor, dass sich Data Warehouses schnell amortisieren. Die durchschnittlich angefallenen Installationskosten von 2,2 Millionen Dollar zahlen sich im Mittel nach 2,3 Jahren aus[60]. Die rasche Amortisationszeit ist vor allem durch das so genannte One-Query-Theorem zu erklären: „in jedem Unternehmen gibt es eine Abfrage, die – wenn sie gestellt wird und die Erkenntnisse hieraus konsequent umgesetzt werden – das gesamte DW-System bezahlt.“[61]
Abschließend soll hervorgehoben werden, dass das DW keine neuen Zusammenhänge aufdeckt und auch keine Informationen im engeren Sinne generiert. Inhaltlich ermöglicht es jedoch - durch die Zusammenführung von Daten aus zuvor isoliert bestehenden Datenbeständen - eine Analyse von Sachverhalten unter Einbeziehung aller verfügbaren Daten[62]. Zudem fungiert das DW in der Regel als Basis für aufgesetzte OLAP- und Data Mining-Systeme, welche die Daten des DW für Analysen aufbereiten bzw. auswerten. Beide Methoden sollen nun näher erläutert werden.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2 Drei-Schicht-Datenarchitektur[63]
4.2.2 On-Line Analytical Processing
Der Begriff „OLAP“ steht für „On-Line Analytical Processing“ und wurde erstmals 1993 von DDr. E. F. Codd verwendet. Er definiert OLAP als „…the name given to the dynamic enterprise analyses required to create, manipulate, animate and synthesize information from ‘Enterprise Data Models’. This includes the ability to discern new or unanticipated relationships between variables, the ability to identify the parameters necessary to handle large amounts of data, to create an unlimited number of dimensions (consolidation paths) and to specify cross-dimensional conditions and expressions.”[64] Eine andere Definition beschreibt OLAP als „einen anwenderorientierten Gestaltungsrahmen für den Aufbau von Analytischen-Informationssystemen, der es dem Benutzer ermöglichen bzw. erleichtern soll, selbständig, rasch und mit geringem Aufwand sowohl individuelle ad-hoc-Auswertungen als auch komplexe betriebswirtschaftliche Analysen durchführen zu können.“[65]
Die drei Begriffe „On-Line Analytical Processing“ erlauben es, OLAP recht anschaulich gegenüber anderen DV-Konzepten abzugrenzen[66]:
- On-Line kennzeichnet den direkten Zugriff auf den Datenbestand in einer zentralen Datenbank für Datenansicht und Datenmanipulation.
- Analytical impliziert, dass nicht die operative Abwicklung einer großen Menge von Transaktionen (so genanntes On-Line Transaction Processing - OLTP) im Vordergrund steht, sondern die Extraktion und Bearbeitung nicht-transaktionaler, aggregierter Daten für planerische und steuernde Anwendungen. Die eben erwähnten OLTP-Systeme sind primär wegen ihrer fragmentierten und verarbeitungsbezogenen Datenhaltung wenig geeignet, für Analysezwecke eingesetzt zu werden[67].
- Processing steht für ein Konzept, dessen Stärken in schnellen Berechnungen und kollaborativen Datenmanipulationen jeder Art liegen.
Die wichtigsten Anforderungen an OLAP werden von Codd in 12 Regeln skizziert. Die Regeln sind sehr technisch ausgelegt und sollen hier nur der Vollständigkeit halber kurz aufgezählt werden[68]: Multidimensionalität, Transparenz, Zugriffsmöglichkeit, stabile Antwortzeiten, Client-Server-Architektur, Grundprinzipien der gleichgestellten Dimensionen, dynamische Handhabung von Matrix-Lücken, Multi-User-Unterstützung, uneingeschränkte Operation über Dimensionen hinweg, intuitive Datenmanipulation, flexibles Berichtswesen sowie unbegrenzte Dimensions- und Aggregationsstufen;
Die in den 12 Regeln enthaltenen Anforderungen sind mittlerweile diskutiert und kritisiert worden[69]. Heute werden die wichtigsten OLAP-Anforderungen unter dem Begriff FASMI (Fast Analysis of Shared Multidimensional Information) zusammengefasst[70]:
- Fast: OLAP-Werkzeuge sollen aus den Datenbeständen in weniger als fünf Sekunden selektierte Informationen bereitstellen. Selbst komplexe Abfragen sollen weniger als zwanzig Sekunden dauern.
- Analysis: Für die Analyse des Datenmaterials müssen Verfahren und Techniken bereitgehalten werden, die es dem Nutzer ermöglichen, alle notwendigen mathematischen Berechnungen und Strukturentscheidungen ad-hoc zu formulieren und ohne Programmierkenntnisse durchzuführen.
- Shared: Mit Hilfe der OLAP-Technologie muss es möglich sein, dass mehrere Benutzer gleichzeitig die Datenbestände auswerten. Dabei sind auch benutzerprofilspezifische Zugriffsrechte zu verwalten.
- Multidimensional: Multidimensionale Kennzahleninformationen sind mit Hilfe der OLAP-Technik effizient zu speichern und Endanwendern für unterschiedliche Analysen bei Bedarf direkt zur Verfügung zu stellen.
- Information: Die einzulagernde Datenmenge und weniger die Ressourcenbelegung ist der kritische Faktor bei der Beurteilung von OLAP-Werkzeugen. Ein System ist dann von hohem Nutzwert, wenn es mehr Datenelemente bei stabiler Antwortzeit analysieren kann.
Eng verbunden mit OLAP ist der Begriff der Multidimensionalität der Daten[71]. Die Grundidee ist die logische Trennung zwischen unabhängigen Attributen (z. B. Produkt, Gebiet, Quartal) und abhängigen Attributen (z. B. Umsatz von Produkten in bestimmten Gebieten und Zeiträumen). Jedem unabhängigen Attribut wird in einer bildhaften Darstellung eine eigene Dimension zugewiesen, auf deren Achse die Werte des Attributes aufgetragen werden. Die unabhängigen Attribute spannen somit einen Vektorraum auf. Die Werte der abhängigen Attribute können in diesem Vektorraum angeordnet werden, da ihre Position durch die Kombination der Werte entlang der Dimensionen eindeutig bestimmt ist. Werte der abhängigen Attribute werden Fakten genannt. Typische Dimensionen sind z. B. Kunden, Abteilungen, Regionen, Produkte sowie Zeitangaben. Typische Fakten sind Verkaufszahlen, Umsätze, Schadenshäufigkeiten usw. Dimensionen können in der Form von Aggregationshierarchien strukturiert sein, d. h. die Werte des Attributs werden schrittweise vergröbert bzw. verfeinert. Gebräuchliche Hierarchien sind z. B. Tag-Woche-Monat-Quartal-Jahr oder Produktnummer-Warengruppe-Produktsparte.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3 Dreidimensionaler OLAP-Würfel[72]
Bei der dreidimensionalen Darstellung werden drei unabhängige Attribute ausgewählt. Man spricht dann bildlich von einem „Datenwürfel“, dessen Inhalt die Werte eines abhängigen Attributs (z. B. Umsatz) sind. Verwendet man mehr als drei unabhängige Attribute, erhält man einen hyper- oder multidimensionalen Datenwürfel, der sich bildlich nicht mehr darstellen lässt. Die Grundidee ist aber immer die gleiche: das automatische Aggregieren (Zählen, Summieren) von Informationen anhand mehrerer Dimensionen und Hierarchien.
Für Analysezwecke muss für den Anwender die Möglichkeit bestehen, sich intuitiv in dem Datenwürfel zu bewegen und beliebige Projektionen (Schnitte) zu bilden. Dazu werden spezifische Operatoren definiert. Die wichtigsten sind:[73]
- Slicing:
Das Herausschneiden von Ebenen aus einem Datenwürfel.
- Dicing:
Das Erzeugen von Teilwürfeln aus einem Datenwürfel.
- Rotate:
Die Drehung des Datenwürfels um eine logische Achse.
- Drill-Down bzw. Drill-Up:
Das Disaggregieren bzw. das Aggregieren von Werten entlang vorgezeichneter und auswählbarere Konsolidierungspfade.
Im Zuge der technischen Umsetzung der genannten Regeln gibt es mehrere Realisierungsansätze. Eine erste Architekturvariante arbeitet mit virtuellen multidimensionalen Datenbanken und kann als ROLAP (Relationales OLAP) bezeichnet werden. Ein zweiter Ansatz ist als MOLAP (Multidimensionales OLAP) bekannt und setzt für die Datenanalyse multidimensionale Datenbanken voraus. Auch abgewandelte Formen wie HOLAP (Hybrides OLAP), bei dem eine Mischform aus ROLAP und MOLAP gewählt wird, existieren mittlerweile[74]. Ein zentrales Data Warehouse wird wegen der umfangreichen Datenbestände nicht immer als multidimensionales Datenbankmodell konzipiert werden können. OLAP-Systeme setzen daher häufig erst oberhalb des Data Warehouses auf und beziehen ihre Daten aus dieser Quelle oder extrahieren diese periodisch direkt aus den operativen Beständen, falls kein zentrales DW vorhanden ist[75].
Das Frontend, welches ein Abfragen und Ausgeben der OLAP-Daten ermöglicht, kann je nach Anforderungen sehr unterschiedlich bzw. auch eine Kombination aus verschiedenen Frontends sein. Vorteilhaft erweist sich für den Controller ein Werkzeug mit Spreadsheet-Charakter[76]. Hierzu werden die gewünschten Dimensionen einfach als Zeilen und Spalten definiert, wobei die Auswahl und Anordnung der Dimensionen dem Anwender überlassen ist („ad-hoc Reporting“).
„Insgesamt wird OLAP heute als Bestandteil unternehmensweiter Lösungen für eine angemessene DV-Unterstützung betrieblicher Fach- und Führungskräfte weitgehend anerkannt.“[77] Dabei wird die OLAP-Technik dem Ruf nach einem einfach zu bedienenden, flexiblen und Enduser bezogenen Analyseinstrumentarium gerecht.[78] Der Anwender kann sich auf die Zahlen und ihre Erläuterungen konzentrieren. Damit können Entscheidungssituationen durch zeitnahe Analysen auch direkt unterstützt werden. „Allerdings lassen die verfügbaren Werkzeuge dennoch breiten Spielraum für zukünftige Entwicklungen.“[79]
4.2.3 Data Mining
Beim „Data Mining“ (DM) geht es um das automatische Erkennen von Trends und Verhaltensmustern in großen Datenmengen Die in der Literatur am häufigsten genutzte Begriffsbestimmung stammt von Fayyad[80]: „Data Mining is the non-trivial process of identifying valid, novel, potentially useful, and ultimately understandable patterns in data.“[81]. Dieser Definition liegt die Annahme strukturierter Daten zugrunde. Die Definition lässt sich jedoch auch auf unstrukturierte Daten wie z. B. Texte übertragen. Der Prozess der Wissensentdeckung in unstrukturierten Datenbeständen wird in der Literatur unter dem Begriff „Text Mining“ diskutiert. Davon zu unterscheiden ist das „Web Mining“: dort fungieren strukturierte und unstrukturierte Daten aus dem Intra-, Extra- oder Internet als Datengrundlage[82].
Der Übergang von OLAP zu DM ist fließend[83] - zudem werden beide Verfahren in der Regel nebeneinander eingesetzt[84]. Bei OLAP nutzt der Anwender das Werkzeug in vielen Einzelschritten und stark interaktiv. Er entwickelt durch die Betrachtung der Daten aus unterschiedlichen Blickwinkeln Hypothesen und überprüft, verfeinert oder verwirft diese durch Wechseln des Blickwinkels (Slicing, Dicing) oder der Aggregationshierarchie (Drill-Down, Drill-Up). Im Gegensatz hierzu verfolgen DM-Verfahren dieselben Ziele selbständig, d. h. ohne intensive Interaktionen mit dem Benutzer, indem sie
[...]
[1] Vgl. Fischer S. 32.
[2] Vgl. Fischer S. 33.
[3] Vgl. Fischer S. 34.
[4] Vgl. Mühleck S. 392.
[5] Vgl. Gadatsch S. 402.
[6] Vgl. Gadatsch S. 407 ff.
[7] Vgl. Gadatsch S. 403.
[8] Vgl. Daum; Grotheer; Heinrich; Schröder; Stolze S. 325 ff.
[9] Vgl. Erben S. 235 ff.
[10] Vgl. Scheer S. 6 und S. 292.
[11] Vgl. Schäfer; Weber S. 5 ff.
[12] Vgl. Schida; Busch; Diederichs: S. 255 ff.
[13] Controlling-Lexikon, in: Controlling (2000/11), S. 563 ff.
[14] Chamoni S. 4.
[15] Chamoni S. 6.
[16] Vgl. Struckmeier S. 10 ff.
[17] Elm S. 24.
[18] Vgl. Vogel; Wagner S. 26.
[19] Vgl. Jahnke S. 46.
[20] Vgl. Ackoff S. 147.
[21] Vgl. Chamoni S. 6.
[22] Vgl. Struckmeier S. 11 ff.
[23] Vgl. Chamoni S. 6.
[24] Struckmeier S. 12.
[25] Vgl. Struckmeier S. 12 ff.
[26] Picot; Maier S. 933.
[27] Vgl. Struckmeier S. 12.
[28] Vgl. Huch S. 29.
[29] Vgl. Werner S. 42.
[30] Vgl. Huch: S. 29.
[31] Vgl. Picot; Maier S. 933.
[32] Vgl. Piechota S. 96.
[33] Vgl. Chamoni S. 6.
[34] Vgl. Chamoni S. 6.
[35] Vgl. Chamoni S. 6.
[36] Vgl. Rockart; Treacy S. 82 ff.
[37] Vgl. Berger; Weiss-Trapp S. 10.
[38] Vgl. Stuckmeier S. 14.
[39] Struckmeier S. 15.
[40] Vgl. Chamoni; Gluchowski S. 8 (a).
[41] Vgl. Chamoni S. 7.
[42] Vgl. Heinecke; von der Oelsnitz S. 76.
[43] Vgl. Chamoni; Gluchowski S. 10 (a).
[44] Chamoni; Gluchowski S. 10 (a).
[45] Vgl. Chamoni; Gluchowski S. 10 (a).
[46] Chamoni S. 7.
[47] Leßweng S. 43.
[48] Vgl. Biel S. 151 (1994).
[49] Chamoni S. 7.
[50] Vgl. Gilmozzi S. 33 (1998).
[51] Chamoni; Gluchowski S. 14 (a).
[52] Vgl. Chamoni S. 7.
[53] Vgl. Bodemann S. 29 ff.
[54] Vgl. Gilmozzi S. 33 (1998).
[55] Vgl. Sonnenschein; Sonnenschein S. 301.
[56] Vgl. Schumann S. 9.
[57] Vgl. Schumann S. 9.
[58] Vgl. Bauer; Günzel S. 7.
[59] Vgl. Gilmozzi S. 33 (1998).
[60] Vgl. Koch S. 18 ff.
[61] Chamoni; Gluchowski S. 16 (a).
[62] Vgl. Sonnenschein; Sonnenschein S. 302.
[63] Sonnenschein; Sonnenschein S. 301 und Friedl; Hilz; Pedell S. 164.
[64] Vgl. Codd; Codd; Sallex S. 12.
[65] Chamoni; Gluchowski S. 263 (b).
[66] Vgl. Pfläging S. 17.
[67] Vgl. Chamoni; Gluchowski S. 263 (b).
[68] Vgl. Chamoni; Gluchowski S. 263 (b).
[69] Vgl. Schumann S. 10.
[70] Vgl. Chamoni; Gluchowski S. 267 (b).
[71] Vgl. Bodendorf S. 33 ff.
[72] Bodendorf S. 33.
[73] Vgl. Chamoni S. 10 und Bodendorf S. 34.
[74] Vgl. Chamoni S. 10.
[75] Vgl. Chamoni; Gluchowski S. 268 (b).
[76] Vgl. Gilmozzi S. 377 (1995).
[77] Chamoni; Gluchowski S. 19 (a).
[78] Vgl. Gilmozzi S. 376 (1995).
[79] Chamoni; Gluchowski S. 19 (a).
[80] Fayyad; Piatetsky-Shapiro; Smyth S. 6.
[81] Vgl. Gilmozzi S. 34 (1998).
[82] Vgl. Gentsch S. 14.
[83] Vgl. Bodendorf S. 37 ff.
[84] Vgl. Chamoni S. 10.
Details
- Seiten
- Erscheinungsform
- Originalausgabe
- Erscheinungsjahr
- 2004
- ISBN (eBook)
- 9783832483258
- ISBN (Paperback)
- 9783838683256
- DOI
- 10.3239/9783832483258
- Dateigröße
- 1.7 MB
- Sprache
- Deutsch
- Institution / Hochschule
- Leopold-Franzens-Universität Innsbruck – Sozial- und Wirtschaftswissenschaftliche Fakultät, Organisation und Lernen
- Erscheinungsdatum
- 2004 (Oktober)
- Note
- 1,0
- Schlagworte
- e-contolling analytische informationssysteme data warehouse business intelligence software
- Produktsicherheit
- Diplom.de