Lade Inhalt...

Simulation adaptiver Agenten mittels lernender Klassifizierersysteme

Modellbildung in Wirtschaftssystemen

Masterarbeit 1995 418 Seiten

Informatik - Angewandte Informatik

Leseprobe

Inhaltsverzeichnis

1 Einleitung
1.1 Die Aufgabenstellung
1.2 Der Gang der Analyse

2 Die Modellbildung und Strategieformung in komplexen Systemen
2.1 Die Modellierung wirtschaftswissenschaftlicher Agenten
2.2 Das Wesen komplexer Systeme
2.2.1 Die Systemtheorie
2.2.2 Der Komplexitätsbegriff
2.2.3 Der Kausalitätsbegriff
2.2.4 Die prinzipielle Grenze der Vorhersagbarkeit
2.2.5 Das Phänomen der Selbstorganisation
2.2.5.1 Die Selbstorganisation in natürlichen Systemen
2.2.5.2 Die Selbstorganisation in sozialen Systemen
2.3 Die Ansätze zur Modellierung komplexer Systeme
2.3.1 Das traditionelle Paradigma: Der Reduktionismus
2.3.1.1 Der Einfluß der klassischen Physik
2.3.1.2 Die Beeinflussung der Betriebswirtschaftslehre
2.3.1.3 Der Paradigmenwechsel im Management
2.3.2 Die synergetische Systemsicht
2.3.2.1 Der systemorientierte Ansatz von Ulrich
2.3.2.2 Das Modell lebensfähiger Systeme von Beer
2.3.2.3 Die Synergetik von Haken
2.4 Die Strategieformung als zielorientierter Adaptionsprozeß
2.4.1 Die Prinzipien der Adaption
2.4.2 Die Simulation der Strategieformung
2.4.2.1 Die Aufgaben der Simulation
2.4.2.2 Die Validierung von Simulationsmodellen
2.4.2.3 Die Strategieformung im Rahmen spieltheoretischer Modelle
2.4.2.4 Die Simulation begrenzter Rationalität

3 Die Theorie der Klassifizierersysteme
3.1 Die Entwicklung der Klassifizierersysteme
3.2 Die Grundlagen der Genetischen Algorithmen
3.2.1 Die Evolutionstheorie und die Genetik
3.2.2 Die Genetischen Algorithmen als Funktionsoptimierer
3.2.3 Die Codierung von Optimierungsproblemen
3.2.4 Der traditionelle Genetische Algorithmus
3.2.5 Die implizite Parallelität
3.2.6 Die Crossover-Operatoren
3.2.7 Das Schema-Theorem
3.2.8 Das Konzept der ökologischen Nische
3.2.8.1 Das Problem der vorzeitigen Konvergenz
3.2.8.2 Das Crowding-Konzept
3.2.8.3 Das Restricted-Mating-Konzept
3.2.8.4 Das Sharing-Konzept
3.3 Der deduktive Inferenzmechanismus
3.3.1 Die Unterschiede zu Produktionssystemen
3.3.2 Das Nachrichtensystem
3.3.3 Der Auktionsmechanismus
3.3.3.1 Die Standardauktion
3.3.3.2 Die Gebotsseparation
3.3.3.3 Die Erhebung von Steuern
3.3.3.4 Das effektive Gebot
3.3.3.5 Die Necessity Auction
3.3.3.6 Die Noisy Auction
3.3.3.7 Das Support-Konzept
3.3.4 Der Bucket-Brigade-Algorithmus
3.3.4.1 Die Aufgaben
3.3.4.2 Die Instabilität von Klassifiziererketten
3.3.4.3 Die Stabilisierung durch Änderung der Auktions­parameter
3.3.4.4 Die Stabilisierung durch Klassifiziererbrücken
3.3.4.5 Die Begrenzung der Stärkeinflation
3.3.5 Der Profit-Sharing-Plan
3.4 Der induktive Inferenzmechanismus
3.4.1 Das Induktionsprinzip
3.4.2 Der Cover-Detector-Operator
3.4.3 Der Cover-Effector-Operator
3.4.4 Der Chaining-Operator
3.4.5 Der Low-Bid-Operator
3.4.6 Die Genetischen Algorithmen in Klassifizierersystemen
3.4.6.1 Die Forderung nach Kooperation
3.4.6.2 Die Multimodalität der Fitnessfunktion
3.4.6.3 Die Kombination der Heuristiken
3.4.6.4 Die Entstehung von Fehlerhierarchien
3.5 Das Design problemabhängiger Komponenten
3.5.1 Die Problemdefinition
3.5.2 Der Einfluß der Codierung auf die Lösung
3.5.3 Die Codierung von Zahlen
3.5.4 Die Größe der Population
3.5.5 Die Bewertungsfunktion
3.6 Die Selbstorganisation in Klassifizierersystemen
3.7 Die Klassifizierersysteme als lernende Expertensysteme
3.7.1 Die Grundlagen der Expertensysteme
3.7.2 Die subsymbolische Wissensrepräsentation
3.7.3 Der Einsatz von Klassifizierersystemen zur Unterstützung des Managements
3.8 Die Klassifizierersysteme und Neuronalen Netze im Vergleich
3.8.1 Die Gemeinsamkeiten
3.8.2 Die Unterschiede
3.8.3 Das Backpropagation für Klassifizierersysteme

4 CLASIA – Ein Klassifizierersystem zur Simulation multipler adaptiver Agenten
4.1 Die Funktionalität
4.2 Die Nachrichten und der Nachrichtenspeicher
4.3 Die Klassifizierer und der Klassifiziererspeicher
4.4 Der Auktionsmechanismus
4.5 Die Effektoren
4.6 Der Bucket-Brigade-Algorithmus
4.7 Die Induktionsmechanismen
4.7.1 Der Ersetzungsmechanismus
4.7.2 Der Genetische Algorithmus
4.7.3 Der Cover-Detector-Operator
4.7.4 Der Cover-Effector-Operator
4.7.5 Der Chaining-Operator
4.8 Die Definition einer Umgebung
4.9 Die Anwendung des CLASIA-Systems
4.9.1 Der Animat von Wilson
4.9.2 Die Problemcodierung
4.9.3 Der Klassifiziererspeicher

5 Synthese und Ausblick

Anhang

Die CLASIA-Systemparameter
Die globalen Systemparameter
Die agentenspezifischen Systemparameter
Die Set-Befehle

Die CLASIA-Moduln

CLASIA.pas
Declare.kla
Modules.kla
Random.kla
Utility.kla
Display.kla
MsgList.kla
Cycle.kla
Discover.kla
Effector.kla
BBA.kla
IO.kla
Environ.kla

Der Animat-Modul

Verzeichnisse
Abbildungen
Algorithmen
Definitionen
Bibliographie

1 Einleitung

1.1 Die Aufgabenstellung

Klassifizierersysteme sind lernende Systeme, die eine Menge von internen Strukturen hinsichtlich der Anforderungen des Umsystems zielgerichtet manipulieren. Traditionell wurden Klassifizierersysteme, die maschinelle Lernalgorithmen verwenden, als ‘lernende Klassifizierersysteme’ (Learning Classifier Systems) bezeichnet, um sie von solchen zu unterscheiden, die – ähnlich einem Expertensystem – nur durch manuelle Programmierung sinnvolle Ausgaben liefern können. Dieser Konvention wird in der zugrundeliegenden Arbeit nicht gefolgt. Statt dessen wird der Terminus ‘Klassifizierersystem’ vereinfachend für die Originalbezeichnung ‘Learning Classifier System’ gebraucht.

Die theoretische Grundlage der Klassifizierersysteme bildet die Theorie kognitiver Landkarten (cognitive maps) aus der Psychologie.[1] Nach Michael G. Wessells besteht das Organisationsprinzip, nach dem der Mensch seine Begriffswelt ordnet, in der Kategorisierung des eintreffenden Informations­stromes.[2] Dem Prozeß der Kategorienbildung liegen Generalisierungs- und Differenzierungsvorgänge zugrunde. Dabei werden unterschiedliche Objekte als Elemente einer Kategorie erkannt, wenn sie gemeinsame Merkmale aufweisen.[3] Von irrelevanten Unterschieden zwischen den Objekten wird durch Generalisierung abgesehen. In Klassifizierersystemen werden diese Kategorien durch Klassifizierer modelliert.[4] Klassifizierer sind Regeln mit einem Gültigkeitsbereich, der sich mit denen anderer Klassifizierer überlappen kann, so daß im konkreten Fall zwischen allgemeinen und situations-spezifischen Regeln entschieden werden muß.

Das Prinzip der Wissensaquisition in Klassifizierersystemen wird als ‘verstärkendes Lernen’ (reinforcement learning) bezeichnet.[5] Das System benötigt zum Lernen keine Vorgaben im Sinne von korrekten Aktionen als Reaktion auf eine vorliegende Situation. Statt dessen ist lediglich ein Feedback in der Form eines einzelnen Parameters notwendig. Die Klassifizierer werden durch Induktionsmechanismen erlernt und können laufend verändert werden, ohne die Systemleistung zu beeinträchtigen. Jeder Klassifizierer stellt eine situationsabhängige Erwartung hinsichtlich zukünftiger Ereignisse dar. Somit bildet sich im System ein Modell der Umwelt, welches den Änderungen der Umwelt laufend angepaßt wird.[6] Diese Eigenschaften und die Problem­unabhängigkeit des Lernmechanismus haben Wirtschafts­wissenschaftler dazu veranlaßt, den homo oeconomicus neoklassischer Modelle durch adaptive Agenten, basierend auf den Klassifizierersystemen, zu ersetzen.[7] Unter ‘Agenten’ werden hier Systeme verstanden, die auf Umwelteinwirkungen nicht im bedingungslosen Reflex antworten, sondern deren Verhalten in bewußter oder unbewußter Weise an den Interessen der eigenen Identität orientiert ist, das heißt insbesondere ihrer Erhaltung und Entfaltung.[8] Durch deren Integration in wirtschaftswissenschaftliche Modelle ergeben sich zwei Vorteile:

- Die begrenzte Rationalität (bounded rationality) und Erwartungsbildung realer Agenten kann modelliert werden, ohne auf ad hoc-Annahmen hinsichtlich der Beschränkungen der Informations­verarbeitungs­kapazität sowie des Wissensstandes angewiesen zu sein. Somit sind Simulationsergebnisse weitgehend unabhängig vom Kenntnisstand des Simulationsentwicklers.
- Es können Phänomene beobachtet werden, die sich aus den parallelen Interaktionen einer Vielzahl von Agenten ergeben. Somit kann zur Modellierung wirtschaftswissenschaftlicher Systeme auf ceteris paribus-Annahmen weitgehend verzichtet werden.

Herkömmliche Modelle der Erwartungsbildung gehen von einem extrapolativen bzw. rationalen Verhalten der Wirtschaftssubjekte aus oder betrachten nur den individuellen Aspekt. Es zeigt sich jedoch, daß durch die soziale Interaktion der Wirtschaftssubjekte die Wirtschaft zu chaotischem Verhalten neigt. Typisch für chaotische Systeme ist die Ausbildung von Strukturen in einem Selbstorganisationsprozeß, die es den Individuen ermöglichen, sich aufgrund von Erfahrungen zu orientieren.[9]

Aus der Beschäftigung mit der Komplexität unterschiedlicher Disziplinen sind Begriffe, Ansätze und Theorien entstanden, die Bausteine einer sich abzeichnenden Theorie komplexer Systeme sind.[10] Das sogenannte Invarianztheorem der Kybernetik besagt, daß alle komplexen Systeme isomorphe Lenkungsstrukturen aufweisen.[11] Somit lassen sich systemtheoretische Erkenntnisse auf eine Vielzahl konkreter Systeme übertragen. Insbesondere zur Analyse sozio-technischer Systeme bieten systemtheoretische Erkenntnisse Erklärungsmuster für bisher wenig verstandene Phänomene wie Organisation, Ordnung, Komplexität, Prozeß und Entwicklung.[12] Durch ein Verständnis der Emergenz von Selbstorganisation ließe sich diese natürliche Kraft im betriebswirtschaftlichen Kontext geschickt einsetzen, so daß auf die Anwendung von ‘brute force’[13] verzichtet werden könnte. Denkbar ist ein Bezugsrahmen für Führungsmodelle und Organisations­formen.

Ziel dieser Arbeit ist es u.a., eine Theorie der Orientierung lernfähiger Systeme in turbulenten und komplexen Umweltsystemen bereitzustellen.[14] Die dabei zu untersuchenden Probleme betreffen beispielsweise die Anpassungs­fähigkeit, die Flexibilität, die Lernfähigkeit und Evolution sowie die Selbstorganisation dieser Systeme. Die Theorie wird durch ein Klassifizierersystem gestützt, welches Überlebens­strategien entwickelt und diese explizit in Form einer Regelbasis darstellen kann. Dadurch soll eine Anhebung der Modellierung wirtschaftlicher Systeme von der mechanistischen auf eine realitätsnähere Ebene ermöglicht werden, die geeignet ist zur Untersuchung relativ komplexer, dynamischer Systeme und zum Verstehen komplizierter Wirkungsgefüge sowie der Ergebnisse menschlichen Verhaltens bzw. der Entwicklung sozialer Systeme.[15] Beispielsweise konnten am Santa Fe Institute (SFI) mittels adaptiver Agenten die Emergenz von Handelssystemen sowie Börsenkräche simuliert werden.[16]

Mit dem in dieser Arbeit entwickelten CLASIA[17] -System können künstliche adaptive Agenten geschaffen und in einer Reihe künstlicher Umwelten getestet werden, die sich über längere Perioden hinweg entwickeln. Das resultierende komplexe System kann experimentell und analytisch untersucht werden und neue Wege zur Formulierung einer Theorie adaptiver Wirtschaftssubjekte liefern. So existiert bisher beispielsweise keine vollständige Theorie des organisatorischen Lernens.[18]

In der Realität ist der zu beobachtende Adaptionsprozeß der Agenten regelmäßig zielorientiert bzw. einem Willen untergeordnet.[19] Angesichts der Beschränkungen der Informationsverarbeitungskapazität der Agenten und des Mangels an entscheidungsrelevanten Informationen ist dabei ein strategisches Vorgehen notwendig. Durch die Simulation kann der Strategieformungsprozeß direkt beobachtet werden. Dadurch ist es möglich, Lösungen für Konfliktsituationen zu erhalten, die Auswirkungen von Erfolgsfaktoren abzuschätzen oder die Koevolution von Strategien unterschiedlicher Agenten zu beobachten. Anhand der Simulation können beispielsweise im Bereich der Strategieplanung die Folgen einer Entscheidung abgeschätzt werden.[20] Hier ist es durch Klassifizierersysteme möglich, innerhalb der Simulation Agenten einzusetzen, deren Verhalten nicht von vornherein festgelegt ist und die dennoch versuchen, durch die Entwicklung ganzheitlicher Strategien eine bestimmte Zielfunktion zu optimieren.

Mit dem CLASIA-System wird eine Methode zur Modellierung komplexer Systeme bereitgestellt. Hieraus erwächst die Möglichkeit der Erstellung von nichtlinearen Modellen auf der Basis von Meßdaten in den Fällen, in denen das explizite Erfahrungswissen nicht vorhanden ist. Ein Beispiel ist die simultane Optimierung von Absatz-, Preis-, Produktions- und Produktpolitik unter gegebenen Restriktionen, die in einem Simulationsmodell erfaßt werden. Das Klassifizierersystem könnte dann als (einfaches) lernendes Expertensystem zur Unterstützung des Managements eingesetzt werden.

1.2 Der Gang der Analyse

Zunächst wird auf die Modellierung wirtschaftswissenschaftlicher Agenten eingegangen. Es werden typische Merkmale der Orientierung realer Agenten im komplexen System Wirtschaft aufgezeigt und mit der vorherrschenden Darstellung in den Wirtschaftswissenschaften verglichen. Es zeigt sich, daß das Wesen dieses komplexen Systems zwar erkannt wurde, es jedoch keinen expliziten Eingang in die Betriebswirtschaftslehre gefunden hat. Im folgenden Abschnitt wird daher zunächst das Wesen komplexer Systeme erläutert. Hier werden die Begriffe System, Komplexität und Kausalität spezifiziert und das Phänomen der Selbstorganisation in natürlichen und sozialen Systemen dargestellt. Die prinzipielle Grenze der Vorhersagbarkeit wird in ihren Ursachen und Wirkungen hinsichtlich der Rationalität von Erwartungen sowie der Effekte heterogener Erwartungen erläutert.

Im Anschluß daran wird der traditionelle, reduktionistische Ansatz zur Modellierung komplexer Systeme dargestellt. Es zeigt sich, daß die klassische Physik die Quelle dieses Wissenschaftsverständnisses ist und einen bedeutenden Einfluß auf die Betriebswirtschaftslehre hatte. Schließlich wird das Problem der Zeitschere dargestellt, welches einen Paradigmenwechsel in der Betriebswirtschaftslehre einleitete. Vor diesem Hintergrund werden die Bestandteile des neuen Paradigmas betrachtet, die Elemente einer sich abzeichnenden, betriebswirtschaftlichen Theorie komplexer Systeme sein können. Hier wird eine synergetische Systemsicht eingenommen, aus der die verschiedenen Theorien diskutiert werden.

Die Berücksichtigung der Dynamik wirtschaftswissenschaftlicher Systeme läßt die Interpretation der Strategieformung der Agenten dieser Systeme als einen zielorientierten Adaptions­prozeß sinnvoll erscheinen. Nach einer Erläuterung der Prinzipien der Adaption wird die Methodik der Simulation dargestellt. Basierend auf deren Begrifflichkeit wird danach der Prozeß der Strategieformung im Rahmen spieltheoretischer Modelle skizziert. Das in diesen Modellen nicht auftretende Problem der Komplexitäts­bewältigung ist Gegenstand der Anforderungsanalyse an eine Modellierung adaptiver Agenten.

Im anschließenden Kapitel wird auf die Klassifizierersysteme als operationalisierte Modelle adaptiver Systeme eingegangen. Nach einer kurzen Darstellung der Historie der Klassifizierersysteme folgt die Erläuterung der Genetischen Algorithmen, auf deren Konzeption die Klassifizierersysteme basieren. Ein äußerst knapper Überblick stellt die terminologischen Grund­lagen der Theorie der Genetischen Algorithmen dar ­– die Evolutionstheorie und die Genetik. Basierend auf den eingeführten Begriffen wird auf den traditionellen Einsatz der Genetischen Algorithmen in der Funktions­optimierung eingegangen. Es folgen Darstellungen der am häufigsten angeführten Argumente zur Erklärung der Leistungsfähigkeit der Genetischen Algorithmen. Schließlich werden einige Modifikationen der ursprünglichen Konzeption dargestellt, die sich im Hinblick auf einen Einsatz in Klassifizierersystemen als nützlich erweisen.

Nachdem das Konzept der Evolution von Strukturen einer Population beschrieben wurde, können die zwei komplementären Komponenten der Klassifizierersysteme dargestellt werden: Der deduktive und der induktive Inferenzmechanismus. In der Beschreibung des deduktiven Inferenz­mechanismus werden zunächst die Unterschiede zu den Produktionssystemen herausgestellt. Daraufhin folgt die Diskussion sich ergänzender Konflikt­lösungs­mechanismen, die Aufgrund der Parallelität der Klassifizierersysteme notwendig sind. Um das Feedback der Umwelt des Klassifizierersystems an die verantwortlichen Strukturen weiterzuleiten, bedarf es eines Verrechnungs­systems, das durch den Bucket-Brigade-Algorithmus implementiert wird. Hier zeigt sich die entscheidende Schwäche der Klassifizierer­systeme: Zwar bilden sich unter dem induktiven Inferenzmechanismus überlappende Regelmengen, die über die Funktionalität sequentieller Produktionssysteme hinaus gehen, jedoch sind die Ketten deduktiver Prozesse regelmäßig instabil. In der Diskussion des Problems werden Möglichkeiten zur Stabilisierung solcher Regelketten aufgezeigt.

Der Vorteil der Klassifizierersysteme gegenüber den Expertensystemen liegt in der Lernfähigkeit. Durch Induktionsmechanismen sind diese in der Lage, entsprechend den Anforderungen der Umwelt Systeme von Klassifizierern bzw. Strategien zu entwickeln, die mit der Hilfe eines Interpretermoduls auch für Systembenutzer verständlich gemacht werden können, die nicht mit der Syntax der Klassifizierer vertraut sind. Zudem ist es möglich, das Wissen der Klassifizierersysteme manuell zu verändern bzw. sie zu programmieren.

Um ein Klassifizierersystem anwenden zu können, ist eine Problemcodierung vorzunehmen, die Einfluß auf die Art und Anzahl der Nachrichten hat, die das Klassifizierersystem über seine Sensoren aufnimmt und aus denen es die aktuelle Situation rekonstruiert. Folglich hat die Problemcodierung auch einen Einfluß auf die Art der Lösung, die das Klassifizierersystem in einem evolutionären Prozeß erzeugt.

Im Anschluß an die Darstellung der Grundlagen der Klassifizierersysteme wird auf eine Forschungsrichtung eingegangen, die sich mit den Interaktionen der Klassifizierer innerhalb der Klassifizierersysteme beschäftigt. Die Klassifizierer­systeme formen eine kooperative Regelmenge durch einen Prozeß der Selbstorganisation (Emergenz). Aufgrund der generischen Eigenschaften komplexer Systeme lassen sich die Ergebnisse solcher Studien auf andere Systeme übertragen.

Neben den genannten theoretischen Anwendungen sind prinzipiell zwei praktische Anwendungen der Klassifizierersysteme denkbar. Zu aller erst ist dies die Interpretation der Klassifizierersysteme als lernende Expertensysteme. Eine weitere Anwendungsmöglichkeit ergibt sich ergänzend zu statistischen Methoden zur Klassifikation von Daten. Auf diese Möglichkeit wird im Zusammenhang mit einem Vergleich von künstlichen Neuronalen Netzen und Klassifizierersystemen eingegangen.

Die Betrachtungen finden ihre Abrundung in der Darstellung des implementierten CLASIA-Systems, mit dem es möglich ist, eine Vielzahl von adaptiven Agenten simultan zu simulieren. Die Funktionalität des Systems wird anhand einer beispielhaften Anwendung diskutiert.

Abschließende Bemerkungen ergeben sich aus weiterführenden Überlegungen zu Anwendungen der Klassifizierersysteme.

Die folgende Abbildung skizziert den Aufbau der Arbeit.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Gedankenflußplan

2 Die Modellbildung und Strategieformung in komplexen Systemen

„Many of the patterns of nature we can discover only after they have been constructed by our mind.“[21]

Friedrich A. von Hayek

2.1 Die Modellierung wirtschaftswissenschaftlicher Agenten

Modelle jeder Art sind Hilfsmittel zum Umgang mit der Realität. Häufig ist die Komplexität eines Systems so groß, daß nicht alle möglichen Konfigurationen enumerativ erfaßt und entsprechende Reaktionsmuster im voraus erstellt werden können. In diesen Fällen sind Strategien notwendig, die Malik folgendermaßen definiert: „ Eine Strategie ist (...) ein, durch die jeweils vorhandenen Managementmechanismen produzierter Satz von Regeln , der das zukünftige Verhalten einer nicht notwendigerweise im voraus bestimmten Anzahl von Personen in einer nicht vorhersehbaren Art und Zahl von Situationen steuert.“[22] Schmidt betont, daß die Strategie dazu dient, „ die Unternehmensposition im Wettbewerb zu halten oder zu verbessern.“[23] Die Formung einer Strategie ist in erster Linie ein geistiger Prozeß, der auf den vermuteten (kreisförmigen[24] ) Ursache-Wirkung-Zusammenhängen beruht.[25] Im Individuum bildet sich ein mentales Modell[26], welches die gleichbleibenden Beziehungen zwischen den Originaldaten abbildet.[27] Diese mentalen Modelle müssen dem Anwender nicht explizit bekannt sein, jedoch steuern sie dessen Verhalten und Erwartungen: „ ‘Mental models’ are deeply ingrained assumptions, generalizations, or even pictures or images that influence how we understand the world and how we take action. Very often, we are not consciously aware of our mental models or the effects they have on our behavior. (...) Mental models of what we can or cannot be done in different management settings are (...) deeply entrenched. Many insights into new markets or outmoded organizational practices fail to get put into practice because they conflict with powerful, tacit mental models.“[28] Typischerweise begehen Menschen in komplexen Systemen eine Reihe von Strategiefehlern, da sie tendenziell kurzfristig planen, Nebenwirkungen ignorieren, zur Übersteuerung neigen, Strategien nicht konsequent durchsetzen, sich auf meist einfache, aber unwichtige Teilaspekte konzentrieren und davon ausgehen, ein komplexes System beherrschen zu können, auch ohne die genauen Zusammenhänge zu kennen.[29]

Die betriebswirtschaftliche Forschung ist bestrebt, mit Hilfe von Modellen die komplexen Zusammenhänge der wirtschaftlichen Wirklichkeit zu vereinfachen, „ um sie überschaubar zu machen und um am Modell zur Erkenntnis von Grundzusammenhängen und Prozessen zu gelangen, die in den konkreten Betrieben durch die Vielzahl der Einflüsse verdeckt sind.[30] Forschungsergebnisse können den Praktikern helfen, schneller verbesserte mentale Modelle der wirtschaftlichen Umwelt zu erstellen, als es durch bloße Erfahrung möglich wäre.[31]

Die Grenzen der Modellbildung verlaufen dort, wo menschliches Verhalten als nichtrational im Sinne der theoretischen Betriebswirtschaftslehre anzutreffen ist. Dennoch wurde in wirtschaftswissenschaftlichen Modellen der rationale Bereich weitaus enger abgesteckt, als er in der Realität anzutreffen ist. Die theoretische Betriebswirtschaftslehre geht wie die klassische Nationalökonomie von der Fiktion des homo oeconomicus aus, das heißt „ eines ausschließlich nach wirtschaftlichen Zweckmäßigkeitüberlegungen handelnden Menschen.[32] Diese Annahme vereinfacht die Analyse wirtschaftlicher Abläufe, da interpersonale Konflikte ausgeschlossen werden. Man kann sogar behaupten, daß sie zum gegenwärtigen Stand der Forschung die Analyse von Teilaspekten des Systems Wirtschaft erst möglich macht. In der Modellbildung und Simulation menschlichen wirtschaftlichen Verhaltens werden die persönlichen Ursachen dieser Konflikte auch in Zukunft aus der Analyse ausgeschlossen werden müssen, denn eine Modellierung bewußten Verhaltens ist nicht in Sicht.

Ökonomische Modelle gehen neben obiger Annahme implizit auch von der Fiktion eines Menschen mit unbegrenzter Rationalität, Informations­verarbeitungskapazität und -geschwindigkeit aus. Beispielsweise fußt die Kapitalmarkttheorie mit dem weithin bekannten Capital Asset Pricing Model (CAPM) auf der Fiktion eines einzigen effizienten Marktportefeuilles, welches aus sämtlichen Anlagemöglichkeiten besteht und von allen Marktteilnehmern realisiert wird.[33] Typischerweise treffen jedoch auf einen Organismus mehr Informationen ein, als dieser bewußt verarbeiten kann. Organismus und Unternehmung sind permanent einer großen Zahl von Einflüssen ausgesetzt.[34]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Organismus und Umgebung.

Eine Erklärung für das Scheitern einer detaillierten Informationsverarbeitung liefert das Bremerman’sche Limit:[35]

Kein aus Materie bestehendes System kann mehr als mc2/h Bits pro Sekunde verarbeiten.

Nach Malik besitzen selbst einfache Systeme eine Varietät, die weit über dem Bremerman’schen Limit für ein System von der Masse der Erde und einer Informationsverarbeitungsdauer in der Größenordnung der Erdgeschichte liegt.[36] Dennoch müssen trotz unvollständiger Information und Ambiguitäten Entscheidungen getroffen werden. Eine Lösung kann deshalb nur eine Klassifikation des Informationsstromes sein, bei dem ähnliche Situationen in ähnliche Zustandsklassen eingeordnet werden.

In der empirischen Management­forschung wurde erkannt, daß aufgrund der ungenügenden Informationsbasis und Informationsverarbeitungskapazität der Manager diese zu einer Form der sogenannten „ bounded rationality[37] neigen. Demnach suchen sie nach einer akzeptablen, jedoch nicht notwendigerweise idealen Lösung. „ No matter how predictable the environment and no matter how accurate the perceptions concerning envirnonmental states, organizations and managers still have to determine a course of action to respond to changes in the envirnonment.[38]

Die von der Ökonomie betrachteten Agenten sind Konsumenten, Unternehmungen, Regierungsstellen, Banken und Länder, die einer Menge von möglichen Aktionen gegenüberstehen und deren Folgen sich aufeinander auswirken. Sie sind Elemente des komplexen Systems Wirtschaft. Für die Untersuchung dieses komplexen Systems bietet es sich an, sich an diese vorgegebene Modularität zu halten und ihr Verhalten als Reaktionen auf Außeneinwirkungen getrennt zu untersuchen. Ist die Wirkungsstruktur der Teilsysteme bekannt und damit ihre Verhaltensweisen ermittelbar, kann das Verhalten des Gesamtsystems als Zusammenspiel der interagierenden Teile untersucht werden. Hierdurch ergibt sich eine beträchtliche Komplexitätsreduktion. Analog zum realen System orientiert sich dann die Gesamtbetrachtung an der Verkopplung der Teilsysteme. Es zeigt sich, daß „ die Existenz einer Hierarchie wesentlich für das Phänomen der Komplexität ist.[39] Ein Denken in Systemen bedeutet deshalb ein Denken in wechselnden Abstraktionsebenen[40], das heißt ein zeitgleiches analytisches und synthetisches Denken.

Häufig ist das System durch das Vorhandensein beschränkter Ressourcen gekennzeichnet. Die Aufgabe der Ökonomie besteht darin, aus der Knappheit Zusammenhänge zwischen den Aktionen der Marktteilnehmer zu erkennen und zu folgern. Die resultierenden Muster oder Invarianten werden häufig durch Gleichgewichtsbedingungen formuliert.[41] Zudem sollen im Rahmen einer normativen Theorie Hinweise darauf gegeben werden, wie die gefundenen Ergebnisse vorteilhaft eingesetzt werden können.

Traditionell hatte die Physik, insbesondere die Mechanik, einen starken Einfluß auf die Naturwissenschaften und schließlich auch auf das Verständnis der Wirtschaftswissenschaften. Im Gegensatz zu den Partikeln der Physik bzw. den Teilen eines Uhrwerks, agieren die Partikel der Ökonomie, das heißt die Agenten, aufgrund von Erwartungen und einer verfolgten Strategie. Menschen und Unternehmungen sind weder willenlos noch zufällig handelnde Akteure. Sie sind gestaltete und gestaltende Teilnehmer eines offenen dynamischen Systems. Sie formulieren ihr Verhalten nicht aufgrund ihrer aktuellen Position oder dem aktuellen Verhalten anderer Partikel, sondern gemäß ihrer Annahmen über ihre zukünftige Position und der möglichen Reaktionen der übrigen Agenten auf ihre Aktion. „ Die immensen Schwierigkeiten, die bei der Entwicklung von Gestaltungsmodellen für gesellschaftliche Institutionen zu überwinden sind, hängen mit der äusserst [!] hohen Komplexität zusammen (...). Im Gegensatz zum Konstrukteur [technischer Systeme] hat der Entwerfer sozialer Systeme mit Menschen als Elemente zu tun, die selbst lernfähige Systeme mit hoher Verhaltensvarietät sind.[42] Aufgrund dessen muß ein Modell, welches Grundlage für eine Kybernetik wirtschaftswissenschaftlicher Systeme sein soll, diese Erwartungshaltung der Agenten berücksichtigen. Zurecht beklagt Albach das Fehlen einer „ dynamischen Theorie der Unternehmung[43]. Da Befragungen und Erhebungen sehr aufwendig seien und man deshalb oft auf Datenmaterial verzichten müsse, empfiehlt er, zur Datengewinnung verstärkt Experimente heranzuziehen. Beobachtungen evolutionärer Veränderungen sind jedoch nur möglich, falls das Datenmaterial aus der Vergangenheit reichhaltig und unverzerrt ist.

Das in dieser Arbeit betrachtete Element der Wirtschaft ist insbesondere die Unternehmung bzw. der Betrieb. Das Wissenschaftsgebiet ist dementsprechend die Betriebswirtschaftslehre. Aufgabe der Betriebswirtschaftslehre ist es, „ alles wirtschaftliche Handeln, das sich im Betriebe vollzieht, zu beschreiben und zu erklären und schließlich auf Grund der erkannten Regelmäßigkeiten und Gesetzmäßigkeiten des Betriebsprozesses wirtschaftliche Verfahren zur Realisierung praktischer betrieblicher Zielsetzungen zu entwickeln.[44] Da jedoch jeder Betrieb nicht allein besteht, sind auch die Beziehungen zum Markt zu untersuchen, allerdings nicht der gesamtwirtschaftliche Prozeß. Wie in allen Wissenschaften lassen sich auch in der theoretischen Betriebswirtschaftslehre Erkenntnisse durch Abstraktion und Verallgemeinerung von Einzelheiten bzw. beobachteten Tatbeständen, das heißt durch induktives Folgern, erlangen. Nachdem ein realitätsnahes Modell konstruiert wurde, kann dann mittels der deduktiven Methode vom Allgemeinen auf das Besondere geschlossen werden und so der Rahmen für eine präskriptive betriebswirtschaftliche Theorie gebildet werden. Jedoch können mit dieser Methode nur einfachere Ursachenkomplexe erklärt werden.[45] Die wahrnehmbaren betrieblichen Tatbestände sind stets Wirkungen eines Ursachenkomplexes, welcher sich durch Beobachtung nicht völlig erschließen läßt.

Unternehmungen zeichnen sich sowohl durch ihre komplexe Binnenstruktur als auch durch die Verbindungen zum Markt aus. Im Unternehmen ergibt sich aufgrund wachsender externer und interner Komplexität die Notwendigkeit zur Restrukturierung und zum Umdenken. Schlagworte dieses Paradigmenwechsels sind beispielsweise Lean Production[46], ganzheitliches bzw. vernetztes Denken[47], lernende Organisation[48] und insgesamt das Streben nach Dezentralität. Trotz massiver Forderungen nach einer Ganzheitlichkeit des Managements[49] wurden bisher kaum Instrumente zur Bewältigung der Komplexität entwickelt. Zudem ist festzustellen, daß es dieser neuen Managementausrichtung an theoretischer Fundierung fehlt. Hier soll deshalb der traditionelle systemorientierte Ansatz mit den Erkenntnissen der Kybernetik sowie der System- und der Chaostheorie gestützt werden.

Im folgenden Abschnitt wird das Wesen komplexer Systeme erläutert. Daraus sollte die Notwendigkeit der Berücksichtigung der Besonderheiten komplexer Systeme in wirtschaftswissenschaftlichen Modellen ersichtlich werden. Zudem wird deutlich, welche Eigenschaften des komplexen Systems Wirtschaft ihren Agenten die Nutzung von Erfahrungswissen ermöglichen.

2.2 Das Wesen komplexer Systeme

„Dafür, dass [!] die Welt, wie sie ist, (...) Systemcharakter hat, fehlt es an erkennbaren Hinweisen nicht.“[50]

Nicolai Hartmann

„Nicht das Verhalten einzelner Menschen, sondern das Verhalten sozialer Systeme ist Gegenstand der Managementlehre.“[51]

Hans Ulrich

„What systems thinking is all about is the ability to see through the complexity to what is really essential.“[52]

Peter M. Senge

2.2.1 Die Systemtheorie

Die allgemeine Systemtheorie geht auf Arbeiten von Norbert Wiener und Ludwig von Bertalanffy zurück.[53] Sie bildet den theoretischen und terminologischen Rahmen, um die Problemstellung der Strategieformung zu erfassen. Im folgenden soll deshalb eine Präzisierung des Systembegriffs erfolgen. Ein Objekt wird hier in Anlehnung an Hartmut Bossel als System bezeichnet, wenn es eine bestimmte Funktion erfüllt (den Systemzweck), es aus einer bestimmten Konstellation von Systemelementen und Wirkungsverknüpfungen (Relationen) besteht, die seine Funktion bestimmen, und das Objekt seine Systemidentität verliert, wenn seine Systemintegrität zerstört wird.[54] Gerade die letzte Forderung macht deutlich, daß zur Systemanalyse das Superpositionsprinzip nur bedingt geeignet ist. Ein System ist nicht teilbar, das heißt es existieren Elemente und Relationen in diesem Objekt, deren Herauslösung die Erfüllung des ursprünglichen Systemzwecks nicht mehr erlauben würde. Die Systemidentität hätte sich verändert. Bei der Modellierung des Systems muß deshalb diese essentielle Wirkungsstruktur herausgearbeitet werden. Die dabei modellierten Elemente werden als Zustandsgrößen bezeichnet. Sie sind voneinander unabhängig, so daß sich keine Zustandsgröße als Kombination der übrigen darstellen läßt.

Die Gesamtheit der Zustandsgrößen bildet das ‘Gedächtnis’ des Systems.[55] Der aktuelle Systemzustand ergibt sich aus dem im vorherigen Zeitschritt und den Änderungen während des Zeitschritts. In den Zustandsgrößen schlägt sich deshalb die Summe der Zustandsänderungen bzw. die ‘Geschichte’ des Systems nieder. Das Wesen der Systemdynamik liegt in der Dualität zwischen Zustand und Zustandsänderung. Sie liefert einen Hinweis auf die Identifikation der Zustandsgrößen. Kämen alle Prozesse zum erliegen, so würden die auslesbaren Zustandsgrößen erhalten bleiben.

Betrachtet man die Gestaltungsaufgabe eines Systems als Optimierungsaufgabe einer gesamtunternehmerischen Zielfunktion, so ergeben sich einige Besonderheiten gegenüber der linearen Optimierung. Einige grundlegende Unterschiede sollen die sich stellende Problemfülle verdeutlichen. Einfache lineare Optimierungsprobleme lassen sich im allgemeinen graphisch lösen. Im Gegensatz dazu sind bei nichtlinearen Problemen die Prämissen eines solchen Lösungsverfahrens in der Regel nicht gegeben. So kann die Optimallösung einer nichtlinearen Optimierungsaufgabe auch im ‘inneren’ der Menge der zulässigen Lösungen liegen. Zudem muß diese Menge nicht zusammenhängend sein, wodurch die Konvexität verloren geht.[56] Auch kann es neben dem absoluten Extremum (falls es existiert) lokale Optima geben. Angesichts dieser Besonderheiten kommen Dück, Körth, Runge und Wunderlich zu dem Schluß, daß es „ mit den heute bekannten Lösungsverfahren meist ausgeschlossen ist, das absolute Optimum zu finden.[57]

Systeme besitzen eine Umwelt, deren Zustandsgrößen als äußere Einwirkungen Einfluß auf die Systementwicklung haben. Umgekehrt können Systemgrößen auch die Systemumwelt beeinflussen und verändern. Für die Systemuntersuchung ist es nun notwendig, eine Systemgrenze zu definieren, die das System klar von seiner Umwelt abtrennt. Aufgrund der Wechselwirkungen zwischen System und Umwelt ist jedoch eine solche undurchlässige Grenze nicht möglich. Für praktische Untersuchungen gibt Bossel einige Gestaltungshinweise.[58] Die Systemgrenze sei dort zu ziehen, wo die Kopplung zwischen den Zustandsgrößen sehr viel schwächer ist, als die Binnenkopplung in den grob wahrnehmbaren Bereichen von Umwelt und System. Beispielsweise wird ein Organismus durch seine Haut von der Umwelt ‘abgetrennt’. Insbesondere diese schwachen Kopplungen sind häufig nicht funktionsrelevant für das System. Ein Großteil der Zustandsgrößen der Umwelt ist nicht vom System beeinflußbar. Als Beispiele sind hier Konjunkturdaten, Wettbewerb, Wirtschaftspolitik und Zinsentwicklung zu nennen.

Für die Darstellung von Systemen ergeben sich unterschiedliche Möglichkeiten. Qualitative Zusammenhänge zwischen den Zustandsgrößen lassen sich beispielsweise durch Matrizen oder (graphisch) als sogenannte Feedback-Diagramme[59] abbilden. Zur Modellierung dynamisch vernetzter Systeme durch Simulationen kann diese qualitative Struktur dann verfeinert werden. Zur Implementierung bieten sich für diesen Zweck explizit entwickelte Simulationssprachen an.[60] Durch die Simulationsmethodik können quantitative Aussagen zum Systemverhalten gemacht werden. Handelt es sich um eine verbreitete Simulationssprache, ist zudem ein einfacher Informationsaustausch über die Simulationsergebnisse möglich.

Ein System wirkt über Verhaltensgrößen bzw. Effektoren auf seine Umwelt ein und ist nur über diese in der Umwelt bemerkbar. Soweit das Verhalten sich nicht als bloße Reaktion auf Umwelteinwirkungen ergibt, setzt es Veränderungen im System selbst voraus, das heißt Veränderungen des Systemzustands in der Zeit (Dynamik), die als Zustandsänderungen bezeichnet werden.[61] In gewissem Sinne sind alle Systeme dynamische Systeme, denn letztlich verändert sich jedes Objekt der beschriebenen Art im Zeitablauf beispielsweise durch Alterserscheinungen. Im allgemeinen interessieren jedoch solche Systeme, die im Untersuchungszeitraum ihren Zustand ‘sichtbar’ ändern und damit dynamisches Verhalten zeigen.

Es ist möglich, daß die Verhaltensgrößen nur einen Teil des Innenlebens des Systems repräsentieren, so daß Zustandsänderungen auch ohne Änderungen der Verhaltensgrößen erfolgen können und äußerlich nicht ablesbar sind. Entscheidend für die weitere Systementwicklung ist der Systemzustand, also der Vektor aller Zustandsgrößen zu einem Zeitpunkt. Die Dimension dieses Vektors entspricht der Dimensionalität des Systems.

Prinzipiell lassen sich zwei Ursachen angeben, die für Zustandsänderungen verantwortlich sind: Äußere Einwirkungen und systeminterne Prozesse. Die Wirkungsstruktur des Systems bestimmt damit die Zustandsänderungen der Zustandsgrößen. Sie entscheidet, wie äußere und innere Wirkungen weitergegeben werden. Daraus folgt, daß das Systemverhalten von der Struktur des Systems abhängig ist.[62] Jedoch können verschiedene Systeme gleiches (äußerliches) Verhalten erzeugen. Das bedeutet, daß zur Darstellung des Systemverhaltens bereits einfachere Systeme ausreichen können. Andererseits erschwert es die Systemanalyse, so daß es oft unmöglich ist, vom Systemverhalten auf dessen Wirkungsstruktur zu schließen.[63]

Zustandsgrößen sind prinzipiell nicht direkt aus ihren Zustandsänderungen, sondern nur über deren Integration über die Zeit und dem Wissen über ihren Anfangszustand möglich. Falls sich im System Rückkopplungen befinden, wenn also Zustandsgrößen auf Zustandsänderungen einen Einfluß nehmen können, so kann das System bereits bei wenigen Zustandsgrößen intuitionswidriges Verhalten[64] zeigen, welches sich einer mathematischen Analyse entzieht und nur durch eine Simulation veranschaulicht werden kann.[65] So kann es bereits in einem System mit einer Zustandsgröße zu Schwingungen kommen, deren Periode für gewisse Systemparameter unvorhersagbar ist. Es können nur noch Verhaltensbereiche angegeben werden. Auf dieses chaotische Verhalten wird in den folgenden Abschnitten ausführlich eingegangen.

2.2.2 Der Komplexitätsbegriff

Ein Modell zur Simulation von Systemverhalten muß selbst dynamisches Verhalten erzeugen können, das heißt prinzipiell über die gleichen Elemente verfügen wie das jeweilige dynamische System: „ Es muß eine Wirkungsstruktur aufweisen mit entsprechenden Systemparametern, und es muß auf Einwirkungen aus der (simulierten) Systemumgebung reagieren können.“[66] Im Hinblick auf Abschätzungen zukünftiger Entwicklungen, die als Reaktionen auf neue Herausforderungen entstehen, kann nur die wirkungsstrukturtreue Nachbildung der wesentlichen Prozesse und ihrer systemaren Verknüpfung zu besseren Planungen und Entscheidungen führen. „ Einfach ausgedrückt bedeutet das, daß wir ein komplexes System nur unter Kontrolle bringen können, wenn wir ebensoviel Komplexität, wie das System selbst, besitzen und dies wiederum bedeutet, daß das Modell, das wir uns von einem System machen, annähernd gleich viel Komplexität aufweisen muß, wie das System selbst, wenn das Modell ein sinnvoller Bezugspunkt für Lenkungsmaßnahmen sein soll.“[67] Es sollte versucht werden, die Dynamik der unterscheidbaren Zustände zu erkennen, diese in Grundmustern zu erfassen und in Modellen abzubilden. Über Simulationen lassen sich dann Aussagen über Verhalten und Wirkungen erschließen. Ein solches Umgehen mit der Systemdynamik bildet dann einen Bezugspunkt für konkrete Entscheidungen.

Das Maß für die Komplexität ist in der Kybernetik die sogenannte Varietät.[68] Sie entspricht der Anzahl der unterscheidbaren Zustände eines Systems. Die interne Varietät kann als das Reaktionspotential eines Systems auf externe Einflüsse aufgefaßt werden. Im Rahmen der Managementkybernetik stellt sich die Aufgabe der Varietätsschaffung, -erhaltung und -beherrschung. Diese Notwendigkeit führt zum Gesetz der erforderlichen Varietät (Varietätsgesetz) von Ross Ashby:[69]

Nur Varietät ist in der Lage, Varietät zu absorbieren.

Ein System mit einer gegebenen Komplexität kann nur mit Hilfe eines mindestens ebenso komplexen Systems unter Kontrolle gebracht werden. Die Varietät kann daher auch als Maß für die Anzahl der Reaktionsmöglichkeiten interpretiert werden. Sind die Varietätsbilanzen zwischen dem zu kontrollierenden und dem kontrollierenden System ausgeglichen, kann ein System beherrscht werden. Jedoch ist diese notwendige Bedingung nicht hinreichend. Vielmehr kommt es auf die interne Organisation bzw. auf die Binnenstruktur, das heißt insbesondere auf die Art und Anzahl der Verknüpfungen der Elemente an. Typischerweise kann diese Struktur aufgrund der Komplexität nicht geplant bzw. fremdbestimmt angeordnet werden, sondern muß vielmehr indirekt ‘kultiviert’ werden, indem solche Umstände geschaffen werden, die für das Entstehen der gewünschten Struktur förderlich sind. Auf diese Grenze der Gestaltung komplexer Systeme wird im Zusammenhang mit dem Phänomen der Selbstorganisation näher eingegangen. Zunächst sind jedoch weitere Begriffe der Theorie komplexer Systeme, die insbesondere aus der Chaostheorie stammen, zu erläutern.

2.2.3 Der Kausalitätsbegriff

„On a philosophical level, chaos theory may hold comfort for anyone who feels his or her place in cosmos is inconsequential. Inconsequential things can have a huge effekt in a nonlinear universe.“[70]

John Briggs und F. David Peat

Die starke Kausalität der Physik besagt, daß ähnliche Ursachen ähnliche Wirkungen haben.[71] Die starke Kausalität gilt jedoch nur in linearen Systemen. Dennoch ist sie eine der Säulen der klassischen Experimentalwissenschaften. Eine ihrer grundlegenden Forderungen lautet daher: Ein Experiment muß jederzeit und überall wiederholbar sein, das heißt, es muß unter gleichen Bedingungen gleiche Ergebnisse liefern. Exakt gleiche Bedingungen können jedoch nie eintreten. „ Es ist eine metaphysische Doktrin, daß gleiche Ursachen gleiche Wirkungen haben. Niemand kann sie widerlegen. Ihr Nutzen aber ist sehr gering in dieser Welt, in der gleiche Ursachen niemals wieder eintreten und nichts zum zweitenmal geschieht.[72] Diese Form der Kausalität wird als schwache Kausalität bezeichnet.[73] Die auf der starken Kausalität beruhende Newtonsche Mechanik sagt zwar, wie sich Körper gegenseitig beeinflussen, aber nichts darüber, ob die Situationen stabil sind.[74] Das Gravitationsgesetz von Newton besagt, daß die Wechselwirkung zwischen den Körpern nichtlinear (die Kraft ist umgekehrt proportional zum Abstandsquadrat) und wechselseitig ist. Daher läßt sich die Ursache-Wirkungskette nicht so einfach aufbrechen.[75] Da es für diese nichtlinearen Gleichungen keine geschlossene Form bzw. ‘gute Näherungslösung’ gibt, führt kein Weg an einer Iteration vorbei. Diese Berechnungen waren jedoch manuell nicht durchführbar. Eine entscheidende Veränderung bewirkte die Bereitstellung immer leistungsfähigerer Computer, mit denen es möglich war, weniger weitreichende Näherungen bei der Erstellung von Differentialgleichungen zu machen. Bei der Lösung harmlos scheinender Gleichungen[76] ergab sich dabei immer wieder ein unerwartet komplexes Verhalten. Einer der Pioniere der Erforschung dieser Verhaltensweisen war der Meteorologe Edward N. Lorenz, der ein System von drei Differentialgleichungen untersuchte, die die Rollenbildung in Luftschichten charakterisieren.[77] Dabei entdeckte er 1963, daß ab einer bestimmten Parameterkonstellation die Gleichungen instabil werden, so daß schon die kleinste Störung Luftschichten in eine Rollenbildung treiben kann und sich somit Strukturen bilden, deren Gestalt sich aus den drei deterministischen Gleichungen nicht vorhersagen läßt.[78]

Abbildung in dieser Leseprobe nicht enthalten Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Das Lorenz-System.[79]

Systeme können demnach bei schwacher oder starker Eigendynamik unterschiedlich auf Einwirkungen aus der Umwelt reagieren. Die Wirkungen können von der kaum feststellbaren Veränderung bis zum „ Anfachen einer selbstzerstörerischen Schwingung[80] reichen. Kleinste unbeachtete Details bzw. unvermeidbare Meßfehler können binnen kürzester Frist jede Vorhersage in Makulatur verwandeln. Dieses Eigenschaft nichtlinearer Systeme wird als „ deterministisches Chaos[81] bezeichnet. Dieser provozierende, scheinbare Widerspruch zwischen dem Begriff ‘Chaos’, der im allgemeinen für Strukturlosigkeit steht, und dem Begriff ‘deterministisch’ soll die Nichtzufälligkeit der beobachteten Phänomene zum Ausdruck bringen. Ein System, welches chaotisch ist, verhält sich nicht zufällig. Es existiert eine Ordnung hinter dem sichtbaren Phänomen, die sich als Zufälligkeit ‘maskiert’[82]. Es gehorcht festen Regeln, in denen der Zufall keine Rolle spielt. Chaotisch bedeutet eher die unerwartet starke Wirkung als Folge kleinster, unmeßbarer Änderungen der Ausgangsbedingungen. Mit diesen Regeln kann man das Verhalten des Systems für eine gewisse Zeit vorausberechnen. Diese Zeit ist um so länger, je genauer der Zustand des Systems am Anfang bekannt ist. Die Ungenauigkeiten wachsen jedoch exponentiell an, so daß eine wirklich langfristige Vorausberechnung des Verhaltens chaotischer Systeme praktisch unmöglich ist: „ Iteration pumps microscopic fluctuations up to a macroscopic scale.[83] Die physikalische Grenze der Zustandsbeschreibung wird durch die Heisenberg’sche Unschärferelation[84] bestimmt, so daß ein mehr an Apparaten das Ungenauigkeitsproblem nicht lösen kann.[85] Schwerwiegender ist jedoch die Rechenungenauigkeit einer jeden Rechenmaschine. Schon kleinste ‘Rundungsfehler’ führen durch die nichtlineare Verstärkung, auch bei genauer Kenntnis der Systemgleichungen, zu fehlerhaften Prognosen.

Deterministisches Chaos kann in kontinuierlichen, dynamischen Systemen auftreten, in denen mehr als drei Freiheitsgrade bzw. eigenständige physikalische Größen nichtlinear miteinander verkoppelt sind.[86] Da fast alle realen Systeme aus mehr als drei Elementen bestehen und fast immer die Relationen zwischen den Elementen nichtlinear sind, ist deterministisches Chaos allgegenwärtig. Jedoch hatte man wegen der Unlösbarkeit der Gleichungssysteme meist lineare Näherungen verwendet, so daß man zwar nun das neue Problem lösen konnte, das aber mit dem ursprünglichen wenig zu tun hatte. Ein ähnlicher Zusammenhang besteht heute noch in der Betriebswirtschaftslehre, in der der ceteris paribus-Ansatz allgegenwärtig ist. Folgende Abbildung zeigt das System der Grundzusammenhänge im Betrieb und vermittelt einen Eindruck über die Komplexität sozio-technischer Systeme.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Grundzusammenhänge im Betrieb.[87]

Die Arbeiten von Lorenz gaben den Anstoß zur Chaostheorie. Zwar war bereits seit langem die Existenz solcher Instabilitäten bekannt, jedoch setzte sich die Meinung erst in letzter Zeit durch, daß solche Phänomene im Alltag eine Rolle spielen. Durch Abstraktion der Ergebnisse vom eigentlichen Forschungsgebiet der Meteorologie wandelte sich die Chaostheorie zu einer disziplinübergreifenden Theorie komplexer Systeme. Erstmals wurden die typischerweise nichtlinearen Interaktionen der Elemente natürlicher Systeme als solches für die Aussagen über Eigenschaften komplexer Systemen für bedeutend gehalten[88] — eine Tatsache, die im mechanistischen Weltbild regelmäßig vernachlässigt wird. Mittels der Chaostheorie war es möglich, daß „ durch die neuen Vorstellungen zahlreiche komplexe Erscheinungen erstmals einer rigorosen Behandlung unterzogen werden konnten. Hochkomplexe und verwirrende Phänomene lassen sich nunmehr quantifizieren und können damit auf einer seriösen Grundlage verglichen werden.[89]

Die Chaostheorie hat eine Methode entwickelt, mit der entschieden werden kann, ob ein gegebenes Signal in Abhängigkeit von der Zeit bzw. einer anderen Variable einfachen Regeln gehorcht oder ob die Schwankungen in der Meßreihe einer zufälligen Verteilung entsprechen.[90] Damit wird ein wichtiger Hinweis für die mathematische Modellierung des Systems geliefert. Es kann zwar keine exakte Prognose über einen zukünftigen Zustand abgegeben werden, jedoch lehrt die Erfahrung, daß der zu erwartende Zustand sich innerhalb gewisser Grenzen bewegt. Die Tatsache, das der Mensch ein lernfähiges Wesen mit Gedächtnis ist, scheint die These von einer chaotischen Welt zu stützen.[91] Wäre die Welt deterministisch, müßte der Mensch nur mit den Grundgesetzen der Natur ‘programmiert’ sein und wäre für alle Situationen präperiert. Wäre das Geschehen jedoch rein zufällig, wäre ein Gedächtnis nutzlos, denn Erfahrung würde nicht anwendbar sein. Entsprechend kann die Existenz von zahlreichen Prognoseinstrumenten auf dieses Phänomen zurückgeführt werden. Trotz ihrer Unzulänglichkeiten bilden sie eine gewisse Regelmäßigkeit ab. Im Fall von Determinismus oder Zufälligkeit wären sie vollkommen nutzlos. Solch eine Ordnung höherer Ebene wird durch den sogenannten Lorenz-Attraktor[92] für das Lorenz-System dargestellt. Er besitzt die Form eines Schmetterlings bzw. eines flachen, verdrehten Torus im dreidimensionalen Parameter- bzw. Phasenraum.[93]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Der Lorenz-Attraktor.

Der Attraktor beschreibt die Zustandsmenge, in welcher das System, ausgehend von einem beliebigen zulässigen Anfangszustand, nach einer Einschwingphase verbleibt. Die Torusform zeigt, daß diese Zustandsmenge auf einen Subraum des Phasenraums beschränkt ist. Innerhalb dieses Attraktors ist das Systemverhalten chaotisch und unvorhersagbar. Das Verhalten des Systems wird deshalb lokal unvorhersagbar und global stabil genannt.[94] Bei Kenntnis des Attraktors können somit zumindest Wahrscheinlichkeitsaussagen über zukünftige Systemzustände gemacht werden. Der Lorenz-Attraktor ist zudem der erste bekannte sogenannte ‘seltsame Attraktor’[95]. Die Form des Attraktors entsteht durch eine Doppelspirale, die ineinander verwoben ist. Das Seltsame am Attraktor ist, daß die Trajektorie, das heißt die Spur der Zustände bzw. die Geschichte des Systems, sich nie selbst kreuzt bzw. wiederholt, der Attraktor also aperiodisch ist. Daraus folgt, daß der endliche Raum des Attraktors unendlich viele Pfade in sich birgt.

In diesem Abschnitt wurde Phänomen des deterministischen Chaos unbelebter Systeme beschrieben. Im folgenden Abschnitt wird die menschliche Komponente sozio-technischer Systeme mit einbezogen. Zudem werden die Anforderungen eines Organismus, welcher sich in einer komplexen Umwelt zu orientieren hat, aufgezeigt.

2.2.4 Die prinzipielle Grenze der Vorhersagbarkeit

Die Möglichkeit, zukünftige Ereignisse zu beherrschen, zu bestimmen oder zu kontrollieren, hängt in unmittelbarer Weise von den Möglichkeiten ihrer Vorhersage ab. Dies kommt beispielsweise darin zum Ausdruck, daß „ ein Control-Mechanismus lediglich so gut sein kann, wie das Modell, das er von seiner Umwelt besitzt.“[96] Bis vor wenigen Jahren galt für deterministische Systeme, daß bei Kenntnis von Anfangszustand und Umwelteinwirkungen sich jeder spätere Zustand ermitteln läßt. Das Lorenz-System zeigt jedoch, daß bereits einfache physikalische Systeme lokal unvorhersagbar sind. Die Entwicklung zukünftiger Zustände hängt entscheidend von den Ausgangs­bedingungen ab und es lassen sich nur noch Attraktionsbereiche angeben, in denen der Systemzustand zu finden sein wird. Eine genaue Angabe des späteren Systemzustands ist nicht mehr möglich.

Abgesehen davon, daß in sozialen Systemen die Anzahl der Elemente sehr viel größer als in den physikalischen Modellrechnungen ist, tritt hier der Mensch als aktives Element auf, so daß neben das Phänomen des deterministischen Chaos als Ursache der Unbestimmbarkeit zukünftigen Verhaltens ein zweiter Unbestimmbarkeitsfaktor tritt. Ein Mensch ist ein willfähiges Wesen, welches aktiv seine Umwelt mitgestaltet. Dazu muß er Informationen aufnehmen und verarbeiten. Schließlich kann die Eigendynamik des Gesamtsystems den Menschen kontrollieren, so daß seine Aktionen zu Reaktionen auf die unmittelbare Umgebung werden.

Die Rückkopplungen in einem System können eine von der Systemstruktur bestimmte Eigendynamik entwickeln, die mit etwaigen Einwirkungen auf das System kaum noch oder nicht mehr in Verbindung gebracht werden können. Als Beispiel nennt Bossel Langfristinvestitionen, die sogenannte Kondrtieff-Zyklen auslösen können, die „ enorme Konsequenzen für die ganze Volkswirtschaft haben.“[97] Am hier dargestellten System mit geringen Wechselwirkungen, lokaler Interaktion und begrenzter Rationalität (bounded rationality) der Beteilgten zeigt sich, ohne äußere Anregung, eine endlose chaotische Oszillation, für deren Ausprägung keine bestimmte Ursache in der Umwelt gefunden werden kann: Der Verkehrsfluß auf einer einspurigen Fahrbahn ohne Auf- und Abfahrten. Der Sicherheitsabstand zwischen den Fahrzeugen hängt von der jeweiligen Geschwindigkeit ab. Die Verkehrsdichte, das heißt die Anzahl von Fahrzeugen je Streckenabschnitt, kann bei einer bestimmten Geschwindigkeit zunehmen bis der entsprechende Sicherheits­abstand erreicht ist. Danach kann die Verkehrsdichte nur zunehmen, falls die Geschwindigkeit verringert wird. Jeder Fahrer orientiert sich am Verhalten des Vorausfahrenden und besitzt eine Reaktionszeit T größer 0, in der er um so heftiger reagiert, je kleiner der Abstand zwischen den Fahrzeugen ist und je größer der Geschwindigkeitsunterschied ist. Der kumulierte Effekt eines seichten Bremsvorganges kann sich daher bis zum Beginn der Kolonne zu Notbremsungen verstärken und zu einem Verkehrsstillstand führen.[98] Ebenso gut kann aber eine vorausschauende Fahrweise solche Gefahren vermeiden helfen. Im Fall geringer Verkehrsdichte ist das Systemverhalten stabil bzw. vorhersagbar, da in diesem Fall die Wechselwirkung der Verkehrsteilnehmer untereinander vernachlässigbar ist. Bei höherer Verkehrsdichte hingegen genügen bereits kleinste individuelle Geschwindigkeitsschwankungen, um einen Stau auszulösen.

Das beschriebene System zeigt alle Merkmale chaotischer (sozio-technischer) Systeme. Es gibt einen Bereich, in dem das System durch eine lineare Beschreibung gut angenähert werden kann und in dem es sich streng deterministisch verhält. In diesem Bereich ist es gegenüber kleinen Störungen oder Änderungen der Anfangsbedingungen stabil. Im Fall hoher Verkehrsdichte ist das System jedoch empfindlich gegenüber kleinen Störungen. Der Verkehrsablauf kann sich bei gering veränderten Anfangsbedingungen drastisch ändern. Allerdings muß diese Empfindlichkeit nicht zum Stau führen, so daß das Systemverhalten in diesem Fall nicht deterministisch ist. Diese Übergänge von einem konstanten Endzustand bzw. Attraktor in die komplexe Dynamik des deterministischen Chaos lassen sich anhand des Feigenbaum-Szenarios visulaisieren, das auf Mitchell Feigenbaum zurückgeht.[99] Zuerst strebt das System einem konstanten Endzustand zu. Ab einem bestimmten kritischen Parameterwert treten dann Oszillationen auf, deren Muster bei weiterer Steigerung des Parameters immer komplizierter und schließlich unvorhersagbar werden. Die folgende Abbildung wurde durch die sogenannte logistische Gleichung[100]

Abbildung in dieser Leseprobe nicht enthalten

für den Wertebereich von r Î [2.5, 4.0] erzeugt, indem jeweils für einen bestimmten Parameter r (auf der Abszisse), dem Startwert x0 = ½ und nach einer Einschwingphase von 1000 Zyklen die Folge x1001, x1002, ..., x1200 als Ordinatenwert abgetragen wurde.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Feigenbaum-Szenario 1.

Diese nichtlineare Differenzengleichung ist typisch für viele reale Wachstumsprozesse. Sie beinhaltet einen Wachstumsfaktor w ´ xn und einen das Wachstum begrenzenden Faktor b ´ (1 - xn). Faßt man die Konstanten w und b zu einer Konstanten r zusammen, so entsteht die logistische Gleichung. Der Begrenzungsfaktor stellt die Endlichkeit der durch den Wachstumsprozeß konsumierten Ressourcen dar und entspricht im wesentlichen dem Prinzip vom abnehmenden Grenznutzen.[101] Da P.F. Verhulst diese Gleichung 1845 zur Beschreibung der Populationsdynamik verwendete, wird die Ausprägung der Größe xn als Population und der Faktor (1 - xn) als Verhulst-Faktor bezeichnet.[102]

Für Parameterwerte r < 1.0 geht die Population unter. Für Werte r ³ 1.0 und r £ 3.0 zeigt sich ein stabiler Attraktor. Danach jedoch beginnt das System zu oszillieren. Zunächst zwischen zwei Attraktoren. Ab dem Parameterwert r ³ 3.4495 werden die Attraktoren wieder instabil. Es treten weitere sogenannte Bifurkationen auf.[103] Bifurkationsstellen sind Parameterwerte, an denen spontane Änderungen im qualitativen Verhalten dynamischer Systeme entstehen. In der Abbildung spalten sich zwei Äste auf in vier. Diese vier Attraktoren bilden die Größen aufeinander folgender Populationen, das heißt stellen die Periodizität der Population dar. Ab einem Parameterwert von 3.596 tritt eine weitere Bifurkation auf und ab dem Parameterwert 3.56999 bilden sich unendlich viele Attraktoren. Dieser ‘Weg ins Chaos’ wird als Periodenverdopplung bezeichnet.[104]

Im Feigenbaum-Szenario zeigt sich der schrittweise Übergang von der Ordnung bzw. Vorhersagbarkeit des Endzustandes eines Systems in das Chaos bzw. in die Unvorhersagbarkeit. In diesem Sinne kann der chaotische Zustand als eine Ordnung mit unendlich vielen Ordnungszuständen aufgefaßt werden. Das System nimmt dann nicht mehr einen Gleichgewichtszustand an, sondern geht von einem dynamischen Gleichgewicht in chaotisches Verhalten über.

Versucht man nun dieser Vielzahl von Attraktoren auf reduktionistische Weise auf den Grund zu gehen, so zeigt sich in der Ausschnittsvergrößerung (Abbildung 7 auf Seite 34) ein weiteres Phänomen komplexer Systeme: Die Selbstähnlichkeit. Die Bifurkationstellen bzw. ‘Gabeln’ selbst bilden wieder ‘Feigenbäume’. Das Ganze ist im Teil enthalten. Somit ergibt sich eine anschauliche Interpretation des Begriffs der Ganzheitlichkeit. Gleichzeitig zeigt die Ausschnittsvergrößerung, daß es eine gewisse Struktur im Chaos bzw. seltsame Attraktoren gibt. Den dunklen Regionen entsprechen Zustandswerte, in denen das System mit höherer Wahrscheinlichkeit gefunden werden kann. Zudem existieren ‘Fenster’, in denen das System stabil ist. Sie sind als vertikale Streifen zu erkennen. Hier wird das System wieder vorhersagbar. Das größte Fenster zeigt, daß die Population nach zwei aufeinanderfolgenden Wachstumsphasen wieder fällt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Feigenbaum-Szenario 2.

Zusammenfassend muß betont werden, daß diese Eigenschaften keine Besonderheiten des Feigenbaum-Szenarios darstellen. „Es handelt sich (...) um eine sogenannte generische Eigenschaft komplexer dynamischer Systeme.[105]

Angesichts der Allgegenwärtigkeit des deterministischen Chaos ist die Unsicherheit zukünftiger Ereignisse sowie die Unmöglichkeit einer exakten, langfristigen Prognose zu akzeptieren. Daher drücken Prognosen lediglich gewisse Erwartungshaltungen aus, die erst durch ex-post Analysen hinsichtlich ihrer Korrektheit überprüft werden können. Jedoch können ex-ante bereits rationale und irrationalen Erwartungen grob klassifiziert werden. Brian Arthur definiert (bezogen auf Wirtschaftsprognosen) rationale Erwartungen als solche, die im Mittel durch das zukünftige Verhalten des Marktes erfüllt werden.[106] Hier zeigt sich, daß die Rationalität einer Erwartung nicht eindeutig definiert ist, da das Objekt – der Markt – ein Artefakt ist, welches zu einem großen Teil von den Erwartungen der Marktteilnehmer bestimmt wird. Falls beispielsweise im Aktienmarkt ein nicht unerheblicher Anteil der Teilnehmer an die Prognosefähigkeit eines leicht zu bestimmenden Indikators glaubt, so werden die dadurch prophezeiten Ereignisse sich selbst erfüllen.[107]

Ein weitaus weniger komplexes Objekt als der Aktienmarkt stellt ein Gedankenexperiment dar: Das sogenannte Lokalproblem.[108] Dessen Prämissen sind die folgenden: Eine Menge von potentiellen Akteuren bzw. Agenten entscheidet sich täglich, ob sie ein gewisses Lokal besuchen soll oder nicht. Ihre Entscheidung hängt lediglich von der erwarteten Anzahl von Lokalbesuchern ab. Wird ein überfülltes Lokal erwartet, so wird es nicht aufgesucht. Ansonsten wird es besucht. Gäbe es eine einzige Regel, die den Agenten zu einer bestimmten rationalen Erwartung verhelfen könnte, so würde sie sich schnell herumsprechen und sich selbst widerlegen, da bei prognostizierter Überfüllung kein Agent das Lokal besuchen würde und umgekehrt. Daraus folgt, daß keine eindeutigen Erwartungsmodelle existieren und somit auch keine eindeutigen Prognosen. Wie bereits oben dargestellt, können nur Attraktraktionsbereiche angegeben werden. In der von Arthur durchgeführten Simulation zeigt sich, daß das Verhältnis von Anwesenden zu Abwesenden im Durchschnitt 3 zu 2 beträgt.[109] Eine wachsende Anzahl von Agenten führt das Systemverhalten ins Chaos, so daß die Agentenanzahl eine ähnliche Rolle spielt wie der oben genannte Faktor r der logistischen Gleichung. Die Existenz des Attraktors von circa 66% sowie die generischen Eigenschaften des Feigenbaum-Szenarios legen die Vermutung nahe, daß die prinzipielle Grenze der Vorhersagbarkeit auch für sozio-technische Systeme durch einen seltsamen Attraktor beschrieben wird.

Auf das Problem der rationalen Erwartungsbildung wird im Zusammenhang mit der Modellierung der begrenzten Rationalität sowie dem Wissenserwerb durch Induktion nochmals eingegangen.[110] Zunächst soll jedoch ein Phänomen erläutert werden, welches Ergebnis der begrenzten Rationalität ist und im letzten Beispiel aus den Entscheidungen unabhängiger Agenten auftrat. Das Verhältnis von 3 zu 2 entsteht in einem Prozeß der sogenannten Selbstorganisation.

2.2.5 Das Phänomen der Selbstorganisation

„Die Ordnung des Lebendigen kann man im Prinzip verstehen. Versteht man sie wirklich?“[111]

Friedrich Cramer

2.2.5.1 Die Selbstorganisation in natürlichen Systemen

Beispiele natürlicher Selbstorganisation sind die Bildung von Kristallen, Seifenblasen, Tauperlen, Eisblumen, von organischen chemischen Verbindungen sowie die Ontogenese, das heißt die Ausbildung eine Organismus aus einer undifferenzierten Eizelle.[112] Hier wäre es aufgrund der Komplexität der Systeme unmöglich, durch bewußte Anordnung die konkrete Position und die Gesamtheit aller Beziehungen zwischen den Elementen zu bestimmen. Vielmehr arrangieren sie sich selbst unter dem Einfluß der physikalischen Gesetzmäßigkeiten, den Kräften und der Vielzahl der Interaktionen zwischen den Teilen. „ Ganz allgemein führen Ursache-Wirkungs-Kreisläufe zu Selbstorganisationsphänomenen.[113]

Selbstorganisation tritt nur auf, wenn ein System aus sehr vielen Komponenten aufgebaut ist, die Bausteine von Strukturen sein können. Diese Komponenten stehen jeweils in Wechselwirkung zueinander. Grundlegende thermodynamische Überlegungen lassen erwarten, daß vorhandene Organisationsstrukturen im Laufe der Zeit an Struktur verlieren.[114] Das zweite Gesetz der Thermodynamik in Verbindung mit der statistischen Mechanik eines idealisierten Gases besagt, daß jedes System einen Zustand größter Unordnung (höchster Entropie[115] ) bzw. Strukturlosigkeit anstrebt und dort zur Ruhe kommt.[116] Diesem Gesetz widerspricht die reiche Strukturiertheit natürlicher Systeme. Der scheinbare Widerspruch wird gelöst, wenn Selbstorganisation als das Absondern von Entropie aufgefaßt wird, wobei die Struktur nur deshalb erhalten bleibt, weil dem System konstant Energie (physikalische Systeme) bzw. Information (soziale Systeme) zugeführt wird.[117] Die Offenheit eines Systems ist daher eine Voraussetzung für Selbstorganisation. Solche offenen Systeme wurden von Ilya Prigogine als „ dissipative structures[118] bezeichnet. In diesem Szenario ist es dennoch erklärungsbedürftig, weshalb nur unter gewissen Bedingungen spontane Ordnungen entstehen und die Komplexität dieser Ordnungen steigt. Es handelt sich um die Herausbildung einer makroskopischen Ebene, die unter Bedingungen entsteht, von denen lediglich bekannt ist, daß sie folgende notwendigen Eigenschaften besitzen müssen:

[...]


[1] Vgl. Holland / Reitmann, Cognitive Systems , 1978, S. 326.

[2] Vgl. Wessells, Psychologie, 1984, S. 212.

[3] Vgl. Wessells, Psychologie, 1984, S. 212.

[4] Vgl. Holland / Holoyoak / Nisbett / Thagard, Induction, 1986, S. 179ff.

[5] Vgl. Smith, First International Workshop, 1992, S. 4.

[6] Vgl. Booker, Internal World Models, 1988, S. 167f.

[7] Vgl. Arthur, Designing Economic Agents, 1993, und Holland / Miller, Adaptive Agents, 1991, und Lane, Artificial worlds, part II, 1993, und Arthur, Bounded Rationality, 1994, und Marimon / McGrattan / Sargant, Money as a Medium of Exchange, 1990, und Arthur, Economy and Complexity, 1989.

[8] Vgl. Holland / Miller, Adaptive Agents, 1991, S. 365.

[9] Aufgrund der Universalität dieses Phänomens in unterschiedlichen Disziplinen werden in der Literatur auch die Umschreibungen ‘Entstehung spontaner Ordnung’ (Hayek), ‘Selbstgestaltung’ (Ulrich), ‘Emergenz’ (Lane), ‘Entstehung dissipativer Strukturen’ (Prigogine), ‘Kosmos’ (Hayek) und ‘Strukturbildung’ (Lane) synonym verwendet. In dieser Arbeit wird der Begriff ‘Selbstorganisation’ für das (geordnete) Ergebnis der Interaktionen der Teile eines Systems verwendet. Als ‘Emergenz’ wird der Prozeß der Ordnungsentstehung bezeichnet.

[10] Vgl. Kratky, Paradigmenwechsel, 1990, S. 4, und Holland / Miller, Adaptive Agents, 1991, S. 369.

[11] Vgl. Malik, Strategie des Managements, 1989, S. 77f.

[12] Vgl. Rieckmann, Organisationsentwicklung, 1991, S. 127.

[13] Vgl. Beasley / Bull / Martin, Genetic Algorithms 1, 1993, S. 63.

[14] Diese Forschungsrichtung wird als ‘Management-Kybernetik’ bezeichnet. Vgl. Malik, Strategie des Managements, 1989, S. 77.

[15] Hier wird sich dem Zielbündel der systemorientierten Managementlehre angeschlossen. Vgl. Ulrich, Management, 1984, S. 165.

[16] Vgl. Freedman, Stichworte des modernen wissenschaftlichen Managements, 1993, S. 30.

[17] CLASIA ist eine Abkürzung für ‘Classifier System for the Simulation of multiple adaptive Agents’.

[18] Müller-Stewens / Pautzke, Führungskräfteentwicklung, 1991, S. 191.

[19] Vgl. Radzicki, Institutional Dynamics,1988, S. 639.

[20] Vgl. Schmidt, Strategisches Management, 1992, S. 103.

[21] Friedrich A. von Hayek, zitiert nach: Malik, Strategie des Managements, 1989, S. 210. Hervorhebung im Original.

[22] Malik, Strategie des Managements, 1989, S. 181f. Hervorhebung im Original.

[23] Schmidt, Strategisches Management, 1992, S. 16.

[24] Vgl. Probst / Gomez, Vernetztes Denken, 1989, S. 232.

[25] Vgl. Schmidt, Strategisches Management, 1992, S. 95.

[26] Vgl. Atkinson / Atkinson / Smith / Bem / Nolen-Hoeksema, Psychology, 1993, S. 341ff.

[27] Vgl. Eschenbacher, Sprache dynamischer Modelle, 1990, S. 20.

[28] Vgl. Senge, The Fifth Discipline, 1990, S. 8.

[29] Vgl. Schmidt, Strategisches Management, 1992, S. 17f.

[30] Wöhe, Betriebswirtschaftslehre, 1990, S. 37.

[31] Vgl. Schmidt, Strategisches Management, 1992, S. 121.

[32] Wöhe, Betriebswirtschaftslehre, 1990, S. 26.

[33] Vgl. Loistl, Kapitalmarkttheorie, 1993, S. 198ff.

[34] Vgl. Haumer, Ordnung und Chaos, 1992, S. 24.

[35] Vgl. Malik, Strategie des Managements, 1989, S. 198. Hier bezeichnet m die Masse des Systems, c die Lichtgeschwindigkeit und h die Plank’sche Konstante. Es ergibt sich eine Grenze von 2 ´ 1047 Bits pro Gramm und Sekunde.

[36] Vgl. Malik, Strategie des Managements, 1989, S. 199.

[37] Steers, Organizational Behavior, 1991, S. 353. Im folgenden wird der Terminus ‘begrenzte Rationalität’ benutzt.

[38] Steers, Organizational Behavior, 1991, S. 353f.

[39] Schuster, Chaos und Fraktale, 1991, S. 217.

[40] Vgl. Ulrich, Management, 1984, S. 50.

[41] Vgl. Arthur, Economy and Complexity, 1989, S. 714.

[42] Ulrich, Management, 1984, S. 114.

[43] Wöhe, Betriebswirtschaftslehre, 1990, S. 85.

[44] Wöhe, Betriebswirtschaftslehre, 1990, S. 28.

[45] Vgl. Wöhe, Betriebswirtschaftslehre, 1990, S. 35.

[46] Vgl. Reiß, Komplexitätsmanagement (I), 1993, S. 54.

[47] Vgl. Probst / Gomez, Vernetztes Denken, 1989.

[48] Vgl. Sattelberger, Lernende Organisation, 1991.

[49] Stellvertretend kann hier das St. Gallener Management-Konzept genannt werden. Vgl. Bleicher, Integriertes Management, 1991.

[50] Nicolai Hartmann, zitiert nach: Bleicher, Integriertes Management, 1991, S. 26.

[51] Ulrich, Management, 1984, S. 87.

[52] Senge, Creating the learning organization, 1992, S. 62.

[53] Vgl. Schmidt, Strategisches Management, 1992, S. 36.

[54] Vgl. Bossel, Modellbildung, 1994, S. 16.

[55] Vgl. Bossel, Modellbildung, 1994, S. 19.

[56] Vgl. Dück / Körth / Runge / Wunderlich, Mathematik, 1987, S. 298 ff.

[57] Dück / Körth / Runge / Wunderlich, Mathematik, 1987, S. 301.

[58] Vgl. Bossel, Modellbildung, 1994, S. 18.

[59] Vgl. Hentze / Brose / Kammel, Unternehmungsplanung, 1993, S. 273ff.

[60] Vgl. Eschenbacher, Sprache dynamischer Modelle, 1990, S. 8f.

[61] Vgl. Bossel, Modellbildung, 1994, S. 18.

[62] Man denke nur an den berühmten Ausspruch von Alfred Chandler (1962) „ Structure follows Strategy “, demnach zur Implementierung einer bestimmten Unternehmungsstrategie zunächst die Unternehmungsstruktur bzw. ihre Aufbau- und Ablauforganisation so gestaltet werden müssen, daß sie die Strategie umsetzten können. Aus der Struktur folgt ein systemimmanentes Verhaltensspektrum. Vgl. Hentze / Brose / Kammel, Unternehmungsplanung, 1993, S. 162, und Malik, Strategie des Managements, 1989, S. 174.

[63] Vgl. Bossel, Modellbildung, 1994, S. 20.

[64] Vgl. Schmidt, Strategisches Management, 1992, S. 11.

[65] Vgl. Bossel, Modellbildung, 1994, S. 21.

[66] Bossel, Modellbildung, 1994, S. 27.

[67] Malik, Strategie des Managements, 1989, S. 102.

[68] Vgl. Malik, Strategie des Managements, 1989, S. 102.

[69] Vgl. Malik, Strategie des Managements, 1989, S. 102.

[70] Briggs / Peat, Turbulent Mirror, 1989, S. 75.

[71] Vgl. Morfill / Scheingraber, Chaos, 1991, S. 42.

[72] J. C. Maxwell, zitiert nach Morfill / Scheingraber, Chaos, 1991, S. 42.

[73] Vgl. Morfill / Scheingraber, Chaos, 1991, S. 42.

[74] Vgl. Morfill / Scheingraber, Chaos, 1991, S. 46.

[75]Gekoppelte nichtlineare (Differential-)Gleichungen lassen sich im allgemeinen nicht entkoppeln, das ‘Lösen mit Papier und Bleistift’ ist nicht möglich. Dazu muß man die Gleichungen irgendwie vereinfachen, was eine Reduzierung der Zahl der Gleichungen, ein Vernachlässigen der Kopplungsterme, im allgemeinen aber ein ‘Linearisieren’ der Gleichungen bedeutet. “ Kratky, Paradigmenwechsel, 1990, S. 9. Hervorhebungen im Original.

[76] Vgl. Gleick, Chaos, 1988, S. 43.

[77] Vgl. Kratky, Paradigmenwechsel, 1990, S. 9.

[78] Diese Art der Strukturbildung wird durch den Begriff der Emergenz charakterisiert.

[79] Quelle: Schuster, Chaos und Fraktale, 1991, S. 208.

[80] Bossel, Modellbildung, 1994, S. 21.

[81] Vgl. Schuster, Chaos und Fraktale, 1991, S. 208. Die Sensibilität gegenüber kleinsten Änderungen ist unter dem Begriff „ Schmetterlingseffekt “ bekannt. Vgl. Argyris / Faust / Haase, Erforschung des Chaos, 1994, S. 250.

[82] Vgl. Gleick, Chaos, 1988, S. 37, und Morfill / Scheingraber, Chaos, 1991, S. 54.

[83] Briggs / Peat, Turbulent Mirror, 1989, S. 75.

[84] Nach dieser Relation können Ort und Impuls eines Teilchens nicht zugleich in scharf bestimmter Weise vorausgesagt werden. Vgl. Dorn / Bader, Physik, 1977, S. 37.

[85] Es wird auch behauptet, daß die fehlende Information in Beziehung mit dem Unvollständigkeitstheorem von Kurt Gödel (1930) steht. Er zeigte, daß in logischen Systemen immer Aussagen existieren, deren Gültigkeit nicht aus einer endlichen Menge von Axiomen geschlossen werden kann. Vgl. Briggs / Peat, Turbulent Mirror, 1989, S. 75f.

[86] Vgl. Morfill / Scheingraber, Chaos, 1991, S. 53.

[87] Quelle: Probst / Gomez, Vernetztes Denken, 1989, S. 9.

[88] Vgl. Morfill / Scheingraber, Chaos, 1991, S. 288.

[89] Schuster, Chaos und Fraktale, 1991, S. 214.

[90] Vgl. Morfill / Scheingraber, Chaos, 1991, S. 131.

[91] Vgl. Ulrich, Management, 1984, S. 182.

[92] Vgl. Schuster, Chaos und Fraktale, 1991, S. 208, und Gleick, Chaos, 1988, S. 205ff und Briggs / Peat, Turbulent Mirror, 1989, S. 74.

[93] Vgl. Gleick, Chaos, 1988, S. 205.

[94] Vgl. Briggs / Peat, Turbulent Mirror, 1989, S. 74.

[95] Vgl. Morfill / Scheingraber, Chaos, 1991, S. 205ff.

[96] Malik, Strategie des Managements, 1989, S. 209. Vgl. dazu das Gesetz der erforderlichen Varietät auf Seite 23.

[97] Bossel, Modellbildung, 1994, S. 21.

[98] Vgl. Morfill / Scheingraber, Chaos, 1991, S. 178.

[99] Vgl. Gleick, Chaos, 1988, S. 226.

[100] Vgl. Schuster, Chaos und Fraktale, 1991, S. 209.

[101] Die Universalität dieses Zusammenhangs wurde von Peter M. Senge als „ Limits to Growth “ beschrieben. (Senge, The Fifth Discipline, 1990, S. 95ff.)

[102] Vgl. Briggs / Peat, Turbulent Mirror, 1989, S. 56.

[103] Vgl. Argyris / Faust / Haase, Erforschung des Chaos, 1994, S. 264ff.

[104] Vgl. Briggs / Peat, Turbulent Mirror, 1989, S. 60.

[105] Schuster, Chaos und Fraktale, 1991, S. 211. Hervorhebung im Original.

[106] Vgl. Arthur, The Economy and Complexity, 1989, S. 714.

[107] Vgl. Arthur, The Economy and Complexity, 1989, S. 715.

[108] Vgl. Arthur, Bounded Rationality, 1994, S. 408ff.

[109] Vgl. Arthur, Bounded Rationality, 1994, S. 410.

[110] Vgl. dazu die Abschnitte ‘Die Strategieformung im Rahmen spieltheoretischer Modelle’ sowie ‘Die Simulation begrenzter Rationalität’.

[111] Cramer, Struktur des Lebendigen, 1989, S. 50.

[112] Vgl. Cramer, Struktur des Lebendigen, 1989, S. 224.

[113] Kratky, Paradigmenwechsel, 1990, S. 13.

[114] Vgl. Brunner / Tschacher: Selbstorganisation, 1991, S. 55.

[115] Vgl. Blümecke, Optimierung , 1991, S. 229.

[116] Vgl. Cramer, Struktur des Lebendigen, 1989, S. 31.

[117] Vgl. Argyris / Faust / Haase, Erforschung des Chaos, 1994, S. 214, und Argyris / Faust / Haase, Erforschung des Chaos, 1994, S. 410.

[118] Briggs / Peat, Turbulent Mirror, 1989, S. 138.

Details

Seiten
418
Erscheinungsform
Originalausgabe
Jahr
1995
ISBN (eBook)
9783836633031
Dateigröße
1.7 MB
Sprache
Deutsch
Katalognummer
v227054
Institution / Hochschule
Technische Universität Carolo-Wilhelmina zu Braunschweig – Fakulät für Mathematik und Informatik, Wirtschaftsinformatik
Note
1,0
Schlagworte
selbstlernende systeme maschinelles lernen modellbildung wirtschaftssimulation anpassung

Autor

Teilen

Zurück

Titel: Simulation adaptiver Agenten mittels lernender Klassifizierersysteme