top of page

Komplexität und Unsicherheit – Teil 1

Schmetterlingseffekte im Bauch: Wie Komplexitätsökonomik fundamentale Unsicherheit denkt


Von Robert Raffel


Nerd*innen, es wird komplex werden, denn in Teil 1 und Teil 2 dieses Blogeintrags geht es – hihi – um: Komplexitätsökonomik. Mehr noch: Um Arten fundamentaler Unsicherheit, sogenannte Phasenräume, um gute Ignoranz, Kreativität, Adaptivität und darum, wieso das praktisch Unmögliche in der Komplexitätsökonomik praktische Relevanz hat. Denn ich möchte analysieren, welche Arten fundamentaler Unsicherheit in der Komplexitätsökonomik denkbar werden und was für normative Folgen das für uns hat. Teil 1 wird hauptsächlich Rekonstruktion leisten und Teil 2 wird dann eine Kritik formulieren. Yay.


Hm. Aber »Komplexitätsökonomik«, »Phasenräume«, »fundamentale Unsicherheit« – wieso sollte ich mich in diese Konzepte einarbeiten? Klingt ja alles schon recht technisch. Machen wir einen Relevanzcheck!



Relevanzcheck

Erstens: Komplexitätsökonomik ist einmal relevant, weil sie voraussichtlich zum Hype werden wird – manche sprechen hier schon von einer »Complexity Era« (Holt et al. 2011) in der Ökonomik. Aber unabhängig davon, dass »Komplexitätsökonomik« einfach catchy klingt, ist dieser Hype auch irgendwie berechtigt. Denn sie beansprucht, realistische Ökonomien in ihrer Transformation zu simulieren – und das mit einer mathematischen Sprache, die die orthodoxe Ökonomik nicht einfach als unwissenschaftlich ablehnen kann. Die Idee ist, die komplexe, von unvorhergesehenen Störfaktoren durchgerüttelte Entwicklung einer Ökonomie außerhalb von vermeintlichen Gleichgewichten zu fassen. Wenn die Simulationen gut sind, hätten sie z.B. den Ertrag, verschiedene Transformationspfade durchspielen zu können. So kann man schauen, wo die Verlierer*innen einer Transformation liegen oder wo sich neue Ausbeutungswege eröffnen (vgl. Arthur 2021).


Zweitens: Fundamentale Unsicherheit ist ein Konzept, dass man meistens von Keynes kennt. Es ist wichtig, nicht nur weil es in heterodoxen Theorien – insbesondere im Post-Keynesianismus (vgl. Lavoie 2022), aber auch in der Komplexitätsökonomik (vgl. Arthur 2015) – eine zentrale Annahme ist, um das Entscheidungsverhalten von ökonomischen Akteur*innen zu modellieren. Fundamentale Unsicherheit hat zahlreiche Folgen für den Status von Geld (Keynes), von Märkten (Hayek), die Investitionsneigungen von Haushalten sowie deren »Krisenresilienz«, uvm.


Und was sollen bitte diese komischen »Phasenräume«? Dies ist ein Konzept, das für die Komplexitätstheorie ziemlich wichtig und meines Erachtens der Archimedische Punkt ist, um den Unsicherheitsbegriff »der« Komplexitätsökonomik freizulegen. Phasenräume sind ein leistungsfähiges Tool, aber sie haben auch – das werden wir noch im Teil 2 dieses Blogposts sehen – Konsequenzen für das normative Framing von Nichtwissen und Unsicherheit.


Deswegen werde ich im vorliegenden Teil 1 erst mal Unsicherheit erklären, dann Phasenräume ins Spiel bringen (keine Angst, es gibt Bilder!), um dann hauptsächlich am bekannten Komplexitätsökonomen Brian Arthur (2015) zu erläutern, wie Komplexitätsökonomik fundamentale Unsicherheit denkt.


Epistemische Unsicherheit

Stellen wir uns also die Frage: Fundamentale Unsicherheit – was das? Fundamentale Unsicherheit ist in der Forschung eng verbunden mit der Idee des Nichtwissens. Wenn ich nicht genug weiß, macht das meine Entscheidungen unsicher. Um das heuristisch klar zu haben, wird fundamentale Unsicherheit in der Forschung vom sogenannten Risiko unterschieden (vgl. Lavoie 2022).


Beim Risiko überwiegt nämlich das Wissen, wie man es z.B. beim Wurf eines Würfels sehen kann. Die Entscheidenden haben hier kein Nichtwissen, sondern vollständiges Wissen darüber, 1. welche Systemzustände insgesamt möglich sind (z.B. 1 bis 6 Augen) und 2. wie wahrscheinlich diese Zustände jeweils sind (1/6). Das einzige, was sie nicht wissen, ist lediglich, welche der möglichen Ereignisse auch wirklich eintreten werden. Ihre Entscheidungen funktionieren daher nicht mehr deterministisch, sondern probabilistisch (vgl. Svetlova/van Elst 2013: 2f.). D.h. in einer Risikosituation weiß niemand, was wirklich passieren wird; alles, was man tun kann, ist den möglichen Ereignissen Wahrscheinlichkeiten zuzuordnen, die dann im Durchschnitt und mit Abweichungen anzeigen, was wahrscheinlich passieren wird. Immerhin etwas.


Aber Risiko ist nicht Unsicherheit. Merken! Bei Unsicherheit wissen die Entscheidenden nämlich gar nicht erst, welche Systemzustände überhaupt alle möglich sind, weswegen sie diesen auch keine Wahrscheinlichkeiten zuordnen können. Das ist in etwa so, als wollte man die Wahrscheinlichkeit des Auftauchens einer Würfelseite bestimmen, während es unbekannt ist, wie viele Seiten der Würfel eigentlich hat. Welche Folgen die Entscheidung hat, liegt entsprechend noch mehr im Dunkeln. Die eigene Entscheidungskompetenz ist entsprechend noch niedriger.


Phasenräume in der Komplexitätstheorie

Man kann nun sowohl Risiko als auch Unsicherheit in diesen komischen Phasenräumen abbilden. Doch ein Phasenraum – was das? Man nehme ein dynamisches System – z.B. ein Pendel, ein Fahrrad oder: eine Ökonomie. Der Phasenraum dieses dynamischen Systems (aus Gründen manchmal auch »Zustandsraum« genannt) ist die wohldefinierte Menge aller möglichen Zustände, die dieses System einnehmen kann. Er ist sozusagen eine vollständige Liste der Möglichkeiten, wie sich das System verändern kann.


Um diese Liste bilden zu können, muss man die relevanten Freiheitsgrade (manchmal auch »Kontrollparameter« oder »Basisvektoren« genannt) des Systems bestimmen. Das System eines Pendels im Vakuum kann sich z.B. nur hinsichtlich seiner Position und seines Impulses verändern, weswegen es zwei Freiheitsgrade braucht, um dessen Phasenraum zu bilden. Eine Ökonomie aber kann sich – man glaubt es kaum – auf vielfältigere Weise verändern, weswegen es hier mehr, sagen wir n Freiheitsgrade braucht. Über die n Basisvektoren eines Systems entsteht so ein n-dimensionaler Phasenraum.


Wie wird nun ein Zustand des Systems repräsentiert? Er wird »auf den Punkt gebracht«, d.h. z.B. der mögliche Zustand, dass die Inflation auf 10% geht, bildet einen Punkt im Phasenraum, der sich über die Werte der Parameter bestimmen lässt. Jede Veränderung des Systems bildet dann z.B. einen Kurvenpfad in diesem Raum.


Hier ist ein zweidimensionaler Phasenraum von einem System, über das wir vollständiges Wissen haben und es daher genau auf einen Punkt P bringen können. Eine Systemveränderung führt zu Q.


Phasenräume und Nichtwissen

Und jetzt kommt’s. Sofern Nichtwissen über das System vorliegt (was meistens der Fall ist), können wir das System nicht mehr über einen Punkt, sondern über eine Fläche, d.h. ein Ensemble von möglichen Punkten im Phasenraum abbilden (vgl. Prigogine/Stengers 2017). Und diese Fläche ist meist nicht neutral, sondern wird durch eine uneinheitliche Wahrscheinlichkeitsverteilung strukturiert.


Wir wissen nicht mehr genau, wo sich das System im Phasenraum aufhält, aber die Region, in der es sich aufhalten kann. Diese Fläche zeigt also ausgehend von unserem Wissensgrad an, welche von allen Möglichkeiten mit welcher Wahrscheinlichkeit auch wirklich vom System eingenommen werden. Phasenräume bilden Systeme ab und unseren Wissensstand von ihnen.


Hier haben wir qua Nichtwissen nicht mehr einen Punkt, sondern eine Fläche, die mögliche Systemzustände abbildet. Wichtig: Auf dieser Fläche sind unendlich viele Punkte, d.h. unendlich viele mögliche Systemzustände (wenngleich sie sich teils nur ganz wenig voneinander unterscheiden.) Dieses Bild wurde inspiriert von Prigogine/Stengers (2017 [1984]).

Es sind also alle Möglichkeiten des Systems bekannt, was schon mal gut ist. Aber weil wir nicht genau den Abwurfwinkel, den Wurfimpuls, das Gewicht des Würfels, die Luftströme im Casino, usw. kennen, funktioniert unsere Entscheidung im Casino nicht deterministisch, sondern probabilistisch. Die Situation ist (siehe oben) risikoreich, nicht unsicher. Aber meistens haben wir nicht das Glück, alle Möglichkeiten einer Situation zu kennen. Wie könnte Komplexitätsökonomik über diese Phasenräume daher fundamentale Unsicherheit denken?


Unsicherheit führt zu Komplexität

Um das zu klären, müssen wir noch einen kurzen Umweg gehen. Denn Unsicherheit und Komplexität werden in der Komplexitätsökonomik wechselseitig gedacht. Unsicherheit führt zu Komplexität (vgl. Arthur 2015: 5ff.) und Komplexität wiederum zu Unsicherheit (vgl. Rosser 2015). Erläutern wir das, indem wir erstmal so tun, als wäre eine Ökonomie bereits unsicher. Was passiert dann laut Theorie?


Weil Individuen fundamental unwissend sind, bilden sie Interpretationen von ihrer Situation (in der Verhaltensökonomie auch bekannt als »Heuristiken«). Alle Wissenslücken werden aufgestopft durch subjektive Bilder. Diese erproben sie in der Praxis und passen sie immer wieder neu an. Sie imaginieren also nicht nur ihre Zukunft (siehe Beckert 2016), sondern auch ihre Gegenwart, indem sie ihre jetzigen Wissenslücken, ausgehend von ihren je eigenen Erfahrungen, »interpretativ stopfen«. Wenn ich z.B. im Dunkeln etwas an mir vorbeihuschen sehe, dann interpretiere ich blitzschnell, dass das meine Katze ist, weil ich schon länger mit ihr zusammenlebe. Menschen, die bei mir das erste Mal zu Besuch sind, haben dagegen ganz andere Interpretationen. Sie verhalten sich anders. Es folgt: Selbst wenn wir als homogene Nutzenmaximierer*innen starteten, durch unser Nichtwissen entstünden ausgehend von unseren je eigenen Erfahrungen heterogene Verhaltensmuster.


Durch Unsicherheit gibt es also kein homogenes Individuum (wie es z.B. der Neoklassik vorschwebt). Wenn aber Individuen heterogen sind, dann erzeugt das weiteres Nichtwissen: Dann weiß ich für eine Entscheidung nicht, wie sie auf diese Entscheidung reagieren werden. Um entscheidungsfähig zu werden, kann ich dies aber nicht einfach offen lassen. Es ist ja relevant, wie sie reagieren. Ich muss daher eine Erwartung über das Verhalten anderer bilden und daran richte ich mein Entscheidungsverhalten aus.


Allerdings richten die anderen ihr Verhalten an ihren Erwartungen über das Verhalten ihrer Mitmenschen aus; diese Mitmenschen richten wiederum ihr Verhalten an ihren Erwartungen über ihre Mitmenschen aus, usw. Über fundamentale Unsicherheit entsteht also ein »Erwartungsfeedback«, ein loop. Die Situation wird komplex (vgl. Arthur 2015). Unsicherheit führt zu Heterogenität führt zu Komplexität.


Der Schmetterlingseffekt

Gehen wir nun in die andere Richtung und fragen uns, wie Komplexität laut Komplexitätsökonomik zu Unsicherheit führt. Erst einmal würde sie dafür nicht mehr den Phasenraum eines dynamischen, sondern eines komplex-dynamischen Systems verwenden. Und das heißt (unter anderem), dass das System wie oben positive Feedbackschleifen aufweist (auch bekannt als »Autokatalyse«). Mit anderen Worten: Die Interaktionen von Individuen auf der Mikroebene schaffen eigenständige Ordnungen auf der Meso- oder Makroebene; auf diese reagieren dann wiederum die Individuen, d.h. sie ändern ihr Verhalten – was aber wiederum andere Ordnungen generiert, usw. Input und Output lassen sich nicht strikt trennen.


Dadurch wird die Systemdynamik nicht-linear: Kleine Veränderungen haben nicht mehr nur kleine, sondern können große Wirkungen haben. Angenommen, die untersuchte Ökonomie befände sich am Punkt (1|2) und würde sich über einen Zeitraum zum Punkt (2|4) entwickeln. Wenn das System nicht-linear funktioniert, dann könnte schon die Abweichung zu Punkt (1,00001|2) dazu führen, dass es sich ganz woanders, sagen wir zum Punkt (31|-4) entwickelte. Diesen »Schmetterlingseffekt« kennt man z.B. vom sogenannten Herdenverhalten auf Finanzmärkten: Nur eine Person muss etwas anders machen – und schon kippt das System.


Etwas komplizierter ausgedrückt: Über die positiven Feedbackschleifen eines Systems können sich Abweichungen in den Parameterwerten bei der Überschreitung von Kipppunkten dermaßen intensivieren, dass sie zu einer anderen Wahrscheinlichkeitsverteilung P im Phasenraum führen. Mehr noch: Die Fläche A, durch die das System abgebildet wird, kann sich umformen, d.h. für das System ist ab einem Punkt plötzlich etwas ganz anderes möglich als vorher: Über eine nicht-lineare Dynamik können sich Wahrscheinlichkeiten und Möglichkeiten unvorhergesehen verändern. Entsprechend wird der globale Durchschnitt schlagartig zur Abweichung und die vermeintliche Abweichung zum Durchschnitt.


Das ist ungefähr so, als wollte man die Wahrscheinlichkeit des Auftauchens einer Würfelseite bestimmen, während der Würfel plötzlich seine Seitenanzahl verändert und sich dann auch noch ständig die Wahrscheinlichkeiten der Seiten verändern… Irgendwie schwierig.


Komplexität führt zu Unsicherheit

Es ist letztlich diese Empfindlichkeit gegenüber kleinen Veränderungen in einer nicht-linearen Ökonomie, die dazu führt, dass Akteur*innen bereits bei einem minimal ausgeprägten Informationsmangel mit fundamentaler Unsicherheit konfrontiert sind. Früher oder später übersehen sie nämlich Abweichungen, die zu einer eruptiven Veränderung der Systemstruktur führen könnten. Und seien wir mal ehrlich – weil jede*r immer über irgendetwas nicht Bescheid weiß, könnten wir alle also nicht nur nicht die Wahrscheinlichkeiten, sondern nicht einmal die Möglichkeiten des Systems abschätzen. Wir alle hätten mit fundamentaler Unsicherheit zu kämpfen.


Sofern das System nicht auf einen Punkt gebracht werden kann, kann jede minimale Abweichung dazu führen, dass zum nächsten Zeitpunkt etwas ganz anderes möglich ist. Dieses Bild wurde inspiriert von Prigogine/Stengers (2017 [1984]).

Zugegeben: Wir könnten versuchen, mehr Wissen über diese Abweichungen zu erlangen. Z.B. indem wir über Research & Development Datenlücken schließen oder unsere Fähigkeiten zur Informationsverarbeitung verbessern. Dies hätte die Folge, dass die Fläche, in der sich das System aufhalten könnte, kleiner würde. Aber egal wie klein wir diese Region kriegen können, sofern sie kein Punkt ist, können wir nicht ausschließen, dass sich das System in Richtungen entwickelt, die, weil wir sie gar nicht vorhergesehen haben, die Fläche wieder wachsen lässt. Auch die Abweichung zu Punkt (1,00000000000000000000001|2) könnte das System ganz woanders hinbringen. Sofern zudem R&D innerhalb eines nicht-linearen Systems geschieht, generiert jeder Versuch, Wissen über das System zu maximieren, neue kleine Abweichungen, von denen man nun ebenfalls Bescheid wissen müsste.


Mehr Wissen führt so zu mehr Nichtwissen. Jeder Versuch, in einem komplexen System Unsicherheit zu reduzieren, führt also dazu, dass man immer mehr über es wissen muss. Die Aufgabe, vollständiges Wissen zu erlangen, wird somit exponentiell schwieriger. Zwar ist es theoretisch möglich, dass die Akteur*innen vollständiges Wissen über die Anfangsbedingungen des Systems hätten und so dessen Veränderungen vorhersagen könnten. Weil dies jedoch für endliche Individuen (und by the way auch für Computer) praktisch unmöglich ist, bleibt deren Situation fundamental ungewiss.


Und erinnern wir uns an oben: Ungewissheit führt zu Heterogenität führt zu Komplexität. Diese fundamentale Ungewissheit gibt also Anlass für das Ausbilden heterogener Verhaltensweisen, wegen denen ständig neue Komplexitäten und neue Abweichungen generiert werden. Und neue kleine Abweichungen bedeuten noch stärkere Unsicherheit. »Uncertainty engenders further uncertainty.« (Arthur 2015: 5) Genau so denkt Komplexitätsökonomik fundamentale Unsicherheit.


Im zweiten Teil (Erscheinung folgt in zwei Wochen) beschäftige ich mich nun mit der Frage, wieso das praktisch Unmögliche in der Komplexitätsökonomik praktische Relevanz hat. Ich werde mich folgender These widmen: Welche Arten von fundamentaler Unsicherheit man wie charakterisiert, impliziert ein bestimmtes normatives Framing von Wissen und Nichtwissen, das wiederum eine bestimmte Richtungstendenz für die »Mindsetebene« (Göpel 2016: 47) von Wirtschaftspolitik mit sich bringt. Kurz: Ich werde die Komplexitätsökonomik ein bisschen kritisieren, also schaut unbedingt auch im Teil 2 vorbei!


 

Literatur
Hintergrund

bottom of page