Das Einfache und das Komplexe

Eduard Kaeser's picture

Das Einfache und das Komplexe

Von Eduard Kaeser, 25.03.2018

Über die Grenzen der Erkenntnis: Wir kennen das Einsteinsche Wort: „Das Unverständlichste am Universums ist im Grunde, dass wir es verstehen.“

Auf Alltagsdinge angewendet, müsste es abgeändert werden: Das Verständlichste an Alltagsdingen ist im Grunde, dass wir sie so wenig verstehen. Die Physiker entwickeln Theorien über den Ursprung des Universums und über das, was Materie im Innersten zusammenhält, aber nur schon den Bildschirm meines Laptops zu verstehen, setzt ein beachtliches Exerzitium materialwissenschaftlichen Hirnens voraus. Erst recht nicht zu beneiden sind die Biologen, wenn sie etwa Antibiotikaresistenz oder die gewöhnliche Erkältung theoretisch bewältigen sollen. Der Teufel steckt im Alltäglichen. Und warum? Weil es komplex ist.

Was ist Komplexität?

Und was ist Komplexität? Zunächst einmal hat die Frage nichts mit Mikro- und Makrodimensionen zu tun. Kleine Dinge können komplex, grosse Dinge können einfach sein. Mitochondrien – die „Energielieferanten“ der Zelle – sind klein, aber ein komplexes Wunderwerk der Natur. Ein Stern ist gross, aber eigentlich ein ziemlich einfaches extrem heisses Gas aus Kernen und Elektronen.

Wir wollen uns der Komplexität von der Frage her nähern: Wie verstehen wir sie? Theorien sind das zentrale Verständnismittel der Wissenschaft. Sie reduzieren Unverständliches auf für uns Verständlicheres. Für die antiken Naturphilosophen bewegten die Götter die Himmelskörper. Götter verhielten sich eigentlich wie Menschen, deshalb „verstand“ man die astronomischen Phänomene am ehesten, indem man sie auf „einfache“ quasimenschliche Beweggründe zurückführte. Damit kann natürlich ein moderner Astronom nichts anfangen. Das „Einfache“ sind für ihn physikalische Körper – letztlich Elementarteilchen – und ihre Wechselwirkungen. In diesem Sinn hat jede Theorie sozusagen ihr konzeptuelles Reservoir an Entitäten als Erklärungsfiguren, mit denen sie ihr explikatives Spiel spielt. Die Physik spielt mit Elementarteilchen und ihren Wechselwirkungen; die Chemie mit Atomen und ihren Verbindungen; die Molekularbiologie mit den Genen und ihren Expressionen in Lebewesen; die Neurobiologie mit Neuronen und ihren vernetzten Aktivitäten; die Ökonomie mit  individuellen „Marktatomen“ und den Marktkräften zwischen ihnen.

Das Ockhamsche Rasiermesser

Ein Charakteristikum für Einfachheit bietet sich hier fast von selbst an:  Möglichst wenige Figuren und Wechselwirkungen. Eine mittelalterliche Version dieses Charakeristikums ist das sogenannte „Ockhamsche Rasiermesser“. Der Franziskaner Willhelm von Ockham empfahl im 14. Jahrhundert, Theorien von unnötigen Annahmen zu „reinigen“. In der Neuzeit gilt die klassische Mechanik als Vorbild für theoretische Einfachheit. Ihre Spielfiguren sind Teilchen mit einer Handvoll Eigenschaften – zum Beispiel Masse, Ort, Impuls. Ein paar Kräfte beschreiben ihre Wechselwirkungen. Und alles unterliegt der Legislatur einiger mathematisch abgefasster Grundgesetze. Auf dieser Basis lässt sich eine stupende Vielfalt und Fülle von Phänomenen beschreiben und erklären. Anderthalb Jahrhunderte lang waren die Physiker so berückt von der Architektur dieser Theorie, dass sie sie für unzerstörbar und  endgültig hielten.

Die Hierarchie der Disziplinen

Daraus resultiert das klassische hierarchische Bild der Wissenschaft als eines Theoriengebäudes mit zahlreichen Stockwerken der Erklärung. Zuunterst die Elementarteilchenphysik und Mathematik, mit ihren „Fundamenten“ der Welterklärung. Darauf fügen sich die anderen Disziplinen der Physik, die Etagen der Chemie, Biochemie, Molekularbiologie, Botanik, Zoologie, schliesslich der Verhaltenswissenschaften Psychologie, Soziologie und Ökonomie. Diese Ordnung spiegelt sich heute noch in der protokollarischen Reihenfolge der Nobelpreisverleihung: Zuerst Physik, dann Chemie, dann Physiologie – Ökonomie kommt nicht vor.

Die Metapher ist so populär wie irreführend. Ich nenne drei Gründe. Erstens ist ein Gebäude empfindlich abhängig von der Robustheit seiner Fundamente. Wackelt unten etwas, wackelt oben sehr schnell sehr viel. Womöglich bleibt kein Stein auf dem andern. Höhere theoretische Etagen bleiben dagegen von Änderungen oder Erschütterungen in den physikalischen Grundfesten ziemlich unbeschadet. Betrachten wir den fundamentalen Begriff der Masse. Von seiner klassischen Bedeutung ist in der Quantenfeldtheorie fast alles zerstiebt. Aber Chemiker, Biologen oder Ingenieure benutzen ungerührt die klassische Masse und ihre Gesetzmässigkeiten zur Erklärung ihrer Phänomene. Das bedeutet nicht, dass die fundamentale Physik irrelevant für die höhergelegenen Disziplinen wäre, sondern ganz einfach, dass diese Disziplinen auf ihren Etagen über eigene robuste und irreduzible Konzepte verfügen.

Der Erklärungspfeil

Was aber heisst „irreduzibel“? Damit sprechen wir den zweiten Grund an. „Reduzibel“ drückt die Erwartung aus, dass wir in den tieferen Etagen die tieferen Gründe eines Phänomens finden. Man sagt etwa auch, der „Erklärungspfeil“ zeige von oben nach unten. So sind soziale Phänomene menschliche Phänomene, Menschen sind Organismen, Organismen bestehen aus Molekülen, Moleküle wiederum aus Atomen und Elementarteilchen. Es wäre allerdings lächerlich, zu postulieren, etwas sei erst „wirklich“ erklärt, wenn man es als eine Lösung der fundamentalen Gleichung der Quantenphysik, der Schrödingergleichung, darstellt. Um die Dinge auf einem höheren Stockwerk zu erklären, brauchen wir eine Unmenge an zusätzlicher „Stockwerk-Information“, die auf tieferer Ebene nicht verfügbar ist. Man spricht dann von „effektiver Komplexität“ des höheren Stockwerks.

„More is different“

Und das führt uns zum dritten, wohl entscheidenden Grund. Wir kennen zwar die Gesetze der Wechselwirkung von Elementarteilchen, aber das genügt nicht. Ein Apfel besteht aus einer Riesenzahl von Elementarteilchen, aber er ist nicht identisch mit einem Aggregat von Elementarteilchen. In den Worten des Physikers Philip W. Anderson: „More is different“. Das liegt an der Nicht-Linearität der Wechselwirkungen: das Ganze ist nicht einfach eine Summe. Alltägliche Materialien manifestieren kollektive Effekte, welche in den fundamentalen Gesetzen nicht „festgeschrieben“ sind, sogenannte emergente Eigenschaften. Dazu gehören Trivia wie die Glätte des Apfels, seine Festigkeit und Säurehaltigkeit, ebenso wie Exotika, z. B. die flüssige Kristallinität des Laptopbildschirms, die Supraleitfähigkeit oder Supraflüssigkeit ultrakalter Stoffe. Dazu gehören aber auch Eigenschaften, wie wir sie von den Grundbausteinen des Lebens her kennen, etwa die informations­tragende Struktur organischer Moleküle. Kipppunkte – „tipping points“ – in der Ökonomie oder Segregationstrends in der Soziologie sind ebenfalls solche „auftauchenden“ Eigenschaften in komplexen Systemen.

Enhancement durch künstliche Intelligenz

Wie gesagt, Theorien reduzieren Unverständliches auf Verständlicheres – für uns. Aber ist das nicht zu anthropozentrisch gedacht? Oder umgekehrt gefragt: Sind denn unserem Verständnis nicht natürliche Grenzen – durch unsere artspezifische Konstitution – gesteckt? Warum also den Verstand nicht artunspezifisch erweitern, vebessern – posthumanes Enhancement? Wir sprechen ja heute bereits von den Minicomputern, die wir mit uns herumtragen, als von „outgesourcten Gehirnen“. Bald werden wir sie implantieren.

Damit zielt man freilich am eigentlichen Problem vorbei. Zweifellos leistet der Computer heute unentbehrliche Dienste auf datenintensiven Forschungsgebieten. Aber wenn wir der menschlichen Erkenntnisfähigkeit Grenzen attestieren, warum dann nicht auch einem hybriden System aus natürlicher und künstlicher Intelligenz? Wir kennen spätestens seit Gödels, Turings und Komolgorovs bahnbrechenden Arbeiten Grenzen der Berechenbarkeit und algorithmischen Lösbarkeit von Problemen. Heute wird Komplexität vorzugsweise anhand der Mindestzeit kategorisiert, die ein Programm zur Lösung einer Aufgabe benötigt. Dabei zeigt sich immer klarer, dass viele Probleme auch vom potentesten Algorithmus nicht in „vernünftiger“ Zeit gelöst werden können. Der Grund entpuppt sich als überraschend trivial: Jedes System ist endlich, und produziert folgedessen seine eigene Transzendenz. Auch eine künftige Superintelligenz wird auf ihre Grenzen stossen – nur werden wir diese Grenze nicht mehr verstehen. Oder so gefragt: Wer wird dann dieses „Wir“ sein?

Kommentare

Die Redaktion von Journal21.ch prüft alle Kommentare vor der Veröffentlichung. Ehrverletzende, rassistische oder anderweitig gegen geltendes Recht verstossende Äusserungen zu verbreiten, ist uns verboten. Da wir presserechtlich auch für Weblinks verantwortlich sind, löschen wir diese im Zweifelsfall. Unpubliziert bleiben ausserdem sämtliche Kommentare, die sich nicht konkret auf den Inhalt des entsprechenden Artikels oder eines bereits aufgeschalteten Leserkommentars beziehen. Im Interesse einer für die Leserschaft attraktiven, sachlichen und zivilisierten Diskussion lassen wir aggressive oder repetitive Statements nicht zu. Über Entscheide der Redaktion führen wir keine Korrespondenz.

Es freut mich wieder einmal einen Artikel zu lesen, indem KI nicht einfach als Stein des Weisen dargestellt wird! Bravo!

Das Problem der Komplexität liegt schlicht in der Gleichschaltung völlig gegensätzlicher Entwicklungen. So werden Informationen gerne mit Daten gleichgesetzt und das Einfache mit Vereinfachungen. Kein Wunder, dass die Welt immer komplexer erscheint.

Jaron Lanier schrieb in 'Wem gehört die Zukunft?', dass die Vereinfachung das wichtigste Werkzeug der Moderne ist, ohne jedoch zu erkennen, dass die Folge zunehmender Vereinfachung von einfachen Zusammenhängen nicht minder zunehmende Komplexität ist und das Daten, wenn sie ihrer Kontexte beraubt und somit entwurzelte Informationen sind, umso mehr Komplexität bewirken, je mehr wir Daten einsetzen, um den einfachen Zusammenhängen auf die Spur zu kommen. Wie kann da eine Künstliche Intelligenz für Klarheit sorgen, wenn ihre Inselbegabung die Verarbeitung und Ansammlung von immer mehr Datenmengen ist?

Nichts bleibt, wie es ist. Und wenn es bleiben soll, wie es nicht bleiben kann, dann kann man mit Daten vereinfacht neue Kontexte schaffen - und mit großen Datenbergen ganze Kontextgebirge versetzen.

Nun, ANDERE Lebewesen kommen seit langer Zeit ganz ohne Vereinfachungen aus, sie leben einfach ihr Leben.

Betreffend "hybrider" Superintelligenz bleibe ich beim "Ich" sagen. Wer ist dann "Wir"? Wer fragt nach dem "Wir"? Wer fragt nach mir?

SRF Archiv

Newsletter kostenlos abonnieren