Steffen Herrmann

Nachklassisches Denken und physikalische Philosophie

Nachklassisches Denken und physikalische Philosophie

 

Seit etwas mehr als hundert Jahren verlieren einige Dichtomien, an deren einem Pol sich jeweils das Sein befindet, zunehmend ihre regulatorische Kraft. Im Einzelnen sind das: Sein – Nichts, Sein – Seiendes, Sein – Bewusstsein, Sein – Möglichkeit, Sein – Entstehen/Vergehen. Diese Dualitäten sind nicht gleichrangig und bilden ihrerseits ein System von Differenzen; sie lassen auch je eigene Aspekte des Seins aufscheinen, als Wesen, als Vorhandenes, als Realität, als Gegenwärtiges. Mit dem Verwischen der Grenze erodieren nicht nur die jeweiligen Differenzen, sondern auch deren positive Seite: das Sein. Jenes schöne, volle runde Sein, auf das wir uns seit Parmenides stützen, zeigt Auflösungserscheinungen und reisst in seinem Verschwinden noch etwas mit sich, was uns sehr wertvoll ist: die Unterscheidung von Notwendigkeit und Zufall. Mit dem Sein erlischt auch das Absolute, der durch es gestiftete Ort der Wahrheit und des Gesetzes.

 

Der Angriff auf das klassische Denken geschah von verschiedenen Seiten: der Mathematik, der Physik, der Logik, der Philosophie, der Kosmologie.

 

Die Milchstrasse enthält etwa hundert Milliarden Sterne, das Universum seinerseits hundert Milliarden Galaxien. Wenn man die Frage stellt, wie gross die gesamte Energie dieser gewaltigen Menge an Materie ist, erhält man eine Antwort, die zunächst überraschen mag: Null. Die Gesamtenergie des Universums ist exakt null (Von einem präziseren Standpunkt aus muss allerdings eingeräumt werden, dass eine Grösse 'Gesamtenergie des Universums' im Rahmen der Allgemeinen Relativitätstheorie gar nicht definiert ist. Diese Einschränkung verträgt sich gut mit den hier entwickelten Gedanken, welche die Totalitäten bezweifeln, zu denen auch die physikalischen gehören.). Damit eine Welt entstehen konnte, musste der Urknall die notwendige Energie, welche nicht vorhanden war, aus dem Nichts heraus borgen und diese erscheint auf der anderen Seite der Gleichung dann als die positive Energie der Materie. Es gibt also, aufs Ganze gerechnet, keine Energie in der Welt. Das Sein ist aus dieser Perspektive eine Irritation (eine Quantenfluktuation), die etwas, das weder ist noch nicht ist, aus sich selbst heraus erzeugte; vereinfacht und blumig gesprochen: ein Falte im Nichts. Würde die Differenz aus positiver (materieller) und negativer (Potential) Energie aufgehoben, dann würde die Welt verschwinden.

 

Das mittelalterliche Denken, das in seiner Bedeutung und vor allem seiner Wirkungsmacht oft unterschätzt wird, operierte mit der Leitdifferenz endlich/unendlich, manchmal in der Form zeitlich/ewig. Es ist ein fortgesetzter Versuch, das Unendliche vom Endlichen her zu denken, indem es das Endliche als vom Unendlichen abgeleitet versteht. Diese Philosophie ist sich ihrer paradoxen Grundlage bewusst, doch wird das Unendliche damit nicht diskreditiert. Die Welt (das Endliche) als

Emanation Gottes (des Unendlichen) erhält durch diesen Bezug ihren Platz, sie bleibt zwar ein Endliches, zugleich aber ist sie etwas Absolutes, eine Totalität: die Einheit des Endlichen, die Welt.

Der Operationsmodus endlich/unendlich, der auch das Paradox entfalten muss, dass Aussagen nur im Endlichen möglich sind, ihr Sinn aber auch Unendliches fassen soll, produziert das Endliche als eine Totalität. Erst so ist überhaupt eine Welt möglich und damit eine Region der Wahrheit und des Seins. Es wird zu zeigen sein, wohin die Dekonstruktion, das Zerbröseln dieser während mehr als tausend Jahren solide gebliebenen Form führt.

 

Das zeitliche Spektrum dieses Denkens erstreckt sich von Plotin (noch Antike) bis hin zu Giardano Bruno (schon frühe Neuzeit). Dabei lässt sich bei Bruno eine deutliche Verschiebung der Akzente feststellen. Die Differenz endlich/unendlich besteht nun nicht mehr zwischen Welt und Gott, sondern ist innerhalb der Welt zu finden. In dem diese Denkweise prägenden Spiel von Korrespondenzen und Ähnlichkeiten muss die Schöpfung eines Unendlichen ebenfalls unendlich sein. Es wäre Gottes unwürdig, eine endliche Welt zu erschaffen, in ihrer nackten Armseligkeit würde sie die Grösse des Schöpfers negieren. Deshalb muss es unendlich viele Sonnen geben, deshalb hat die Welt auch kein Zentrum.

 

Der Platz Gottes wird in einem solchen Pantheismus prekär. Er steht der von ihm geschaffen Welt nicht mehr gegenüber, er verliert seinen distinkten Charakter als Schöpfer, als Wille, als Person. Stattdessen findet er sich in den Ritzen der Welt wieder, ist mit ihr legiert.

Die Welt aber, die ihre Charakteristik als Absolutes weiterhin beansprucht (sie will noch immer die Welt sein), verlangt nach einem Gegenüber, einem Ort, von dem aus sie als Ganzes konstituiert werden kann. Was kann an die Stelle des schwach gewordenen Gottes treten? Dieser Gott, der als unendliche Substanz die Welt durchweht, muss nur begriffen werden als eine potenziell unendliche Menge von Kristallisationspunkten, die in ihrer Gesamtheit das erzeugen, was weiterhin gebraucht wird: die Totalität der Welt. Damit ist das Cogito geboren.

 

Diese neue Art zu denken, die hier klassisch genannt werden soll, operiert nicht mehr mit der Leitdifferenz endlich/unendlich, sondern mit der von Sein(als Materie)/Bewusstsein. Seit Descartes hat das Unendliche seinen konstutierenden Rang verloren, an diese Stelle treten Selbstreferenz und Negativität. Die Selbstbezüglichkeit erbt das Cogito von Gott, die Negativität aber ist eine Referenz an die Endlichkeit. Gott ist volles Sein, in einem Akt seines Ausfliessens erschafft er die Welt, nicht, weil sie ihm zuvor fehlte. Das Cogito aber ist auf die Welt angewiesen, es ist nichts ohne sie, es muss fortwährend denken, wahrnehmen, sich auf die Welt (sein Negatives) beziehen, um nicht zu verschwinden.

Auch Gott verschwindet nicht, doch die Welt, die ihm entschlüpft ist, beginnt ihn zu fesseln. Er verliert seine Macht. Die Welt, wie sie ist, zwingt ihn, genau so, wie sie ist, geschaffen worden zu sein. Ihre Faktizität zerstört die Freiheit Gottes. Denn dieser, so wissen wir durch Leibniz, konnte durchaus nicht eine beliebige Welt erzeugen, er war gezwungen, die beste aller Welten zu schaffen. Denn würde die Welt suboptimal sein, käme darin ein Manko Gottes zum Ausdruck, das sich nicht mit dessen Begriff verträgt.

Damit wird die Welt, wie schon lange vor dem Durchlaufen des theologischen Zeitalters bei den Vorsokratikern, zu einer eigenständigen Ordnung. Indem sie Gott über die verschiedenen Pantheismen (Bruno, Spinoza, Leibniz) in sich aufgenommen, absorbiert hat, gelangt sie zu einer neuen leitenden Differenz innerhalb der Welt, der zwischen den Dingen und den Gesetzen.

 

„Wenn“, so fragt der Gläubige „es nicht Gott war, der alles schuf, wie kam dann die ganze Ordnung zustande, die in ihr herrscht?“

„Durch die Naturgesetze“ antwortet der Atheist, der sich überlegen fühlt.

Dabei geht vergessen, dass die Gesetze den Platz Gottes einnehmen, im Kern aber keine bessere Erklärung für die Frage nach dem Sein geben. Die Gesetze sind, genau wie Gott, ausserhalb der Zeit, ungeschaffen und ewig, sie sind jener transzendente Ort, von dem aus die Welt zu verstehen ist. Und die Beziehung zwischen beiden Seiten ist genau so einseitig geblieben wie zuvor: die Materie gehorcht den Gesetzen, ganz wie sie einst dem Willen Gottes unterworfen war. Die Gesetze erklären und brauchen ihrerseits keine Rechtfertigung, wie auch Gott keine braucht. Einzig die Seite der Kontingenz hat gewechselt. War früher die Welt der Ort des Zufalls und Gott die Synthese aus Freiheit und Notwendigkeit, so ist nun die Welt das Notwendige, die Beobachtung des Laplacschen Dämons. Die Gesetze dagegen sind kontingent. Warum diese Gesetze und keine anderen? Mit dieser Frage ist von nun an der Horizont aller möglichen Erklärungen gegeben.

 

Die Religion des klassischen Denkers ist die Wissenschaft, sein Glaube ist die Wahrheit. Statt wie der Gläubige zu beten, ringt er um neue Erkenntnisse, die gewonnenen Wahrheiten sind seine Offenbarung, seine Gnade. Und im Zentrum von Allem steht die dicke, runde Absolute Wahrheit, der man sich immerfort nähert, ohne sie jemals zu erreichen.

Dort, wo eine Religion ist, ist auch Platz für Häresien. Der Häretiker des klassischen Denkens fragt nach der Grenze der Reichweite der Gesetze. Wie, so insistiert er, sieht denn nun die Beziehung aus, zwischen den Gesetzen und dem, was ihnen gehorcht? Eine äussere Beziehung zwischen einem transzendenten Reich (der Gesetze) und dem blossen Gehorsam der Materie – die dann in sich selbst gar nichts wäre – erscheint ihm beim genauen Hinsehen wenig überzeugend. Denn schliesslich sind auch die Gesetze nicht unabhängig, sie können nicht ohne das sein, was sie determinieren. Das Gravitationsgesetz könnte es nicht geben ohne die entsprechende Materie, so wie der Herrscher ohne Volk auch keine Gesetze machen kann. Setzt man anstelle eines strukturlosen, äusseren Verhältnisses zwischen Gesetz und dem von ihm Beherrschten ein wirkliches inneres Verhältnis voraus, so veschiebt sich die gesamte Fragestellung in Richtung der Differenz Einzelnes/Allgemeines. Man kann dann dahin gelangen, dass die Gesetze weder zeitlos noch unveränderlich sind, die Frage ihrer Geltung hätte damit einen Spielraum, der gewissermassen durch den Fortbestand der Welt je neu ausgehandelt würde. Der Gesetzesverstoss wäre so keine Erfindung des Menschen, sondern in die Welt - und zwar gemeinsam mit dem Gesetz – bereits eingeschrieben. Die hier angedeutete Unterminierung des klassischen Denkens attackiert und zerstört vielleicht die tradierte Form der Transzendenz, doch sie kann nicht – und das wird zu zeigen sein – die Differenzen endlich/unendlich und zeitlich/zeitlos aufheben.

 

Die Häresien des Wissenschafts-Glaubens kamen nicht durch persönliche Rebellionen zustande, sie entstanden im Zentrum der Wissenschaften selbst. Mathematik und Physik wurden von Grundlagenkrisen erschüttert, die Kosmologie wurde mit dem Problem des Ursprungs konfrontiert, den sie nur als eine Singularität deuten konnte. Diese disparaten, miteinander kaum verbundenen Problemfelder entspringen einer gemeinsamen Wurzel: dem Erlöschen des Seins. Später, weniger beachtet, verabschiedeten sich auch andere Disziplinen von der langen Tradition des Seins: die Logik mit Spencer Brown und vor allem Gotthard Günther, die Philosophie mit Derrida.

In unserer Alltäglichkeit denken wir nach wie vor klassisch, können vielleicht gar nicht anders. Wir gehen davon aus, dass das ist, was ist. Zwar wird viel von der wachsenden Unsicherheit gesprochen

- das Leben verliert an Vorhersehbarkeit und die Werte an Sicherheit – vielleicht kann man hier

einen Hauch nachklassischen Denkens erkennen. Dennoch: seine eigentliche Kraft entfaltet das neue Paradigma im Herzen der Wissenschaften selbst.

 

In der Zeit der Krise empfindet man den vergangenen Zustand als unhaltbar, aber attraktiv. Die Frage ist, ob jenes Paradies der Wissenschaft, das am machtvollsten durch die gödelschen Unvollständigkeitssätze und die Heisenbergsche Unschärferelation zerstört worden ist, tatsächlich jene Attraktivität besitzt, die ihm gewöhnlich zugeschrieben wird.

Das klassische Paradiga soll deshalb kurz skizziert werden: Es gibt eine Welt und diese Welt ist dadurch ausgezeichnet, dass sie ist und dass etwas in ihr ist. Es gibt Naturgesetze, die determinieren, wie die Welt von einem Zustand in den nächstfolgenden kommt. Über Weltliches lassen sich Aussagen machen: Treffen sie zu sind sie wahr, sonst falsch. Die Aussagen werden von einem Bewusstsein gemacht. Die Beziehung zwischen Bewusstsein und Sein lässt sich innerhalb dieses Paradigmas unterschiedlich entfalten, oft mit der Differenz Determiniertheit/Freiheit.

 

Am prägnantesten wurde dieser Standpunkt Anfang des neunzehnten Jahrhunders von Laplace formuliert. Eine (unendlich leistungsfähige) Intelligenz, die zu einem gegebenen Zeitpunkt den Zustand der Welt komplett kennen würde, wäre in der Lage, aufgrund der ihr ebenfalls bekannten Naturgesetze, jeden zukünftigen Zustand der Welt zu kennen.

Ein solcher Laplacscher Dämon ist zunächst weiter nichts als das Auge Gottes, der, ausserhalb der Welt angesiedelt, auf diese schaut und ihre Zukunft mittels der Gesetze, die sie und ihn verbinden, vorhersagt. Eine solche deistische Interpretation fällt aber in das theologische Paradigma zurück und bleibt dann auch im Horizont von dessen Erklärungskraft.

Dies war nicht die Absicht von Laplace. Will man seine These aber klassisch interpretieren, verwickelt man sich in Widersprüche. Dann müsste der Dämon nämlich eine zwar hypothetische, aber dennoch prinzipiell mögliche Instanz innerhalb der Welt sein. Und als solche befindet sie sich an einem Ort und nimmt – als Wesen – auch einen Raum ein. Bei dieser Interpretation stösst man auf die Differenz Selbstreferenz/Fremdreferenz, welche die ursprüngliche Intention zerstört. Denn die Kenntnisse des Dämons sind Repräsentationen und benötigen als solche materielle Träger und als Orte der Repräsentation repräsentieren sie etwas Anderes als sich selbst. Das heisst, der Dämon könnte nicht seinen eigenen zukünftigen Zustand vorhersagen und da er ein Teil der Welt ist, kann es keinen Ort geben, von dem aus die vollständige Kenntnis der Zukunft möglich ist.

 

Weiterhin wissen wir heute, dass jede Informationsübertragung Zeit beansprucht. Alles, was eine Intelligenz erfährt, ist bereits vergangen. Aufgrund der Relativität der Gleichzeitigkeit ist eine vollständige Beschreibung der Welt zu einem gegebenen Zeitpunkt unmöglich. Dies würde wiederum einen Standpunkt ausserhalb der Welt voraussetzen. Für jeden tatsächlichen Standpunkt ist die Vergangenheit der Horizont, von dem aus sich Gleichzeitigkeit konstituiert.

 

Eine Intelligenz wie der Laplacsche Dämon ist also prinzipiell unmöglich. Deshalb ist nicht nur diese hypothetische Instanz zu verwerfen, sondern auch alles, was davon abgeleitet ist. Da es keinen Ort in der Welt gibt, von dem aus sich ihr zukünftiger Zustand (vollständig) berechnen liesse, macht es auch keinen Sinn, überhaupt von einer durch die Gegenwart determinierten Zukunft zu sprechen. Und schliesslich: weil es auch keinen Ort gibt, von dem aus der Zustand der Welt zu einem gegebenen Zeitpunkt beschreibbar wäre, macht es auch keinen Sinn, von einem solchen zu sprechen. Die Totalität der Welt entpuppt sich als eine reine Fiktion, die Gegenwart als Hort des Seins zerfällt in ein Spiel der Differenzen.

Die Annahme, dass die Welt an einem gegebenem (absoluten) Zeitpunkt in einem definierten (absoluten) Zustand ist, der den nächstfolgenden Zustand der Welt determiniert, setzt also einen ausserweltlichen Standpunkt voraus und verzichtet damit auf das, was dem klassischen Denken als das Wertvollste erscheint: die Welt aus sich selbst heraus zu erklären.

 

Lassen wir diese etwas vorauseilenden Gedanken nun ruhen und kommen zu den Wissenschaften, zunächst zur Mathematik. Die Mathematik war seit ihrer Entstehung eine bemerkenswert stabile Disziplin, wurde aber in neuerer Zeit von heftigen Krisen erschüttert: Zunächst durch die nichteuklidischen Geometrien, wenig später durch die Entdeckung der Russelschen Antinomien und die Gödelschen Unvollständigkeitssätze.

Die moderne Mathematik setzt mit der Kontingenz des Parallelenaxioms ein. Die Entdeckung, dass auch Geometrien möglich sind, wenn Parallelen sich im Endlichen schneiden, ist zunächst nichts, was dem Verstand Schwierigkeiten bereitet. Dass etwa die Geodäten auf einer Kugeloberfläche geometrische Formen erlauben, ohne dass es dabei Parallelen im euklidischen Sinn gibt, ist leicht zu verstehen.

Tatsächlich findet damit aber ein Paradigmenwechsel statt, dessen Bedeutung kaum überschätzt werden kann. Denn die Geometrie verliert damit ihre absolute Stellung, sie wird zu etwas Abgeleiteten, zur entfalteten Form einer Differenz, die ihr vorausgeht. Eine Geometrie ist nun durch die Art festgelegt, wie eine Dimension in die nächsthöhere eingeschrieben ist, ob beispielsweise als ebene Fläche oder als Oberfläche einer Kugel. Eine sehr ehrwürdige mathematische Disziplin verliert so ihren Status des Absoluten und wird als dimensionale Differenz in den Strudel der Kontingenz geworfen. Jeder kann nun neue Geometrien erschaffen und diesem Seins-Verlust korrespondiert einer Fruchtbarkeit im Mathematischen.

 

Das Fundament der Mathematik hatte eine tektonische Bedeutungsverschiebung erfahren. Und dabei wurde das klassische Denken durch etwas Neuartiges unterminiert: Die Emanzipation der Form.

Bisher waren die Axiome direkt im Sein verankert gewesen. Sie waren die allgemeinsten Grundsätze des Denkens, die durch sich selbst unmittelbar auf ihre Wahrheit verwiesen. Die mathematischen Sätze entsprangen einer selbstreferentiellen Region der Wahrheit, wie auch die Welt aus dem absoluten Sein Gottes geflossen war. Die Mathematik war so eine Art Theologie des Konkreten, aus ihrem spezifischen Geist heraus entfaltete sie die Totalität des Seins.

Im theologischen Zeitalter besass die Differenz zwischen Denken und Sein wenig Bedeutung, was auch ein fast unermessliches Vertrauen in die Deduktion ermöglichte. Der ontologische Gottesbeweis, der vom Begriff des Vollkommenen unmittelbar auf dessen Existenz schliesst, ist für uns kaum noch nachvollziehbar, besass aber im Mittelalter und darüber hinaus grosse Plausibilität. Erst Kant hat schliesslich festgestellt, dass die Existenz kein Prädikat ist.

 

Nun, wo die Axiome zu willkürlichen Setzungen geworden waren, war die Mathematik zu einem blossen Formenspiel geworden. Sie konnte nicht mehr von sich behaupten, im Sein verankert zu sein, ihre Wahrheiten schmolzen zu blossen Richtigkeiten (Widerspruchsfreiheiten in Bezug auf das zugrunde liegende Axiomensystem) zusammen. Die Axiome selbst verwiesen nicht auf einen Sinn, sie waren Zeichenketten, aus denen sich andere Zeichenketten erzeugen liessen.

 

Die Mathematik, die zu einem Prozessieren von Formen geworden war, stand nun vor der Schwierigkeit, erklären zu müssen, was sie eigentlich bedeutete. Wenn ihr Ursprung reine Willkür war: warum passte sie überhaupt auf die Welt und zwar so gut, dann man ihren Resultaten sein Leben anvertraute?

Eine Möglichkeit besteht darin, das gemeinsame Fundament in der Logik zu finden. Die Logik erlaubt, ein Schlussystem zu formulieren und gibt damit auf der Seite der Mathematik vor, welche Sätze aus schon bestehenden Sätzen gefolgert werden können (die Mengenlehre ist bekanntlich in der Prädikatenlogik formuliert, setzt diese also bereits voraus); auf der Seite der Welt würde sie vorgeben, welche Konfigurationen der Welt sinnvollerweise aufeinander folgen können. Die Logik wäre dabei noch unterhalb der (physikalischen) Gesetze angesiedelt und bestimmte, welche Gesetze überhaupt sinnvoll formuliert werden können: Aus diesem Grund ist auch von Mathematikern die Frage nach der Axiomatisierung der Physik gestellt worden; mit den fundamentalen Naturgesetzen und -konstanten als Axiomen würde die Physik und damit die Welt in Mathematik transformiert.

Die Logik würde so zu dem Seinsgrund werden, der durch den müde gewordenen Gott verloren gegangen ist.

Fatalerweise verhindert die von der Mathematik in die Wege geleitete Emanzipation der Form ein solches hierarchisches Fundierungsverhältnis. Denn die (formale) Logik erscheint einerseits als eine Bedingung der Möglichkeit der Mathematik, andererseits aber als eines ihrer Teilgebiete. Es gibt nicht eine Logik, sondern ein sich ständig erweiterndes Spektrum logischer Systeme, als solche sind sie den emanzipierten Formen entsprungen, die sie eigentlich begründen sollten.

 

Trotz ihres ungewissen Status war die Perspektive der Mathematik noch eine optimistische. Bei der Wahl eines geeigneten Axionensystem wie der Zermelo-Fraenkel Mengenlehre liess sich eine Mathematik entfalten, die – aus Gründen, die möglicherweise dunkel blieben - der Welt mit einer Fülle von Berechnungsmethoden dienten – und vor allem einen organischen, fortwährend wachsenden Corpus aus Sätzen entstehen liess. Dieses, eine Totalität anstrebende System wurde zum modernen Tempel der Wahrheit, die Mathematik das Verfahren, wie in der Zeit Zeitloses entdeckt werden konnte. Der Mathematiker schuf nichts, er entzifferte etwas, was schon von jeher geschrieben stand und da er in Kontakt zur (zwar nie zu erreichenden) Totalität des Formalen stand, war sein eigentliches Thema das Sein. Mit der Totalität entsteht und vergeht das Sein.

Ja, und dann kam Gödel. Er bewies, dass jedes hinreichend komplexe formale System – und dazu zählt bereits die Arithmetik der natürlichen Zahlen – nicht zugleich vollständig und korrekt sein kann. Wenn ein Beweissystem sich also, was naheliegend ist, auf wahre Sätze beschränkt, dann muss es wahre Sätze geben, die sich durch es nicht beweisen lassen. Das ist nicht weniger als die Zerstörung der Idee der Totalität. Eine Totalität ist nicht dadurch charakterisiert, dass man sie erreichen kann, es genügt, wenn es keine Barriere gibt, die das in ihr eingebettete Endliche unüberwindbar abweist. Die Idee einer unentwegten Näherung, die jeweils wieder die Differenz endlich/unendlich reproduziert, verträgt sich mit der Idee der Totalität, nicht aber der Nachweis, dass es unerreichbare Orte gibt, ein unüberholbares Aussen, welches das System zu einer Kontingenz werden lässt. Die Wahrheit ist damit fraktal geworden und kann nicht mehr als ein Sein verstanden werden. Jeder Standpunkt (Beweissystem) ist insofern gleichwertig: es bestimmt von vornherein die Gegenden, die ihm verschlossen bleiben werden.

 

Der erste Gödelsche Satz (es gibt noch einen zweiten, der ihn in interessanter Weise relativiert) besitzt einen Beweis, der wegen seiner Kürze und Eleganz hier skizziert werden soll. Der Kern dieses Beweises umfasst wenig mehr als eine Zeile. Zunächst wird definiert, was ein Beweissystem ist, nämlich eine Menge von Paaren aus Worten über einem endlichen Alphabet. Jedes solche Wortpaar besteht aus einem Satz und dessen Beweis. Für diese Menge ist gefordert, dass sie rekursiv ist; es kann also berechnet werden, ob ein Wort der Beweis (ein Beweis ist eine Folge von Zeichen, formal gesehen also ein Wort) eines anderen Wortes (mathematischen Satzes) ist. Nach dem Projektionssatz ist damit die Menge der in diesem Beweissystem beweisbaren Sätze rekursiv aufzählbar. Nun wird die Frage gestellt, wie sich dieses System in Bezug auf das Komplement des Selbstanwendbarkeitsproblems verhält (Dieses ist die Menge der Nummern von Turingmaschinen – so etwas wie ausführbare Programme, die einen minimalen Befehlssatz haben, aber dennoch alle berechenbaren Funktionen berechnen können. Diese Maschinen lassen sich nacheinander aufzählen und damit nummerieren. - die bei der Eingabe ihrer eigenen Zahl nicht terminieren). Von dieser Menge ist nun bekannt, dass sie nicht rekursiv aufzählbar ist. Wenn ein solches Beweissystem korrekt und vollständig sein soll, muss die Menge seiner Sätze der Form 'n ist nicht Element von K(Phi)' gleich sein wie die Menge K(Phi) (K(Phi) ist die Menge der Zahlen, wo die Berechnung des Selbstanwendbarkeitsproblems terminiert). Nun ist aber schon gezeigt worden, dass das Beweissystem im Gegensatz zum Komplement des Selbstanwendbarkeitsproblems rekursiv aufzählbar ist. Damit ist bewiesen, dass es nicht zugleich vollständig und korrekt sein kann.

 

Interessanterweise beruht der eben skizzierte Beweis auf einer Differenz innerhalb des Unendlichen. Im selben Sinne wird auch zwischen abzählbaren und überabzählbaren unendlichen Mengen unterschieden. Die Akzentverschiebung ist dahingehend erfolgt, dass die entscheidende Grenze in Bezug auf viele Probleme nicht mehr zwischen endlich und unendlich, sondern zwischen abzählbar (z.B. die rationalen Zahlen) und überabzählbar (z.B. die reellen Zahlen) scheidet. Abzählbare Mengen sind im Horizont der der gleichfalls unendlichen Zeit totalisierbar: die Ewigkeit reicht aus, um alle natürlichen Zahlen aufzuzählen.

 

Die innerhalb der Mathematik vollzogene Emanzipation der Form verweist auf die zerbrochene Totalität des Seins. Es geht nun nicht mehr, wie noch bei Hegel, um die Einheit aus Einheit und Differenz, sondern um die Differenz in der Einheit von Einheit und Differenz. Am Anfang steht nicht mehr das reine Sein und es kommt auch nicht zu einer finalen Synthese. Wo immer man etwas begegnet, begegnet man ihm als Differenz. Nichts ist mehr an und in sich selbst, weil alles sich mit der Perspektive des Beobachters ändert. Und das Sein steht im Verdacht einer Lüge. Mit dem Verzicht auf einen extramundanen Standpunkt fällt auch die Annahme eines Seins-An-Sich und was bleibt dann noch übrig? Die mit dem Sein operierenden Differenzen wären dann durchaus nicht fundamentaler als beliebige andere, sondern in gleicher Weise fraktal und einer Totalisierung unfähig.

 

Die Operationen jedes Beobachters beruhen auf der Unterscheidung von Inhalt und Form. Das ist keine Leitdifferenz: Leitdifferenzen sind jeweils bestimmten Arten von Beobachtern, also Systemtypen zuzuschreiben. Stattdessen ist die Differenz von Inhalt und Form das strukturelle Pendant des Operationsmodus von (allen) Beobachtern. Beobachten heisst Inhalt und Form zu unterscheiden und die Erzeugung dieser Differenz findet immer als Beobachtung statt. Und wir sind damit auch auf die Grenze verwiesen: Der Inhalt verhält sich zur Form wie die Innenseite zur Aussenseite der Grenze. Und was ist eine Grenze? Einerseits ist sie bloss die Differenz eines Dinges/Systems zu seiner Umwelt und hat somit kein eigenes Sein. Andererseits: Das Durchqueren einer Grenze benötigt Zeit; Grenzen werden aufrechterhalten, sogar bewacht, an ihnen finden Wucherungen statt, die zu eigenen Systemen führen. Grenzen haben ein Sein genauso, wie sie keines haben.

 

Die Form ist die Aussenseite einer Beobachtung, sie ist das, was der Beobachter beobachten kann: das Beobachtbare. Es zeichnet sich dadurch aus, dass es von seiner Umwelt unterschieden werden kann. Das leistet die Form: Sie vollzieht eine Trennung von etwas in Bezug auf das, was es nicht ist und ist damit referenzierbar. Die Referenzierung geschieht nun in Bezug auf einen anderen Beobachter, für den sie eine Mitteilung ist. Als gemeinsame Referenz für verschiedenene Standorte – denn jeder Beobachter belegt einen Standort/eine Perspektive – ist so auf der Seite des Beobachteten ein Sein erzeugt, der Inhalt, der hinter der Form verborgen ist und diese erst ermöglicht.

Wir halten fest: Beobachten ist das sich in der Zeit erstreckende Reproduzieren einer Form als Aussenseite einer Grenze, die, da sie in einem Horizont stattfindet, gekreuzt werden muss (Der Horizont ist die einzige Art von Grenze, die weder gekreuzt werden kann noch muss).

Das Kreuzen der Grenze ist die Bezeichnung. Dinge, die von dem, was sie nicht sind, abgegrenzt sind, lassen sich benennen und dadurch als etwas Spezifisches bezeichnen, das sich in seiner Qualität von demjenigen unterscheidet, das anders bezeichnet wird. Und damit ist der Inhalt gegeben. Die einzige Art, wie Formen möglich sind – das Kreuzen der sie konstituierenden Grenze – lässt damit deren andere Seite entstehen: die Inhalte.

 

Der Inhalt ist nicht nur die andere Seite der Form, er ist auch das, was es der Beobachtung ermöglicht, von einer Form zur nächsten zu gelangen. Bei jeder Form stellt sich die Frage, was drinsteckt oder worin sie sich verwandeln wird. Jede Form erzeugt ein Innen und dies ist ihr Inhalt. Das Kreuzen der Grenze reproduziert nicht nur das Ganze der durch sie gegebenen Form, sie verweist auch - auf der Seite des Inhalts - auf die Differenz einer Vielfalt von Formen, die sich als Möglichkeiten für Anschlussoperationen des Beobachters zur Verfügung stellen. Der Inhalt ist dann ein Horizont, in dem sich neue Formen finden und in die er sich auflöst. Man öffnet öffnet den Sack des Weihnachtsmanns und findet eine Menge von Paketen. In jedem von ihnen trifft man wieder auf neue Formen.

Und nicht nur das: welche Formen es sind, die sich zeigen können, wenn man auf die Seite des Inhalts gewechselt hat, hängt auch vom Beobachter ab.

 

Die Differenz von Inhalt und Form bleibt somit unaufhebbar. Wo immer man einen Inhalt erreicht, löst er sich in Formen auf, die wiederum auf ihre Inhalte verweisen. Die Entfaltung dieses Paradoxes bleibt in seinem Operieren gefangen und sucht sich zu entlasten, indem sie einen Ursprung zu konstruieren versucht. Das wäre das Erreichen eines Inhaltes, der zu keiner neuen Form führt, die Ankunft in einer Wahrheit. Damit wäre das Ende der Beobachtung erreicht, der Beobachter wäre ins Sein eingegangen. Die Beobachtung entwirft ihre eigene Auflösung als den Ursprung auf der Seite des Beobachteten, ihr Ende fällt mit dem Anfang ihrer anderen Seite zusammen und schliesst sich so in den Horizont der Zeit ein. Damit ist auch gesagt, dass Beobachter immer Ursrünge konstruieren, in denen sich die Paradoxie ihres Operationsmodus kondensiert. Ein Ursprung ist eine Differenz, die aus einem differenzlosen Zustand entspringt, doch dies wäre nur möglich, wenn bereits eine Differenz bestände. Mit dem Ursprung wird das Bestehen der Differenz zugleich behauptet und negiert, er ist die unmögliche Einheit des Beobachters.

Auf der Seite des Beobachteten führt das zu etwas, was nie beobachtet werden kann, aber die Bedingung der Möglichkeit jeder Beobachtung ist: der reine Inhalt jenseits aller Formen, das was übrig bleiben würde, wenn alle Formen zerstört werden würden – die Materie, die Substanz der Welt, das Sein. Das reine Sein, das nichts Spezifisches, sondern einfach nur ist.

 

Was bliebe übrig, wenn man alle Formen zerstören würde? Die Antwort des nachklassischen Denkens lautet: nichts. Zwar bleibt die Differenz zwischen Form und Inhalt unaufhebbar und wird genaugenommen erst jetzt wirklich respektiert, doch die postive Seite hat vom Inhalt zur Form gewechselt. Das Unbequeme des klassischen Denkens bestand ja darin, dass das Operieren zwar auf der Seite der Form stattfindet, also nur auf dieser Seite Anschlussoperationen möglich sind, die das System aufrechterhalten, doch das Positive der Differenz sich auf der anderen Seite (dem Inhalt) befindet. Diese Situation der Transzendenz, die das Operieren auf die negative Seite der Differenz verlegt, gab es bereits im mittelalterlichen religiösen Denken, aus dem das klassische geboren ist.

Damit ist auch gesagt, dass es die funktionalen Systeme der modernen Gesellschaft (z.B. Wirtschafts-,Wissenschaftssystem) - welche auf der positiven Seite operieren – sind, welche in einem nachklassischen Denken verankert sind. Aus dieser Perspektive lässt sich auch Heideggers Satz „Die Wissenschaft denkt nicht“, verstehen: er ist vom klassischen Standpunkt, der unter Denken das Operieren auf der negativen Seite, das Aufrechterhalten der ontologischen Differenz versteht, aus wahr. Gleichermassen aber ist zu sehen, dass alle Impulse, die die Grundlage dieses klassischen Denkens unterminierten, von den auf der positiven Seite operierenden Systemen kam: von der Wirtschaft und insbesondere von der Wissenschaft.

 

Die Emanzipation der Form bedeutet nicht, dass der Inhalt verschwindet, sondern nur dessen Transzendenz. Es wird auf der Seite der Form operiert und sie ist nun auch die positive Seite der Differenz. Der Inhalt ist nur noch die andere Seite der Form, er besitzt keine Fundierung in einem Sein mehr. Diese Relativierung zieht auch eine rigide Temporalisierung nach sich: das Sein wird vom Beobachter untrennbar, das 'esse est percipi' Berkeleys ist keine krude These mehr, die hart am Solipsismus vorbeischrammt, sondern eine zentrale Position des modernen Denkens. Systeme sind keine ins Sein gewuchteten Strukturen mehr, stattdessen bestehen sie nur noch aus Operationen, die ihrerseits in ihrem Entstehen bereits wieder vergehen. Die klassische Differenz Sein-Entstehen/Vergehen ist also aufgebrochen, der Äusserlichkeit entäussert. Es gibt kein Sein mehr ausserhalb von Entstehen/Vergehen.

Die mit dem Verlust der Tranzendenz einhergehende Relativierung hat gravierende Auswirkungen auf das Möglichkeitsfeld des Sinns. Das Bestehende ist nicht mehr durch den Bezug auf/die Einbettung in eine Transzendenz gerechtfertigt und verortet, an diese Stelle tritt die reine Autopoiesis der Systeme: diese suchen durch Selektion geeigneter Anschlusselemente neue Operationen und damit die eigene Weiterexistenz zu sichern.

Diese in der Form gefangen bleibende Perspektive kann als Sinnentleerung, als Verlust von Innerlichkeit interpretiert werden, die zu bedeutungslosen Wucherungen führt – Wüsten aus Waren, Informationen, Aktivitäten – doch es ist auch festzuhalten, dass das nachklassische Denken zwar Totalitäten, aber nicht Ganzheiten verwirft. Ganzheiten sind relativ, da sie nur neben und in Bezug auf andere Ganzheiten bestehen können; aber sie sind ebenso absolut, da sie sich selbst als diese Ganzheiten produzieren, in ihrer Selbstreferentialität haben sie also keinen Grund und keine Ursache in etwas anderem. Die notwendige Frage besteht also darin, wie ein System in jeder singulären Operation sich selbst als Ganzheit reproduziert.

 

Schon in ihrer einfachsten Form ist die Beobachtung die Einheit einer doppelten Differenz: Erstens der Differenz zwischen dem Beobachteten und seiner Umwelt und zweitens zwischen dem Beobachteten und dem Beobachter. Eine solche Einheit ist nur möglich, weil das Beobachtete seinerseits eine Diffenz ist: einmal als etwas, das eine Umwelt hat und zum anderen als etwas, das in der Umwelt des Beobachters vorkommt, was auch der Differenz Inhalt/Form oder auch der von innen/aussen korrespondiert.

Das Beobachtete ist eine Differenz zwischen seiner Faktizität (auf der Seite der Beobachtung) und seiner Referenz. Was beobachtet wird, hängt einerseits vom Beobachter ab (seinem Standpunkt, den eingesetzten Mitteln) und zum anderen vom Beobachteten. Damit stellt sich bei jeder Beobachtung die Frage, wie zutreffend und präzise sie ist; sie weiss, dass das durch sie Beobachtete nicht mit der Realität des damit Referenzierten zusammenfällt. Jede Beobachtung verweist auf ein Feld anderer möglicher Beobachtungen. Der Unterschied des nachklassischen Denkens zum traditionellen besteht hier darin, dass es keine privilegierte Perspektive anerkennt, die enthüllen könnte, was das Beobachtete an sich ist und damit auch keine absoluten Skalen, an denen sich Beobachtungen nach Genauigkeit oder Wahrheit sortieren liessen.

 

Beobachtungen werden mit Sonden gemacht, zum Beispiel mit Teilchen, die auf andere Teilchen geschossen werden. Die sich ereignende Veränderung einer Eigenschaft dieser Sonde ist das Beobachtete der Beobachtung. Die entsprechende Eigenschaft gehört einerseits der Sonde zu (als etwas, das ihr eigen ist), andererseits hat sie aber die Einheit der Differenz von Beobachter und Beobachtetem zu leisten. Die Sonde bleibt sie selbst, auch und gerade wenn sich jene Eigenschaften ändern, die für die Beobachtung (Messung) relevant sind. Das Teilchen ändert seine Richtung, seinen Impuls und diese Differenz bestimmt das Beobachtete. Das ist aber nur möglich, wenn die Sonde dieses Eigenschafts-Delta verlustfrei an den Beobachter übermitteln kann (das heisst, ohne dabei wiederum ein Delta zu produzieren). Das ist gemäss der Quantenphysik aber gar nicht möglich. Eigenschaften von Sonden sind also Abstraktionen von Beobachtern, mit ihnen wird der ausserweltliche Standpunkt reaktiviert, ohne den Eigenschaften nicht als Informationsvehikel dienen könnten, die unbeschadet vom Beobachteten zum Beobachter transportiert werden.

 

Die Beobachtung ist also die Einheit aus der Differenz aus der Einheit der Differenz zweier Wechselwirkungen und einer darauf geschehenen präoperativen Assymmetrisierung. Die erste Wechselwirkung ist diejenige zwischen der Sonde und dem Beobachteten, die zweite die zwischen Sonde und Beobachter. Die Beobachtung ist aber nicht einfach eine Einheit dieser beiden Differenzen, sie ist stattdessen nur möglich wenn sie die Differenz zwischen Beobachter und Sonde invisibilisiert, wenn die Sonde also zu einem blossen Vehikel wird, das die Information vom Beobachteten zum Beobachter überträgt. Diese Struktur ist mit der Unschärfe verträglich, mit der sich die Wechselwirkung zwischen Sonde und Beobachteten vollzieht, doch sie setzt eine unmittelbare Einheit zwischen Sonde und Beobachter voraus: sonst würde die Sonde ihrerseits zum Beobachteten, was jederzeit möglich ist, dann aber auf einer neuen Assysmmetrierung beruht. Die Invisibilisierung der Differenz aus Beobachter und Sonde (die Sonde ist das, wodurch und womit der Beobachter 'sieht', also das, was ihn zum Beobachter macht) erzeugt auf der Seite des Beobachters seine Selbstreferenz. Er schliesst sich aus der von ihm beobachteten Welt aus; dadurch, dass die einzige relevante Differenz die zwischen Sonde und Beobachtetem ist, entsteht auf der anderen Seite der Einheit dieser Differenz (der Beobachtung) der Beobachter, der diese Einheit nur erzeugen kann, indem er sich von ihr ausschliesst als das, was nicht die Beobachtung ist, diese aber ermöglicht und so selbst-referent wird. Die Differenz zwischen Sonde und Beobachteten wird zum unabschliessbaren Thema, bei jeder Beobachtung (z.B. Messung) stellt sich die Frage, wie genau oder zutreffend sie ist. Damit wird die Einheit zwischen Sonde und Beobachteten als Welt thematisisiert (im Verschwinden dieser Differenz würde die Sonde nicht mehr wechselwirken, sondern den reinen Zustand der Wirklichkeit erkunden und mitteilen), eine Einheit, die paradox ist, weil die Beobachtung eben auf dieser Differenz beruht. Die Welt ist damit zugleich die Einheit, welche die Differenz zwischen Beobachter und Beobachtung aufhebt (der Beobachter gehört zu ihr): auch diese Einheit ist paradox, weil die Beobachtung ja auf dem selbst-referentiellen Ausschluss des Beobachters beruht.

Die hier besprochene Assymetrisierung ist keine Operation, sie ist nicht etwas, was in der Zeit vollzogen wird: sie ist insofern präoperativ, da erst die Beobachtung selbst die Operation ist. Die Operation wird in der Luhmannschen Systemtheorie als atomare Einheit behandelt, hier ist diese nun aufgebrochen worden. Es hat sich gezeigt, dass es notwendig ist, ihre innere Struktur aufzuweisen, auch um die von der modernen Physik aufgeworfenen Fragen angemessen behandeln zu können.

 

Die eben diskutierte Struktur findet sich auch in der Heisenbergschen Unschärferelation. Diese besagt, dass eine Messung nicht beliebig genau sein kann, sondern dass das Produkt aus der gemessenen Unschärfe des Impulses und des Ortes einen gewissen Wert nicht unterschreiten kann. Es gibt noch eine weitere Unschärfe: die zwischen Energie und Zeit. Das Vakuum kann aus sich selbst heraus Energie borgen, wenn die Zeit nur kurz genug ist. Für einen entsprechend winzigen Zeitraum können also ganze Welten entstehen und wieder verschwinden: mit diesen Vakuumfluktuationen ist die Grenze zwischen Sein und Nichts gesprengt.

Auch in ihrer Heisenbergschen Form ist die Unschärferelation keine reine Aussage über die Erkenntnisfähigkeit. Sie sagt nicht nur, dass wir etwas nicht beliebig genau wissen können; da eine

Erkenntnis im Sinne der Physik auf einer Messung beruht, die Messung aber auf der Wechselwirkung zwischen Sonde und Beobachteten, heisst das, dass die Unbestimmtheit auf der Seite der Realität angesiedelt ist. Nicht nur die Genauigkeit unseres Wissens ist beschränkt, sondern – vor allem – die Genauigkeit dessen, was geschieht. Wenn aber das Geschehen auf der Seite des Seins selbst unbestimmt ist, dann ist es schon erodiert : nicht verschwunden aber auch nicht mehr gegeben, denn das Sein ist dadurch charakterisiert, dass es ist; als Selbstidentität ist es, was es ist.

 

Es muss natürlich eingeräumt werden, dass das eben Gesagte bereits eine Interepretation der Unschärferelation ist. Es ist die Interpretation vom Standpunkt des nachklassischen Denkens. Im Gegensatz dazu kann auch versucht werden, die traditionelle Sichtweise zu retten und die Geltung der Unschärferelation auf den Bereich der Messung, also der Erkenntnisfähigkeit zu beschränken. Die Quantentheorie wäre damit ihrer Sprengkraft beraubt, ihre subversive Substanz eingekapselt, wie eine zwar unbesiegte, doch nicht mehr lebensbedrohliche Krankheit. Aus dieser Perspektive wäre auch die Quantentheorie eine realistische Theorie – Messungen könnten nur Eigenschaften messen, die bereits vorher festgelegt sind, nur sind der Genauigkeit der Messung eben Grenzen gesetzt. Die Eigenschaften existieren demnach unabhängig von der Messung. Das heisst dann, dass es Parameter gibt, die das Verhalten der Teilchen determinieren, die aber einer Beobachtung unzugänglich sind. Man spricht bei diesem Interpretationsparadigma deshalb auch von einer Theorie mit verborgenen Parametern.

Man erkennt sofort, dass es sich hier um eine metaphysischen Grundsatzentscheidung handelt, die in direktem Zusammenhang zu den in diesem Text behandelten Fragen steht. Es geht also darum, ob es zulässig ist, von dem Vorhandensein von Parametern oder Eigenschaften zu sprechen, wenn diese von keinem Ort der Welt aus beobachtbar sind. Man sieht auch, dass hier – zwar verschämt – der ausserweltliche Standpunkt postuliert wird: denn nur von einem Ort ausserhalb der Welt, dort, wo man sie ihrer Totalität erkennt, wo man alles sieht, was ist, nur von diesem privilegierten Standpunkt liessen sich die verborgenen Parameter sehen.

 

Metaphysisches ist seiner Defintion nach unentscheidbar. Die ganze Disziplin beschäftigt sich mit demjenigen, was die Erfahrung transzendiert. Im zwanzigsten Jahrhundert geschah nun zum ersten und bisher einzigen Mal etwas Bemerkenswertes: Die Grenze zwischen Physischen und Metaphysischen verschwamm, sie wurde durchlässig. Eine dezidiert metaphysische Frage konnte in der Sprache der Physik formuliert und damit entscheidbar gemacht werden. Es konnte nämlich bewiesen werden, dass bei Vorhandensein verborgener Parameter ein genau definierbares Expermiment zu anderen Ergebnis führen muss als wenn es diese nicht gibt. Diese als Bellsche Ungleichung bezeichnete Relation ist damit eine Formel gewordene Verschmelzung aus Physischem und Metaphysischem. Es konnte vor einige Jahren gezeigt werden, dass die Bellsche Ungleichung tatsächlich verletzt ist, was bedeutet dass – unter der Annahme, dass sich keine Informationen schneller als Licht verbreiten können – es keine verborgenen Parameter gibt, die Unbestimmtheit also tatsächlich der Materie selbst angehört und nicht bloss der Messung.

 

Interessanterweise waren die Quantenphysiker eine Gemeinschaft, wohl die erste überhaupt, wo das nachklassische Denken zur Orthodoxie geworden ist. Diese, als Kopenhagener Deutung bekannte Interpretation wurde von den meisten Physikern akzeptiert. Die Häretiker um Einstein um Bohm wollten sich vom klassischen Denken nicht lösen. Einsteins berühmter Satz „Gott würfelt nicht“ nennt explizit den zur Rettung der Tradition notwendigen ausserweltlichen Standpunkt, auch wenn er bei 'Gott' wohl eher an den – zu Gott homomophen – durchgreifenden Determinismus der Naturgesetze gedacht haben mag.

 

Die Quantenphysik wird also inzwischen weitestgehend nachklassisch interpretiert (der Gültigkeit der Bellschen Ungleichung sind nahezu alle Schlupflöcher verschlossen worden).

Mit einer Messung wird somit nicht etwas abgelesen, was schon vorher da war, sondern die Realität wird erst mit und durch sie festgelegt. Das Sein ist von der Differenz zwischen den Seienden untrennbar: etwas ist, was es ist durch das, was es nicht ist; erst mit dem Vollzug dieses Bezuges kommt es zu seinem Sein. Die Negativitätsstruktur, die – zum Beispiel durch Sartre „Das Für-Sich ist, was es nicht ist und ist nicht, was es ist“ - von der Philosophie in sämtlichen Facetten durchdekliniert worden ist ist also nichts, was als Bewusstsein irgendwann entstanden und einen neuen ontologischen Bereich eröffnet hat: sie ist stattdessen von jeher da.

Jedes Seiende kann nur sein als Differenz zu dem, was seine Umgebung ist, ohne dass diese Grenze, die fortwährend neu produziert werden muss, das Sein dieses Seienden erschöpfend fundiert.

Wir haben es also mit einer sehr prekären Struktur zu tun. Ohne das fortgesetzte Auftreten von Wechselwirkungen zwischen den einzelnen Seienden würde sich deren Sein nicht mehr aktualisieren lassen: es würde nichts mehr sein und die Welt wäre verschwunden. Dennoch ist die Möglichkeit des Seins nicht an die Aktualität der Wechselwirkungen gebunden, denn sonst könnte es erstens keine Abfolge zwischen verschiedenen Wechselwirkungen geben (nach dem Abschluss einer Wirkungs-Einheit wären die betroffenen Teilchen verschwunden) und zweitens: Wenn nur die Wechselwirkung real wäre und die daran beteiligten Partner kein eigenes Sein hätten, dann könnte die konkrete Spezifik der jeweiligen Ereignisse nicht plausibel gemacht werden.

 

Kehren wir auf die Ebene zurück, auf der diese Strukur gegenwärtig formalisierbar ist: auf die Ebene der Elemenarteilchen. An welchem Ort also befindet sich ein Elektron, bevor dieser gemessen wird? Heisenberg antwortet: An gar keinem. Erst mit der Messung entscheidet es sich, wo es ist. Messung ist Fest-Stellung. Erst durch die Differenz der Seienden vollzieht sich die Spezifität ihres Seins.

Damit ist ein klarer trans-klassischer Standpunkt formuliert. Wenn es keine Instanz gibt, für die der Ort des Teilchens bekannt ist, dann macht es auch keinen Sinn, von einem solchen zu sprechen, dann hat das Teilchens auch keinen. Mit dessen Messung erhält es diesen, genauer gesagt, es bekommt die Grenzen einer Region zugeordnet, in der es sich während des Zeitpunktes der Messung aufhielt. Und ausserdem hat das Teilchen diesen Ort nicht an-sich, er ist nicht in sein Wesen eingeschrieben und zu einer Wahrheit geworden, stattdessen existiert dieser Ort (zunächst) nur für diejenige Instanz, die ihn gemessen hat.

 

Das Sein eines Seienden (hier eines Elementartteilchens) löst sich bei Abwesenheit einer Umwelt, also eines anderen begegnendem Seienden nicht auf, sondern verwahrt sich in einer Struktur, die zwischen Sein und Nicht-Sein, zwischen Präsenz und Potenz schwebt. Das Teilchen ausserhalb einer sich vollziehenden Wirkung wird als eine Wahrscheinlichkeitsverteilung beschrieben. Eine solche originäre Wahrscheinlichkeitsverteilung (die nicht auf eine mangelnde Kenntnis einer streng deterministischen Wirklichkeit zurückzuführen ist) ist nun die Struktur, die Ereignisse jenseits der Sein/Nichts-Differenz ermöglicht. Denn sie determiniert einen reinen Möglichkeitsraum, eröffnet damit eine Zukunft, ohne für deren konkrete Ereignisse Restriktionen zu schaffen und gleichfalls ohne diese Zukunft zu etwas Beliebigem werden zu lassen. Man könnte versucht sein, dass es eben diese Wahrscheinlichkeitsverteilung ist, die ist, aber eine solche Formulierung ist nicht zielführend, denn im Zuge einer Begegnung mit einem anderen Teilchen ist es ja gerade die Wahrscheinlich­keitsverteilung, die verschwindet (Kollaps der Wellenfunktion), an deren Stelle tritt dann das Teilchen, das dann in einem genaueren Sinne ist.

 

Anhand der hier skizzierten Diskussion der Quantentheorie ist bereits sichtbar geworden, was mit der im Titel erwähnten „physikalischen Philosophie“ gemeint sein kann. Man konnte nämlich einen Blick auf deren komplementäre Struktur werfen. Die Aufstellung der Bellschen Ungleichung und der folgende Nachweis deren Verletzung ist philosophische Physik also durchaus Physik und nichts anderes als Physik: eine Hypothese, die in der Sprache der Physik formuliert und mit deren Mitteln

widerlegt worden ist. Zugleich ist diese Physik in einem genuinen Sinne philosophisch, da sie eine grundsätzliche metaphysische Frage beantwortet. Das ist nicht zu verwechseln mit einer physikalischen oder andersweitig wissenschaftlichen Erkenntnis, welche bestimmte philosophische Schulen stärkt oder schwächt oder eine Transformation innerhalb des philosophischen Feldes stimuliert. Nein, der Nachweis der Verletzung der Bellschen Ungleichung stellt sich nicht von aussen der Philosophie als interpretationsbedürftiges Wissen zur Verfügung, sondern lässt sich unmittelbar von der physikalischen in die philosophische Sprache übersetzen.

In diesem Sinne ist unter physikalischer Philosophie eine originär philosophische Disziplin zu verstehen, keine Wissenschaftstheorie, kein Instrument zur Begriffsklärung, keine Interpretationshilfe zu umstrittenen Fragen der Physik. Sie ist nichts, was sich über, neben oder unterhalb dieser Wissenschaft ansiedeln würde, als Über- oder Hilfswissenschaft. Physikalische Philosophie bleibt voll und ganz Philosophie, benutzt die philosophische Sprache und versteht ihre Einheit als eine Topologie des Sinns. Das Design der resultierenden Theorie ist aber ein derartiges, dass deren zentrale Sätze eine unmittelbare Entsprechung in der Physik haben. Nicht in dem Sinne, dass sie die von der Wissenschaft gewonnenen Erkenntnisse illustrieren, einbinden würden, eine physikalische Philosophie ist sehr weit entfernt von einer „Dialektik der Natur“ oder einem Neopositivismus.

 

Die Physik verwechselt nicht ihre Formelmengen mit der Realität. Sie bearbeitet einen Möglichkeitsraum. Die erschlossenen Regionen ihrer Theorie erlauben bis zu den Grenzen, wo sich Bruchstellen und offene Fragen finden, eine Transformation von einer Gegenwart in eine Zukunft. Wenn zu einem Zeitpunkt die Welt auf eine bestimmte Art beschrieben werden kann, erlaubt der Determinismus der physikalischen Gesetze und vor allem deren Kenntnis eine Beschreibung der Welt zu einem späteren Zeitpunkt. Daran hat auch die Quantentheorie nichts Wesentliches geändert: Es wird nur dem Rechnen mit konkret spezifizierten Entitäten das Rechnen mit Möglichkeitsfeldern

hinzugefügt - diese möglichen Möglichkeiten, also Wahrscheinlichkeitsverteilungen im Möglichkeitsraum der Realität (dem Thema der Physik) ist eine From des Re-Entry: die Quantentheorie ist aus dieser Sicht die Wiedereinführung der Differenz von Möglichkeit und Realität auf der Seite der Möglichkeit.

 

Von Interesse ist nun, wie auf der Seite der Physik die Realität der Möglichkeit realisiert wird: Wie wird eine konkrete Möglichkeit als mögliches Reales ausgewählt und damit als Eingabe in eine Rechnung verfügbar gemacht? Wie wird innerhalb der Physik ein Sein hergestellt? Die Diskussion dieser Frage ist nicht nur wichtig, sondern auch deshalb interessant, weil in dieser Hinsicht die Quantenphysik eine klassische Theorie ist.

Es geht darum, wie eine physikalische Theorie ein Sein zu einem Nichts macht, dieses Nichts aber operationsfähig bleibt und in seinem Nichts die Markierung als Sein nicht verloren hat; stattdessen als dieses spezifische Nichts jene Seinsweise hat, um die Eigenschaften zu gewinnen, die notwendig sind, um Bestandteil einer physikalischen Theorie zu werden. Eine solche Struktur ist klassischerweise der Punkt. In einem Punkt zieht sich das Sein einer Form zusammen, bis alles verschwunden ist, ohne verschwunden zu sein. Der Punkt, das ist der sich nichtende Inhalt, der in sich selbst kollabiert und in seinem Verschwinden die reine Form übrig lässt, die dann aber keine Form mehr ist.

Es ist nicht anzunehmen, dass der Physiker Elementarteilchen tatsächlich für punktförmig hält, es ist nicht einmal relevant, ob er das tut oder nicht. Das Entscheidende ist lediglich, dass er mit punktförmigen Teilchen rechnet, dass diese innerhalb des Systems der Physik Punkte sind.

 

Es lässt sich nun nach einer Möglichkeit suchen, wie sich der Inhalt der elementaren Entitäten so nichten lässt, dass damit zwar Operationsfähigkeit in einer physikalen Theorie gewonnen wird, aber dennoch die Form nicht mit dem Inhalt zerstört wird. Der Punkt ist keine Form, denn er hat keine Grenze, er ist bereits die Grenze. Diese Formlosigkeit führt dazu, dass der Punkt nicht nur eine Synthese von Eigenschaften ist (Raum-Zeit-Koodinaten), sondern dass sich ihm auch zusätzliche Eigenschaften anheften lassen (Masse, Ladung, Spin etc.). Das Elementarteilchen als Punkt ist nun weiter nichts als die Summe der konstituierenden und der angehefteten Eigenschaften, es hat

sie nicht, sondern es ist selbst ihre Einheit. Das heisst, man muss nicht nach einer inneren Struktur suchen: da der Punkt keine Form ist und somit keinen Inhalt hat, können die ihm zugehörigen Eigenschaften in keiner Struktur zueinander stehen, wodurch es möglich ist, dass eine Theorie an dieser Stelle beginnen kann.

Eine formale Theorie (und moderne physikale Theorien sind als Möglichkeitstheorien des Realen formal, sie real-isieren sich erst durch eine Interpretation) muss das Inhalt/Form-Paradox aufgelöst haben, um beginnen zu können. Sie muss sich irgendwie des Inhaltes – mit dem sich nicht rechnen lässt – entledigen, um operieren zu können. Indem sie die Teilchen zu Punkten macht, ist diese Entleerung vom Inhalt geleistet, dieser verschwindet nicht einfach, sondern wird transformiert und damit selbst zu Formen (als Eigenschaften, das heisst als quantifizierte Qualitäten, als potentielle Messgrössen, die in bestimmten Einheiten beschreibbar sind).

Die Frage ist nun, ob die Herstellung der Operationsfähigkeit für eine formale Theorie nicht auch anders hergestellt werden kann, indem bei der Form/Inhalt Differenz nicht beide Seiten verschwinden und man den Ort dieses Verschwindens zu Hilfe nehmen muss und von dieser Markierung aus (dem 'Punkt') die Theorie aufbaut, sondern stattdessen, indem die Paradoxie Inhalt/Form auf der Seite der Form aufgelöst und somit eine ihrerseits paradoxe Form ohne Inhalt produziert wird.

 

Eine solche Struktur ist in seiner einfachsten Form ein Strich. Ein Strich hat in sich selbst bereits gewisse Eigenschaften, die weder durch den Bezug zu einem ihm äusseren Raum entstehen, noch ihm durch einen Akt angeheftet werden. Ein Strich hat eine Länge und er bildet eine Struktur von Entfernung und Nähe zwischen seinen Regionen aus; wenn er sich etwa krümmt, kommen sich seine Enden näher. Im Gegensatz zu einem Punkt konstituiert er damit bereits selbst einen Raum (als umschliessende Gesamtheit von Entfernungen zwischen Regionen) und zwar in Differenz zu seiner Umgebung, die ebenfalls einen Raum konstituiert. Der Strich kann sich zwar krümmen, aber welche Modifizierung der Entfernungen der ihm eigenen Orte daraus entsteht, hängt nicht nur von der Spezifität dieser Krümmung, sondern auch und vor allem davon ab, welche Krümmungen überhaupt möglich sind, und welche Modifikation von Entfernungen daraus jeweils resultieren. Diese Differenz von Räumen führt unmittelbar zur Dimensionalität, nämlich einer Zahl von räumlichen Dimensionen und einer Struktur der Dimensionen zueinander.

 

Die Differenz aus inneren und äusseren Dimensionen lässt diese String-Theorie ebenso wie die herkömmlichen (von punktförmigen Teilchen ausgehenden) Theorien als Spezialfälle erscheinen und ist folgerichtig zu einer M-Theorie erweitert worden, gemäss der die Welt aus Branen verschiedener Dimensionalität besteht.

Die Besonderheiten dieser Theoriefamilie lassen sich kurz folgendermassen beschreiben.

1. Es handelt sich um sehr schwierige Theorien, die nur von wenigen tausend Menschen verstanden wird. Die in ihr massgeblichen Gleichungen sind so kompliziert, dass sie nur als Näherungen aufgestellt werden können, so dass nicht nur die Lösungen, sondern auch die Probleme nur als Approximationen bekannt sind.

2. Die Theorie ist in einem sehr starken Mass deduktiv. Die vorangehenden physikalischen Theorien

benötigen etliche kontingente Grössen (Naturkonstanten), deren konkretes Mass nicht begründet werden kann. Die Stringtheorien lassen die Welt aus dem mathematischen Apparat selbst entstehen, so erschienen die maxwellschen Gleichungen in ihnen eigenständig in einem Theorieast. Die Deduktionskraft zeigt sich auch darin, dass von ihr der Widerspruch der nicht zueinander passenden Quanten- und Realitätstheorie aufgelöst werden kann, sie also die Konsistenz der Physik (eine Theorie für eine Welt) wiederherzustellen verspricht.

3. Sie verschiebt das zentrale Problem der Physik von der Differenz Gesetze/Seiendes zur Differenz Dimensionalität/Gesetze. Die herrschenden Gesetze resultieren aus den Eigenschaften der

Teilchen und diese werden dadurch festgelegt, wie die Struktur sich zwischen den Dimensionen der Raumzeit ist. Dabei schafft die Theorie die Notwendigkeit von zehn, später von elf Dimensionen und eröffnet damit einen Möglichkeitsraum von Verknüpfungen zwischen ihnen. Aus innermathematischen Gründen lässt sich die Grösse dieses Feldes reduzieren, trotz diesen Restruktionen bleiben noch zehn hoch fünfzig mögliche Welten übrig.

 

Insbesondere die letzten beiden Punkte machen deutlich, dass die Stringtheorien eher auf einem klassischen Denken beruhen. Hinter den Erscheinungen stehen die Gesetze und hinter den Gesetzen die dimensionalen Strukturen der Raumzeit. Von dieser Region her lässt sich erklären, was in konkretem Sinne ist und sein kann, daraus folgt, dass die entsprechenden Calabi-Yau-Mannigfaltigkeiten zwar die Gesetze und die Welt begründen, seinerseits aber nicht begründet werden können. Sie entstehen aus einem mathematischen Apparat und erhalten den Status des Seins zugesprochen, idealerweise durch einen theoriegeleiteten Reduktionsprozess, der von den derzeitig noch zehn hoch fünfzig nur noch eine einzige mögliche Welt übrig lässt. Der Raum nimmt also den Platz des Seins ein, er ist das, was jenseits der Welt ist, diese aber erst ermöglicht.

Von hier aus ist zu sehen, dass physikalische Philosophie sich nicht mit nachklassischem Denken deckt, es kann also durchaus sein, dass sie zu klassischen Standpunkten zurückfindet.

 

Die Physik als die wohl ambitionierteste Wissenschaft wird sich vielleicht nie vom Drang nach Totalität verabschieden können. Eine solche Art von Fragmentierung, wo die Gesetze von jeweiligen Standpunkt abhängen und sich von der ihnen gehorchenden Materie nur durch eine ausgeprägtere Trägheit und eine eine grossräumigere Regionalität unterscheiden, wird ihr zu unbefriedigend erscheinen. Ihr Ziel wird letztlich immer in der 'Weltformel' bestehen, das heisst in einer Theorie, die zu jedem Zeitpunkt und überall gilt und überdies keine Bruchlinien hat, sondern höchstens offene, kontinuierliche Arbeitsfelder. Die Physik wird diesen klassischen theologischen Ort ausserhalb der Welt, von dem aus alles erklärt werden kann (jene unbegründbare, hypothetische Formel-Totalität), nicht fahrenlassen. Sie hat es neben dem metaphysischen Problem der fehlenden Selbstreferenz - die Theorie kann sich nicht selbst begründen, sie rechtfertigt sich a poseriori dadurch, dass sie auf die Welt passt – mit einem grundsätzlichen praktischen Problem zu tun, das ihr aber wenig schwerwiegend erscheint: Schon in der Newtonschen Theorie ist die Berechnung der

Raum-Zeitkoordinaten eines Systems von mehr als drei Körpern enorm schwierig und aufwändig, die Berechnung der realen Zukunft des Universums würde, selbst wenn sie der Theorie nach möglich wäre, alle Komplexitätsgrenzen in einem solchen Grad sprengen, dass sie von keiner realen Instanz auch nur ansatzweise zu leisten wäre. Die Physik führt also in die einst von Gott bewohnte extramunde Region selbst eine Differenz ein: zwischen der Totalität der Theorie und der mit ihrer Hilfe möglichen Totalisierung der Realität durch einen grenzenlosen Rechner.

 

Das Verlangen nach einer solchen Totalität ist ungebrochen und es ist gut möglich, dass jede Topologie des Sinns auf eine solche angewiesen ist und nur die Weise ihrer Transzendenz modifiziert. Innerhalb der Physik hat sich im Laufe des zwanzigsten Jahrhunderts gezeigt, dass ihre beiden avanciertesten Theorien sich auf eine Weise widersprachen, dass die Realität zersplitterte, wenn man sie gemeinsam anwendetete. Die Relativitäts- und die Quantentheorie passen nicht zueinander, wenn man sie zu einer Theorie vereinigen will, entstehen an entscheidenden Stellen unendliche Grössen, was nicht nur auf eine Falschheit hinweist, sondern – schlimmer noch – das Weiterrechnen unmöglich macht. Der Ausweg bestand dann darin, nicht mehr von punktförmigen, sondern von eindimensionalen Teilchen auszugehen, damit lösten sich die Singularitäten auf.

Jedoch gilt die Wahrheit nicht mehr, dass das Geniale im Einfachen liegt. Wie kann es sein, dass die

kleinsten, die einfachsten Bestandteile der Welt – die Elementarteilchen – nur mit einer Mathematik

zu beschreiben ist, die eine enorme Komplexität und Kompliziertheit hat?

 

Interpretiert man die Erkenntnisse der modernen Physik auf dem Boden der Logik, sieht man unmittelbar, welche tiefgreifenden Verwerfungen durch sie entstanden sind. Die Logik fusste seit Aristoteles bis ins zwanzigste Jahrhundert hinein auf drei tragenden Säulen: das ist erstens die Selbstidentität der Gegenstände, zweitens der Satz vom Widerspruch und drittens der Satz vom ausgeschlossenen Dritten.

Ein Teilchen ist mit sich selbst durchaus nicht identisch, es ist, was es ist, erst durch ein Anderes und was es dann ist, hängt von dem Anderen ab. Ebenso ist ein Teilchen zugleich Nicht-Teilchen, nämlich eine Welle und drittens lässt sich auch sagen, dass es sich an einem Ort weder befindet noch nicht befindet. Das Fundament der Logik, das ein sicheres Schreiten von Wahrheiten zu neuen Wahrheiten erlaubt, ist fortgeschwemmt worden und an seine Stelle sind diffusse, schwer handhabbare und für fast alle praktische Belange unbrauchbares Wahrscheinlichkeitsregeln getreten.

 

Dabei ist die nachklassische Logik nicht von der Physik her initiiert worden, diese konnte sich aufgrund des funktionierenden mathematischen Apparates problemlos weiterentwickeln.

Was überhaupt Logik ist, erschliesst sich nicht unmittelbar. Begriffsgeschichtlich stammt sie vom Logos her, jenem metaphysischen Ort, an dem sich das Sein und die Wahrheit versammelt haben.

Heute begegnet sie uns in ihrer wenig aussagekräftigen - gewissermassen schlechten - Differenz von formaler und informaler Logik. Die Anhänger beider Richtungen begegnen sich mit einer gewissen Verachtung.

Es bleibt die Frage, was unter richtigem oder korrektem Denken zu verstehen ist, worin also die Logik fundiert ist. Offenbar kann sie im Gegensatz zur Mathematik keine rein formale Disziplin sein, denn deren Axiome sind im strengen Sinne kontingent, wohingegen das Logische nicht im selben Sinne beliebig sein kann.

 

Ein klassisches Denken wird hier letztendlich auf eine Subjekt/Objektdifferenz rekurrieren, wobei ein Subjekt Sätze spricht, denen logische Prädikate zugeordnet werden und die sich verketten und in der Folge davon diese Prädikate propagieren und transformieren. Die sprachliche Ebene wird dabei autonom, die Sätze erhalten einen Seinsstatus, ganz als könnten sie sich von selbst gesprochen haben. Erst durch diese Invisibilisierung des Subjektes etabliert sich jenes Austauschverhältnis zwischen dem Denken und der materiellen Welt, durch die die Entwicklung einer Logik möglich ist.

Im Gegensatz dazu soll hier die Logik vollständig operationalisiert, also als etwas verstanden werden, das untrennbar von der Instanz ist, welche Logik benutzt oder reflektiert.

Aus dieser – systemtheoretischen – Perspektive ist die Logik der allgemeinste Modus, wie ein System seine System/Umweltdifferenz aufrechterhält. Einige Systeme (so die Philosophie, die Mathematik) können auf diesen Modus reflektieren, dann entsteht 'Logik' im engeren Sinne. Die Aufgabe der Logik besteht also darin, Anschlussoperationen zu sichern und zwar für einen unscharfen, sich tendenziell ins Unendliche dehnenden Zeiraum.

 

Systeme, die sich nicht logisch verhalten, werden nicht lange bestehen. Sie passen nicht in ihre Umwelt, können sich bald keine Operationen mehr besorgen und hören auf. In dieser, einer Sorge verwandten Struktur konstituiert die Logik einen Zeithorizont. Jede Operation realisiert ihre Zeit durch ihr Auftauchen, das von Beginn an ihr Verschwinden beherbergt und sie schafft damit auch die Zeit des Systems, dem sie angehört. Die Logik ist der Modus eines Systems, wie es die nächsten Anschlussoperationen so selektiert, dass in ihnen sich bereits das Möglichkeitsfeld der übernächsten abzeichnet und das System so eine provisorische Permanenz gewinnt.

Damit ist auch gesagt, dass die Logik auf beiden Seiten der Grenze zu finden ist. Sie operiert natürlich innerhalb des Systemes, aber ihre Referenzen gehen sowohl auf System als auch auf die Umwelt. Denn die zukünftigen Selektionsfelder hängen nicht nur von der gegenwärtigen Selektion ab, sondern ebenso von den Veränderungen, die sich in der Umwelt vollziehen werden. Das System gehört zur Umwelt der Systeme der Umwelt, was aber eben bedeutet, dass die Selektionen des Systems die zukünfigen Selektionen der Systeme seiner Umwelt nicht determinieren, sondern nur ankoppeln lassen.

 

Es kommt also zu Serien des Vorlaufs in die Zukunft, das von Rücksprüngen durchsetzt ist. Aus diesem Feld von losen Kopplungen aus nebeneinander bestehenden Selektionsmöglichkeiten entstehen Ketten von aufeinanderfolgenden provisorischen Selektionen, die aber auch wieder nebeneinander bestehen und so in der Aktualität gehalten werden. Auf diese Weise produziert das System eine Gegenwart, in das seine eigene Zukunft als Möglichkeitsraum eingeschrieben ist. Dies ist aber nur möglich, indem permanent auf die Seite der Umwelt gewechselt wird, so wird gleichfalls eine systemrelative Zeit der Umwelt hergestellt.

 

Inwiefern ist dieses fortgesetzte Hin- und Herspringen zwischen System und Umwelt, zwischen Zukunft und Gegenwart aber bereits oder überhaupt Logik? Es ist ja das, was jedes – zumindest jedes komplexere - System grundsätzlich tut: seine Selbsterhaltung und im günstigen Fall sein Wachstum zu sichern. Das ist richtig, und man kann erst durch Berücksichtigung weiterer Differenzen zu einem sinnvollen Begriff von Logik kommen. Zunächst ist die Differenz von Prognose und Pragmatik zu beachten. Wenn das System sich in seine Zukunft entwirft, durchkreuzt es fortgesetzt die Grenze zwischen sich und seiner Umwelt – und zwar in beide Richtungen. Es evaluiert die Selektionsmöglichkeiten von sich selbst und die von Systemen seiner Umwelt, sowie von sonstigen Veränderungen dieser Umwelt. In dieser Einheit aus Selbst- und Fremdreferenz produziert das System in sich selbst eine Beschreibung, in der seine Umwelt und es selbst vorkommen. Als Ergebnis eines jeden solchen Vorlaufes wird ein Feld zukünftiger hypothetischer Anschlussoperationen verfügbar gemacht. Davon abgekoppelt ist aber die Bewertung dieses Feldes als für das System günstig oder ungünstig. In dieser Differenz zwischen Bewertung und Vorhersage ist die Logik auf der Seite der Vorhersage zu finden. Es geht für sie nicht darum, ob das Ergebnis der entsprechenden Instanz 'gefällt', sondern lediglich darum, ob sie richtig 'gedacht' hat. Solchermassen vom System entkoppelt, stellt sie sich ihm als Instrument dar, das aber einen eigenen Autonomiebereich dar. Erst durch diese Autonomie kann sie dem System überhaupt dienen. Das System zwingt sich so, seine Kopplung an die Umwelt zu verbessern, indem es solange seine provisorischen Selektionen aus den Operationsketten modifiziert, bis das Ergebnis akzeptabel ist. Das heisst auch, dass – ebenso wie das tragende System – auch die Zeit invisibilisiert wird. Zwar wird die Logik von und für Systeme verwendet, doch ihrer Zuschreibung nach gilt sie allgemein; und zwar realiseren sich die logischen Operationen in einer Zeit, doch die Logik versteht sich als zeitlos gültig.

 

Die Produktion von Beschreibungen durch das System ist eine Form des Re-Entry: Die Differenz von System und Umwelt wird ins System wieder eingeführt. Es kommt in seiner Beschreibung selbst vor, damit entsteht Selbstreferenz. Weil ein enormes Komplexitätsgefälle zwischen der Umwelt des Systems und ihm selbst besteht, muss beim Erzeugen der Beschreibung die dafür nötige Komplexitätsreduktion gelingen. Und das ist ein systemrelativer Akt, verschiedene Systeme werden nicht nur zu anderen Beschreibungen kommen, sie werden – innerhalb gewisser Grenzen – ihre Umwelt überhaupt erst – und zwar verschieden - konstituieren. Verschiedene Systeme werden von verschiedenen Dingen umgeben sein, anders ausgedrückt: Wenn man einen Hammer in der Hand hat, sieht alles nach einem Nagel aus.

Produziert ein System eine Beschreibung, modifiziert sich die Form/Inhalt-Differenz der fortlaufenden Beobachtungen zur Differenz Gegenstand/Bedeutung. Gegenstände erhalten in der Beschreibung Namen, die aber für etwas stehen, also Bedeutungen haben. Auf der Seite dieser Bedeutungen finden nun Verkettungen statt, es bilden sich dort Regeln aus, schliesslich Gesetze und Theorien.

 

Wir sehen, dass Beschreibungen von Beobachtungen abgeleitete Systeme sind, aus Operationen bestehen und fortgesetzt neue Dinge/Bedeutungen einführen, womit das gesamte System der Beschreibung zugleich aktualisiert als auch irritiert wird. Denn dieses muss seine Einheit jeweils neu konstituieren, was es nur kann, indem es die das System tragende Struktur der Regeln/Gesetze modifiziert.

Der Vorlauf in die Zukunft geschieht durch und mit der im System erzeugten Beschreibung. Die Operatoren sind die zugehörigen Regeln/Gesetze. Hierbei gibt es Regionen relativer Homogenität, es kann dann systemseitig unterbrechungslos operiert werden. Das sind die Bereiche, wo sich die formalen Disziplinen entwickeln, an erster Stelle die Mathematik. Doch es gibt Grenzen der Homogenität, Regeln, die sich widersprechen, Gesetze, die nicht zueinander passen, Beobachtungen, die andere Beobachtungen widerlegen und so weiter. Diese Verwerfungen, Bruchstellen verschiedener Länge und Tiefe machen die Einheit der Beschreibung und des Systems selbst zu einem Problem. Wie können die Operationen dort fortgesetzt werden, wo die bisherigen Regeln nicht mehr gelten?

 

An diesen Bruchlinien operiert nun die Logik. Sie weicht in dem Masse zurück, wie die Inhomogenitäten durch die Modifikation der gesamten Beschreibung geschlossen werden.

Ein logisches Problem gibt es dort, wo nicht mehr oder noch nicht gerechnet werden kann, selbst wenn sich dabei formale Systeme ausbilden, die ihrerseits ein Rechnen erlauben.

Das heisst auch, dass die Art, wie eine Beschreibung ihre Objekte erzeugt, wie das System das für es Wesentliche aus seiner Umwelt abstrahiert, zur Logik gehört, denn davon werden die Strukturen der Inhomogentäten auf der Seite der Beschreibung beeinflusst.

 

Eine Logik wird nachklassisch, wenn sie die verschütteten Strukturen ihres Entstanden-Seins in sich aufnimmt. Sie wird dann auch selbstreferentiell, weil sie ihren eigenen Ursprung thematisiert. Konkret hatte die klassische Logik zwei grundsätzliche Gegebenheitsweisen aus sich ausgeschlossen: das Subjekt und die Zeit. Deshalb versteht sie sich als immer und überall gültig, logische Sätze sind in einem zeitlosen Sein verankert. Wird auf diese Invisibiltäten reflektiert, also das Subjekt und die Zeit in die Logik eingeführt, kommt es zu jenen Transformationen ins Nachklassische, die bereits im Bereich von Mathematik und Physik thematisiert worden sind.

Der Impuls für diese Transformationen ging hier von der Informatik und der Kybernetik aus. Ein Computer ist bisher ein Stück realisierter klassischer (Aussagen)Logik, die Basis eines Prozessors ist eine materialisierte Boolsche Funktion, also ein bereits erschlossenes logisches Gebiet. Diese Region entfaltet sich und erzeugt bei seiner Überdehnung schliesslich jene Reflexionsbewegung auf

seine Grenzen, die zu einer Überschreitung der klassischen Logik führt.

 

Die Inklusion der Zeit in die Logik wurde in voller Konsequenz durch Spencer Brown eingeführt. In seinem Kalkül bleibt die Stellung des Subjekts merkwürdig unterbestimmt, hier hat dann Gotthard Günther Entscheidendes geleistet.

Spencer Brown musste eine algorithmische Aufgabe lösen, was nur durch die Einführung imaginärer Wahrheitswerte möglich war. Für solche Entitäten gab es aber überhaupt keine Theorie, was kein tragbarer Zustand war, da die Einheit der Mathematik nur möglich ist, wenn sich ihre Kalkulationen auf Axiome zurückführen lassen. Spencer Brown interpretierte imaginäre Wahrheitswerte als ein unendliches Pendeln zwischen wahr und falsch und damit als einen Ausdruck logischer Zeit. Das war auch angesichts der Entwicklung der Informatik zeitgemäss, denn deren Schaltkreise realisierten zwar logische Funktionen, verbrauchten für die Verarbeitung der Eingaben aber Zeit. Das Subjekt war aus der Logik ausgeschlossen: dass auch sein Rechnen oder Denken dauerte, zählte nicht; der Schaltkreis dagegen ist selbst ein Stück Logik und durch sie nicht exteriorisierbar.

 

Der wichtigste Zweig der modernen formalen Logik ist die Prädikatenlogik. Kritischen Menschen wird sie immer etwas suspekt und unbefriedigend erscheinen, weil sie eine komplizierte und unübersichtliche Ontologie voraussetzt. An ihrem Beginn stehen Relationen verschiedener Stelligkeiten, Variablen, Konstanten, Operatoren, Quantoren und anderes. Einer solchen Struktur haftet etwas Willkürliches an, was sie trotz ihrer ausgeprägten Erfolge wenig attraktiv für ein auf Deduktion fokussiertes System macht.

Dem stellt Spencer Brown – von Haus aus Mathematiker – eine Logik gegenüber, die nicht auf dem Sein, sondern auf der Operation beruht, also eine Logik, die sich von vornherein in der Zeit befindet, durch die Zeit möglich ist und selbst erst die Zeit erzeugt in der sie gültig ist. Das bedeutet auch, dass die Korrespondenz zwischen der Dingwelt und deren Repräsentation nicht durch einen kaum begründbaren Abstraktionsprozess entsteht, der die notwendige Ontologie produziert. Stattdessen ist diese Korresponenz bereits implizit, nämlich durch den Umstand gegeben, dass auf beiden Seiten der Grenze operiert wird. Der Fokus auf das Operieren erzeugt genug Äquivalenz, ist in seiner Restrikitivität streng und präzise genug, um dafür zu sorgen, dass das daraus entstehende logische Systeme auf die Welt passt.

 

Der Startpunkt dieser Logik ist mit „Draw a distinction“, eine Anweisung die einen – den ersten Unterschied erst herstellen lässt. Es wird hier scheinbar nichts weiter vorausgesetzt als das Erzeugen einer Grenze, durch die eine assymetrische Unterscheidung hergestellt wird. Auf der einen Seite entsteht das, was die Grenze einschliesst, ein markiertes Gebiet, das benannt werden kann, auf die anderen Seite gehört das unspezizierte Äussere dieser Grenze, das keinen Namen hat, ein 'unmarked space'. Die Grenze der so entstandenen Form lässt zwei Modi von Referenz zu: die Aussen- und die Innenseite. Erreicht man die Aussenseite, referiert man mit einem Hinweis (Operation des call), die Referenz auf die Innenseite macht ein Kreuzen der Grenze nötig (was Zeit erfordert) und vom markierten und den unmarkierten Bereich wechselt und umgekehrt (Operation des cross). Aus dieser voraussetzungsarmen Struktur lassen sich zwei Axiome gewinnen: Erstens, der Wert eines wiederholten Calls ist der Wert des ursprünglichen Calls und zweitens, der Wert eines wiederhollten Cross ist nicht gleich dem Wert des ursprünglichen Cross. Diese beiden Axiome genügen bereits, den logischen Kalkül zu entwickeln.

 

Wir sehen also, dass diese Logik zeitlich ist, sie ist so auf das Operieren abgestellt, dass sie ohne das Sein und die Wahrheit auskommt. Ihr Modus ist das Erzeugen; sie bringt Formen zum Erscheinen und zum Verschwinden, erschöpft sich durchaus in der Weise, wie Formationen von Formen aufeinander folgen.

Dabei bleibt die Stellung des Subjektes, also derjenigen Instanz, welche die Operationen vollzieht, unterbestimmt. Zwar formalisiert Spencer Browns Kalkül die Reflexion. Die Figur des Re-Entry - der Wiedereinführung der Form in die Form - ist die formale Struktur der Einheit aus Selbst- und Fremdreferenz und so der Reflexion. Das Subjekt erhält damit einen Ort in der Logik, entsteht in ihr. Aber das Subjekt steht ausserdem auch ausserhalb der Logik, es ist dasjenige, das die Operationen vollzieht und so von vornherein aus deren Korpus ausgeschlossen ist,

Die originäre Anweisung „Draw a distiction!“ enthält ja gerade diese Referenz auf einen externen Ort, der notwendig ist, um den Kalkül zu erzeugen. Es gibt innerhalb dieser Logik also keinen ersten Unterschied. Der erste Unterschied hat immer schon bestanden, es ist derjenige zwischen dem Subjekt und dem leeren Raum, wo dieses den Formenkalkül ins Sein hieven wird. Jeder Unterschied dieser Logik, auch und insbesondere der erste – verweist damit auf einen transzendenten Unterschied, den die sich entfaltende Logik nicht mehr einholen kann.

 

Das klassische Denken bewegt sich im Horizont eines Umtauschverhältnisses. Aus der unhintergehbaren Fülle eines Seins – Gott oder der Ort des Gesetzes – entspringen zwei Seinsmodi: die Positivität und die Negativität. Auf der positiven Sein entsteht so die Region des mit sich selbst Identischen, das was der Marxismus 'Materie' nennt, die Region des Objektiven. Dem steht auf der negativen Seite die Reflexion gegenüber, etwas, das nur durch fortwährenden Distanzierung bestehen kann, das Bewusstsein. Beide Seiten bilden ein Austauschverhältnis, es kann keine Abstufungen und Zwischenschritte geben: entweder – oder. Damit ist die Voraussetzung einer Korrespondenz gegeben, jedem Gedanken kann ein Sachverhalt zugeordnet werden und aus diesem Homologieprinzip ergibt sich unmittelbar die Region der Wahrheit, welche das entsprungene Austauschverhältnis in das Sein zurückbindet und dort einschliesst. Dieses klassiche Denken findet sich schon bei Aristoteles (seine Logik fusst darauf) und ist noch in Wittgensteins Tractactus und der davon inspirierten philosophischen Tradition zu finden.

Die Bewusstsein/Materie Tradition ist dabei von etwas irritiert worden, was sie nicht gut integrieren

konnte, das ist das Du. Lange Zeit wurde hier kein schwerwiegendes Problem gesehen, das Du war einfach ein anderes Ich, das sich durch Transposition erreichen liesse. Aber die tatsächliche Unerreichbarkeit dieses Du erwies sich doch als hartnäckig und liess jede Philosophie dieses Typus hilflos vor der Fratze des Solipsismus zurück. Das Andere Bewusstsein liess sich nicht aus dem eigenen heraus konstituieren und konnte doch nicht als Ding unter Dingen behandelt werden. Dieses Problem konnte erst von Sartre gelöst werden, indem er zeigte, dass das Du überhaupt nicht konstituiert, sondern erfahren wird. Erblickt werden ist der Objektmodus des Subjektes, in dieser Möglichkeitsform ist das Du bereits gegeben, es muss nicht durch bewusstseins-logische Prozesse konstruiert werden. Das bedeutet aber auch, dass das Bewusstsein eine Situierung erhält, die Art und Weise, wie es von anderen Bewusstseinen umgeben ist, spezifiziert seine Position.

 

Die Realität des Du, das zeigt Gotthart Günther, ist nun geeignet, das klassische Denken zu unterminieren und den Boden für eine transklassische Logik zu bereiten. Statt eines einzigen Austauschverhältnisses gibt es drei Formen von Identität: zwischen Ich und Es, zwischen Ich und Du und zwischen Du und Es. Das Du ist ein dem Ich externer Ort des Denkens, das aber als Denken von diesem nicht erreicht kann. Es wird vom Reflexionsprozess des Ich also durchaus in einem Objektmodus prozessiert, dem allerdings Subjektivität zugeschrieben wird. Das Du ist also jenseits der konkreten menschlichen Du's, mit denen wir leben, der logische Ort, an dem Denken sich im Objektmodus vollziehen kann. Ein solcher logischer Ort, also die Möglichkeit eines spezifischen Systemtyps und der ihn konstituierenden Operationsweise kann nun auch von aussen realisiert werden, wenn ein genügend dichtes Feld von initialen Elementen zur Verfügung gestellt wird. Dann kann das Du, der Objektmodus des Subjektiven in seine eigene Autopoiesis treten.

Die Frage ist, wie ein solches zur-Verfügung-Stellung initialer Elemente stattfinden kann. Wie kann der Transport solcher Elemente vom Ich zur Region des Du stattfinden? Günther bezieht sich dabei auf Wiener, der die Information als ein Drittes sieht, als weder Materie noch Bewusstsein. Mit und durch die Information, liesse sich damit jener Objektbereich des Subjektiven entwickeln.

 

Dabei erfährt die Subjektivität selbst eine Spaltung. Ihr Kern, die Seele, zieht sich zusammen und gibt in dieser Rückzugsbewegung Randzonen frei, die nun zur Transformation in den Objektbereich

zur Verfügung stehen. Konkret gesagt: Es entstehen damit objektivierbare Bewusstseinsprozesse, Momente des Denkens, die keines Subjektes bedürfen. Das ist der Ort der Kybernetik. In ihren Algorithmen sind ehemals reine Bewusstseinsprozesse in die Materie gebannt. Das Bewusstsein selbst wird in der Freigabe seiner Randzonen sich in Richtung seines Kernes zurückziehen, den es allerdings nicht spezifizieren kann. Früher gehörte Schachspielen zum Zentralbereich von bewusster Intelligenz, heute nicht mehr.

Günther zeigt in seinem hellsichtigen Buch „Das Bewusstsein der Maschinen“ keine Tendenz, den Computern ein Bewusstsein anzuhängen. Das ist auch gar nicht nötig. Der entscheidende Punkt ist, dass durch die Einführung einer dritten Region das traditionelle Austauschverhältnis zwischen Bewusstsein und Materie aufgelöst wird. Das hat schwerwiegende Konsequenzen für die Logik und den Menschen. In der Logik führt es dazu, dass der Reflexionsprozess Eingang in sie findet. Diese Relativierung gründet sich darin, dass jede Unterscheidung einmal das durch sie Unterschiedene voneinander unterscheidet, zum anderen sich aber von anderen möglichen Unterscheidungen unterscheidet. Der nun in die Logik integrierte Reflexionsprozess erlaubt es damit, nicht nur in der Objektwelt zwischen den unterschiedenen Objekten zu wechseln, sondern stattdessen auch die Art der tragenden Unterscheidungen auszutauschen und so zu anderen Strukturen, zu anderen Objekten zu kommen. Für den Menschen, also das Subjekt bedeutet das, dass er selbst zum Bestandteil der Logik geworden ist, das Denken verliert seinen privilegierten Platz und wird zu einem Moment der logischen Struktur. Das bedeutet auch, dass das menschliche Bewusstsein austauschbar geworden ist, dessen Integration in den formalisierbaren logischen Apparat einer transklassischen Logik ist die

letzte Entthronung des Menschen.

 

Wie klassisch denkt man in der Philosophie? Das ist eine nicht klar und eindeutig zu beantwortende

Frage. Einerseits wäre es eine unzulässige Verengung, die Fülle der in der Philosophie thematisierten Problemfamilien auf eine solche Frage zu verengen. Es ist bekannt, dass der Marxismus und selbst Marx, die Tendenz besass, philosophische Grundhaltungen in Bezug auf den Primat von Bewusstsein oder Materie zu kategorisieren (Philosophen danach als Materialisten oder Idealisten). In einer solchen Verkürzung würde die Philosophie vom Standpunkt des klassischen Denkens aus generalisiert. In meiner Auffassung ist die Philosophie die Topologie des Sinns und damit von solchen Grenzziehungen emanzipiert.

Festzuhalten ist allerdings, dass die entscheidenden Punkte für die Entwicklung nachklassischen Denkens nicht von der Philosophie kamen. Es handelte sich typischerweise um innerwissen­schaftliche Krisen, die von Beobachtungen oder theorieinternen Problemen stammten oder von Reflexionen auf zu lösende Aufgaben.

Zwar ist Gotthard Günther nicht nur Logiker, sondern auch Philosoph. Und die Entwicklung seiner transklassischen Logik wurde massgeblich von einem Problem angetrieben, das innerhalb des Korpus der Philosophie zu finden ist: Warum ist die Logik des deutschen Idealismus, vor allem die Hegelsche so inkompatibel zur Aristotelischen und: Wie lässt sich die Hegelsche Logik formalisieren?

 

Die Entwicklung nachklassischen Denkens ist von etwas begleitet und getragen, was hier als 'Emanzipation der Form' bezeichnet worden ist. In dieser Hinsicht lassen sich bereits Spinoza und Leibnitz in manchen Aspekten als transklassisch bezeichnen.

Spinoza entwickelt eine extrem formale und deduktive Philosophie, die sich explizit an der Mathematik orientiert. Die konkreten Ergebnisse mögen für uns oft kaum noch nachvollziehbar sein, der tragende Impuls ist aber demjenigen der modernen Physik verwandt.

Die Wurzel des deduktiven Apparates wie auch der Dingwelt bleibt dabei aber ein Sein, dem alles entspringt. Bei Spinoza ist das Sein ist durch nichts erschüttert, es ist noch nicht von jener Erosion betroffen, die hier das zentrale Thema ist.

Auch Leibniz nimmt die Perspektive der Form ein. Seine Monaden charakterisieren sich durch ihre Differenz zu den anderen Monaden, nichts kann etwas lediglich durch es selbst sein, sondern nur dadurch, dass es sich von anderen in einer Eigenschaft unterscheidet. Das zentrale Axiom der Monadologie – dass es keine zwei Monaden mit den genau gleichen Eigenschaften geben kann – mündet in ein System von Aussenbeziehungen, in die Relativität einer Totalität der Differenzen einer jeden Monade zu allen anderen.

Leibniz markiert aber nicht nur einen Umschlagspunkt des klassischen ins transklassische sondern auch vom mittelalterlichen zum klassischen Denken. Dies ist in seiner Theologie zu erkennen. Gott ist als vollkommenes Wesen gezwungen, 'die beste aller Welten' zu schaffen, er wird also im logischen Sinne an die ihm entsprungene Welt zurückgebunden und verliert seinen Status als differenzlose Freiheit. Ihm wird so ein Ort zugewiesen, den wenig später das Gesetz einnehmen wird, jenes in die Natur eingeschriebene und ihr doch transzendente Sein, dass sie hervorbringt und treibt.

 

Das Denken der Totalität erreicht seinen Kulminationspunkt mit Hegel. Hier ist es die leere Selbst-Identität des Seins, die sich entzweit und entfaltet und in dieser Bewegung sich anreichert und schliesslich in eine erfüllte Selbst-Identität mündet. Möglich ist der Ursprung dieser Bewegung durch die Form der Nichtidentität des Identischen, durch die Formel Sein=Nichts, was auch auf die Nichtidentität des Seins mit sich selbst, das Sein also mit seinem Nicht-Sein identifiziert. Dieses dialektische Moment ist mit der klassischen aristotelischen Logik unvereinbar, in der es immer nur Sein=Sein oder Nichts=Nichts heissen kann.

Trotz der in seiner Methode liegenden Offenheit entsteht aus dieser Logik ein System, welches zwar

alles einzuschliessen beansprucht, sich aber auch abschliesst und als solches eine Aussengrenze hat. Als solches ist es gezwungen, jeder Beobachtung einen topologischen Ort innerhalb des Systems zuzuweisen, und das führt etwa unweigerlich zu Verzerrungen, wie man etwa an Hegels Philosophie der Geschichte erkennen kann. Dort zeigt sich, dass Hegel für ganze Weltregionen, so Afrika, keine Verwendung findet und sie verwirft. Der Anfangspunkt dieser Philosophie verweist auf ihren Endpunkt, wo die nun voll entfaltete Totalität alles in sich beschlossen hat und zu sich selbst gekommen ist. An diesem Ort, im Wesentlichen die Hegelsche Philosophie selbst, kommt das

dialektische Moment zur Ruhe, damit hat auch die Zeit ihr Ende. Es liegt auf der Hand, dass eine solche Totalität der Realität fortwährend widerspricht. Denn in dieser geschieht weiterhin etwas, es werden Entdeckungen gemacht, Kriege geführt, Diskurse geführt. Der Weltgeist, der in Hegels Philosophie zu sich selbst gefunden und damit die Zeit zu einem Abschluss geführt hat, liegt von nun an als unverdaulicher Brocken in der Geistesgeschichte: fortwährend widerlegt und doch nicht wegzubekommen. Bekanntlich wurde bereits Hegel darauf hingewiesen, dass sein System nicht zur Wirklichkeit passe. Und bekannt ist auch seine Antwort darauf: „Umso schlimmer für die Wirklichkeit.“ Das zeigt natürlich, dass ihm das Paradox, auf dem seine Philosophie beruht, bewusst war. Und es fällt auch auf, dass die Passagen, die den zu sich selbst gekommen Weltgeist betreffen, knapp gehalten, ja auffallend kurz sind, ganz im Gegensatz zu den mittelalterlichen Philosophien, die sich gerade von dieser Paradoxie inspirieren und von ihr aus vielfältige Gedankenwelten entspringen lassen. Bei Hegel dagegen ist die Totalität selbst zu etwas Problematischen geworden, sie passt nicht mehr, dagegen ist das Moment der Differenz - das dialektische Moment – das fruchtbringende Agens, das revolutionäre und sehr leistungsfähige Prinzip.

 

Wir sind also zu dem für Hegel wichtigen Widerspruch zwischen seinem System und seiner Methode gelangt, der zugleich ein Widerspruch zwischen Totalität und Differenz, zwischen dem vollen und dem erodierten Sein, zwischen klassischen und nachklassischen Denken ist. Wir wissen auch, dass dieser Widerspruch von Marx aufgegriffen und zu einem zentralen Aspekt der Rezeption dieser Philosophie geworden ist. Er, dessen Anspruch es war „Hegel vom Kopf auf die Füsse zu stellen“, hat diesen Widerspruch indes nicht aufgelöst, sondern verschoben. Das Marxsche System, soweit sich von einem solchen überhaupt sprechen lässt, ist hinsichtlich des Seins ebenso unentschlossen. Auf der einen Seite erhält die Relativität des Standpunktes eine zentrale Bedeutung. Die Möglichkeitsbedingungen jedes Wissens, jedes Standpunktes bestehen einerseits in den konkreten gesellschaftlichen und technischen Bedingungen zur Zeit ihres Entstehens und andererseits in der jeweiligen Verortung des entsprechenden Individuums in diesen Verhältnissen (also das, was verkürzt als Klassenstandpunkt bezeichnet werden kann). Diese Relativität erlaubt auch die Postulierung von Schranken derart, dass bestimmte Erkenntnisse zu bestimmten Zeiten nicht gemacht werden konnten. Ebenso bestehen Grenzen, die etwa von bürgerlichen Ökonomen oder Philosophen nicht überschritten werden können. Anhand dieser Figur lässt sich erkennen, wie die Relativität wieder aufgeweicht wird, die Totalität des Seins also nicht obsolet geworden ist. Denn bestimmte Erkenntnisschranken existieren nicht für alle Positionen in gleichem Masse, aufstrebende Klassen sind nicht oder nicht in gleichem Masse an sie gebunden, da sie im Gegensatz zu den absteigenden an die Zukunft gekoppelt sind. Es ist nun naheliegend, dass eine solche Theorie sich nun in dieser Region lokalisiert, also einem Ort, wo relevante Erkenntnisschranken für sie selbst nicht existieren, diese aber anderen Standpunkten zugeschrieben werden können. Ein solches ideologisches Programm ist nur durch den Rückgriff auf ein Sein möglich, auf eine Wahrheit, denn sonst wäre das alles reine Behauptung. In dieser Beziehung auf eine Wahrheit ist es naheliegend, dass Marx seine Theorie als Wissenschaft versteht und konzipiert, deren Wahrheit zwar relativ, deren Bezug zur Wahrheit jedoch ohne spezifische Schranken ist. Und diese Wahrheit selbst erscheint als etwas Absolutes, als die Totalität eines Seins und Marx selbst vertritt die Ansicht, dass ohne einen solchen Bezug 'Wissenschaft unmöglich' wäre.

 

Weder Marx noch der Marxismus konnten die Sein (Materie)/Bewusstseins-Differenz hinter sich lassen, dafür musste sich das Denken um einen anderen Schwerpunkt gruppieren als die Totalität der Geschichte. Man kann einen solchen Schwerpunkt im (menschlichen) Leben selbst und dem es tragenden Willen finden, was zunächst von Schopenhauer und in allen Konsequenzen dann von Nietzsche getan worden ist. Bei Nietzsche findet sich erstmals die durchgehende Abkehr von Transzendenzen aller Art. Weder Gott noch die Moral lassen sich bei ihm noch von einem privilegierten Ort aus rechtfertigen, den traditionellen Deduktionen setzt er Genealogien entgegen. Man kann bei Nietzsche das Unsystematische oder Widersprüchliche beklagen, doch gehört gerade die Abkehr vom System zum Zentrum seines Denkens. Es geht also bei ihm nicht darum, bestehende philosophische Systeme zu zerschlagen oder zu dekonstruieren sondern die Unmöglichkeit einer Totalität bildet gerade den Ausgangspunkt. Die Region, von der aus sich ein Denken entfalten kann, ist eine radikale Relativität, die keine Totalität möglich macht: der Mensch in allen seinen Facetten.

 

Man sieht, dass dieser Verzicht auf das Sein, diese Akzeptanz der Relativität zu einer Verengung der möglichen Themen führt. Ein solches Denken, das sein Gedachtes auf den Menschen zurückführt, wird um den Menschen kreisen und für den Kosmos insgesamt nur wenig Verwendung haben. Die Wissenschaft in ihrer Eigenlogik wird von ihm kaum erfasst werden können.

Ein Denken der Endlichkeit wird später von einer philosophischen Strömung weitergeführt, die etwas unglücklich als Existentialismus/Existentialphilosophie bezeichnet wird. Hier wird die Zufälligkeit (Sartre) oder die Sterblickeit (Heidegger) des einzelnen Menschen zum Anker des Denkens. Das führt allerdings nicht notwendigerweise dazu, auf das Absolute zu verzichten. Bei Heidegger ist sein gesamtes Denken vom Sein geleitet, man denke etwa an die bemerkenswerte Kehre, wo das Sein zum Seyn wird und personale Attribute erhält. Auch Sartre gibt seinem Buch 'Das Sein und das Nichts' den Untertitel 'Versuch einer phänomenologischen Ontologie', womit bereits vorausgesetzt ist, dass Seinsstrukuren einer Welt, also einer Totalität bestehen, die durch philosophische Analyse freigelegt werden können.

Man sieht also, dass auch hier das Verhältnis von Relativität und Absoluten schwer zu erfassen, vielleicht auch nicht eindeutig ist. Ist das Relative, also der einzelne Mensch in seiner Zufälligkeit in die Absolutheit eines Seins eingelassen oder produziert er aus bloss von seinem jeweils eigenen Standpunkt aus ein Absolutes, das seinerseits relativ wäre?

Eine Möglichkeit, im Rahmen einer Existentialphilosophie ganz auf eine Totalität zu verzichten, eröffnet die von Heidegger ausgearbeitete ontologische Differenz. Diese besagt, dass jedes Sein nur

als Sein eines Seiendes gegeben ist. Umgekehrt bedeutet dies auch, dass jedes Seiende auf sein Sein verweist, auf dieses hin also befragt werden kann. Weder das Sein noch das Seiende ist also jemals rein gegeben oder voneinander isolierbar, stattdessen ist es die Differenz zwischen beiden Polen, wo das Denken stattfindet, die Operationsfähigkeit erhalten kann. Gegenüber dieser Differenz bleibt sowohl das Sein als auch das Seiende sekundär.

 

Die Philosophie des zwanzigsten Jahrhunderts liest sich über weite Strecken wie ein Abgesang auf das Subjekt. In dieser Hinsicht bildet die Systemtheorie, die alles aus der System/Umwelt-Differenz ableitet und für die die klassischen philosophischen Probleme nur Marginalien sind, das vorerst letzte Kapitel. Luhmanns Satz: „Der Mensch ist kein System.“ hat für viel Aufregung gesorgt, ist im Kern aber keine polemische Provokation, sondern einfach eine – und nicht einmal zentrale – Folgerung aus seiner Theorie.

 

Das Cogito verlor schon früher an Überzeugungskraft. Bereits in der Phänomenologie weitete es sich zum Bewusstseinsstrom und wurde zum Ort einer schwer zu erfassenden Komplexität. Das Bewusstsein wurde in der Phänomenologie – anders als in der Psychologie, die von aussen auf es schaut – zu einem von Selbstreferenz dominierten Feld. In dieser Schau hinkt der Bewusstseinsstrom sich selbst hinterher, lenkt sich und ist auf eher dunkle Weise an die sprachliche Form der Beschreibung gekoppelt, um sich als Wissenschaft zu produzieren. In dieser ausgeprägten Selbstbezüglichkeit ist das Gegenüber – die andere Seite, wenn es sie gibt – nicht so leicht zu identifizieren. Ist es die Dingwelt oder ein platonisches Reich der Wesen, das es erlaubt, den Bewusstseinsstrom durch sich selbst zu lenken und die Resultate dieser Wesensschau als eine Eidetik festzuhalten? Oder gibt es gar kein Gegenüber, der Bewusstseinsstrom bleibt in sich selbst gefangen und die Dinge mögen zwar da sein, bleiben aber im Kantschen Sinn transzendent? Unabhängig davon, in welcher Richtung man die Antwort sucht, die Entfaltung des Bewusstseins von einem Punkt zu einer ganzen Topologie hat Konsequenzen für das Subjekt. Es verliert seinen metaphysischen Ort, was so weit führen kann, dass es aus dem als Strom verstandenes Bewusstsein selbst vertrieben wird, wie Sartre in einem seiner ersten Bücher ('Die Transzendenz des Ego') gezeigt hat.

 

Der Strukturalismus benötigt das Bewusstsein gar nicht mehr. So werden kulturelle Leistungen nicht mehr auf das hervorbringende oder reproduzierende Subjekt bezogen, nur deren Strukturen bleiben relevant. Diese Formen werden durch vergleichende Analysen gewonnen, das Spiel der Differenzen führt dabei zu Fixpunkten, also zu Identitäten, die dann als Strukturen Geltung erhalten.

Statt der unfruchtbar gewordenen Subjekt/Objekt-Dichtomie setzt der Strukturalismus den empirischen Gegebenheiten korrespondierende Formen gegenüber, die sich dann wieder als Identitäten oder Differenzen entgegentreten können.

Bei den Mythen interessiert sich der Strukturalismus nicht für die konkreten Inhalte, sondern dafür, wie sie in Elemente zerlegt und wie diese dann aufeinander bezogen werden können, sodass sich zwischen Mythen verschiedener, voneinander unbeeinflusster Völker identische oder ähnliche Strukturen nachweisen lassen (Levi-Strauss). Deshalb sind auch die Formen der Verwandtschafts­beziehungen interessanter als die konkreten Lebensvollzüge der Naturvölker (Levi-Strauss).

Die (Entwicklungs)Psychologie verändert der Strukturalismus bis zur Unkenntlichkeit: die emotionalen familiären Beziehungen, die konkreten gesellschaftlichen Bedingungen werden marginal, wenn nicht irrelevant. In den Fokus dagegen kommen die kognitiven Strukturen, die das Kind in seiner Entwicklung bewältigt, ihre Abhängigkeiten voneinander, die Spielräume von Abweichungen und Variationen (Piaget – 'Die Entwicklung der Intelligenz beim Kinde').

 

Die die zweite Hälfte des zwanzigsten Jahrhunders dominierende Philosophie der Sprache hat ebenfalls für das Subjekt wenig oder gar keine Verwendung. Zwar referiert etwa die Sprechakttheorie (Searle) auf einen Handelnden, der den Sprechakt vollzieht und damit auf ein Subjekt, doch im Kern ist das Thema dieser philosophischen Strömung die Sprache selbst und nicht der Sprechende. Die relevanten sprachlichen Elemente, also etwa die Sätze verweisen ja auch nicht auf ein Denken, also auf ein Cogito, sondern stattdessen auf eine Kommunikation. Daran sind Subjekte zwar irgendwie beteiligt, sie werden aber nicht referiert, sind also letztlich ohne Bedeutung. Die Sprache ist vor jedem Menschen da, er wächst während seiner Kindheit in diese hinein, erlernt und übernimmt sie. Sowohl die Bedeutung als auch der Sinn der sprachlichen Formen sind völlig von den einzelnen Subjekten unabhängig.

Die Gebrauchstheorie der Bedeutung markiert die Distanz zum klassischen Denken sehr deutlich. Wenn - vereinfacht gesagt – die Bedeutung eines sprachlichen Ausdrucks in seinem Gebrauch liegt, dann folgt daraus zweierlei. Erstens verweist der Gebrauch auf eine Kommunikation und nicht auf ein Subjekt und zweitens wird die Bedeutung in der Kommunikation erzeugt. Letzteres bedeutet, dass es nicht mehr ums das Sein der Referenz eines sprachlichen Ausdruckes geht, sondern um den Erfolg/die Folgen der Kommunikation geht, die diesen verwendet. Die Sprache wird zu einem Ort der Selbstreferenz, ihr Gegenüber hat keine klaren Konturen. Das bedeutet für das Sein auch, dass es erodiert. Es geht nicht mehr darum, was 'Gott', 'die Wahrheit', 'die Schönheit' oder irgendetwas anderes ist, es geht nur noch darum, wie diese Worte gebraucht werden. Das ist eine Absage an jede Form von Totalität, das erlaubt es auch, die meisten der ehrwürdigen traditionellen philosophischen Probleme zu Scheinproblemen zu deklarieren. Allerdings, ohne dafür eine überzeugende Alternative

anbieten zu können. Es ist zweifelhaft, ob dieses angelsächsisch dominierte Verwerfen philosophischer Traditionen auf lange Sicht fruchtbar sein kann.

Aus meiner Perspektive lässt sich einem solchen Exzess an Selbstreferenz nur durch den Bezug auf eine positive Wissenschaft begegnen und dazu ist die Physik als die grundlegendste und strengste Naturwissenschaft prädistiniert. Eine solche Form von Referenz bedeutet, dass die Philosophie sich zwar von der Physik leiten lässt, sich ihr aber nicht unterwirft. Sie koppelt sich an das Feld der Physik, was heisst, dass sie diese weder benutzt noch ihr dient. Eine physikalische Philosophie entwickelt sich entsprechend ihres eigenen Operationsmodus, hat sich aber entschlossen, die Naturwissenschaft nicht zu ignorieren, sondern sie genau auf ihre Relevanz für eine philosophische Autopoiesis zu befragen.

 

Wir haben gesehen, dass in der neueren Philosophie das Subjekt seinen privilegierten Platz verloren hat und dass die darauf aufbauende metaphysische Grundfigur ins Wanken kam. Wir haben auch gesehen, dass damit die Behauptung einer Totalität der Welt, im Kern die Idee des Seins an Überzeugungskraft verlor. Auf der anderen Seite ist aber wieder, gewissermassen unter der Hand, ein neues Absolutes entstanden, das, jenseits der Relativität, keiner Verankerung bedarf. Das kann eine Ontologie (bei Sarte) oder sogar eine Seinsgeschichte (Heidegger) sein, das kann ein platonisches Wesensreich (Husserl), die Struktur (Strukturalisten) oder die Sprache (analytische Philosophie) sein. Neben dieser Reverenz auf klassisches Denken fällt hier die Verschiedenheit der Ansätze auf.

 

Eine konsequente Absage an die Totalität ist dann durch Derrida vollzogen worden. Sein Begriff der differance ziehlt auf den Primat der Differenz vor der Einheit, woraus die Unmöglichkeit einer jeden Totalität folgt. Innerhalb dieser Philosophie wird die Präsenz als etwas Sekundäres verstanden, im Gegensatz zu den klassischen Philosphien, die von einer solchen Präsenz (dem Sein) ausgehen und alles Weitere daraus ableiten. Stattdessen geht Derrida von der Nicht-Identität aus, die

auf andere Nicht-Idententäten verweist, so dass dieser originäre Riss, diese Absenz sich fortwährend

perpetuiert, wobei natürlich auch Präsenzen entstehen. Die Nicht-Identität der differance kann dabei zeitlich als Verschiebung oder auch strukturell als Verweis interpretiert werden, sie ist damit selbst wieder eine Nicht-Identität, nämlich die zwischen Zeit und Struktur. Weiterhin kann die Differance irgendwo angetroffen, zumindest indirekt beobachtet werden und sie ist es auch selbst, die verschiebt, also Veränderungen produziert. Die Differance ist also eine Differenz aus Passivität und Aktivität.

Wenn man einmal den Standpunkt der Nicht-Totalität erreicht hat, lässt sich diese Differance an vielen Orten finden. Es gibt einige privilegierte Formen, so die Schrift oder die Spur. Auch ein verallgemeinerter Begriff der Information liesse sich hier einordnen, kann eine Information doch gerade als etwas angesehen werden, das auf etwas verweist, was nicht es selbst ist, also im Kern als eine Nicht-Identität.

Wenn Derrida auf den Primat der Schrift gegenüber dem gesprochenen Wort, dem Primat der Abwesenheit des Autors gegenüber der Selbst-Präsenz der Stimme verweist, meint er natürlich nicht, dass die Menschen das Schreiben vor dem Sprechen gelernt haben. Gemeint ist, dass die Struktur der Abwesenheit, die sich in der Schrift manifestiert gegenüber der Anwesenheit des Sprechenheit primär ist. Bevor das erste Wort gesprochen wird, steht immer schon etwas geschrieben. Schrift bedeutet somit: 'Es steht geschrieben', der Autor bleibt ihr äusserlich und wird vom Empfänger der Botschaft konstuiert.

 

Eine solche Philosophie hat keinen Platz für Totalitäten. Jede Spur führt zu einer anderen Spur, die auch wieder nur auf etwas Abwesendes verweist. Wir sehen aber auch, dass daraus die Unmöglichkeit eines Systems folgt, möglich bleibt nur eine Art Parasitentum an den alten Gedankengebäuden, die an klassisches Denken gebunden waren. Diese Art von Abhängigkeit erhält dann das Etikett Dekonstuktivismus, womit keine destruktive Beziehung gemeint ist (das Ziel des Parasiten besteht nicht darin, seinen Wirt zu zerstören).

Dekonstruktives Denken kann die Sinnblöcke der tradierten Philosophien porös machen, ihre Porosität aufzeigen, indem Beziehungen freigelegt werden, die durch ein am Sein orientierten Denken verdeckt bleiben mussten. Jedes Präsenz-Denken erweist sich als zu grob, mit der Allzweckwaffe Differance lassen sich überall mikroskopische Verschiebungen erzeugen, welche das Gedachte zwar nicht zerstören, ihm aber die Sicherheit des Seins austreiben und so in ein Spiel der Differenzen, also in eine haltlose Fruchtbarkeit überführen.

 

 

Eine solche Philosophie kann also zu keinem System führen. Hinsichtlich der Alternative klassisches/nachklassisches Denken ist sie zwar konsequent, kann aber nichts Eigenes hervorbringen. Jede Wendung zum Konstruktiven würde aber wohl wieder auf ein Absolutes referieren müssen, das bringt der Anspruch eines Gedankengebäudes auf Gültigkeit mit sich. Es scheint also, als wäre mit Derrida eine Art Endpunkt erreicht, der zwar variiert oder umgangen, aber

nicht überschritten werden kann. Jeder Schritt weiter wäre gewissermassen auch ein Schritt zurück. Aus dieser Sicht sind auch die inflationären Ausmasse an Sekundärliteratur und sonstigen Kommentaren zu Derrida verständlich: Man kommt von hier aus nicht weiter.

 

Deshalb ist es auch nachvollziehbar, dass der Versuch, jenseits des Präsenzdenkens eine konstruktive Theorie zu errichten, ausserhalb der philosophischen Disziplinen entstand: als Systemtheorie.

Genauer gesagt gibt es zwei Ausrichtungen der Systemtheorie: eine allgemeine und eine soziologische. Die Allgemeine Systemtheorie ist bisher wenig durchgearbeitet, ihr Abstraktionsgrad ist mässig, sie besitzt als Theorie wenig innere Komplexität und Stringenz. Sie bleibt in enger Nachbarschaft zu positiven Wissenschaften, insbesondere der Biologie und der Kybernetik; wirkt also eher als eine Interpretationshilfe für die Ergebnisse der Wissenschaften denn als eigenständige Theorie.

Die soziologische Systemtheorie ist von Niklas Luhmann eingeführt und ausgearbeitet worden. Sie versteht sich grundsätzlich als eine Theorie der menschlichen Gesellschaft, lässt in dieser Beschränkung aber die Möglichkeit einer Einbettung in eine allgemeine Systemtheorie offen. Von ihrem Theoriedesign her ist ihre Selbstbeschränkung nicht zwingend, die Begrifflichkeiten, mit denen sie operiert, sind von hoher Allgemeinheit.

Luhmann hinterliess ein gewaltiges Opus (um die zwanzigtausend Seiten) und trotz der vielen Redundanzen, ist sowohl die Breite der behandelten Themen als auch der Abstraktionsgrad und die Konsistenz der Theorie beeindruckend.

Im Kontrast dazu steht die geringe Fruchtbarkeit seiner Systemtheorie. Sie wird oft als 'Einmannunternehmen' bezeichnet und ist es im Wesentlichen geblieben. Es gab wohl Weiterentwicklungen, und viele Theoretiker, die sich von seinen Schriften inspirieren liessen, doch im Vergleich mit dem originalen Werk ist das kaum der Rede wert.

 

Will man Luhmanns Systemtheorie als Philosophie behandeln, stehen hinsichtlich dieser Arbeit zumindest zwei Fragenkomplexe im Vordergrund.

1. Es muss auf die tragenden Begriffe reflektiert werden. Wie sind sie definiert, in welcher Beziehung stehen sie zueinander und welche Probleme zeigen sich dabei? Was ist eine Grenze, was ist ein System? Was gibt es noch ausser Systemen? Sind nicht-selbstreferentielle Systeme überhaupt möglich? Was sind Operationen, was macht die Spezifität einer Operation aus und wie produzieren die Operationen die Einheit 'ihres' Systems?

Diese und andere Fragen müssen analysiert werden und es wird sich zeigen, dass die Systemtheorie trotz ihrer Abstraktheit und – von mir – unbestrittenen Leistungsfähigkeit auf einer Begrifflichkeit beruht, die seltsam in der Schwebe bleibt; Begriffe also, die zurückweichen, wenn man sie fassen will. Diese mangelnde Präzision muss erkanntr und nach Möglichkeit abgestellt werden, wenn man eine soziologische in eine allgemeine Systemtheorie transformieren will.

2. Es muss auch die Beziehung einer solchen Theorie zum nachklassischen Denken untersucht werden. Zunächst ist ihr Ausgangspunkt die System/Inhalt-Differenz und beginnt so mit einer Absage an die Totalität. Die Frage ist aber, ob die Konsequenz des Ausgangspunktes nicht durch das darauf Folgende unterminiert wird, ob also die entwickelte Theorie eine eigene Metaphysik produziert und sich dann auf sie stützt, ob also ein begriffliches Skelett eine allgemeine Gültigkeit beansprucht und damit auf den vermeintlich freigegebenen Platz des Allgemein Gültigen gelangt ist.

Wenn ja, muss geklärt werden, inwiefern dies letztlich unvermeidbar ist, wenn man sich nicht mit einer Dekonstruktion begnügen will; wenn nein, lässt sich fragen, ob und wie vermieden werden kann, dass eine Theorie, die auf das Absolute verzichtet, ins Beliebige abrutscht.

 

Das Problem des Seins ist immer auch ein Problem des Ursprungs. Wie ist die Welt entstanden – aus einem Sein oder aus einem Nichts? Und wie unterscheidet sich ein solches vor-ursprüngliches Sein überhaupt von einem Nichts?

Innerhalb einer physikalischen Philosphie wird das Problem des Ursprunges der Welt zum Ursprung des Universums transformiert. Und anstatt sich ganz auf die spekulative Deduktion zu verlassen, wird die physikalische interpretierte Umwelt befragt.

Das Denken eines Ursprunges bleibt an eine Paradoxie gebunden, der er nicht entkommen kann. Der originäre Ursprung - der nicht Ursprung von etwas Besonderem ist – muss aus einer Selbst-Identität eine Differenz erzeugt haben. Etwas, was ist, ist unterschieden von dem, was es nicht ist und als Entstandenes markiert es eine Differenz, wo vorher keine war. Als Erstes Entstandenes verweist es auf die erste Differenz überhaupt, das heisst, es kann nicht ihrerseits von einer Differenz abstammen. Ein differenzloses Sein muss also eine Differenz gezeugt haben, was widersprüchlich ist. Differenzen können Differenzen erzeugen, eine Identität kann aber nur sein. In dieser absoluten Selbstidentität kann nichts passieren, denn jede Wirkung setzt ja bereits eine Differenz von vorher

und Nachher voraus. Man sieht, dass der Ursprung paradox bleibt, siedelt man ihn in der Wirklichkeit an, wird er als Singularität bezeichnet, also als etwas, das notwendigerweise postuliert wird, obwohl seine Unmöglichkeit bekannt ist.

Wir sehen auch, dass es eine fundamentalen Verschiedenheit zwischen den innerweltlichen Ursprüngen und dem Ursprung der Welt gibt. Es gibt zunächst kein tieferes Problem mit speziellen Ursprüngen. Ein Mensch, ein Kunstwerk, ein Baum etc., sie alle haben Ursprünge, sie haben eine Ursache, etwa einen Samen.

Diese anscheinend geringe Sprengkraft der Frage „Warum kann überhaupt etwas entstehen?“ rührt daher, dass durch Externalisierung des originären Ursprunges, durch dessen Verbannung als Paradoxie eine befriedete Welt geschaffen wird, in der sich Wirkungen vollziehen. Die Antwort ist dann entsprechend: „Etwas entsteht aus etwas“, philosophisch von Kant und dann von Schopenhauer formuliert als 'Satz vom zureichenden Grund', in den wissenschaftlichen Disziplinen dann als Determinismus verstanden. Verkürzt gesagt erlaubt die Paradoxierung eines ersten Ursprunges es den darauf angewiesenen Systemen, sich Kausalität zu beschaffen. Der Ursprung der Welt wird externalisiert, damit die innerweltlichen Urprünge zu Ursachen werden und in ein Konzept von Wirkungen eingebunden werden können. Die Ursache bewirkt das Bewirkte, ist damit dessen Ursprung aber auch durch ein Gesetz an es gebunden. Eine Wirkung ist somit die Einheit einer doppelten Differenz: erstens zwischen zwei Strukturen, die voneinander getrennt, aber aufeinander bezogen sind: das Bewirkende und das Bewirkte; zweitens eine zeitliche Struktur, das die Wirkung selbst ein Vorher und ein Nachher auseinandertreten lässt.

 

Eine physikalische Philosophie akzeptiert Paradoxien ohne weiteres, verweisen sie doch auf den spezifischen Operationsmodus des jeweiligen Systemes und damit auf dessen Relativität, dessen Position. Aber sie kann keine Singularität akzeptieren. Denn diese wird der Umwelt zugeschrieben und da jeder Repräsentation der philosophischen Theorie etwas in der Umwelt entsprechen muss, kann eine Singularität, die eine solche Entsprechung zugleich setzt und verneint, nicht hingenommen werden. Singularitäten, soweit sie dennoch vorkommen, kennzeichnen dann eine jeweilige Grenze des Denkens, eine Grenze des Physikalismus der dem Anspruch nach physikalischen Philosophie. Anders gesagt: Eine solche Philosophie verzichtet eher auf die Idee des Seins, als eine Singularität hinzunehmen.

Das Problem des Ursprunges ist also geeignet, transklassisches Denken und physikalische Philosophie aneinander zu koppeln, freilich ohne sie zu einer Identität zu verschmelzen.

Es gibt innerhalb der Ursachen-Struktur auch innerhalb des klassischen Denkens Momente, die diese Transzendenz/Immanenz-Differenz zwischen originärer (der Welt) und abgeleiteten (in der Welt) Ursache(n) konterkarieren. Dann nämlich – und das wird dann zum Treibsalz der Ontologien – es innerhalb der Welt privilegierte Strukturen gibt, welche die homogenen Wirkungsketten sprengen und ihrerseits auf privilegierte Ursachen verweisen und so ein eigenes Feld von Transzendenz nötig machen. Das bekannteste Beispiel dafür ist das Bewusstsein. Wie kann eine Materie, die ein reines An-Sich, eine in sich verschlossene Immanenz ist, aus sich heraus so etwas gänzlich anderes, das Bewusstsein erzeugen. Sartre führt dazu die Frage ein, ohne zu sagen, wie das An-Sich diese überhaupt hervorbringen kann; der Marxismus behilft sich mit Dialektik, was das Problem in eine dunkle Region abschiebt, anstatt es zu lösen.

Eine physikalische Philosophie ist also geneigt, diese Singularität zu vermeiden, indem auf die ontologischen Sprünge, die den privilegierten Neuschaffungen entsprechen, verzichtet wird. Das geht dann zu Lasten der homogenen Regionen des Seins, in denen sich zwar Wirkungen vollziehen, aber nichts wesentlich Neues passiert.

Stattdessen ist diese Differenz, die Neues hervorbringt, diese Abweichung von der Kausalität eines einmal gegebenen Gesetzes, dieser für ein klassisches Denken einmalige Sprung, der aus der Materie ein Bewusstsein oder aus einem Geist die Materie zeugt, nicht nur von Anfang an gegeben, sondern sie findet sich auch jederzeit und überall. Für dieses Denken ist die Frage „Wie konnte überhaupt Bewusstsein entstehen?“, irrelevant, weil es 'Bewusstsein' als eines dieser Seinsblöcke ansieht, die nicht mehr viel bedeuten, wenn das Sein zerfranst ist, weil die Differenz unendlich tief in es hinein versenkt worden ist.

 

Der Punkt also, wo transklassisches Denken und physikalische Philosophie ineinander überführt werden können, ist die Kosmologie. Und die Kosmologie war auch die Region, in die das vorklassische Denken mündete und den Raum für etwas Neues schuf. Das Universum wurde bei Giardano Bruno zu etwas Unendlichem, es war also nicht mehr als Endliches von Gott umschlossen. Durch diese Transformierung der Differenz Gott/Welt wurde die Paradoxie des Ursprunges der Welt vermieden, indem ein solcher Ursprung gar nicht mehr möglich war. Die theologische Weltanschauung konnte mit der Emanationslehre gut leben, doch die fehlende Korrespondenz eines unendlichen Schöpfers und einer endlichen Schöpfung war in ihr nicht aufzulösen. Dachte man diesen Pantheismus zu Ende, gelangte man zu einer Welt, die in Zeit und Raum unendlich war und Gott in sich aufgenommen hatte, anstatt ihm entsprungen zu sein. Die pantheistische Unendlichkeit ist eine gutartige, eine abzählbare Unendlichkeit, die sich durch eine andere Unendlichkeit totalisieren lässt. Hätte man unendlich Zeit, würde man bis zum Anfang der Welt oder bis zu ihrem Ende gelangen können, in einer unendlichen Zeit käme man auch in einer jeden Richtung zum Ende der Welt. Dieser Pantheistismus hat es nicht nötig, die Differenz endlich/unendlich zu einer Immanenz/Transzendenz-Form zu überführen, er vereinigt stattdessen die Relativität eines jeden Stadpunktes mit dem Absoluten der Unendlichkeit.

 

Giardano Bruno hatte weit weniger Wirkungsmacht als Descartes, der das klassische Denken eröffnete, indem er als Ausgangspunkt die Bewusstsein/Aussenwelt-Differenz wählte. Auch erwies sich diese Unendlichkeitsspekulation im nachmittelalterlichen Denken nicht als besonders fruchtbar, vor allem dann nicht, als zunehmend die Ideen einer Temporalisierung und einer Assymetrie wichtig wurden. In einem Kosmos, der in Raum und Zeit kein Ende hat, gilt jeder Ort, jede Zeit gleich viel. Der Gedanke einer Entwicklung, wie sie etwa von Hegel und Marx, auf anderem Gebiet durch Darwin vertreten wurden, kann hier keinen Platz finden. In einem in jeder Beziehung unendlichen Kosmos kann jede Art von Entwicklung letztlich nur eine bedeutungslose Irritation des Unendlichen sein, das sich in seinen ständigen Veränderungen gleich bleibt.

Kosmologisch gesehen behielt das Weltbild Brunos die Oberhand. Letztlich bedeuteten die lokalen Entwicklungssplitter einzelner Regionen, die von spezifischen Wissenschaften untersucht wurden, gegenüber der Permanenz einer räumlichen und zeitlichen Unendlichkeit praktisch gar nichts: was immer entsteht, es vergeht.

 

Das entscheidende Ereignis in der Kosmologie war die Entdeckung der Rotverschiebung. Damit wurde das spekulative Bild eines in Raum und Zeit unendlichen Kosmos erschüttert. Die astronomischen Entdeckungen verwiesen auf einen Anfang des Universums, also einen Ursprung des Raumes in der Zeit.

Damit kehrte wieder das Problem des Ursprunges zurück, der etwas missverständlich als 'Urknall' bezeichnet worden ist. Der Ursprung der Welt war nun im Zentrum der physikalischen Theorie der Welt aufgetaucht, von wo aus er spekulative Gedanken befeuerte und zugleich beschränkte. Es liess sich an ihn heranrechnen, bis zu einem Horizont, der Planck-Zeit genannt wird. Erreichen lässt sich dieser Ursprung nicht, er bleibt verhüllt. So wird der Urknall selbst zu einer unbestimmten Region, einer Art Quantenfluktuation, wo Raum, Zeit und die Gesetze geschaffen werden. Auch die Gesetze: Denn wie könnten diese in etwas eingeschlossen sein, was noch nicht ist?

 

Der Idee der Einmaligkeit der Welt steht noch immer die der extensiven Unendlichkeit gegenüber. In diesen verschwindet die Figur des Ursprunges zwar nicht ganz, er wird aber entschärft, weil das singuläre Ereignis in eine unendliche Menge sekundärer Ursprünge überführt wird. Das kann geschehen, indem statt einem Universum eine zeitliche Kette aufeinander folgender Universen angenommen wird (Die Gravitation zieht die Materie schliesslich zusammen, was zu einem Grossen Kollaps führt, dem je ein neuer Urknall folgt) oder indem man stattdessen von einem Multiversum ausgeht: Unsere Welt wäre so nur unser Horizont der Welt, dasjenige Universum, das wie viele, wohl unendlich viele andere Universen in diesem Multiversum erscheint und dann auch wieder verschwindet.

Die Unendlichkeit Brunos ist also nach wie vor aktuell. Die Idee einer unendlichen Kette von Welten leuchtet ein, widerspricht aber gegenwärtig den aus Beobachtungen ableitbaren Theorien. Auch die Vorstellung eines Multiversums erscheint nicht abwegig, scheint aber prinzipiell nicht beweisbar zu sein.

Es scheint also einen weithin offenen und eher unfruchtbaren Raum für Spekulationen zu geben.

Es stellt sich die Frage des Verbindenden. Wenn die Universen aufeinander folgen oder ineinander eingehen, was bleibt dabei erhalten? Was erlaubt es, dass eine Welt der anderen folgt? Es müsste etwas geben, was in der unendlichen Abfolge von Welten, von Veränderungen durchgehalten ist, etwas, was sich nicht verändern kann, weil es sonst nicht die Unendlichkeit der Welten tragen könnte. Die Differenz endlich/unendlich kehrt also in ihrer ganzen Schärfe zurück. Diese kosmologische Unendlichkeit wäre unendlich tief in die Materie eingelassen, ihre Substanz, ihr – man kann es nicht anders sagen – Sein. Diesem liesse sich keinerlei Information entlocken, denn jede Information wäre Kunde von anderen Welten, wodurch diese unweigerlich zu einer einzigen verschmelzen würden.

 

 

 

 

 

 

 

 

 

 

 

 

 

Vorheriger TitelNächster Titel
 

Die Rechte und die Verantwortlichkeit für diesen Beitrag liegen beim Autor (Steffen Herrmann).
Der Beitrag wurde von Steffen Herrmann auf e-Stories.de eingesendet.
Die Betreiber von e-Stories.de übernehmen keine Haftung für den Beitrag oder vom Autoren verlinkte Inhalte.
Veröffentlicht auf e-Stories.de am 02.01.2017. - Infos zum Urheberrecht / Haftungsausschluss (Disclaimer).

Der Autor:

  Steffen Herrmann als Lieblingsautor markieren

Bücher unserer Autoren:

cover

Liebhaberstück -Xenia- von Noreen Aidan



Wie wird man erfolgreich?
Die Hebamme Xenia praktiziert altes Heilwissen, feiert keltische Rituale und baut gleichzeitig als moderne Unternehmerin eine Network-Marketing-Organisation auf. Als sie von einem Geschäftspartner gebeten wird, seinen Bruder Thorsten für ihr gemeinsames Unternehmen zu gewinnen, ahnt sie noch nichts Schlimmes. Doch als sie Thorsten gegenüber steht, erkennt sie schockiert, dass es sich bei ihm um den Arzt handelt, mit dem sie sich noch wenige Tage zuvor in der Klinik erbitterte Gefechte geliefert hat. Für Thorsten ist dieses komische Geschäft, das sein Bruder mit dieser Xenia aufbaut, eine große Lachnummer [...]

Möchtest Du Dein eigenes Buch hier vorstellen?
Weitere Infos!

Leserkommentare (0)


Deine Meinung:

Deine Meinung ist uns und den Autoren wichtig!
Diese sollte jedoch sachlich sein und nicht die Autoren persönlich beleidigen. Wir behalten uns das Recht vor diese Einträge zu löschen!

Dein Kommentar erscheint öffentlich auf der Homepage - Für private Kommentare sende eine Mail an den Autoren!

Navigation

Vorheriger Titel Nächster Titel

Beschwerde an die Redaktion

Autor: Änderungen kannst Du im Mitgliedsbereich vornehmen!

Mehr aus der Kategorie "Essays" (Kurzgeschichten)

Weitere Beiträge von Steffen Herrmann

Hat Dir dieser Beitrag gefallen?
Dann schau Dir doch mal diese Vorschläge an:

2500 von Steffen Herrmann (Science-Fiction)
Alpen sind nicht der Ural von Rainer Tiemann (Erinnerungen)

Diesen Beitrag empfehlen:

Mit eigenem Mail-Programm empfehlen