Schlagwort-Archive: Zeit

Fünf Vorurteile über Entropie

Welche fünf Vorurteile teilen Sie?

  1. Entropie ist für Nerds
  2. Entropie ist unverständlich
  3. Entropie ist Wärmelehre
  4. Entropie ist Rauschen
  5. Entropie ist absolut


Korrekturen im Detail

1. Entropie ist die Grundlage unseres Alltags

Nerds interessieren sich gern für entlegene Themen. Da passt Entropie gut hinein, nicht wahr? Blutleere Nerds stellen sich damit als intellektuell überlegen dar. Dieses Spiel wollen Sie nicht mitmachen und Sie denken, dass es keinen wirklichen oder gar praktischen Grund gibt, sich mit Entropie zu beschäftigen. Diese Haltung ist sehr verbreitet und ziemlich falsch. Entropie ist kein nerdiges Thema, sondern bestimmt ganz grundlegend unser Leben, von der elementaren Physik bis in den praktischen Alltag hinein.

Beispiele (nach W. Salm1)

  • Eine heisse Kaffeetasse kühlt sich mit der Zeit ab
  • Wasser verdunstet in einem offenen Gefäss
  • Angestossene Pendel bleiben nach einiger Zeit stehen
  • Eisen rostet
  • Magnete werden nach einigen Jahren schwächer
  • Gelerntes wird vergessen
  • Gekämmte Haare zerzausen sich
  • Weisse Hemden werden fleckig
  • Felsen zerbröckeln
  • radioaktive Elemente zerfallen

Es gäbe also genug Grund, sich mit dem überall im Alltag anzutreffenden Phänomen Entropie zu beschäftigen. Doch die meisten Leuten machen einen Bogen um den Begriff. Weshalb? Das hat vor allem mit dem zweiten Vorurteil zu tun.


2. Entropie ist ein durchaus verständlicher und unverzichtbarer Grundbegriff

Entropie erscheint auf den ersten Blick ziemlich verwirrlich, doch schwierig zu verstehen ist Entropie nur wegen den hartnäckigen Vorurteilen 4 und 5. Diese beiden weit verbreiteten Vorurteile sind die Schwelle, die den Begriff Entropie unverständlich erscheinen lassen. Die Schwelle zu überwinden lohnt sich und hilft nicht nur, viele reale und praktische Phänomene zu verstehen, sondern wirf auch ein Licht auf die Grundlagen, welche unsere Welt zusammenhalten.


3. Entropie spielt überall in der Natur eine Rolle

Der Begriff Entropie zwar stammt aus der Wärmelehre. Doch davon sollten wir uns nicht täuschen lassen. In Wrklichkeit ist Entropie etwas, was es überall in der Physik, in der Chemie, der Biologie und auch in der Kunst, z.B. der Musik gibt. Es ist ein allgemeiner und abstrakter Begriff und er bezieht sich ganz direkt auf die Struktur von Dingen und auf die Information, die in ihnen steckt.

Historisch gesehen wurde der Begriff vor ca. 200 Jahren in der Wärmelehre eingeführt und mit der Möglchkeit, Wärme (Energie) fliessen zu lassen, verbunden. Er half, die Wirkweise von Maschinen (Otto-Motoren, Kühlschränke, Wärmepumpen, etc.) zu verstehen. So wird der Begriff heute noch  an den Gymnasien unterrichtet.

Doch die Wärmelehre zeigt nur einen Ausschnitt von dem, was Entropie ist. Seine allgemeine Natur wurde erst 1948 von C.E. Shannon2 beschrieben. Die allgemeine Form von Entropie, auch als Shannon- oder Informationsentropie bezeichnet, ist die eigentliche, d.h. die grundsätzliche Form. Die Wärmeentropie ist ein Spezialfall.

Durch ihre Anwendung auf Wärmeflüsse In der Thermodynamik bekam die Entropie als Wärmeentropie eine konkrete physikalische Dimension, nämlich J/K, d.h. Energie/Temperatur. Doch das ist der Spezialfall Wärmelehre, in der es um Energien (Wärme) und Temperatur geht. Wenn die Entropie ganz allgemein und abstrakt verstanden wird, ist sie dimensionslos, eine reine Zahl.

Dieser Zahl hat Shannon als Entdecker der abstrakten und allgemeinen Informationsentropie einen Namen gegeben, das «Bit». Mit dem dimensionslosen Bit konnte Shannon als Ingenieur der Telefongesellschaft Bell den Informationsfluss in den Telefondrähten berechnen. Seine Informationsentropie ist dimensionslos und gilt nicht nur in der Wärmelehre, sondern überall, wo Information und Flüsse eine Rolle spielen.


4. Entropie ist die Differenz zwischen Nichtwissen und Wissen

Viele von uns haben in der Schule gelernt, dass Entropie ein Mass für das Rauschen und das Chaos ist. Der zweite Hauptsatz der Physik sagt uns zudem, dass Entropie stets nur zunehmen kann. Doch das Identifizieren von Entropie mit Rauschen oder gar Chaos ist irreführend.

Dabei gibt es gute Gründe dafür: Wenn ich einen Würfelzucker in den Kaffee werfe, löst sich seine wohldefinierte Kristallstruktur auf, die Moleküle verteilen sich ungeordnet in der Flüssigkeit und der Zucker zeigt einen Übergang von geordnet zu ungeordnet. Dieser Zerfall von Ordnung lässt sich überall in der Natur beobachten. Physikalisch gesehen ist es die Entropie, die gemäss dem zweiten Hauptsatz den Zerfall von Ordnung antreibt. Und Zerfall und Chaos sind wohl kaum mit Shannons Informationsbegriff gleichzusetzen. So dachten auch viele Wissenschaftler und setzten deshalb Information mit Negentropie (Entropie mit negativem Vorzeichen) gleich. Das passt auf den ersten Blick nicht schlecht. Entropie ist in dieser Sichtweise Rauschen und Abwesenheit von Rauschen, d.h. Negentropie, wäre dann die Information. Eigentlich logisch, nicht wahr?

Nicht ganz, denn Information steckt sowohl im Würfelzucker wie in den aufgelösten, im Kaffee schwimmenden Zuckermolekülen. In den einzel schwimmenden Molekülen steckt in gewisser Weise sogar mehr Information, weil sie sich unabhängig voneinander bewegen. Diese Bewegung ist Information. Das Problem ist unsere konventionelle Vorstellung von Information. Unsere Vorstellung ist zu statisch. Ich schlage vor, dass wir uns davon lösen und Entropie als etwas ansehen, was einen Fluss bezeichnet, nämlich den Fluss zwischen Nichtwissen und Wissen. Diese Dynamik ist kennzeichnend für das Lernen, für das Aufnehmen von neuer Information.

Jede Sekunde geschieht im Kosmos unglaublich vieles, was man wissen könnte. Die Information in der Gesamtwelt kann nur zunehmen. Das sagt auch der zweite Hauptsatz, und was zunimmt ist die Entropie, nicht die Negentropie. Wäre es da nicht viel naheliegender, Information mit Entropie und nicht mit Negentropie parallel zu setzen? Mehr Entropie würde dann mehr Information bedeuten und nicht mehr Chaos.

Wo steckt nun die Information? Im Rauschen oder in der Abwesenheit von Rauschen? In der Entropie oder in der Negentropie?

Zwei Levels

Nun, das Dilemma lässt sich lösen. Der entscheidende Schritt ist, zu akzeptieren, dass Entropie die Spannung zwischen zwei Zuständen ist, dem Übersichts- und dem Detailzustand. Der Übersichts-Blick benötigt die Details nicht, sondern sieht nur die grossen Linien. C.F. Weizsäcker spricht vom Makrolevel. Die grossen Linien sind die Informationen, die uns interessieren. Details hingegen erscheinen uns als unwichtiges Rauschen. In den Details, d.h. im Mikrolevel, steckt aber mehr Information, meist eine ganze Menge mehr, man nehme nur die Bewegungen der Wassermoleküle in der Kaffeetasse (Mikrolevel), in deren chaotischem Gewusel mehr Information steckt als in der einen Angabe der Temperatur des Kaffees (Makrolevel). Beide Levels sind verbunden und ihre Informationen hängen auf komplexe Weise voneinander ab. Die Entropie ist nun die Differenz zwischen den beiden Informationsmengen. Diese ist auf dem Detaillevel (Mikrolevel) stets grösser, denn es gibt in den Details stets mehr zu wissen als in den grossen Linien und deshalb auch mehr Information

Weil die beiden Level sich aber auf das gleiche Objekt beziehen, kann ich als Beobachter die Details oder das grosse Ganze anschauen. Beides gehört zusammen. Der Informationsgewinn an Details bezeichnet den Übergang vom Makro- zum Mikrolevel, der Informationsgewinn an Übersicht die umgekehrte Richtung.

Wo liegt nun die wirkliche Information? Auf dem Detaillevel, wo ganz viele Details beschreibbar sind, oder auf dem Übersichtslevel, wo die Informationen so zusammengefasst und so vereinfacht sind, wie sie uns wirklich interesseren?

Die Antwort ist einfach: Information enthält beides, sowohl das Makro- wie das Mikrolevel. Die Entropie ist der Übergang zwischen den beiden Levels und je nachdem, was uns interessiert, können wir den Übergang der Blickrichtung in die eine oder in die andere Richtung vornehmen.

​Beispiel Kaffeetasse

Klassisch zeigt sich das in der Wärmelehre. Die Temperatur meines Kaffees kann gesehen werden als Mass für die durchschnittliche Bewegungsenergie der einzelnen Flüssigkeitsmoleküle in der Kaffeetasse. Die Information, die in den vielen Molekülen steckt ist der Mikrozustand, die Temperatur der Makrozustand. Entropie ist das Wissen, das im Makrozustand fehlt, im Mikrozustand aber vorhanden ist. Aber für mich als Kaffeetrinker ist nur das Wissens des Makrozustandes, der Temperatur des Kaffees, relevant. Dieses ist im Mikrozustand insofern nicht vorhanden, als es nicht an einem einzelnen Molekül hängt, sondern statistisch an der Gesamtheit aller Moleküle. Erst im Makrozustand wird das Wissen über die Temperatur erfahrbar.

Für uns zeigt nur der Makrozustand eine relevante Information. Doch auch im Rauschen steckt Information. Wie genau sich die Moleküle bewegen, ist ganz klar eine Menge an Information, doch diese Details spielen für mich keine Rolle, wenn ich Kaffee trinke, nur ihre durchschnittliche Geschwindigkeit macht die Temperatur des Kaffees aus, auf die es für mich ankommt.

Der informationsreichere und sich stetig ändernde Mikrozustand steht mit der einfachen Makroinformation der Temperatur aber in einer komplexen Beziehung. Auch der Makrozustand beeinflusst den Mikrozustand, nicht nur umgekehrt, denn die Moleküle müssen sich im statistischen Rahmen bewegen, den die Temperatur vorgibt. Beide Informationen hängen voneinander ab und sind gleichzeitig im Objekt objektiv vorhanden. Nur das Betrachtungslevel ist unterschiedlich. Die Differenz der Informationsmenge in der Beschreibung der beiden Levels bestimmt die Entropie und ist ein Mass für die Information.

Diese Verhältnisse sind spätestens seit Shannon2 und C.F. Weizsäcker bestens bekannt. In den Schulen wird aber meist noch gelehrt, dass Entropie ein Mass für Rauschen ist. Das ist falsch. Entropie ist immer als Delta zu verstehen, als einen Differenz (Abstand) zwischen der Information in der Übersicht (Makrozustand) und der Information in den Details (Mikrozustand).


5. Entropie ist ein relativer Wert

Aus der Tatsache, dass Entropie immer ein Abstand, ein Delta, d.h. mathematisch eine Differenz ist, folgt auch die Tatsache, dass Entropie kein absoluter, sondern stest ein relativer Wert ist.

Beispiel Kaffeetasse
Als Beispiel nehmen wir die Kaffeetasse. Wieviel Entropie steckt da drin? Wenn wir nur die Temperatur anschauen, dann entspricht der Mikrozustand der durchschnittlichen Bewegungsenergie der Moleküle. Doch die Kaffeetasse enthält noch mehr Information: Wie stark ist der Kaffee? Wie stark gesüsst? Wie stark ist die Säure? Welche Geschmacksnoten enthält er?

Beispiel Schulhaus
Salm1 bringt das Beispiel einer Haarspange, die eine Schülerin in der Schule sucht. Wenn ich weiss, in welchem Schulzimmer die Spange ist, habe ich sie dann schon gefunden? Der Mikrozustand benennt in diesem Moment nur das Zimmer. Wo im Zimmer liegt die Spange? Vielleicht in einem Gestell? In welchem? In welcher Höhe? In welcher Schublade, welchem Karton? Der Mikrozustand lässt sich variabel präzis einstellen.

Weil die Informationsentropie stets eine Differenz ist, ist die Entropie, d.h. die Spanne zwischen Übersicht und Details stets erweiterbar auf noch mehr Details.

Die Entropie ist ein relativer Wert. Wenn wir sie absolut angeben, setzen wir – ohne das explizit zu deklarien – ein tiefstes Level (Klassenzimmer, Regal oder Schublade) fest. Das ist legal,  solange wir uns bewusst sind, dass der scheinbar absolute Wert nur den Abstand zum angenommenen Mikrolevel darstellt.

Statik und Dynamik 

Energie und Entropie sind zwei komplementäre Grössen, welche die ganze Naturbeschreibung (Physik, Chemie, Biologie) durchziehen. Die beiden Hauptsätze der Physik enthalten je einen der beiden allgemeinen Grössen E (Energie) und S (Entropie):

  1. Satz:  E = 0
  2. Satz:  ∆S ≥ 0

Die Energie bleibt im Lauf der Zeit (im geschlossenen System) konstant, die Entropie kann nur zunehmen. Mit anderen Worten: Energie ist ein statischer Wert und zeigt, was sich nicht ändert, während Entropie essentiell dynamisch ist und Flüsse anzeigt, z.B. in den Wärmemaschinen, in Shannons Strom in Telefondrähten und immer dann, wenn unsere Gedanken fliessen und wir lernen und denken.

Entropie und Zeit

Entropie ist durch den zweiten Hauptsatz (∆S ≥ 0) essentiell mit dem Phänomen Zeit verbunden. Während die Energie im geschlossenen System konstant bleibt (Noethers Theorem), ändert sich in der Zeit die Entropie und nimmt im geschlossenen System zu. Entropie kennt also die Zeit, nicht nur die Wärmeentropie im Speziellen, sondern auch die viel allgemeinere Informationsentropie.


Fazit

  • Entropie ist ein Schlüsselbegriff. Er verbindet Physik und Information.
  • Entropie stammt aus der Wärmelehre, bezieht sich aber auf Information im Allgemeinen.
  • Die Wärmeentropie ist der Spezialfall, die Informationsentropie ist der allgemeine Begriff.
  • Alles, was physikalisch, chemisch und in der Informationsverarbeitung, ob technisch oder biologisch, geschieht, hat mit Entropie zu tun. Insbesondere alles, was mit Informationsflüssen und -strukturen zu tun hat. Mit anderen Worten: Alles, was uns wirklich interessiert.
  • Entropie ist immer relativ und bezieht sich auf den Abstand zwischen dem Makro- und dem Mikrolevel.
  • Das Makrolevel enthält weniger Information als das Mikrolevel
  • Das Makrolevel enthält die Information, die interessiert.
  • Beides ist nicht absolut: Das Mikrolevel kann immer noch detaillierter geschildert werden. Das Makrolevel wird von aussen definiert: Was interessiert? Die Temperatur des Kaffees? Die Konzentration der Zuckermoleküle? Die Säure? Der Koffeingehalt …
  • Erst die Definition der beiden Zustände erlaubt es, die Entropie scheinbar absolut anzugeben. Doch was für die Entropie zählt, ist der relative Wert, das heisst das Delta zwischen den beiden Zuständen. Dieses Delta, die Entropie, bestimmt den Fluss.
  • Der Fluss geschieht in der Zeit.

1 Salm, W: Entropie und Information – naturwissenschaftliche Schlüsselbegriffe, Aulis Verlag Deubner, Köln, 1997

2 Shannon, C.E. und Weaver W: The Mathematical Theory of Information, Illinois Press, Chicago, 1949


Das ist ein Beitrag zum Thema Entropie. Siehe -> Übersichtsseite Entropie


 

Logodynamik

Logodynamik

Was sind die Kriterien für eine korrekte Logik? Dieser Text handelt von den zwei Formen der Logik, der statischen und der dynamischen. Bekannt ist den meisten Wissenschaftlern die statische Form, welche sich hervorragend dafür eignet, Beweise zu führen. Demgegenüber steht die dynamische Form der Logik, welche es erst möglich macht, Beweise zu finden.

Wie in allen Gebieten der Physik zwischen Statik und Dynamik, zwischen Zuständen und Veränderungen unterschieden wird, ist es sinnvoll, auch im Bereich der Logik zwischen Statik – Logostatik – und Dynamik – Logodynamik – zu unterscheiden.

Wozu dient Logik?

Geht es bei Logik ums Denken? Das dachte ich jedenfalls früher. Logik sei die Grundlage des korrekten Denkens, die «Lehre vom richtigen Denken«. Beim näheren Blick aber zeigt sich, dass es bei dem, was als Logik bezeichnet und studiert wird, nicht ums Denken, sondern ums Beweisen geht. Die klassische formale Logik der Mathematiker untersucht Aussagen im Hinblick auf ihre Gültigkeit, also bezüglich ihrer formalen Widerspruchsfreiheit, ganz unabhängig vom Inhalt der Aussagen. Wenn die Aussagen formal zu keinem Widerspruch führen, sind sie wahr, andernfalls sind sie falsch. So können Beweise formal abgesichert werden. Die Logik der Mathematiker ist damit eine Wissenschaft des Beweisens – und nicht des Denkens.

Denn Denken ist weit mehr als Beweisen. Jeder Denkende weiss, dass er die Beweise zuerst finden muss. Die Suche dafür erfolgt in einem im Prinzip offenen Feld. Doch nicht jeder Fund ist hilfreich. Als nächstes muss der Denkende die gefundenen Beweise in einem zur Fragestellung passenden Kontext bewerten. Auch dies erfolgt in einem offenen Feld, denn nicht jeder sieht den Kontext gleich. Und jeder bewusst Denkende hat schon erlebt, dass sein Kontext sich ändert. Was geschieht mit den Widersprüchen, die sich aus unterschiedlichen Sichtweisen und Zielvorgaben ergeben? Wer hat dann recht? Wie geht der Logiker mit Widersprüchen um? Ist sein Typ Logik geeignet, mit wechselnden Verhältnissen und unklaren und offenen Situationen umzugehen?

Um im Alltag und in der Wissenschaft brauchbar zu sein, muss eine Logik des Denkens sich diesen Fragen auf eine konkrete Weise stellen, die gleichzeitig offen und formal ist. Die klassische Logik der Mathematiker ist zwar formal perfekt. Das reicht für formal korrekte Beweise. Doch die Beweise sind nur gültig, wenn der Kontext zutrifft und die Fragestellung sorgfältig geklärt ist. Kontext und Fragestellung bleiben ausserhalb der mathematischen Logik. Wir brauchen dazu mehr als eine Wissenschaft des Beweisens, sondern eine Logik, welche den offenen Kontext einbezieht. Wie finden wir eine solche Logik? Und wie unterscheidet sie sich von der klassischen mathematischen Logik?


Statik und Dynamik

In der Physik werden Zustände und Abläufe unterschieden. Während Zustände die Kräfteverhältnisse in einem bestimmten Moment beschreiben, beschreiben die Abläufe, was geschieht, wenn die Kräfte zu wirken beginnen und sich die Zustände ändern. So beschreibt die Elektrostatik die elektrischen Verhältnisse in einem bestimmten Moment und die Elektrodynamik, was geschieht, wenn Ströme zu fliessen beginnen. In der Statik spielt die Zeit keine Rolle, in der Dynamik hingegen schon; dort ist die Zeit das entscheidende Merkmal.

Genau gleich können wir das beim Denken beobachten.

Der entscheidende Schritt liegt deshalb in der Erkenntnis, dass es eine statische und eine dynamische Logik gibt. Die statische dient dazu, das gewonnene Denksystem widerspruchsfrei zu halten und – innerhalb der gesetzten Grenzen – Beweise zu führen. Doch das ist nicht alles, was Denken können muss. Aktives Denken muss diese Grenzen überwinden und sich in einer offenen Welt bewegen, um Beweise zu finden und diese in einem offenen Denkraum zu bewerten.

Dazu braucht es eine dynamische Logik. Beide, die statische wie die dynamische Logik machen Sinn. Doch erst wenn wir den sicheren Garten der statischen Logik verlassen, können wir anfangen, das reale Denken zu untersuchen.


Klassische Logik = Logostatik

Die statische Logik prägte das abendländische Geistesleben über mehr als zwei Jahrtausende. Sie findet sich bei den Syllogismen des Aristoteles, in der Scholastik des Mittelalters bis hin zur heute gültigen Prädikatenlogik der Mathematiker, der sogenannten Prädikatenlogik Ersten Grades (englisch: First Order Logic = FOL).

Alle diese Logiken, von den Syllogismen des Aristoteles bis zur FOL der modernen Mathematiker, sind genuin statisch. Sie zeichnen sich durch eine logische Geschlossenheit aus, was von Vorteil ist bezüglich der Geschlossenheit der Beweise, aber auch von Nachteil, weil die Geschlossenheit es nicht erlaubt, über die einmal getroffenen Definitionen hinaus zu denken. Bei diesen Systemen hat jede Aussage einen allgemein gültigen, absoluten Wahrheitswert; die Aussage ist entweder wahr oder falsch – und das darf sich nicht ändern, weil sonst das ganze Beweissystem zusammenbricht.

Mit anderen Worten: Das logische Gebäude der klassischen Logik ist grundsätzlich und zwingenderweise statisch. Die Mathematiker bauen darauf und nenen eine solche statische Logik monoton.

Monotonie bedeutet, dass eine Aussage einen nicht änderbaren – d.h. monotonen – Wahrheitswert hat. In einer geschlossenen Logik ist das zwingenderweise und auch ganz sinnvollerweise so. Doch sobald das Denksystem geöffnet wird, können die einzelnen Aussagen nicht mehr als monoton wahr oder monoton falsch deklariert werden. Wenn wir Aussagen unterschiedlich (=nonmonoton) bewerten wollen, begeben wir uns auf das Feld der dynamischen Logik. Denn mit jeder Änderung gibt es ein Vorher und ein Nachher. Mit der Nonmonotonie kommt automatisch die Zeit in die Logik.


Dynamische Logik = Logodynamik

Wenn eine Aussage einmal als falsch und einmal als wahr betrachtet wird, führt das zu einem Widerspruch. Gilt die Aussage nun?

Während solche Widersprüche in einem klassischen Logiksystem nicht geduldet werden können, sind sie in einem dynamischen System entscheidende Elemente im offenen Netzwerk der Aussagen. Genau so wie sie es in unserem Denken sind. Denn Widersprüche sind nichts anderes als Ausgangspunkte für unser Denken. Sie zwingen uns zum Beispiel, Beobachtungen, die nicht zueinander passen, genauer anzusehen. Wenn Aussagen einander widersprechen, wollen wir darüber nachdenken, was nun gilt. Widersprüche, in klassischer Logik verboten, sind in dynamischer Logik der eigentliche Ausgangspunkt des Denkens. Genauso wie in der Physik eine elektrische Spannung die Energie für den Strom liefert, so bildet ein Widerspruch beim Denken die Spannung, um weiter zu denken.

Weiterdenken heisst aber immer auch, offen zu sein für ganz neue Aussagen. Denken muss ergebnisoffen sein. Denken kann Aussagen je nach Kontext neu bewerten. Denken kann auch zur Erkenntnis führen, dass eine Frage im Moment unbeantwortbar ist. Auch darin unterscheidet sich die dynamisch Logik von der klassischen Logik.

Statische Logik definiert zuerst ihre «Welt», das heisst alle Elemente, die später, bzw. überhaupt verwendet werden dürfen. Das System muss geschlossen sein. Die klassische Logik verlangt eine klare Grenzziehung (Definition) um die Welt eines Aussagensystems herum, und dies, bevor Schlüsse gezogen (gedacht) werden können. Freies Denken kann aber nicht geschlossen sein. Wir können immer neue Denkobjekte, Begriffe und Gedanken einbeziehen, neue Differenzierungen für bekannte Objekte austesten, neue Gründe für widersprechende Thesen finden, und die gefundenen Gründe in unterschiedlichsten Kontexten neu bewerten. Mit anderen Worten:

→  Wir lernen  ←

Denken heisst lernen. Und Lernen verlangt ein dynamisches, d.h. offenes System. Ein Logiksystem, das die Art, wie wir Menschen denken, abbilden soll, muss offen sein. Es kann nicht statisch sein.


Logik und Zeit

Die Zeit ist ist ein schwieriges Thema in der formalen Logik, aber sie ist entscheidend. In den klassischen logischen Systemen wie den Syllogismen oder der First Order Logic gibt es keine Zeit. Alles was gilt, gilt immer. In einer dynamischen Logik hingegen ist das nicht möglich. Was heute als wahr angesehen wird, kann morgen als Irrtum erkannt werden. Ohne diese Möglichkeit gäbe es kein Lernen. Das dynamische System erkennt die Zeit als ein notwendiges und internes Element der Logik. Das ist eine Folge der Non-Monotonie, also der Tatsache, dass in einer dynamischen Denklogik, Aussagen ihren Wahrheitsgehalt – falsch oder richtig – ändern können müssen. Diese Änderung erfolgt in der Zeit. Deshalb ist die Zeit keine Variable wie in der klassischen Logik, sondern ein konstituierendes Element innerhalb der Logik. Und dieses Zeitelement greift ganz tief in den Mechanismus der dynamischen Logik, in den «Grundschalter» der Logik ein, nämlich in das IF-THEN:

Was viele nicht wissen ist, dass das IF-THEN  der klassischen Logik genau genommen keine Zeit kennt. Die Aussage des IF und diejenige des THENs gelten in der klassischen mathematischen Logik immer gleichzeitig. Wenn das IF gilt, gilt auch das THEN, zwingend und ohne irgendeinen Zeitabstand dazwischen. Das IF-THEN der dynamischen Logik hingegen hat immer einen Zeitbezug: Das IF ist stets vor dem THEN. Das ist übrigens auch in der Informatik so. Ein Computerprogramm schaut zuerst das IF an und bewirkt dann das THEN. Computerprogramme sind dadurch näher bei der dynamischen Logik als es die mathematische Logik der Bool’schen Algebra ist.

Ein statisches System kann Zeit zwar als eine Variable einbeziehen, wie irgendeine andere Variable. Doch damit wird die Zeit nicht zu einem inneren Element des Logikprozesses. Erst die dynamische Logik kann das, mit dem bewusstem Einbezug der Zeit in die Logik des IF-THENS. Der Zeiteinbezug führt zum Bruch der Monotonie, die in der statischen Logik noch als selbstverständlich angesehen wurde.

Dieser interne Zeiteinbezug unterscheidet die dynamische von der statischen Logik.


Fazit Logodynamik

Dynamische Logiksysteme unterscheiden sich von statischen durch folgende drei Eigenschaften:

  1. Non-Monotonie: Widersprüche im System sind erlaubt.
  2. Offenheit: Jederzeit können neue Elemente im System auftauchen.
  3. Systeminterne Zeit: Zwischen IF und THEN vergeht Zeit.

Die drei Eigenschaften hängen zusammen und bedingen sich gegenseitig. Erst dynamische Logiksysteme erlauben es, Denkvorgänge abzubilden.

Die Logodynamik untersucht und formalisiert solche dynamischen Systeme.


Erste eine dynamische Logik erlaubt es, Denk- und Informationsprozesse in einen realen Rahmen zu sehen. Mehr zum Thema Logik -> Übersichtsseite Logik