Archiv der Kategorie: Information

Entropie: Schlüssel zur Informationstheorie


Entropie ist mehr als Wärmelehre

Der Begriff Entropie stammt ursprünglich aus der Wärmelehre und ergänzt dort den Begriff der Energie. Entropie ist aber viel mehr, nämlich als Informationsentropie nach Claude Shannon auch ein Mass für Information.  Die zugehörige Masseinheit ist das Bit. Trotz seiner enormen Bedeutung in der Physik, der Informationstheorie, aber auch im Alltag, gilt der Begriff der Entropie als nerdig und kaum verständlich. Das wäre nicht nötig.

Fünf weit verbreitete Vorurteile erschweren das Verständnis dieses wichtigen Begriffs in der Physik und im Alltag:

Die Entropie spielt auch eine Rolle beim Unterschied zwischen Bits und Distinction nach Spencer-Brown:


Informationsreduktion

Mit der Entropie eng verbunden ist das Phänomen der Informationsreduktion.

Logische Systeme sind immer Vereinfachungen der viel komplexeren und detailhaltigeren Realität. Um zu verstehen, wie wir denken, müssen wir uns mit dieser notgeborenen und unausweichlichen Beschränkung unseres Wissens um die Realität abfinden. Zu diesem natürlichen Vorgang der Informationsreduktion habe ich ab 2019 eine kleine Beitragsserie geschrieben:

Das Thema der Informationsreduktion irritiert viele,  doch wir befinden uns damit auf den Spuren von zwei der wichtigsten europäischen Philosophen, nämlich von William Ockham (Ockhams Razor) und Sokrates (Ich weiss, dass ich nichts weiss).


Entropie wird in Bits gemessen und ist eine der Grundlagen von Information -> Übersichtsseite Informationstheorie


 

Das Bit – Grundbaustein der Information?

Das Bit

Das Bit gilt als Grundbaustein der Information. Doch welche Information trägt dieser Grundbaustein?

Das Bit wurde 1948 von C. E. Shannon zur Berechnung des Informationsflusses in Telefondrähten eingeführt. Es ist die Masseinheit der Informationsentropie.

–> Entropie

Ein alternativer Grundbaustein für Information ist die Unterscheidung (Distinction) nach Georg Spencer-Brown.

Beide Formen, Bit und Unterscheidung, sind so radikal einfach gebaut, dass es einfacher nicht mehr geht. Trotzdem sind sie verschieden. Man kann die beiden Basisformen als komplementär bezeichnen.


 

Entropie zwischen Mikro- und Makroebene


Die zwei Ebenen der Entropie: Mikro und Makro

Zwei Ebenen definieren die Entropie

Die schulmässige physikalische Definition der Entropie weist diese als eine Differenz zwischen zwei Ebenen aus: einer Detail- und einer Übersichtsebene.


Beispiel Kaffeetasse

Klassisch ist die thermale Entropie nach Boltzmann, am Beispiel eines idealen Gases. Die Temperatur (1 Wert) ist direkt verbunden mit den Bewegungsenergien der einzelnen Gasmoleküle (1023 Werte). Mit gewissen Anpassungen gilt das für jedes materielle Objekt, z.B. auch für eine Kaffeetasse:

  1. Thermischer Makrozustand: Temperatur der Flüssigkeit in der Tasse.
  2. Thermischer Mikrozustand: Bewegungsenergie aller einzelnen Moleküle in der Tasse

Die Werte von a) und b) sind direkt verbunden. Die Wärmeengergie der Flüssigkeit, die sich in der Temperatur des Kaffees äussert, setzt sich zusammen aus den Bewegungsenergien der vielen (~ 1023) einzelnen Moleküle in der Flüssigkeit. Je schneller sich die Moleküle bewegen, umso heisser ist der Kaffee.

Die Bewegung der einzelnen Moleküle b) ist jedoch nicht konstant. Vielmehr stossen sich die Moleküle andauernd und ändern dabei ihre Geschwindigkeit und damit auch ihre Energie. Trotzdem ist die Gesamtenergie nach jedem Stoss die gleiche. Wegen dem Energiesatz ändert sich bei jedem Stoss zwar die Energie der beteiligten Moleküle, die Energie aller beteiligten Moleküle zusammen bleibt aber erhalten. Auch wenn der Kaffee langsam abkühlt, oder wenn die Flüssigkeit von aussen erhitzt wird, bleibt der Zusammenhang erhalten: Der einzelne Übersichtswert (Temperatur) und die vielen Detailwerte (Bewegungen) hängen immer gegenseitig voneinander ab.


Beispiel Wald und Bäume

Das bekannte Sprichwort warnt, vor lauter Bäumen den Wald nicht mehr zu sehen.

Wald: Makroebene

Wald: Mikroebene

Auf der Mikroebene sehen wir die Details, auf der Makroebene erkennen wir das grosse Ganze.

Welche Sicht ist nun besser? Die auf den Wald oder auf die Bäume?

  • Sowohl Makroebene wie Mikroebene sind sinnvoll – je nach Aufgabe
  • Beides bezieht sich auf das gleiche Objekt.

Beides ist nicht im gleichen Moment zu sehen:

  • Sieht man die Bäume, verpasst man den Wald
  • Erkennt man den Wald, sieht man nicht alle einzelnen Bäume

Generell glauben wir, dass es besser sei, alle Details zu kennen. Doch das ist eine Täuschung. Wir brauchen immer wieder die Übersicht. Und wir würden uns verlieren in den Details.


Wo ist nun die Entropie?

Wir können nun alle Details der Mikrosicht aufzählen und erhalten so den Informationsgehalt – z.B. in Bits – des Mikrozustandes. Von diesem können wir den viel kleineren Informationsgehalt der Makrosicht abzählen. Die Differenz, die wir erhalten ist die Entropie, nämlich die Information, die im Mikrozustand (Bäume) vorhanden ist, im Makrozustand (Wald) aber fehlt. Die Differenz ist die Entropie.


Warum ist nicht der Informationsgehalt auf der Mikroebene die absolute Entropie?

Der Informationsgehalt auf der Mikroebene lässt sich in Bits berechnen. Entspricht diese Bitmenge der Entropie? Dann wäre der Informationsgehalt auf der Makroebene einfach eine Reduktion der Information. Die eigentliche Information würde dann in der Mikroebene der Details stecken.

Das ist die spontane Erwartung, die ich bei Gesprächspartnern immer wieder antreffe. Sie nehmen an, dass es einen absoluten Informationsgehalt gibt, und der ist in ihren Augen selbstverständlich derjenige mit der grössten Menge an Details.

Das Problem dabei ist: Ds ‹tiefste› Mikrolevel ist gar nicht eindeutig definiert. Die Bäume sind bezogen auf den Wald das tiefere Informationslevel – doch damit ist nicht die tiefste Detailebene erreicht. Man kann die Bäume auf ihre Bestandteile hin – Aste, Zweige, Blätter, Würzeln, Stamm, Zellen usw. – beschreiben, was zweifellos ein tieferes Level ist und noch mehr Details enthalten würde. Doch auch dieses Level wäre nicht tief genug. Wir können durchaus noch tiefer in die Details gehen, und die verschiedenen Zellen des Baumes beschreiben, die Organellen in den Zellen, die Moleküle in den Organellen usw. Wir würden dann weiter bei der Quantenebene ankommen. Doch ist das die tiefste? Vielleicht, doch sicher ist das nicht. Und je weiter wir in die Details gehen, umso mehr entfernen wir uns von der Beschreibung des Waldes. Was uns interessiert ist die Beschreibung des Waldes und dafür ist das tiefste Level gar nicht nötig. Wir tiefer unten wir es suchen, umso mehr entfernen wir uns von der Beschreibung unseres Objekts.

→ Die Tiefe des Mikrolevels ist nicht eindeutig definiert !

Wir können deshalb für unsere Betrachtung nicht von einer eindeutigen absoluten Entropie eines bestimmten Objekts ausgehen. Weil das Mikrolevel beliebig tief ansetzbar ist, ändert sich auch die Entropie, d.h. der quantitative Informationsgehalt auf dieser Ebene. Je tiefer, umso mehr Information, umso höher die Entropie.


Gibt es ein absolutes Makrolevel?

Wie das Mikrolevel ist auch das höchste Informationslevel, z.B. eines Waldes, nicht eindeutig definiert.

Ist dieses Makrolevel das Bild, das eine optische Sicht auf den Wald darstellt, wie es ein über ihm fliegender Vogel sieht? Oder ist des die Darstellung des Waldes auf einer Landkarte? In welchem Masstab? 1:25’000 oder 1:100’000? Offensichtlich ändert sich je nach Sicht die Informationsmenge des jeweiligen Makrozustandes.

Was interessiert uns, wenn wir den Wald beschreiben? Die Wege durch den Wald? Die Baumarten? Hat es Rehe und Hasen? Wie gesund ist der Wald?

Mit anderen Worten: Der Wald kann wie jedes Objekt auf sehr unterschiedlichen Weise beschrieben werden.

Es gibt kein eindeutiges, absolutes Makrolevel. Je nach Situation und Bedürfnissen gilt eine andere Makrodarstellung.


Die Relativität von Mikro- und Makroebene

Auf jeder Ebene gibt es eine jeweilige quantitative Menge an Information, je tiefer umso reichhaltiger, je höher, umso übersichtlicher. Doch es wäre ein Irrtum, eine bestimmte Ebene mit ihrer Informationsmenge als die tiefste oder die höchste zu bezeichnen. Beides ist willkürlich.


Die Information ist die Differenz

Sobald wir akzeptieren, dass sowohl das Mikro- wie das Makrolevel in beliebiger Höhe angesetzt werden können, nähern wir uns einem realeren Informationsbegriff. Es macht plötzlich Sinn, von einer Differenz zu sprechen. Die Differenz zwischen den – jeweils gewählten! – beiden Ebenen definieren die Spanne des Wissens.

Die Information, die ich gewinnen kann, ist die Information, die mir im noch Makrolevel fehlt, die ich aber im Mikrolevel finde. Die Differenz zwischen den beiden Ebenen bezüglich ihrer Entropie ist die Information, die ich dabei gewinnen kann.

Umgekehrt, wenn ich die Details der Mikroebene vor mir habe und eine Übersicht gewinnen will, muss ich diese Information der Mikroebene vereinfachen, und ich muss ihre Bitzahl reduzieren. Diese Reduktion ist die Entropie, d.h. die Information, die auf die ich bewusst verzichte.


Das Informationsparadox

Wenn ich aus einem Wust von Details die Information herausholen will, die mich interessiert, wenn ich also von der Detailbeschreibung zur verwertbaren Information gelangen will, dann muss ich ganz viel Informationen der Mikroebene unter den Tisch fallen lassen. Ich muss Information verlieren, um meine gewünschte Information zu erhalten. Dieses Paradox liegt jedem Analysevorgang zugrunde.


Information ist relativ und dynamisch

Was ich vorschlage ist ein relativer Informationsbegriff. Das entspricht nicht der Erwartung der meisten Mitmenschen, die eine statische Vorstellung von der Welt haben. Die Welt ist aber grundlegend dynamisch. Wir bewegen uns in dieser Welt wie alle anderen Lebewesen als informationsverarbeitende Existenzen. Die Verarbeitung von Information ist ein alltäglicher Vorgang für alle von uns, für alle biologischen Existenzen, ob Pflanzen, Tiere oder Menschen.

Die Verarbeitung von Information ist für alle Lebewesen ein existentieller Prozess. Dieser Prozess hat stets ein Vorher und ein Nachher. Je nachdem gewinnen wir Information, wenn wir etwas im Detail näher ansehen. Und wenn wir eine Übersicht gewinnen wollen, oder einen Entschluss (!) fassen, dann müssen wir Information vereinfachen. Wir gehen also von einer Makrobeschreibung zu einer Mikrobeschreibung und umgekehrt. Information ist dabei eine dynamische Grösse.

Entropie ist die Information, die im Makrolevel fehlt, im Mikrolevel aber zu finden ist.

Und umgekehrt: Entropie ist die Information, die im Mikrolevel vorhanden ist, im Makrolevel – also zur Gewinnung einer Übersicht – ignoriert wird.


Objekte und ihr Mikro- und Makrolevel

Wir können davon ausgehen, dass ein bestimmtes Objekt auf verschiedenen Stufen beschrieben werden kann. Ob eine tiefste Beschreibungsebene zu finden ist, ist gemäss aktuellen naturwissenschaftlichen Erkenntnissen ungewiss, doch für unsere informationstheoretischen Überlegungen letztlich irrelevant. Genauso ist es nicht sinnvoll von einer höchsten Makroebene zu sprechen. Die Makroebenen richten sich nach der Aufgabe der jeweiligen Betrachtung.

Was aber relevant ist, ist der Abstand, also die Information, die im Makrozustand zu gewinnen ist, wenn tiefere Details in die Sicht integriert werden, oder wenn sie – zwecks besserer Übersicht – verworfen werden. Beidemale geht es um eine Differenz zwischen zwei Beschreibungsebenen.

Die Darstellung oben visualisiert die Menge der erkannten Bits in einem Objekt. Oben bei der Makrospitze sind es wenige, unten im Mikrolevel sind es viele. Das Objekt bleibt das gleiche, ob nun viele oder wenige Details berücksichtigt, bzw. erkannt werden.

Die Makrosicht bringt wenige Bits, doch ihre Auswahl wird nicht vom Objekt allein bestimmt, es kommt vielmehr auch auf das Interesse hinter der Sichtweise an.

Die Zahl der Bits, d.h. die Entropie nimmt von unten nach oben ab. Das ist aber nicht eine Eigenschaft des Objekts der Betrachtung, sondern eine Eigenschaft der Betrachtung selber. Je nachdem sehe ich das Objekt anders, einmal detailliert und unübersichtlich, ein anderes Mal übersichtlich und vereinfacht, d.h.einmal mit viel und ein anderes Mal mit weniger Entropie.

Die Informationsgewinnung ist der dynamische Vorgang, der entweder
a) mehr Details erkennt: Makro → Mikro
b) mehr Übersicht gewinnt: Mikro → Makro

Beidemale wird die Informationsmenge (Entropie als Bitmenge) verändert. Die gewonnenen oder verlorenen Bits entsprechen der Differenz der Entropie von Mikro- und Makrolevel.

Wenn ich das Objekt in den Blick nehme, enthüllt es je nach Betrachtungsweise mehr oder weniger Information. Information ist dabei stets relativ zum Vorwissen und dynamisch zu verstehen.


Das ist ein Beitrag zum Thema Entropie. Siehe -> Übersichtsseite Entropie


 

Entropie und Information

Entropie und Information

Der Begriff Entropie wird gerne vermieden, weil er eine gewisse Komplexität enthält, die sich nicht wegdiskutieren lässt.
Doch wenn wir über Information sprechen, müssen wir auch über Entropie sprechen. Denn Entropie ist das Mass für die Informationsmenge. Wir können nicht verstehen, was Information ist, ohne zu verstehen, was Entropie ist.

Information ist immer relativ.

Wir glauben, dass wir Information packen können, so wie wir Bits in einem Speichermedium ablegen. Die Bits sind dann die Information, die objektiv verfügbar ist. Wir haben uns so sehr an dieses Bild gewöhnt, dass wir glauben, dass Information in kleinen Kügelchen daherkommt, die ja und nein sagen können. Doch dieses Bild täuscht.

Denn natürlich sagen die Kügelchen nicht ‹ja› oder ’nein›, nicht 0 oder 1, nicht TRUE oder FALSE, und auch sonst nichts bestimmtes. Bits haben gar keine Bedeutung, es sei denn, man habe diese Bedeutung von aussen her definiert. Dann können sie sehr gut 1, TRUE, ‹Ich komme heute zum Abendessen› oder irgend etwas anderes aussagen, jedoch erst zusammen mit ihrer Umgebung, ihrem Kontext.

Aus dieser Überlegung wird klar, dass Information relativ ist. Das Bit bekommt seine Bedeutung erst aus einer bestimmten Einordnung heraus. Je nachdem bedeutet es 0 oder 1, ‹Wahr› oder ‹Falsch›, usw. Das Bit ist an seinem Platz zwar gesetzt, doch seine Bedeutung bekommt es erst durch seinen Platz.
Somit muss der Platz, also der Kontext mit hineingenommen werden, damit klar wird, was das Bit bedeuten soll. Und natürlich ist die Bedeutung relativ, das heisst, das gleiche Bit, kann in einem anderen Kontext, einem anderen Platz eine ganz andere Bedeutung haben.

Diese Relativität ist nun charakteristisch nicht nur für das Bit, sondern für jede Art Information. Jede Information bekommt ihre Bedeutung erst durch den Kontext, in dem sie steht. Sie ist also relativ. Denken Sie das am besten an Beispielen aus Ihrem Leben durch. Information ist nicht das Signal, das auf ‹ja› oder ’nein› steht. Dieses Signal ist nur das Signal. Was es bedeutet, wird erst klar, wenn Sie das Signal aus Ihrer Warte heraus interpretieren, wenn Sie es aus Ihrem Kontext heraus ansehen.
Erst dann bekommt das Signal für Sie eine Bedeutung. Diese Bedeutung liegt nicht absolut, d.h. isolierbar im Signal Bit, sondern relativ in der Interaktion zwischen Ihrer Erwartung , dem Kontext, und der Stellung des Schalters, der auf ON oder OFF gestellt sein kann. Dieser Schalter ist das Bit. Seine Bedeutung an sich, also wenn das Bit isoliert wird, ist nur ON oder OFF.
Alles andere liegt in der Umgebung.

Definition der Entropie

In Anbetracht der Tatsache, wie wichtig Information und Informationstechnologien sind, ist es schon erstaunlich, wie wenig bekannt die wissenschaftliche Defintion von Entropie, also von Information ist:

Entropie ist das Mass für die Information, die im Mikrozustand bekannt ist, im Makrozustand aber nicht.

Die Entropie hängt somit eng mit der Information auf Mikro- und Makrolevel zusammen, und sie kann als ‹Abstand› oder Differenz der Information auf den beiden Informationsebenen gesehen werden.

Mikro- und Makroebene

Was ist mit diesem Abstand zwischen Mikro- und Makroebene gemeint? – Die Mikroebene enthält die Details (also viel Information), die Makroebene die Übersicht (also weniger, dafür gezieltere Information). Der Abstand zwischen den beiden Ebenen kann sehr klein sein (wie beim Bit, wo das Mikrolevel gerade zwei Informationen kennt: on oder off ) oder aber riesig gross, wie z.B. bei der Temperatur (Makrolevel)  des Kaffees, wo Bewegungsenergien der vielen Moleküle (Mikrolevel) die Temperatur des Kaffees bestimmt. Die Zahl der Moleküle liegt in diesem Fall in der Grössenordnung der Avogadroschen Zahl 1023, also ganz schön hoch, und die Entropie des Kaffees in der Tasse ist entsprechend wirklich sehr hoch.

Andererseits gibt es auch ‹kleine› Informationen, die sehr nahe an der Grössenordnung eines Bits (Infogehalt = 1) heran kommen. Immer aber kommt es auf das Verhältnis von Mikro- zu Makrozustand an. Dieses Verhältnis – also was im Mikrozustand gewusst wird, im Makrozustand aber nicht – definiert die Information.

Die Komplexität des Makrozustandes

Der Makrozustand enthält stets weniger Information als der Mikrozustand, er ist eine gezielte Vereinfachung der Information des Mikrozustandes.

For example: a certain individual (micro level), can belong to the collective macro groups of Swiss inhabitants, computer scientists, older men, contemporaries of the year 2024, etc., all at the same time.

Das führt dazu, dass der gleiche Mikrozustand verschiedene Makrozustände beliefern kann. Zum Beispiel: Ein Individuum des Mikrolevels kann in der komplexen Welt der Gesellschaft mehreren Makrogruppen angehören, also gleichzeitig den Makrogruppen der Schweizer, der Informatiker, der älteren Männer, der Zeitgenossen des Jahres 2024 usw. Alle diese Makrogruppen bestehen aus vielen Individuen und sie überschneiden und durchdringen sich auf wechselnde Weise.

Die Möglichkeit, aus verschiedenen Mikrozuständen gleichzeitig mehrere Makrozustände herauszuziehen, ist charakteristisch für die Komplexität von Mikro- und Makrozustand und somit auch für die Entropie.

So einfach lässt sich also die Entropieüberlegung nicht in komplexere Netze übertragen, wie es die einfachen Beispiele der Kaffeetasse nach Boltzmann, des verlorene Schlüssel nach Salm oder das simple Bit vermuten lassen.

Siehe auch:
Paradoxe Logikkerne, Teil 2
Bit und Unterscheidung
Fünf Vorurteile über Entropie


Das ist ein Beitrag zum Thema Entropie. Siehe -> Übersichtsseite Entropie


 

Das Bit hat keine Bedeutung

Das Bit ist die Basis der IT

Unsere Informationstechnologie baut auf dem Bit auf. Alles, was in unseren Computern geschieht, basiert auf diesem kleinsten Basiselement der Information. Wenn Sie gefragt werden, was ein einzelnes Bit bedeutet, werden Sie möglicherweise antworten, dass das Bit zwei Zustände einnehmen kann, von denen der eine 0 ist und der andere 1 bedeutet. Auf diese Weise können wir bekanntlich beliebig hohe Zahlen schreiben, wir müssen einfach genügend Bits hintereinander reihen.

Aber stimmt das auch? Bedeutet wirklich der eine Zustand im Bit 0 und der andere 1? Können die beiden Zustände nicht auch ganz andere Bedeutungen annehmen?

Dem Bit können beliebige Bedeutungen zugeschrieben werden

In der Tat können die beiden Zustände des Bits irgendeine Bedeutung einnehmen. Beliebt sind neben 0/1 auch Wahr/Falsch, Ja/Nein, Positiv/Negativ, aber im Prinzip und in der Praxis können dem Bit von aussen irgendwelche Bedeutungen zugeschrieben werden. Selbstverständlich sind auch Umkehrungen erlaubt, also neben 0/1 auch 1/0.

Die Zuschreibung der Bedeutung des Bits erfolgt von aussen

Ob das konkrete Bit im Computerprogramm nun 0/1 oder 1/0 oder irgendetwas anderes bedeutet, spielt selbstverständlich eine entscheidende Rolle. Die Bedeutung liegt aber nicht im Bit selber, denn das Bit ist eine höchst radikale Abstraktion. Es sagt nur aus, dass zwei Zustände existieren und welcher zur Laufzeit gerade aktuell ist. Was die beiden aber bedeuten, ist eine ganz andere Geschichte, die über das einzelne Bit weit hinausgeht. In einem Computerprogramm kann z.B. deklariert werden, dass das Bit dem Wertepaar TRUE/FALSE entspricht. Das gleiche Bit kann aber auch mit anderen Bits zusammen als Teil einer Zahl oder eines Buchstabencodes interpretiert werden – sehr unterschiedliche Bedeutungen also, je nach Programmkontext.

Digitaler und analoger Kontext

Das Softwareprogramm ist der digitale Kontext und er besteht selbstverständlich aus weiteren Bits. Diese Bits aus der Umgebung können verwendet werden, um die Bedeutung eines Bits zu bestimmen. Nehmen wir an, unser Bit sei mit weiteren Bits daran beteiligt, den Buchstaben ‹f› zu definieren. Unser Programm sei auch so organisiert, dass dieser Buchstabe in eine Tabelle zu stehen kommt, und zwar in eine Spalte, die mit ‹Geschlecht› überschrieben ist. All dies ist in der Software klar geregelt. Legt nun die Software die Bedeutung des Bits fest? Sicher sind Sie nicht überrascht, wenn das ‹f› die Bedeutung ‹feminin› hat und die Tabelle vermutlich verschiedene Personen auflistet, die männlich oder weiblich (f) sein können. Was aber bedeuten männlich und weiblich? Erst in der analogen Welt bekommen diese Ausdrücke eine Bedeutung.

Das Bit, die perfekte Abstraktion

Das Bit stellt in der Tat den Endpunkt einer radikalen Informationsabstraktion dar. Die Information ist im einzelnen Bit soweit auf das absolut Elementare reduziert, dass die Information über die Bedeutung aus dem Bit vollständig herausgenommen worden ist. Das Bit sagt nur noch aus, dass zwei – ausserhalb des Bits beschriebene – Zustände existieren und welcher der beiden zu einem bestimmten Zeitpunkt aktuell ist.

Diese radikale Abstraktion ist gewollt und in einer Software sehr sinnvoll. Denn so kann das gleiche physische Bit im Chip des Computer immer wieder neu verwendet werden, einmal als TRUE/FALSE-Paar, einmal als 0/1, einmal als JA/NEIN usw. Das ist sehr praktisch und ermöglicht dem Computer, beliebige Aufgaben zu erfüllen. Die dadurch gewonnene perfekte Abstraktion nimmt dem einzelnen Bit aber gleichzeitig seine individuelle Bedeutung und diese kann und muss dann für jede Anwendung von aussen neu gegeben werden.

Der unendliche Regress

Wenn die Bedeutung des Bits von aussen gegeben wird, dann können natürlich andere Bits diese Aufgabe übernehmen und die Bedeutung des einen Bits definieren. Dazu müssen aber diese äusseren Bits die entsprechende Wirkkraft haben, die natürlich nicht ohne deren eigenen Bedeutung zu haben ist. Und selbstverständlich liegen die Bedeutungen der Bits dieses äusseren Kreises nicht in diesen Bits selber – aus den gleichen Gründen wie oben – sondern sie müssen von aussen, d.h. von einem weiteren Kreis von Bits gegeben werden. Die Bits dieses zweiten äusseren Kreises müssen in einem weiteren Kreis erklärt werden und die Bedeutung der Bits dieses weiteren Kreises wiederum von einem noch äusseren  …  Selbstverständlich kommt dieser Prozess der Bedeutungszuordnung in einer Welt von Bits nie an sein Ende, der Regress ist unendlich.

Erst im Analogen endet der unendliche Regress

Erst wenn wir aus dem Programm in die Realwelt heraustreten, können wir den Informationen aus dem Computer wirkliche eine Bedeutung zuordnen.

Selektiver und deskriptiver Informationsgehalt

Wenn wir das oben Beschriebene rekapitulieren können wir im Bit Folgendes unterscheiden:

Der deskriptive Informationsgehalt sagt aus, was das Bit bedeutet, er beschreibt die beiden Zustände des Bits, sagt aber nicht aus, welcher Zustand aktuell gewählt ist.  Der selektive Informationsgehalt andererseits sagt aus, welcher der beiden Zustände aktuell ist, weiss aber nichts über die Eigenschaften der beiden Zustände, und somit auch nichts über ihre jeweilige Bedeutung.

Die Unterscheidung zwischen selektivem und deskriptivem Informationsgehalt wurden vom britischen Radar-Pionier und Informationswissenschaftler Donald MacKay in den 40-er Jahren des letzten Jahrhunderts geprägt, praktisch gleichzeitig mit der ersten Erwähnung und Beschreibung des klassischen Bits durch den Amerikaner C. A. Shannon. MacKay hat auch bereits sehr klar erkannt, dass das Bit von Shannon nur einen selektiven Informationsgehalt trägt und der deskriptive von aussen gegeben werden muss.

Erstaunlicherweise ist diese Erkenntnis von MacKay heute beinahe in Vergessenheit geraten.


Fazit:

1. Das Bit liefert den selektiven Informationsgehalt.
2. Der deskriptive Informationsgehalt liegt nicht im Bit.
3. Ein isoliertes Bit trägt allein keine Bedeutung.
4. Die Bedeutung des Bits wird stets von ausserhalb des Bits gegeben.
5. Dadurch wird ein unendlicher Regress initiiert.
6. Erst im Analogen endet der unendliche Regress.


Die Zahl der Bits misst die Quantität von Information -> Übersichtsseite Informationstheorie


Die Unterscheidung (nach Spencer-Brown) und das Bit


Fortsetzung von Paradoxe Logikkerne (2)


Geschichte

Bevor wir die Konsequenzen der Distinction von Georg Spencer-Brown (GSB) auf Logik, Physik, Biologie und Philosophie ansehen, ist es hilfreich, sie mit einer anderen, viel bekannteren Grundform zu vergleichen, nämlich dem Bit. Das ermöglich uns, die Natur von GSB’s distinction und das Revolutionäre seiner Innovation besser zu verstehen.

Bits und Forms können beide als Basis-Bausteine für die Informationsverarbeitung angesehen werden. Software-Strukturen bauen technisch auf Bits auf, doch die Forms von GSB («draw a distinction») sind genauso einfach, grundlegend und dabei verblüffend ähnlich. Trotzdem gibt es charakteristische Unterschiede.

     

Abb. 1: Form und Bit zeigen Ähnlichkeit und Unterschiede

Sowohl Bit wie die Spencer-Brown Form sind in der Frühphase der Informatik entstanden, also relativ neue Vorstellung. Das Bit wurde von C.A. Shannon 1948 beschrieben, die Distinction von Georg Spencer-Brown (GSB) in seinem Buch «Laws of Form» im Jahr 1969, also nur ca. 20 Jahre später. 1969 fiel in die hohe Zeit der Hippie-Bewegung und GSB wurde in der Tat in Kaliforniens Hippie-Hochburg Esalen hoch willkommen geheissen. Das hat möglicherweise ein schlechtes Licht auf ihn geworfen und den etablierten Wissenschaftsbetrieb von ihm abgehalten. Während das Bit Kaliforniens entstehende Informations-High-Tech-Bewegung beflügelte, wurde Spencer-Browns mathematisch-logische Revolution von der Scientific Community geflissentlich ignoriert. Es ist Zeit, diesen Misstand zu überwinden.


Gemeinsamkeiten von Distinction und Bit

Beide, die Form und das Bit, beziehen sich auf Information. Beide sind elementare Abstraktionen und können deshalb als Grundbausteine von Information gesehen werden.

Diese Gemeinsamkeit zeigt sich darin, dass beide einen einzigen Aktionschritt bezeichnen – wenn auch einen unterschiedlichen – und beide dieser Aktion eine maximal reduzierte Anzahl von Ergebnissen zuordnen, nämlich genau zwei.

Tabelle 1: Sowohl Bit wie Distinction beinhalten
je eine Aktion und zwei mögliche Resultate (Outcomes)

Genau eine Aktion, genau zwei potentielle Ergebnisse

Die Aktion der Distinction ist die Distinction, also die Unterscheidung, die Aktion des Bits ist die Auswahl, also die Selection. Beide Aktionen sind als Informationshandlungen zu sehen und als solche fundamental, d.h. nicht weiter reduzierbar. Das Bit enthält in sich nicht weitere Bits, die Distinktion enthält in sich nicht weitere Distinktionen. Natürlich gibt es in der Umgebung des Bits weitere Bits und in der Umgebung einer Distinktion weitere Distinktionen. Beide Aktionen sind aber als fundamentale Informationshandlungen zu sehen. Ihre Fundamentalität wird unterstrichen durch die kleinst mögliche Zahl ihrer Ergebnisse, nämlich zwei. Die Zahl der Ergebnisse kann nicht kleiner sein, denn eine Unterscheidung von 1 ist keine Unterscheidung und eine Selektion aus 1 ist keine Selektion. Beides ist erst möglich, wenn es zwei potentielle Ergebnisse gibt.

Sowohl Distinction wie Bit sind somit unteilbare Informationshandlungen von radikaler, nicht zu steigernder Simplizität.

Trotzdem sind sie nicht gleich und auch nicht austauschbar. Sie ergänzen sich.

Während das Bit seit 1948 einen technischen Höhenflug angetreten ist, ist seine Voraussetzung, die Unterscheidung (distinction), ungenannt im Hintergrund geblieben. Umso mehr lohnt es sich, sie heute in den Vordergrund zu rücken und so ein neues Licht auf die Grundlagen von Mathematik, Logik, Natur- und Geisteswissenschaften zu werfen.


Unterschiede

Informationsgehalt und die Entropie nach Shannon

Beide, Form und Bit, beziehen sich auf Information. In der Physik wird der quantitative Gehalt an Information als Entropie bezeichnet.

Der Informationsgehalt, wenn ein Bit gesetzt, bzw. eine Unterscheidung getroffen wird, ist auf den ersten Blick in beiden Fällen gleich gross, nämlich die Information, die zwischen zwei Zuständen unterscheidet. Das ist beim Bit ganz klar so. Sein Informationsgehalt ist, wie Shannon gezeigt hat, log2(2) = 1. Shannon hat diesen dimensionslosen Wert als 1 Bit bezeichnet. Das Bit enthält somit – nicht ganz überraschend – die Information von einem Bit. So ist es von Shannon definiert worden.

Das Bit und die Entropie

Das Bit misst nichts anderes als die Entropie. Der Begriff Entropie stammt ursprünglich aus der Wärmelehre und dient dazu, das Verhalten von Wärmemaschinen zu berechnen. Entropie ist der Partnerbegriff der Energie und gilt – wie der Begriff Energie – überall in der Physik, nicht nur in der Wärmelehre.

Was ist Entropie?

Die Entropie misst also – seit Shannon – den Informationsgehalt. Wenn ich etwas nicht weiss und es anschliessend erfahre, fliesst Entropie als Information. Wenn – bevor ich weiss, was gilt – zwei Zustände möglich sind, dann erhalte ich, wenn ich erfahre, welcher der beiden Zustände zutrifft, eine Information mit dem quantitativen Wert 1 Bit.

Wenn mehr als zwei Zustände möglich sind, steigt die Zahl der Bits logarithmisch mit der Zahl der möglichen Zustände; so braucht es drei 2-er Wahlen um aus 8 Möglichkeiten die zutreffende herauszufinden, also genau drei Bits. Die Zahl der Wahlen (Bits) verhält sich zur Zahl der Auswahlmöglichkeiten wie das Beispiel zeigt, logarithmisch.

Zweierwahl = 1 Bit = log2(2).
Viererwahl = 2 Bit = log2(4)
Achterwahl = 3 Bit = log2(8)

Der Informationsgehalt eines einzigen Bits ist stets der Informationsgehalt einer einzigen Zweierwahl, also log2(2) = 1. Das Bit als physikalische Grösse ist dimensionslos, also eine reine Zahl. Das passt, weil die Information über die Wahl neutral ist, und nicht etwa eine Länge, ein Gewicht, eine Energie oder eine Temperatur. So viel zum Bit, der technischen Einheit der des quantitativen Informationsgehaltes. Wie verhält es sich nun bei der anderen Grundeinheit von Information, der Form von Spencer-Brown?

Der Informationsgehalt der Form

Der Informationsgehalt des Bits ist genau 1, wenn die beiden Outcomes der Selektion genau gleich wahrscheinlich sind. Sobald von zwei Zuständen einer unwahrscheinlicher ist, ist die Information grösser, wenn er, trotz der geringeren Vorwahrscheinlichkeit, gewählt wird. Je unwahrscheinlicher er ist, umso grösser wird die Information, wenn die Wahl auf ihn fällt. Nur beim klassischen Bit ist die Wahrscheinlichkeit für beide Zustände per Definition gleich gross.

Das ist ganz anders bei der Form der Unterscheidung von Spencer-Brown. Das Entscheidende dabei ist der ‹unmarked space›. Die Distinktion unterscheidet etwas vom Rest und markiert es. Der Rest, also alles andere bleibt unmarkiert, Spencer-Brown nennt es den ‹unmarked space›.

Wir können und müssen nun davon ausgehen, dass der Rest, das Unmarkierte, viel grösser ist, und die Wahrscheinlichkeit seines Eintretens viel grösser ist, als die Wahrscheinlichkeit, dass das Markierte eintrifft. Der Informationsgehalt des Markierten ist deshalb immer grösser als 1.

Natürlich geht es bei der Unterscheidung um das Markierte. Deshalb wird für den Informationsgehalt der Unterscheidung das Markierte und nicht das Unmarkierte gerechnet. Wie gross ist nun der Raum des Unmarkierten? Wir tun gut daran, davon ausgehen, dass er unendlich ist. Ich kann nie wissen, was ich alles nicht weiss.

Der Unterschied im Informationsgehalt, gemessen als Entropie, ist der erste Unterschied zwischen Bit und Unterscheidung. Beim Bit ist der Informationsgehalt, d.h. die Entropie genau 1, bei der Unterscheidung kommt es darauf an, wie gross der Unmarkierte Raum gesehen wird, er ist aber stets grösser als der markierte und die Entropie der Unterscheidung ist deshalb aus mathematischen Gründen stets grösser als 1.

Geschlossenheit und Offenheit

Die Abb. 1 oben zeigt den wichtigsten Unterschied von Distinktion und Bit, nämlich ihre Grenzen gegen aussen. Diese ist beim Bit klar definiert.

Die Bedeutungen im einem Bit

Das Bit enthält zwei Zustände, von denen einer aktiviert ist, der andere nicht. Ausser diesen beiden Zuständen ist nichts im Bit zu sehen und alle andere Information befindet sich ausserhalb des Bits. Nicht einmal die Bedeutungen der beiden Zustände sind definiert. Sie können 0 und 1, Wahr undd Falsch, Positiv und Negativ oder jedes andere Paar bedeuten, das sich gegenseitig ausschliesst. Das Bit selber enthält diese Bedeutungen nicht, nur die Information, welcher der beiden Zustände gewählt wurde. Die Bedeutung der beiden Zuständen wird ausserhalb des Bits geregelt und von ausserhalb zugewiesen. Diese Neutralität des Bits ist seine Stärke. Es kann jede Bedeutung annehmen und ist deshalb überall einsetzbar, wo Information technisch prozessiert wird.

Die Bedeutung in einer Unterscheidung

Ganz anders ist das bei der Unterscheidung. Hier wird die Bedeutung markiert. Dazu wird das Innere der Unterscheidung vom Äusseren unterschieden. Das Äussere aber ist offen und es gibt nichts, was nicht dazu gehört. Der ‹unmarked space› ist im Prinzip unendlich. Eine Grenze wird definiert, doch sie ist die Unterscheidung selber. Deshalb kann sich die Unterscheidung nicht wirklich gegen aussen abgrenzen, im Gegensatz zum Bit.

Mit anderen Worten:

→  Das Bit ist geschlossen, die Unterscheidung nicht.

Unterschiede zwischen Unterscheidung und Bit


Tabelle 2: Unterschiede ziwschen Distinction (Form) und Bit

Die Unterschiede haben nun einige interessante Konsequenzen.


Konsequenzen

Bits und Offenheit in einer Software (Beispiel NLP)

Das Bit hat durch seine definierte und simple Entropie den technologischen Vorteil der einfachen Handhabbarkeit, was wir uns in der Software-Industrie zu Nutze machen. Die Forms hingegen sind durch ihre Offenheit realitätsgerechter. Für unsere konkrete Aufgabe der Interpretation von medizinischen Texten stiessen wir deshalb auf die Notwendigket, die Offenheit auch in der Bitwelt der technischen Software durch bestimmte Prinzipien einzuführen. Stichworte dazu sind:

  1. Einführung eines handelnden Subjekts, das den Input nach eigenen Internen Regeln bewertet,
  2. Arbeiten mit wechselnden Ontologien und Klassifikationen,
  3. Abkehr von der klassischen, d.h. statischen und monotonen Logik zu einer nicht-monotonen Logik,
  4. Integration der Zeit als Logikelement (nicht nur als Variable).

Mehr zum Thema Information -> Übersichtsseite Informationstheorie


 

Paradoxe Logikkerne (Teil 2)

Dieser Beitrag setzt Paradoxe Logikkerne (Teil 1) fort


«Draw a Distinction»

Mit diesen Worten führt Spencer-Brown den elementaren Baustein seiner formalen Logik ein: «Draw a Distinction» – «Zieh eine Unterscheidung». Abbildung 1 zeigt dieses sehr einfache Element der Unterscheidung oder Distinction, den formalen Baustein von Spencer-Browns Logik:

Abb 1: Die Form der Unterscheidung von Spencer-Brown

Eine extreme Abstraktion

In der Tat besteht seine Logik ausschliesslich aus diesem Baustein. Spencer-Brown ist damit eine Abstraktion gelungen, die abstrakter ist als alles, was Mathematiker und Logiker bisher gefunden hatten.

Was ist mit dieser Form nun gemeint? Spencer-Brown zielt auf einen elementaren Prozess, nämlich das ‹Ziehen einer Unterscheidung›. Dieser elementare Prozess teilt nun die Welt in zwei Teile, nämlich den Teil, der innerhalb der Unterscheidung liegt, und den Teil ausserhalb.


Abb. 2: Visualisierung der Unterscheidung

Die Teilung der Welt

Abbildung 2 zeigt, was das formale Element von Abb 1 meint: eine Teilung der Welt in das Unterschiedene (inside) und alles andere (outside). Der Winkel von Abb. 1 wird also – gedanklich – zum Kreis, der alles einschliesst, was gemeint, also unterschieden («draw a distinction») ist.

Die Winkelform von Abb. 1 meint also den Zirkel von Abb. 2, der alles umfasst, was gemeint ist.

Perfekte Beinhaltung

Weshalb aber zeichnet Spencer-Brown seinen elementaren Baustein als offenen Winkel und nicht als geschlossenen Kreis, obwohl er die Geschlossenheit meint, indem er ausdrücklich sagt: «Distinction is perfect continence», der Unterscheidung also eine perfekte Beinhaltung zuweist. Dass er trotzdem die Beinhaltung als Winkel zeigt, wird später klar werden, und sich als eine von Spencer-Browns genialen Entscheidungen erweisen. (mehr dazu im iommenden Beitrag «Imaginärer Logikwert»)

Unterscheidung von Markiert und Unmarkiert

Zudem ist es möglich, die Innenseite und die Aussenseite zu benennen, als den markierten (m=marked) und den unmarkierten (u=unmarked) Raum und diese Benennungen später in grösseren Kombination von Unterscheidungen zu verwenden.

Abb. 3: Marked (m) und unmarked (u) space

Kombinatierte Unterscheidungen

​​Um den Baustein in grösseren Logikaussagen zu verwenden, kann er nun auf verschiedene Weisen zusammengestellt werden.

Abb. 4: Drei kombinierte Formen der Unterscheidung

Abbildung 4 zeigt, wie Unterscheidungen auf zwei Arten miteinander kombiniert werden können, entweder als Aufzählung (seriell) oder als Etagierung, indem über Unterscheidungen weitere Unterscheidungen gestellt werden. Spencer Brown arbeitet mit diesen Kombinationen und leitet – ganz Mathematiker – verschiedene Schlüsse und Beweise aus wenigen Axiomen und Kanons ab. Er baut auf diese Weise ein eigenes formales mathematisch-logisches Regelwerk auf. Die Ableitungen und Beweise müssen uns hier nicht vordringlich interessieren, sie zeigen aber, wie sorgfältig und mathematisch-penibel Spencer-Brown seinen Formalismus entwickelt.

​Re-Entry

Das Re-Entry, der Wiedereintritt ist nun das, was uns zum Paradox führt. Es ist nun in der Tat so, dass Spencer-Browns Formalismus es möglich macht, den Formalismus echter Paradoxe, wie z.B des Barbierparadoxes auf ganz einfache Weise zu zeichnen. Das Re-Entry wirkt wie ein leuchtender Edelstein (sorry für die poetische Ausdrucksweise), der in logischen Netzen eine ganz spezielle Funktion übernimmt, nämlich die Verknüpfung von zwei logischen Ebenen, einer Basisebene und ihrer Metaebene.

Der Trick dabei ist, dass auf beiden Ebenen die gleiche Unterscheidung getroffen wird. Dass es sich also um die gleiche Unterscheidung handelt, aber auf zwei Ebenen, und dass sich diese eine Unterscheidung auf sich selber bezieht, von der einen Ebene auf die andere, von der Metaebene auf die Basisebene. Das ist die Form der Paradoxie.

Beispiel Barbierparadox

Wir können nun das Barbierparadox mit Hilfe der Form von Spencer-Brown notieren:

Abb. 5: Unterscheidung der Männer des Dorfes, die
sich selber (S) oder nicht selber (N) rasieren

Abb. 6: Notation von Abb. 5 als perfekte Beinhaltung

Abb. 5 und Abb. 6 zeigen das gleiche, nämlich die Unterscheidung der Männer des Dorfes in solche, die sich selber rasieren und die anderen, die das nicht tun.

Wie kommt nun der Barbier hinein? Nehmen wir an, er ist eben aufgestanden und noch unrasiert. Dann gehört er zur Innenseite der Unterscheidung, also zur Gruppe der unrasierten Männer N. Kein Problem für ihn, er rasiert sich schnell, frühstückt und geht dann an die Arbeit. Jetzt gehört er zu den Männern S, die sich selber rasieren, er muss sich also nicht mehr rasieren. Das Problem stellt sich erst am nächsten Morgen. Jetzt gehört er ja zu den Männern, die sich selber rasieren – also muss er sich nicht rasieren. Unrasiert, wie er ist, muss er sich aber jetzt rasieren. Sobald er sich aber rasiert, gehört er zur Gruppe der Selberrasierer, muss sich also nicht rasieren. So wechselt der Barbier von einer Gruppe in die andere. Es stellt sich das typische Oszillieren des Barbierparadoxes – und auch aller anderen echten Paradoxien ein, die alle oszillieren.

Wie entsteht das Paradox?

Abb. 7: Der Barbier (B) rasiert alle Männer, die sich
nicht sel
ber rasieren (N)

Abb. 7 zeigt als Basis die Unterscheidung der Männer N (rot)  und S (blau). Das ist die Basisebene. Nun kommt der Barbier (B) hinein. Auf einer logischen Metaebene wird ausgesagt, dass er die Männer N rasiert, in Abb. 7 durch den Pfeil symbolisiert.

Das Paradox entsteht zwischen der Basis- und der Metaebene. Dann nämlich, wenn gefragt wird, ob der Barbier, der ja auch ein Mann des Dorfes ist, zur Menge N oder zur Menge S gehört. Mit anderen Worten:

→ Ist  B  ein  N  oder ein  S ?

​Wenn B ein N ist, dann rasiert er sich (Abb. 7). Dadurch wird er zu einem S, also rasiert er sich nicht. Dadurch wird er zum N und rasiert sich. Das ist das Paradox und seine Oszillation.

Wie entsteht sie? Indem die beiden Ebenen verknüpft werden. Der Barbier ist ein Element der Metaebene, aber gleichzeitig ein Element der Basisebene. Der Barbier B ist auf der Metaebene ein handelndes Subjekt, auf der Basisebene aber ein Objekt. Die beiden Ebenen sind verknüpft über eine einzige Unterscheidung, doch B ist einmal Subjekt und sieht die Unterscheidung von aussen, doch gleichzeitig ist er auch ein Objekt dieser Unterscheidung, und wird dadurch als N oder S markiert. Das ist das Re-Entry. 

Das Re-Entry ist die logische Form der Paradoxie. Spencer-Browns Leistung besteht darin, dass er diese Form radikal einfach darstellt und sie formal maximal abstrahiert. Sie reduziert sich auf eine einzige Unterscheidung, die auf zwei Ebenen gelesen wird, einmal grundsätzlich (B ist N oder S) und dann als Re-Entry, wenn überlegt wird, ob B sich selber rasiert.

Das Paradox entsteht durch das Re-Entry plus eine Negation: Er rasiert die Männer, die sich nicht selber rasieren. Re-Entry und Negation gehört zwingend dazu, um ein echtes Paradox zu generieren. Sie lassen sich bei allen echten Paradoxien nachweisen, beim Barbierparadox, beim Lügnerparadox, beim Russelparadox usw.

Der Kern von jedem echten Paradox

Georg Spencer-Browns Leistung besteht darin, dass er das Paradox auf seinen essentiellen formalen Kern reduziert hat:

→ Eine (einzige) Unterscheidung mit Re-Entry und Negation.

Dieser Kern kann in jedem echten Paradox gefunden werden. Spencer-Brown’s Entdeckung von Unterscheidung und Re-Entry hat nun weitrechende Konsequenzen bezüglich Logik, aber auch weit über die Logik hinaus.

Darauf will ich gerne eingehen. Als nächstes möchte ich aber die Distinction, d.h. die Unterscheidung von Spencer-Brown als Logikelement mit einem anderen Logikelement vergleichen, das Ihnen sicher bestens bekannt ist, nämlich dem Bit.

Fortsetzung:  Unterscheidung (nach Spencer-Brown) und Bit


Frühere Beiträge zur Selbstreferenzialität und zum Re-Entry:

Selbstreferentialität 1

Selbstreferentialität 2 (Paradoxie)

Die Drei-Welten-Theorie (Roger Penrose)


Selbstreferentialität bringt klassische logische Systeme wie FOL oder Boolsche Algebra zum Absturz.

Mehr zum Thema Logik -> Übersichtsseite Logik


Paradoxe Logikkerne (Teil 1)


Logik in Praxis und Theorie

Computerprogramme bestehen aus Algorithmen, d.h. aus Anweisungen, wie und in welcher Reihenfolge eine Eingabe zu bearbeiten ist. Algorithmen sind nichts anderes als angewandte Logik und ein Programmierer ist ein praktizierender Logiker.

Doch Logik ist ein weiter Begriff. Ganz eng gefasst, ist Logik ein Teil der Mathematik, ganz weit verstanden, ist Logik alles, was mit Denken zu tun hat. Diese beiden Pole zeigen einen deutlichen Kontrast: Die Logik der Mathematik ist geschlossen und wohldefiniert, die Logik des Denkens hingegen entzieht sich gern der präzisen Beobachtung: Wie komme ich auf einen bestimmten Gedanken? Wie verbinde ich meine Gedanken beim Denken? Und überhaupt: Was habe ich eben gedacht? Während die mathematische Logik mit klaren Begriffen und Regeln funktioniert, explizit und objektiv beschreibbar, ist die Logik des Denkens schwerer fassbar. Gibt es überhaupt Regeln des richtigen Denkens, so wie es in der mathematischen Logik Regeln dafür gibt, auf richtige Weise Schlüsse zu ziehen?

Wenn ich in diesen Unterschied zwischen mathematischer Logik und der Logik des Denkens eintauche, dann fällt mir etwas sofort auf: Das Nachdenken über mein Denken entzieht sich der Objektivität. Das ist bei der Mathematik nicht so. Mathematiker versuchen jeden kleinsten Denkschritt abzusichern, auf eine Weise, die klar und objektiv und für jeden nachvollziehbar, sobald er die mathematische Sprache versteht, ganz unabhängig von seiner Person: Das Subjekt des Mathematiker bleibt draussen.

Ganz anders ist es beim Denken. Wenn ich versuche, einen Gedanken zu beschreiben, den ich im Kopf habe, ist das mein persönlicher Gedanken, ein subjektives Geschehen, das sich primär nur meinem eigenen Denken zeigt und durch Wörter oder mathematische Formeln nur beschränkt ausgedrückt werden kann.

Doch genau dieser Widerstand reizt mich. Schliesslich möchte ich ‹korrekt› denken, und dazu ist es verlockend, zu verstehen, wie korrektes Denken überhaupt funktioniert.

Ich könnte nun Regress nehmen auf die mathematische Logik. Doch das Gehirn funktioniert nicht auf diese Weise. Auf welche Weise denn? Damit habe ich mich über viele Jahrzehnte beschäftigt, in der Praxis, ganz konkret bei dem Versuch, dem Computer NLP (Natural Language Processing) beizubringen, also explizite, maschinenfassbare Regeln zu finden für das Verstehen von Texten, ein Verstehen, das eigentlich ein subjektiver und zudem schwierig zu beschreibender Vorgang ist.

Meine Computerprogramme waren erfolgreich, doch das wirklich Interessante sind die Erkenntnisse, die ich dabei über das Denken gewinnen konnte, genauer, über die Logik, mit der wir denken.

Bei meiner Arbeit gelangen mir Erkenntnisse über den semantischen Raum, in dem wir denken, die Begriffe, die sich in diesem Raum aufhalten und die Art, wie sie sich bewegen. Doch die wichtigste Erkenntnis betraf die Zeit in der Logik. Darauf möchte ich jetzt eintreten.

Echte Paradoxe

Jeder, der sich ernsthaft mit Logik beschäftigt, ob professionell oder aus persönlichem Interesse, stösst früher oder später auf Paradoxe. Ein klassisches Paradox ist z.B. das Barbier-Paradox:

Das Barbierparadox

Der Barbier eines Dorfes wird dadurch definiert, dass er alle Männer rasiert, die sich nicht selber rasieren. Rasiert der Barbier sich selber? Wenn er das tut, gehört er zu den Männern, die sich selber rasieren und die er deshalb nicht rasiert. Wenn er sich somit nicht selber rasiert, gehört er aber zu den Männern, die er rasiert, also rasiert er auch sich selber. Dadurch gehört er aber zu den Männern, die er nicht rasieren muss. Also rasiert er sich nicht – usw. Das ist das Paradox: Wenn er sich rasiert, rasiert er sich nicht. Wenn er sich nicht rasiert, rasiert er sich.

Das gleiche Muster findet sich in weiteren Paradoxien, wie dem Lügnerparadox und vielen anderen. Man könnte nun denken, dass diese Art Paradoxien sehr gesucht sind und real keine Rolle spielen. Doch die Paradoxien spielen schon eine Rolle, zumindest an zwei Orten: in der Mathematik und im Denkvorgang.

Das Russel’sche Paradox und die Unvollständigkeitssätze von Kurt Gödel

Das Russel’sche Paradox hat das ‹Loch› in der Mengenlehre gezeigt. Die «Menge aller Mengen, die sich nicht selbst als Element enthalten» folgt dem gleichen Muster wie der Barbier des Barbierparadoxes und führt zur gleichen Art von unlösbarem Paradox. Etwas komplexer sind die beiden Unvollständigkeitssätze von Kurt Gödel, die aber letztlich auf dem gleichen Muster beruhen. Sowohl Russels wie Gödels Paradoxien sind für die Mathematik folgenreich. Das Russel Paradox hat dazu geführt, dass die Mengenlehre nicht mehr allein mit Mengen gebildet werden kann, weil das zu unhaltbaren Widersprüchen führt. Zermelo hatte deshalb die Mengen mit Klassen ergänzt und so die Geschlossenheit der Mengenlehre aufgeben müssen.

Auch Gödels Unvollständigkeitssätze beruhen letztlich auf dem gleichen Muster wie das Barbierparadox. Gödel hatte gezeigt, dass jedes formale System (formal im Sinn der Mathematik) Aussagen enthalten muss, die man formal weder beweisen noch widerlegen kann. Ein harter Schlag für die Mathematik und ihre formale Logik.

Spencer-Brown und die «Laws of Form»

Russels Widerlegung des simplen Mengenbegriffs und Gödels Beweis der Unvollständigkeit formaler Logik legen es nahe, näher über Paradoxe nachzudenken. Was ist das genau für ein logisches Muster, das hinter Russels und Gödels Problemen steckt? Was macht die Mengenlehre und die formale Logik unvollständig?

Die Frage hat mich lange beschäftigt. Überraschend hat es sich dann gezeigt, dass Paradoxien nicht nur lästige Übel sind, sondern dass es sich lohnt, sie vielmehr als sinnvolle Elemente in einer neuen formalen Logik einzusetzen. Dieser Schritt wurde vom Mathematiker Georg Spencer-Brown in seinem Buch «Laws of Form» von 1969 aufgezeigt, samt einem maximal einfachen Formalismus für Logik.

Ich möchte nun näher auf die Struktur der Paradoxien eintreten, wie sie Spencer-Browns aufgezeigt hat und auf die Konsequenzen, die sich daraus auf die Logik, die Physik, die Biologie und vieles mehr ergeben.

Fortsetzung: Paradoxe Logikkerne (Teil 2)


Fünf Vorurteile über Entropie

Die fünf Vorurteile in der Übersicht

  1. Entropie ist für Nerds
  2. Entropie ist unverständlich
  3. Entropie ist Wärmelehre
  4. Entropie ist Rauschen
  5. Entropie ist absolut


Korrekturen im Detail

1. Entropie ist die Grundlage unseres Alltags

Nerds interessieren sich gern für entlegene Themen. Da passt Entropie gut hinein, nicht wahr? Blutleere Nerds stellen sich damit als intellektuell überlegen dar. Dieses Spiel wollen Sie nicht mitmachen und Sie denken, dass es keinen wirklichen oder gar praktischen Grund gibt, sich mit Entropie zu beschäftigen. Diese Haltung ist sehr verbreitet und ziemlich falsch. Entropie ist kein nerdiges Thema, sondern bestimmt ganz grundlegend unser Leben, von der elementaren Physik bis in den praktischen Alltag hinein.

Beispiele (nach W. Salm1)

  • Eine heisse Kaffeetasse kühlt sich mit der Zeit ab
  • Wasser verdunstet in einem offenen Gefäss
  • Angestossene Pendel bleiben nach einiger Zeit stehen
  • Eisen rostet
  • Magnete werden nach einigen Jahren schwächer
  • Gelerntes wird vergessen
  • Gekämmte Haare zerzausen sich
  • Weisse Hemden werden fleckig
  • Felsen zerbröckeln
  • radioaktive Elemente zerfallen

Es gäbe also genug Grund, sich mit dem überall im Alltag anzutreffenden Phänomen Entropie zu beschäftigen. Doch die meisten Leuten machen einen Bogen um den Begriff. Weshalb? Das hat vor allem mit dem zweiten Vorurteil zu tun.


2. Entropie ist ein durchaus verständlicher und unverzichtbarer Grundbegriff

Entropie erscheint auf den ersten Blick ziemlich verwirrlich, doch schwierig zu verstehen ist Entropie nur wegen den hartnäckigen Vorurteilen 4 und 5. Diese beiden weit verbreiteten Vorurteile sind die Schwelle, die den Begriff Entropie unverständlich erscheinen lassen. Die Schwelle zu überwinden lohnt sich und hilft nicht nur, viele reale und praktische Phänomene zu verstehen, sondern wirf auch ein Licht auf die Grundlagen, welche unsere Welt zusammenhalten.


3. Entropie spielt überall in der Natur eine Rolle

Der Begriff Entropie zwar stammt aus der Wärmelehre. Doch davon sollten wir uns nicht täuschen lassen. In Wrklichkeit ist Entropie etwas, was es überall in der Physik, in der Chemie, der Biologie und auch in der Kunst, z.B. der Musik gibt. Es ist ein allgemeiner und abstrakter Begriff und er bezieht sich ganz direkt auf die Struktur von Dingen und auf die Information, die in ihnen steckt.

Historisch gesehen wurde der Begriff vor ca. 200 Jahren in der Wärmelehre eingeführt und mit der Möglchkeit, Wärme (Energie) fliessen zu lassen, verbunden. Er half, die Wirkweise von Maschinen (Otto-Motoren, Kühlschränke, Wärmepumpen, etc.) zu verstehen. So wird der Begriff heute noch  an den Gymnasien unterrichtet.

Doch die Wärmelehre zeigt nur einen Ausschnitt von dem, was Entropie ist. Seine allgemeine Natur wurde erst 1948 von C.E. Shannon2 beschrieben. Die allgemeine Form von Entropie, auch als Shannon- oder Informationsentropie bezeichnet, ist die eigentliche, d.h. die grundsätzliche Form. Die Wärmeentropie ist ein Spezialfall.

Durch ihre Anwendung auf Wärmeflüsse In der Thermodynamik bekam die Entropie als Wärmeentropie eine konkrete physikalische Dimension, nämlich J/K, d.h. Energie/Temperatur. Doch das ist der Spezialfall Wärmelehre, in der es um Energien (Wärme) und Temperatur geht. Wenn die Entropie ganz allgemein und abstrakt verstanden wird, ist sie dimensionslos, eine reine Zahl.

Dieser Zahl hat Shannon als Entdecker der abstrakten und allgemeinen Informationsentropie einen Namen gegeben, das «Bit». Mit dem dimensionslosen Bit konnte Shannon als Ingenieur der Telefongesellschaft Bell den Informationsfluss in den Telefondrähten berechnen. Seine Informationsentropie ist dimensionslos und gilt nicht nur in der Wärmelehre, sondern überall, wo Information und Flüsse eine Rolle spielen.


4. Entropie ist die Differenz zwischen Nichtwissen und Wissen

Viele von uns haben in der Schule gelernt, dass Entropie ein Mass für das Rauschen und das Chaos ist. Der zweite Hauptsatz der Physik sagt uns zudem, dass Entropie stets nur zunehmen kann. Doch das Identifizieren von Entropie mit Rauschen oder gar Chaos ist irreführend.

Dabei gibt es gute Gründe dafür: Wenn ich einen Würfelzucker in den Kaffee werfe, löst sich seine wohldefinierte Kristallstruktur auf, die Moleküle verteilen sich ungeordnet in der Flüssigkeit und der Zucker zeigt einen Übergang von geordnet zu ungeordnet. Dieser Zerfall von Ordnung lässt sich überall in der Natur beobachten. Physikalisch gesehen ist es die Entropie, die gemäss dem zweiten Hauptsatz den Zerfall von Ordnung antreibt. Und Zerfall und Chaos sind wohl kaum mit Shannons Informationsbegriff gleichzusetzen. So dachten auch viele Wissenschaftler und setzten deshalb Information mit Negentropie (Entropie mit negativem Vorzeichen) gleich. Das passt auf den ersten Blick nicht schlecht. Entropie ist in dieser Sichtweise Rauschen und Abwesenheit von Rauschen, d.h. Negentropie, wäre dann die Information. Eigentlich logisch, nicht wahr?

Nicht ganz, denn Information steckt sowohl im Würfelzucker wie in den aufgelösten, im Kaffee schwimmenden Zuckermolekülen. In den einzel schwimmenden Molekülen steckt in gewisser Weise sogar mehr Information, weil sie sich unabhängig voneinander bewegen. Diese Bewegung ist Information. Das Problem ist unsere konventionelle Vorstellung von Information. Unsere Vorstellung ist zu statisch. Ich schlage vor, dass wir uns davon lösen und Entropie als etwas ansehen, was einen Fluss bezeichnet, nämlich den Fluss zwischen Nichtwissen und Wissen. Diese Dynamik ist kennzeichnend für das Lernen, für das Aufnehmen von neuer Information.

Jede Sekunde geschieht im Kosmos unglaublich vieles, was man wissen könnte. Die Information in der Gesamtwelt kann nur zunehmen. Das sagt auch der zweite Hauptsatz, und was zunimmt ist die Entropie, nicht die Negentropie. Wäre es da nicht viel naheliegender, Information mit Entropie und nicht mit Negentropie parallel zu setzen? Mehr Entropie würde dann mehr Information bedeuten und nicht mehr Chaos.

Wo steckt nun die Information? Im Rauschen oder in der Abwesenheit von Rauschen? In der Entropie oder in der Negentropie?

Zwei Levels

Nun, das Dilemma lässt sich lösen. Der entscheidende Schritt ist, zu akzeptieren, dass Entropie die Spannung zwischen zwei Zuständen ist, dem Übersichts- und dem Detailzustand. Der Übersichts-Blick benötigt die Details nicht, sondern sieht nur die grossen Linien. C.F. Weizsäcker spricht vom Makrolevel. Die grossen Linien sind die Informationen, die uns interessieren. Details hingegen erscheinen uns als unwichtiges Rauschen. In den Details, d.h. im Mikrolevel, steckt aber mehr Information, meist eine ganze Menge mehr, man nehme nur die Bewegungen der Wassermoleküle in der Kaffeetasse (Mikrolevel), in deren chaotischem Gewusel mehr Information steckt als in der einen Angabe der Temperatur des Kaffees (Makrolevel). Beide Levels sind verbunden und ihre Informationen hängen auf komplexe Weise voneinander ab. Die Entropie ist nun die Differenz zwischen den beiden Informationsmengen. Diese ist auf dem Detaillevel (Mikrolevel) stets grösser, denn es gibt in den Details stets mehr zu wissen als in den grossen Linien und deshalb auch mehr Information

Weil die beiden Level sich aber auf das gleiche Objekt beziehen, kann ich als Beobachter die Details oder das grosse Ganze anschauen. Beides gehört zusammen. Der Informationsgewinn an Details bezeichnet den Übergang vom Makro- zum Mikrolevel, der Informationsgewinn an Übersicht die umgekehrte Richtung.

Wo liegt nun die wirkliche Information? Auf dem Detaillevel, wo ganz viele Details beschreibbar sind, oder auf dem Übersichtslevel, wo die Informationen so zusammengefasst und so vereinfacht sind, wie sie uns wirklich interesseren?

Die Antwort ist einfach: Information enthält beides, sowohl das Makro- wie das Mikrolevel. Die Entropie ist der Übergang zwischen den beiden Levels und je nachdem, was uns interessiert, können wir den Übergang der Blickrichtung in die eine oder in die andere Richtung vornehmen.

​Beispiel Kaffeetasse

Klassisch zeigt sich das in der Wärmelehre. Die Temperatur meines Kaffees kann gesehen werden als Mass für die durchschnittliche Bewegungsenergie der einzelnen Flüssigkeitsmoleküle in der Kaffeetasse. Die Information, die in den vielen Molekülen steckt ist der Mikrozustand, die Temperatur der Makrozustand. Entropie ist das Wissen, das im Makrozustand fehlt, im Mikrozustand aber vorhanden ist. Aber für mich als Kaffeetrinker ist nur das Wissens des Makrozustandes, der Temperatur des Kaffees, relevant. Dieses ist im Mikrozustand insofern nicht vorhanden, als es nicht an einem einzelnen Molekül hängt, sondern statistisch an der Gesamtheit aller Moleküle. Erst im Makrozustand wird das Wissen über die Temperatur erfahrbar.

Für uns zeigt nur der Makrozustand eine relevante Information. Doch auch im Rauschen steckt Information. Wie genau sich die Moleküle bewegen, ist ganz klar eine Menge an Information, doch diese Details spielen für mich keine Rolle, wenn ich Kaffee trinke, nur ihre durchschnittliche Geschwindigkeit macht die Temperatur des Kaffees aus, auf die es für mich ankommt.

Der informationsreichere und sich stetig ändernde Mikrozustand steht mit der einfachen Makroinformation der Temperatur aber in einer komplexen Beziehung. Auch der Makrozustand beeinflusst den Mikrozustand, nicht nur umgekehrt, denn die Moleküle müssen sich im statistischen Rahmen bewegen, den die Temperatur vorgibt. Beide Informationen hängen voneinander ab und sind gleichzeitig im Objekt objektiv vorhanden. Nur das Betrachtungslevel ist unterschiedlich. Die Differenz der Informationsmenge in der Beschreibung der beiden Levels bestimmt die Entropie und ist ein Mass für die Information.

Diese Verhältnisse sind spätestens seit Shannon2 und C.F. Weizsäcker bestens bekannt. In den Schulen wird aber meist noch gelehrt, dass Entropie ein Mass für Rauschen ist. Das ist falsch. Entropie ist immer als Delta zu verstehen, als einen Differenz (Abstand) zwischen der Information in der Übersicht (Makrozustand) und der Information in den Details (Mikrozustand).


5. Entropie ist ein relativer Wert

Aus der Tatsache, dass Entropie immer ein Abstand, ein Delta, d.h. mathematisch eine Differenz ist, folgt auch die Tatsache, dass Entropie kein absoluter, sondern stest ein relativer Wert ist.

Beispiel Kaffeetasse
Als Beispiel nehmen wir die Kaffeetasse. Wieviel Entropie steckt da drin? Wenn wir nur die Temperatur anschauen, dann entspricht der Mikrozustand der durchschnittlichen Bewegungsenergie der Moleküle. Doch die Kaffeetasse enthält noch mehr Information: Wie stark ist der Kaffee? Wie stark gesüsst? Wie stark ist die Säure? Welche Geschmacksnoten enthält er?

Beispiel Schulhaus
Salm1 bringt das Beispiel einer Haarspange, die eine Schülerin in der Schule sucht. Wenn ich weiss, in welchem Schulzimmer die Spange ist, habe ich sie dann schon gefunden? Der Mikrozustand benennt in diesem Moment nur das Zimmer. Wo im Zimmer liegt die Spange? Vielleicht in einem Gestell? In welchem? In welcher Höhe? In welcher Schublade, welchem Karton? Der Mikrozustand lässt sich variabel präzis einstellen.

Weil die Informationsentropie stets eine Differenz ist, ist die Entropie, d.h. die Spanne zwischen Übersicht und Details stets erweiterbar auf noch mehr Details.

Die Entropie ist ein relativer Wert. Wenn wir sie absolut angeben, setzen wir – ohne das explizit zu deklarien – ein tiefstes Level (Klassenzimmer, Regal oder Schublade) fest. Das ist legal,  solange wir uns bewusst sind, dass der scheinbar absolute Wert nur den Abstand zum angenommenen Mikrolevel darstellt.

Statik und Dynamik 

Energie und Entropie sind zwei komplementäre Grössen, welche die ganze Naturbeschreibung (Physik, Chemie, Biologie) durchziehen. Die beiden Hauptsätze der Physik enthalten je einen der beiden allgemeinen Grössen E (Energie) und S (Entropie):

  1. Satz:  E = 0
  2. Satz:  ∆S ≥ 0

Die Energie bleibt im Lauf der Zeit (im geschlossenen System) konstant, die Entropie kann nur zunehmen. Mit anderen Worten: Energie ist ein statischer Wert und zeigt, was sich nicht ändert, während Entropie essentiell dynamisch ist und Flüsse anzeigt, z.B. in den Wärmemaschinen, in Shannons Strom in Telefondrähten und immer dann, wenn unsere Gedanken fliessen und wir lernen und denken.

Entropie und Zeit

Entropie ist durch den zweiten Hauptsatz (∆S ≥ 0) essentiell mit dem Phänomen Zeit verbunden. Während die Energie im geschlossenen System konstant bleibt (Noethers Theorem), ändert sich in der Zeit die Entropie und nimmt im geschlossenen System zu. Entropie kennt also die Zeit, nicht nur die Wärmeentropie im Speziellen, sondern auch die viel allgemeinere Informationsentropie.


Fazit

  • Entropie ist ein Schlüsselbegriff. Er verbindet Physik und Information.
  • Entropie stammt aus der Wärmelehre, bezieht sich aber auf Information im Allgemeinen.
  • Die Wärmeentropie ist der Spezialfall, die Informationsentropie ist der allgemeine Begriff.
  • Alles, was physikalisch, chemisch und in der Informationsverarbeitung, ob technisch oder biologisch, geschieht, hat mit Entropie zu tun. Insbesondere alles, was mit Informationsflüssen und -strukturen zu tun hat. Mit anderen Worten: Alles, was uns wirklich interessiert.
  • Entropie ist immer relativ und bezieht sich auf den Abstand zwischen dem Makro- und dem Mikrolevel.
  • Das Makrolevel enthält weniger Information als das Mikrolevel
  • Das Makrolevel enthält die Information, die interessiert.
  • Beides ist nicht absolut: Das Mikrolevel kann immer noch detaillierter geschildert werden. Das Makrolevel wird von aussen definiert: Was interessiert? Die Temperatur des Kaffees? Die Konzentration der Zuckermoleküle? Die Säure? Der Koffeingehalt …
  • Erst die Definition der beiden Zustände erlaubt es, die Entropie scheinbar absolut anzugeben. Doch was für die Entropie zählt, ist der relative Wert, das heisst das Delta zwischen den beiden Zuständen. Dieses Delta, die Entropie, bestimmt den Fluss.
  • Der Fluss geschieht in der Zeit.

1 Salm, W: Entropie und Information – naturwissenschaftliche Schlüsselbegriffe, Aulis Verlag Deubner, Köln, 1997

2 Shannon, C.E. und Weaver W: The Mathematical Theory of Information, Illinois Press, Chicago, 1949


Das ist ein Beitrag zum Thema Entropie. Siehe -> Übersichtsseite Entropie


 

Künstliche Intelligenz: Daniel Kehlmann und CTRL

Ist künstliche Intelligenz intelligent? Oder kann sie es werden?

Der bekannte Schriftsteller Daniel Kehlmann («Die Vermessung der Welt») hat letztes Jahr mit einem Sprachalgorithmus (CTRL) in Silicon Valley  zusammen den Versuch unternommen, eine Kurzgeschichte zu schreiben. Fasziniert und gleichzeitig kritisch berichtet er über dieses aufschlussreiche Experiment.

CTRL

Das Programm CTRL ist ein typisches corpusbasiertes KI-System, d.h. ein System mit einer grossen Datensammlung – dem Corpus – und einem statistisch funktionierenden Auswertungsalgorithmus. Konkret haben die Betreiber den Corpus von CTRL mit Hunderttausenden von Büchern, Zeitungen und Online-Foren gefüttert, wodurch das System auf ein Gedächtnis aus Abermillionen von Sätzen zurückgreifen kann. Die Auswertung dieses Datenschatzes erfolgt aufgrund der Wahrscheinlichkeit: Wenn statistisch auf Wort A das Wort B das wahrscheinlichste ist, bringt das System nach Wort A auch das Wort B. Dank des immensen Corpus kann sich das System darauf verlassen, dass A nach B für uns durchaus eine wohlklingende Fortsetzung des Textes ist. Die schiere Wahrscheinlichkeit ist ist das Prinzip jeder korpusbasierten KI.

Natürlich ist anzunehmen, dass die Betreiber nicht nur die unmittelbaren Nachbarwörter berücksichtigen, sondern die Tiefenschärfe um das Ausgangswort weitreichender einstellen, also mehr Kontext berücksichtigen, doch stets gilt auch bei der Fortschreibung des gemeinsamen Textes durch Kehlmann und CTRL, dass der Algorithmus den bisher geschriebenen Text mit seinem grossen Corpus vergleicht und dann die Fortsetzung basierend auf der Wahrscheinlichkeit in seinem Korpus vorschlägt. Dadurch wird uns die Fortsetzung stets irgendwie vertraut und möglich vorkommen. – Wird sie aber auch sinnvoll sein? Wir kommen hier an die Grenzen jeder corpusbasierten Intelligenz: Das Wahrscheinlichste ist nicht immer das Beste.

Die Grenzen von CTRL

Daniel Kehlmann beschreibt die gemeinsame kreative Welt, die er zusammen mit dem Programm CTRL erkundet hat, gleichzeitig fasziniert und kritisch. Kritisch vermerkt er u.a. folgende Mängel:

a) Abstürze des Algorithmus
Beim Experiment ist es nicht gelungen, eine Kurzgeschichte über eine bestimmte Länge weiterzuschreiben; offenbar war dann der Algorithmus rechnerisch nicht in der Lage, die Informationen der bisherigen Geschichte kohärent mit dem Corpus zusammenzubringen. Sobald die Geschichte über einige Sätze hinausging, stürzte das Programm regelmässig unrettbar ab – Ende der Gesichte.

Meines Erachtens ist das kein KO-Kriterium, denn Abstürze eines neuen Programms sind stets zu erwarten (ich weiss, wovon ich spreche … ). Zudem erwecken solche Abstürze stets den Eindruck, als könnten sie mit noch besserer Hardware und robusteren Algorithmen überwunden werden.

Doch dies ist m.E. hier nicht der Fall. Ich glaube vielmehr, dass diese Abstürze einen grundsätzlichen Schwachpunkt der corpusbasierten KI offenbaren, der auch mit verbesserter Hardware und besseren Auswertungsalgorithmen nicht angegangen werden kann. Der Mangel liegt vielmehr prinzipiell in der wahrscheinlichkeitsbasierten Anlage dieser corpusbasierten Programme. Je mehr Kontext (Tiefenschärfe) sie berücksichtigen müssen, umso grösser muss ihr Corpus werden. Doch der Bedarf an Daten und Rechenpower wächst, wenn es um die Vergrösserung des Kontexts geht, nicht linear, sondern exponentiell. Selbst wenn der riesige Corpus und die immense Rechenpower von CTRL weiter vergrössert werden würden, stösst ein solches Programm systembedingt immer und rasch an seine Grenzen.

Um Sinn und Bedeutung einzufangen, braucht es grundsätzlich andere Methoden, solche, die Bedeutung nicht indirekt aus statistischen Daten ausmitteln, sondern sie direkt repräsentieren und behandeln. Erst dann können die Programme direkt mit Bedeutung umgehen.

b) Zweitverwertung
CTRL kennt nichts Neues, dafür Abermillionen alter Sätze. Dies birgt die Gefahr des «Garbage In, Garbage Out». Wenn Fehler oder Schwächen in den bisherigen Texten vorhanden sind, können sie auch in den Sätzen von CTRL auftauchen. Diese Gefahr ist zwar an sich klein, denn durch die grosse Menge an Sätzen wird es wahrscheinlicher, dass gleiche korrekte Sätze auftauchen als gleiche falsche, und somit wird CTRL sicher nur grammatikalisch, oder mindestens umgangssprachlich korrekte Sätze liefern. Doch trifft dies auch auf den Inhalt zu?

Wenn mehrere Menschen den gleichen Fehler machen, wird er dadurch zwar nicht korrekt, aber für eine corpusbasierte KI wird er so salonfähig. Rechtsextreme Messanger wird CTRL zwar kaum als bevorzugte Quelle benutzen, doch es geht nicht nur darum, gefährlichen Nonsens zu vermeiden. Vielmehr wollen wir spannende neue Geschichten. Wir wollen im CTRL-Projekt Kreativität und neue Ideen. Geht das mit einer Zweitverwertung?

c) Fehlende innere Logik
Die gewünschte Kreativität kann zwar durch Zufall simuliert werden. Wenn zwei für uns unzusammenhängende Informationen in einen direkten Zusammenhang gesetzt werden, sind wir erst einmal überrascht. Wir horchen auf und hören die Geschichte weiter. Aber macht das Zusammengebrachte auch Sinn? Folgt es einer inneren Logik? – Wenn es rein zufällig ist, tut es das nicht, dann fehlt die innere Logik.

Zufall ist nicht Kreativität. Erst wenn ein logischer Zusammenhang zwischen den Zufällen gefunden wird, entsteht eine funktionierende Geschichte. Diese innere Logik fehlt einem corpusbasierten Programm prinzipiell.

Fazit 

Daniel Kehlmann hat seine Erfahrungen präzis und gut nachvollziehbar beschrieben. Er erlebte das Experiment als faszinierend und war oft positiv von den Inputs von CTRL überrascht. Trotzdem stellt er fest, dass CTRL entscheidende Schwächen hat und verweist insbesondere auf den fehlenden narrativen Plan, welcher eine Geschichte zusammenhält.

Für jeden, der sich mit künstlicher Intelligenz vorurteilsfrei beschäftigt hat, ist die Erfahrung Kehlmanns eine lebhafte Bestätigung der eigenen Erfahrungen. Ich habe mich beruflich intensiv mit Computerlinguistik beschäftigt, d.h. mit der Frage, wie Computer natürliche Sätze intelligent interpretieren können. Dabei wird klar: Verständnis von Texten baut auf einem inneren Bezugssystem auf. Über dieses Bezugssystem verfügt jeder menschliche Schriftsteller – aber das KI-System nicht. Das korpusbasierte KI-System kennt nur die Wahrscheinlichkeiten von Signalen (Wörtern), ohne ihre wirkliche Bedeutung zu erfassen. Das ist das Problem.

Dem KI-System fehlt insbesondere Absicht und Bewusstsein. Die Absicht kann zwar durch die Betreiber von aussen vorgegeben werden – z.B. bestimmte Zellen in einem medizinischen Blutausstrich zu erkennen oder möglichst viel Traffic auf einer Suchmaschine zu erzielen – doch ein wirkliches Bewusstsein eines Programms würde ein Nachdenken über die eigene Absicht beinhalten. Eine corpusbasierte Intelligenz aber denkt überhaupt nicht nach – schon gar nicht über die eigene Absicht – sondern rechnet nur aus, was in seinem Datenpool das Wahrscheinlichste ist.

Das Experiment von Daniel Kehlmann ist deshalb lehrreich, weil es konkret, genau und verständlich Programmierern und Nicht-Programmierern die Grenzen der künstlichen Intelligenz aufzeigt.

Kurzfassung des Fazits

KI ist faszinierend und in vielen Anwendungen ausserordentlich nützlich, aber eines ist künstliche Intelligenz mit Sicherheit nicht: auf kreative Weise wirklich intelligent.

Mehr zu Daniel Kehlmanns und CTRL

Die Dur-Tonleiter bringt Spannung in die Resonanzen

Die Dur-Tonleiter

Die Dur-Tonleiter (ionisch) ist in Europa und auch global mit Abstand die weitest verbreitete Tonleiter. Es handelt sich um eine Heptatonik, also um eine Tonleiter mit sieben Tönen. Sie zeichnet sich durch ganz besondere Resonanzverhältnisse aus, die ihre weltweite Wertschätzung gut erklären können.

Unten habe ich die Töne der C-Dur Tonleiter aufgezeichnet, von unten nach oben aufsteigend und jeweils rechts von jedem Ton sein Intervall zum Grundton. Selbstverständlich ist dieses Intervall das, was die Tonleiter ausmacht. Man könnte die Tonleiter auch auf jedem anderen Ton beginnen und nur von den Intervallen (Sekunde, Terz usw.)  sprechen, da es zur Beschreibung der Tonleiter nur auf die Abstände zwischen den Tönen ankommt. Ich verwende hier jedoch die Töne der C-Dur-Tonleiter, einfach weil das anschaulicher ist und Sie das auch leichter am Klavier oder einem anderen Instrument nachvollziehen können.

Das Intervall bezeichnet das Verhältnis der Frequenzen des jeweiligen Tonleitertons zur Frequenz des Grundton. Dieses Intervall liegt bei jeder Tonleiter immer zwischen 1 (Grundton) und 2 (Oktave). Wir geben es in Form eines Bruchs an.

C      2
H      15/8
A      5/3
G      3/2
F      4/3
E      5/4
D      9/8
C      1

Tab. 1: Die C-Dur-Tonleiter

Die Brüche erlauben uns zu erkennen, was das Typische der Dur-Tonleiter ist. Sehr gut lässt sich zeigen, dass das, was wir subjektiv hören (mentale Welt) ganz parallel läuft zu dem läuft, was in der konkreten Materie (physikalische Welt) geschieht und zu dem, was wir mathematisch mit einfachen Brüchen darstellen können (platonische Welt). Erneut stellt heraus, dass die drei Welten (nach Penrose) auf dem Gebiet der Musik perfekt zusammenspielen.

Alle Töne sind resonant zum Grundton

In einem Vorbeitrag habe ich Resonanzkriterien für Tonleitertöne aufgestellt Mit diesen Kriterien erhalten wir 10 Töne, welche jeweils zum Grundton eine starke Resonanz haben. Die Dur-Heptatonik besteht – wie auch die Standard-Pentatoniken – aus einer Auswahl aus diesen zehn am stärksten resonanten Tönen. Somit können wir davon ausgehen, dass die Dur-Tonleiter generell gesehen schon in sich eine starke Resonanz aufweist. Doch nicht jeder Ton ist gleich resonant zum Grundton. Und besonders unter sich sind die Töne sehr unterschiedlich resonant. Hier wird nun die Geschichte interessant. Als erstes schauen wir den Unterschied von der Dur-Heptatonik zur Dur-Pentatonik an.

Die Dur-Heptatonik als Erweiterung der Dur-Pentatonik 

Die Standard-Pentatoniken sind die am stärksten resonanten Tonleitern überhaupt und die resonanteste von ihnen ist die Dur-Pentatonik. Die Dur-Heptatonik kann man als Erweiterung der Dur-Pentatonik sehen. Beide Tonleitern sind Subsets der zehn resonantesten Töne:

Tabelle 2:Vergleich der Dur-Pentatonik mit der Dur-Heptatonik

Die Töne, die die Heptatonik im Vergleich zur Pentatonik neu aufnimmt, erklären den Unterschied. Während die Pentatonik durchgehend resonant ist und alle Töne beliebig gemischt werden können ohne dass Spannungen auftreten, ist das bei der Heptatonik nicht mehr so. Die beiden Töne, die neu dazukommen, das F und das H, bringen die notwendige Spannung hinein, damit die Sache interessant wird.

Als erstes fällt auf, dass mit dem H der Ton dazukommt, der unter den zehn resonantesten Tönen derjenige mit den höchsten Zahlen in Zähler und Nenner ist. Somit ist er von allen zehn resonanten der Ton mit der schlechtesten Resonanz zum Grundton, also der spannungsgeladenste. Dies betrifft das Verhältnis zum Grundton.

Doch auch das Verhältnis der Tonleiter-Töne untereinander spielt in der Tonleiter eine wichtige Rolle. Wir rechnen es aus, indem wir das Frequenzverhältnis des oberen Tons durch dasjenige des unteren teilen (Grund dafür siehe in der Appendix). Die beiden neu in die Heptatonik aufgenommenen Töne, nämlich das F und das H erzeugen nun rechnerisch und hörbar eine Spannung, wie sie in der Pentatonik bisher nicht vorkommt. Wenn wir z.B. das F zusammen mit dem E erklingen lassen, dann ergibt das ein Frequenzverhältnis von 4/3 : 5/4 = 16/15, ein Bruch, der auf eine schwer zu erreichende Resonanz hinweist. Ähnlich ergeht es dem H neben dem oberen C, hier ist das Verhältnis 2 : 15/8 = 16/8 : 15/8  = 16/15. Zwischen dem H und dem C besteht somit das gleiche spannungsgeladene Intervall wie zwischen dem E und dem F. Das Intervall zwischen dem F und dem H ist nochmals heikler, hier ist der Bruch 15/8 : 4/3 = 45/32.

Spannung und Entspannung

Schlechte Resonanz bedeutet Spannung, da die beiden Töne sich nicht so leicht verbinden. Das empfinden wir subjektiv (mentale Welt), wie Sie leicht testen können, indem sie auf einem Klavier gleichzeitig ein E und ein F anschlagen und das Resultat vergleichen mit dem gleichzeitigen Erklingen z.B. von E und G. Das E und das F reiben sich mehr. Die Mathematik der Frequenzverhältnisse wirkt sich physikalisch als kleinere oder grössere Bereitschaft aus, eine Resonanz einzugehen und das hören wir.

Musikalisch ist die Spannung aber nicht uninteressant. Die Dur-Pentatonik ohne F und H erscheint uns zwar ruhig und harmonisch, aber auch ein bisschen langweilig. Die Dur-Heptatonik hingegen enthält kleine Pfefferkörner, welche eine spannende Schärfe hineinbringen, ähnlich wie Peperoncini in den Speisen. Die Schärfe spüren Sie im Mund aber noch lange nach, während in der Musik die Schärfe ganz präzis ein- und ausgeschaltet werden kann, einfach in dem Sie den spannungsreichen Ton durch eine ruhigen, d.h. problemlos resonanten austauschen. Dieses Spiel von Spannung und Entspannung wird in der Musik ausgiebig benützt.

Die Dur-Heptatonik als Subset der zehn resonantesten Töne

Wie in Tabelle 2 dargestellt, ist die Durtonleiter eine Auswahl von sieben Tönen aus der Liste der zehn resonantesten Töne. Diese Auswahl hat es in sich. Ich werde gleich auf die mathematischen Gegebenheiten eingehen, die sich aus ihr ergeben. Vermutlich werden Sie nicht überrascht sein, dass diese mathematischen Gegebenheiten erneut mit unserem Hörerleben parallel gehen. Schauen wir zuerst, welche Töne im Dur fehlen, es sind dies Es, As und B. Wie immer schauen wir die Brüche dieser drei Intervalle an: 6/5, 8/5 und 9/5. Sofort fällt uns auf, dass alle diese Brüche den Nenner 5 haben. Die Töne der Dur-Heptatonik hingegen kennen keinen Nenner 5.

Nenner wegkürzen

Diese Tatsache des fehlenden Nenners 5 erleichtert die Resonanzen innerhalb der Tonleiter. Wenn zwei Töne den gleichen Nenner haben, kürzt sich dieser weg, wenn wir beide Töne gleichzeitig erklingen lassen. Das Intervall der beiden Töne bekommt so schneller eine Resonanz. Wenn hingegen verschiedene Nenner vorhanden sind, wird die Resonanz erschwert. Aber auch unterschiedliche Nenner lassen sich kürzen, wenn sich die beiden Zahlen durcheinander teilen lassen.

Dazu führen wir eine Primzahlzerlegung durch und erkennen z.B, dass in der Dur-Tonleiter die grosse Sept und die grosse Terz untereinander perfekt resonant sind: Wir vergleichen (teilen) die grosse Sept durch die grosse Terz und erhalten: 15/8 : 5/4 = 3/2, also ein perfekt resonantes Intervall, nämlich die Quinte.

Dies ist möglich weil der Nenner 8 und der Nenner 4 bei der Primzahlzerlegung beide zweimal die Primzahl 2 enthalten (8=2x2x2 und 4=2×2). Somit kürzt sich die 2 zweimal weg. Ähnliches geschieht wo immer möglich auch bei den beiden Zählern.

Aus diesem Grund ist es «klug» von der Dur-Tonleiter, dass sie gerade auf alle Töne mit dem Nenner 5 verzichtet. So stört die 5 nie, und Kürzungen sind besser möglich. Und gekürzte Brüche in den Frequenzverhältnissen bedeuten physikalisch und mental eine bessere Resonanz.

Resonanz der Gesamtheit aller Tonleitertöne

Wir können das Kürzungsverhalten der Gesamtheit aller Töne in einer Tonleiter grob abzuschätzen, indem wir das kgV (kleinste gemeinsame Vielfache) aller Nenner ausrechnen, so wie wir das bereits bei den Pentatoniken getan haben. Die Töne der Dur-Heptatonik weisen nun ein fast unschlagbar tiefes kgV von 24 aus, es ist sogar genau das gleiche wie bei der Dur-Pentatonik mit zwei Tönen weniger.

Dieses kleine kgV rührt natürlich ebenfalls daher, dass wir keine Töne mit Nenner 5 aufgenommen haben, sonst müssten wir das kgV mit 5 vervielfachen und kämen auf 120.

Das kgV ist nützlich,  sagt aber nicht alles

Das kgV zeigt aber nicht das ganze Resonanzverhalten der Tonleiter. Es ist nur ein Mass für die Resonanz aller Tonleitertöne zum Grundton, sagt aber nichts aus zu den Resonanzen der Tonleitertöne untereinander. So kommen wir im Beispiel oben für F und H auf ein Frequenzverhältnis von 45/32, d.h. auch wenn die Töne zum Grundton gut resonant sind, können sie unter sich spannungsgeladen sein.

Das ist aber kein Schwachpunkt, sondern macht die Tonleiter im Gegenteil interessant. Die Dur-Heptatonik ist in dieser Hinsicht eindeutig interessanter als die Dur-Pentatonik, obwohl beide das gleiche kgV haben.

Trotzdem ist das kgV aber ein valabler grober Gradmesser für die grundsätzlichen Resonanz-Möglichkeiten in der Tonleiter, denn bei hohem kgV, d.h. wenn sich die Nenner nicht kürzen lassen, sind die Dissonanzen auf jeden Fall schärfer.

Dreiklänge in der Durtonleiter

Wir wenden nun unsere Resonanz-Überlegungen auf drei gleichzeitig erklingende Töne an.  Analysieren wir z.B. den Dreiklang von C, E und G. Die Frequenzen sind (siehe Tabelle 1): 1 – 5/4 – 3/2. Um das Verhältnis aller drei Töne zueinander zu berechnen, müssen wir alle drei auf gleichen Nenner setzen. Genau dafür brauchen wir wieder das kgV, und dieses ist hier 4. Wir bekommen so aus 1 – 5/4 – 4/2  zu einem Verhältnis von 4/4 – 5/4 – 6/4. Den gemeinsamen Nenner 4 können wir gleich wegkürzen und das Verhältnis der Frequenzen von C-E-G ist somit 4 – 5 – 6.

Dies ist das resonanteste Verhältnis, das in einem Ensemble von drei verschiedenen Tönen überhaupt möglich ist. Beim Dreiklang C-E-G handelt es sich um den einfachen und allen wohlbekannten Dur-Dreiklang. Auf dem Klavier ist er durch die Temperierung etwas gestört, aber auch so können Sie leicht selber austesten, wie eingängig dieser Dreiklang ist. Kein Wunder spielt er in der Pop- und Volksmusik eine derart überragende Rolle.

Drei Dur-Dreiklänge in der Dur-Heptatonik

Die Dir-Heptatonik aber enthält den Dur-Dreiklang aber nicht nur einmal, sondern gleich dreimal. Schauen Sie die Töne F – A – C an, in Brüchen 4/3 – 5/3 – 2, oder alle Töne auf den gemeinsamen Nenner 3 gesetzt: 4/3 – 5/3 – 6/3, also wiederum 4 – 5 – 6. Hier sieht man erneut den Nutzen, den gemeinsame Nenner (hier 3) für die Resonanzen darstellen. Die Dur-Heptatonik hat also gut daran getan, den Ton F hineinzunehmen, der einen zweite Dur-Dreiklang ermöglicht.

Aber auch das H ist gut gewählt, denn zum dritten Mal gibt dadurch den Dur-Dreiklang in der Dur-Heptatonik. Wir starten diesmal mit dem G und nehmen das H hinzu. Als drittes nehmen wir das D, dieses eine Oktave höher als gewohnt, also gleich über dem höheren C. Dazu müssen wir (siehe Rechenregeln) das 9/8 des D mit 2 multiplizieren und bekommen 9/4. Dieser Bruch ist grösser als 2, liegt also bereits über der Oktave. Schauen wir jetzt die Töne G – H – D an, die Frequenzen sind: 3/2 – 15/8 – 9/4. Mit dem kgV=8 bekommen wir: 12/8 – 15/8 – 18/8. Wir können nun Zähler und Nenner kürzen und erhalten wieder 4 – 5 – 6, also das gleiche Verhältnis wie oben, d.h. den gleichen perfekt resonanten Dur-Dreiklang wie beginnend mit dem C oder dem F.

Die Dur-Heptatonik enthält somit den Dur-Dreiklang gleich dreimal, denn dreimal lassen sich drei Töne aus der Heptatonik miteinander auf diese höchst resonante Weise verbinden. Bemerkenswert ist aber auch, dass sich die drei Dreiklänge untereinander nicht so gut mischen können. Das ist gut hörbar, die Mathematik entspricht auch hier wieder perfekt dem subjektiven mentalen Erleben (Sorry, ich muss das einfach immer wieder bringen mit den drei Welten, ich bin selber überrascht, wie gut die drei bei den Tonleitern zusammen kommen).

Natürlich wurde die Dur-Tonleiter nicht «erfunden«, schon gar nicht von einem Mathematiker. Die Tonleiter wurde vielmehr gefunden, und zwar von Menschen, die selber aktiv Musik machten und dabei auf die speziell interessanten Resonanzverhältnisse aufmerksam wurden, die sich bei dieser Zusammenstellung von Tönen ergeben.

Es ergeben sich nämlich drei isolierbare Auswahlen von Tönen aus der Dur-Tonleiter, die in sich jeweils gut resonant sind, aber zu den anderen beiden Auswahlen weniger gut harmonieren. Das ergibt drei unterschiedliche Farben oder Harmonien, die in der Tonleiter getrennt abrufbar sind und deren Abfolge in einem Musikstück geplant werden kann und so eine musikalische Geschichte erzählt. Die drei Farben definieren sich durch den jeweiligen Grundton des Dreiklangs, nämlich durch den Tonleiter-Grundton (C), seine Quart (F) und seine Quint (G). Die drei Töne heissen auch Tonika (Grundton), Subdominant (Quart) und Dominante (Quint). Die Möglichkeit, mit solchen Farben zu spielen, geht weit über die Möglichkeiten der Dur-Pentatonik hinaus und wurde in Europa im Verlauf der Jahrhunderte immer mehr perfektioniert.

Moll-Dreiklänge

Auch diese haben ein spezielles Resonanzverhältnis, nämlich 10 – 12 – 15. Die Zahlen sind etwas höher als im Dur-Dreiklang, was den Moll-Dreiklang etwas weniger resonant macht. Doch für drei verschiedene Töne ist das Verhältnis immer noch extrem einfach und somit resonant und Moll-Dreiklänge sind ganz bestimmt keine Dissonanzen.

Beim Moll-Dreiklang kommt mit der Mollterz zum ersten Mal ein Frequenzverhältnis mit Nenner 5 vor, Dur hingegen kennt das nicht und bevorzugt Nenner basierend auf der Primzahl 2. Dadurch ergibt sich eine deutlich andere Farbe. Mit dem Nenner 5 sind wir schon bei der höchsten «erlaubten» Primzahl angelangt, viel höher als mit der 2 und seinen gut teilbaren Vielfachen des Durs. Moll klingt deshalb weicher, spezieller und nicht so strahlend wie Dur.

Die Moll-Dreiklänge finden sich nicht nur in der Moll, sondern auch in der Dur-Heptatonik, einfach basierend auf weniger prominenten Tönen der Tonleiter, konkret auf dem D, dem E und dem A, doch grundsätzlich lassen sich auch in der Dur-Tonleiter Mollfarben erzeugen, wenn auch nur auf Nebentönen.

Fazit

Insgesamt bieten die sieben Töne der Dur-Tonleiter eine fast unerschöpfliche Quelle an Kombinationen. Die Dur-Tonleiter vereinigt ein maximales Mass an Resonanz mit der Möglichkeit, Spannung und verschiedene Farben zu erzeugen. Dies alles lässt sich mit einfachem Bruchrechnen mathematisch einfach nachvollziehen – in vollem Einklang mit dem, was wir subjektiv hören.


Als nächstes werfen wir einen Blick auf den Unterschied zwischen reiner und unreiner Stimmung. Interessanterweise ist es ja gerade die unreine Stimmung, welche die aktuelle Musikkultur prägt, und nicht etwa die reine. Die unreine Stimmung hat gewichtige Vorteile gegenüber der reinen und sie wurde in Europa bewusst gesucht.

Dieses ist besonders interessant, weil es zeigt, wie die reine mathematische Welt in der physikalischen an Grenzen kommt. Diese Tatsache hat zur gleichmässig temperierten Stimmung geführt, einer «unreinen» Stimmung, die aber heute für uns die gewohnte ist – und das aus guten Gründen. Lesen sie deshalb im nächsten Beitrag, wie es dazu gekommen ist.


Die ist ein Beitrag zur Entstehung der Tonleitern.


 

Standard-Pentatoniken

Wie wir im Vorbeitrag gesehen haben, bilden die Töne C – D – E – G – A – C die Standard-Dur-Pentatonik.

Insgesamt lassen sich mit den einfachen Kriterien für resonante Tonleitern noch vier weitere Pentatoniken bilden. Diese fünf Pentatoniken sind die fünf Tonleitern, welche nach unseren mathematischen Kriterien unter allen Tonleitern am leichtesten Resonanzen unter allen ihren Tönen erlauben.

Wir werden später sehen, dass wir mit unserem Pool der neun am stärksten resonanten Töne alle traditionell in Europa gebräuchlichen Tonleitern bilden können. Bei den Heptatoniken, z.B unserem diatonischen Dur, sind jedoch gewisse Töne miteinander schlecht resonant, was musikalisch eigentlich interessanter ist, da dadurch eine natürliche Struktur innerhalb der Tonleitertöne entsteht.

Die Pentatoniken hingegen haben keine «falschen» Töne, wie immer man sie mischt. Es gibt bildlich gesprochen keinen Widerstand, welche Töne man auch zusammen erklingen lässt.

Die fünf Pentatoniken sind:
(auf Basis C)

C –  D  –  E  –  G  –  A  –  C

C –  D  –  F –  G  –  A  –   C

C – Eb – F –  G   – Bb  – C

C – Eb – F –  Ab – Bb  – C

C – D  –  F –  G   – Bb  – C

Die gleichen Töne in Brüchen:
(Grundton = 1)

1 – 9/8 – 5/4 – 3/2 – 5/3 – 2

1 – 9/8 – 4/3 – 3/2 – 5/3 – 2

1 – 6/5 – 4/3 – 3/2 – 9/5 – 2

1 – 6/5 – 4/3 – 8/5 – 9/5 – 2

1 – 9/8 – 4/3 – 3/2 – 9/5 – 2

Für die Kalkulation nehme ich an, dass alle Töne gleichzeitig und innerhalb einer Oktave erklingen, mit dem jeweiligen Grundton als tiefsten Ton. Ich berechne also die Intervalle von jedem Ton zum Grundton. Dann schaue ich die Nenner aller Intervalle an und suche das kleinste gemeinsame Vielfache (kgV) dieser Nenner. Dieses zeigt an, wie leicht zwischen allen Tönen Resonanzen entstehen können:

Tabelle 1: Schwingungsverhältnisse von 5 Standard-Pentatoniken

Wie ist Tabelle 1 zu lesen? 

Ich habe in den verschiedenen Pentatoniken gleiche Intervalle in die gleiche Spalte gegeben. Das führt zu den Löchern in der Tabelle. So hat die Dur-Pentatonik keine Quart und keine Sept. Des Weiteren habe ich Tönen mit dem gleichen Nenner im Bruch die gleiche Farbe gegeben.

Was zeigen die Farben? – Gleiche Nenner bedeuten bekanntlich, dass die beiden Töne besonders resonant sind, weil bei der Berechnung ihres Frequenzverhältnisses die beiden Nenner sich beim Zusammenklingen  sich «wegkürzen». Das führt zu besonders einfachen, d.h. besonders resonanten Verhältnissen zwischen den Tönen gleichen Nenners. Für Sekunden, grosse Terzen und Quinten habe ich drei verschiedene Grüntöne gegeben. Die Nenner sind nicht gleich, basieren aber immer auf der Primzahl 2, sodass mindestens ein Kürzen mit zwei immer möglich ist. Die verschiedenen Grün mischen sich deshalb immer sehr gut.

Mathematisch gesehen: Mit 8 hat die grosse Sekunde den grössten Nenner aller Intervalle im Pool. Doch das ist kein Problem. 8 ist keine Primzahl, sondern 23, genauso wie der Nenner der grosse Terz 4= 22 ist. Wenn wir nun die Quint zusammen mit der grossen Sekunde erklingen lassen, ist das Verhältnis der beiden Töne 3/2 : 9/8 = 3×8 / 2×9 = 4/3, also eine Quart. Die Quart ist das drittresonanteste Intervall, das innerhalb einer Oktave möglich ist, eine grosse Sekunde und eine Quint sind deshalb perfekt resonant. Das Kürzen erweist sich als wirksam.

Weiter zeigen die Farben in Tabelle 1 auch die verschiedenen Formen von Terz und Sext an. So ist die 5/4-Terz die Durterz und die 6/5 Terz die Mollterz.

Bei den Tonleitern geht es um das Intervall des Melodietones zum Grundton, aber auch um das Verhältnis der Melodietöne untereinander. Das kgV ist ein Indikator dafür, wie naheliegend hier Resonanzen sind. Je tiefer das kgV, umso resonanter ist die Gesamttonleiter. Allerdings kann man auch heikle Töne auslassen, bzw. als speziellen Akzent in einer Melodie einsetzen. Bei den Standard-Pentatoniken mit ihren tiefen kgVs ist das zwar kaum möglich.

Wie unterscheiden sich die fünf Pentatoniken?

Dur und Moll

In der sogenannten Funktionsharmonik, einer speziellen, relativ späten, aber bahnbrechenden europäischen Erfindung, spielt die Terz eine wichtige Rolle. Ob Dur oder Moll steht als Frage immer im Raum. Wir gehen an dieser Stelle (noch) nicht auf die Funktionsharmonik ein, können aber unsere fünf Pentatoniken auch unter diesem Terz-Aspekt ansehen. Dabei sehen wir, dass wir eine Dur-Pentatonik (mit Dur-Terz) und zwei Moll-Pentatoniken (mit Moll-Terz) haben.

Die beiden Moll-Pentatoniken unterscheiden sich darin, dass eine keine Quint hat. Obwohl bei beiden das kgV gleich und tief ist, ist das Fehlen der Quint musikalisch (und resonanzmässig) ein grosses Handicap, weshalb die Mollpentatonik ohne Quint kaum gebräuchlich ist. Unsere übliche Moll-Pentatonik ist diejenige mit der Quint.

Wenn Sie Tabelle 1 ansehen, sehen Sie sofort, den Farbunterschied: Die Moll-Pentatonik hat rötlich gefärbte Töne (Nenner 5), die Dur-Pentatonik hingegen nicht. Die jeweilige Terz zieht weitere Intervalle mit dem gleichen Nenner quasi an. Das ist resonanzmässig begründet. Gleiche Nenner sind Garanten für eine starke Resonanz.

Sus

Das Wort «Sus» kommt von «suspended forth», deutsch «hängende Quarte». Woher kommt der Ausdruck? – In der klassischen europäischen Musik, d.h. in der Funktionsharmonik, ist die Terz entscheidend. Ein Akkord, der keine Terz, dafür die Quart enthält, ist «hängend», das heisst, er muss erst noch aufgelöst werden, die Quart wird als Halbton-Vorhalt gesehen und muss sich zur grossen Terz auflösen. In anderen Stilen, im Jazz, aber auch in der moderneren Pop-Musik, ist ein Sus-Akkord ein Akkord wie jeder andere, eine Farbe wie Moll oder Dur. Auch Sus-Tonleitern gibt es, in der Weltmusik wie auch im Jazz. Die Quart (4/3) ist nach Oktave und Quint das am stärksten resonante Intervall.

Wieder gibt es zwei Formen von Sus-Pentatoniken. Das hohe kgV von 120 der einen Pentatonik rührt daher, dass sie sowohl eine Sekunde (Nenner = 9) wie eine kleine Sept (Nenner = 5) enthält. Hier ist kein Kürzen mehr möglich (wie Sie bei der Berechnung des kgVs selber feststellen können). Die Sus-Pentatonik mit der Sext hingegen hat ein anderes Problem: Quart und Sext bilden mit dem oberen Grundton einen Durakkord (4/3 – 5/3 – 6/3 →4-5-6). Dieser Durakkord auf der Quart ist extrem resonant und wird dadurch so dominant, dass die Tonleiter leicht als Dur-Pentatonik missverstanden werden.

Welche Pentatoniken sind gebräuchlich?

Wegen den oben erwähnten Schwächen der einen Moll und der beiden Sus-Pentatoniken sind eigentlich nur die Dur-Pentatonik und die Moll-Pentatonik mit der Quinte gebräuchlich. Diese beiden Pentatoniken aber sind ubiquitär verbreitet und können ganz leicht gesungen werden. Sie können aber auch auf eine wohlklingende Weise mit anderen Tonleitern/Akkorden verbunden werden, was musikalisch besonders interessant ist. Allein klingen sie etwas banal, in Kombinationen aber zeigen sie ihre ganze Stärke. Für Musiker sind sie perfekte Bausteine.

Zur Fortsetzung schauen wir die Durtonleiter an. Wie resonant ist sie?


Die ist ein Beitrag zur Entstehung der Tonleitern.


 

Erste Tonleitern

Können wir mit den bisher postulierten Kriterien bereits Tonleitern konstruieren, die so attraktiv sind, dass sie real vorkommen? Die Kriterien sehen ja auf den ersten Blick eher künstlich und theoretisch aus – können Sie trotzdem dazu dienen, natürlich gewachsene Tonleitern zu erklären?

In der Tat können sie das. Die mathematischen Kriterien für Resonanz haben offensichtlich in den Ohren der Menschen gewirkt und sie über die Jahrtausende immer wieder Musik erfinden lassen, die als Basisgerüst genau die Tonleitern haben, die wir gleich mit unseren Kriterien mathematisch ableiten können.

Pool von resonanten Tönen

Nur mit unseren Resonanzkriterien haben wir einen ersten Pool konstruiert, der diejenigen Töne enthält, bei denen wir die stärkste Resonanz mit dem Grundton erwarten. Ich zähle diese neun potentiellen Tonleitertöne hier nochmals auf:

Grundton                       1/1   = 1
Grosse Sekund           9/8  = 1.125
Kleine Terz                    6/5   = 1.2
Grosse Terz                  5/4   = 1.25
Quart                               4/3   = 1.333
Quint                               3/2   = 1.5
Kleine Sext                   8/5   = 1. 6
Grosse Sext                  5/3    = 1.666
Kleine Sept                   9/5    = 1.8
Grosse Sept                  15/8 = 1.875
Oktave                            2/1    = 2

Natürlich ist dies nur ein Pool von vielen Tönen und keine sinnvolle Tonleiter. Das Problem ist, dass alle diese Töne zwar einfach und schnell mit dem Grundton in Resonanz eintreten können – doch sind sie auch unter sich resonant?

Zwei Tonleitertöne und Grundton

Es geht also nicht nur um die Resonanz eines Tons mit dem Grundton, sondern zusätzlich um die Resonanz mit weiteren Tönen. Dazu gibt es eine mathematische Grundlage: Wir schauen uns das kgV (kleinstes gemeinsames Vielfaches) der beteiligten Nenner an. Wie das geht, und warum das so ist, ist auf der Seite der Rechengrundlagen für die Resonanzen erklärt.

Das kgV (kleinstes gemeinsames Vielfaches) der Nenner

Die Resonanzkriterien sprechen für eine gute Resonanz, wenn das kgV der beteiligten Nenner möglichst klein ist. Der Grundton hat den Nenner 1, deshalb passt er in jedes kgV, er wird also in jede Kombination gut hinein passen. Wie passen nun die Tonleitertöne zusammen?

Beispiel 1

Quart und Quint: Die Nenner sind 3 und 2, das kgV ist 6, also tief. Auch die Zähler sind tief. Als weiteres Indiz für die Resonanz können wir den Abstand zwischen den beiden Tönen berechnen. Der ist 3/2 : 4/3 = 9/8, also eine grosse Sekunde. 8 ist zwar ein relativ grosser Nenner, was die Resonanz mit anderen Tonleitertönen evtl. stört, doch zur sehr wichtigen Oktave passt sowohl die 8 der Sekunde, wie auch die 2 der Quint sehr gut. Zudem haben beide Töne, Quart und Quint unschlagbar kleine Zähler und Nenner, was sich auf die Mischverhältnisse für weitere Tonleitertöne günstig auswirkt.

Mit anderen Worte: Quart und Quint sind ein perfektes Paar für Resonanz. Mathematisch jedenfalls. Klingt das aber auch gut?

Wie klingt die Kombination subjektiv in unserer Wahrnehmung?

Es geht selbstverständlich nicht nur um Mathematik. Die mentale Welt, unsere subjektive Wahrnehmung entscheidet, ob wir eine bestimme Musik mögen und wie wir sie aufnehmen. Wenn Sie den Grundton mit Quart, Quint und Oktave klingen lassen, können Sie hören, was wir berechnet haben, die Resonanz der vier Töne ist ungetrübt. Die Kombination wirkt sogar eher etwas banal und wir vermissen vielleicht den Pfeffer, den in die Musik, die wir gewohnt sind, die Dissonanzen bringen. Ebenfalls fehlt uns die Süsse der Terzen (Nenner 5 und 6).

Beispiel 2

Wir kombinieren rechnerisch die grosse Sekunde mit der kleinen Terz, also 9/8 mit 6/5: Das kgV ist 40, das Intervall zwischen den beiden Tönen ist 6/5 : 9/8 = 48/45 = 16/15. Mit dem grossen kgV und dem engen Abstand ist dieses Paar in Tonleitern etwas heikler – jedenfalls solange wir das Augenmerk auf eine gute Resonanz legen und alle Schärfen in der Musik vermeiden wollen.

Die gefundenen ersten zwei Tonleitern

Wenn Sie nun Lust haben, können sie selber das kgV und den Abstand zwischen allen oben genannten Tonleitertöne ausrechnen und so einen Pool von Tönen zusammenzustellen, bei dem beides optimiert ist und zwischen allen Tönen möglichst viel Resonanz entstehen kann. Natürlich wollen Sie für die Tonleiter auch mehr Töne als nur gerade drei oder vier auswählen. Wie wär es mit fünf?

Die beiden Tonleitern mit den stärksten Resonanzen, die sich so finden lassen, sind bemerkenswert – es sind nämlich beides sehr bekannte Tonleitern:

1 – 9/8 – 5/4 – 3/2 – 5/3 – 2

1 – 6/5 – 4/3 – 3/2 – 9/5 – 2

Oder mit dem Grundton C:

C – D – E – G – A – C

C – Es – F – G – Bb – C

Pentatoniken

Es handelt sich um zwei Pentatoniken, also um zwei Tonleitern mit fünf Tönen (Das C kommt doppelt, zählt aber nur einmal). Nicht ganz überraschend ist, dass die beiden Tonleitern gute alte Bekannte sind – es handelt sich um nichts anderes als die Dur- und die Mollpentatonik.

Und auch nicht ganz überraschend: Diese beiden Tonleitern kommen global in praktisch allen Kulturen vor, im Regenwald wie in allen Hochkulturen, entweder in Reinform oder dann als das Basisgerüst von anspruchsvolleren Tonleitern.

Theoretische mathematische Überlegungen haben uns dazu geführt, diese beiden Tonleitern zu postulieren, die nicht nur weltweit bekannt, sondern für alle Menschen, kleine Kinder inklusive, schnell verständlich und sehr eingängig sind.

Das ist m.E. kein Zufall. Es sieht so aus, als ob die bisherigen Überlegungen gut mit der beobachteten Realität kompatibel seien.


In der Fortsetzung finden Sie eine Resonanz-Analyse der fünf Standardpentatoniken.


Die ist ein Beitrag zur Entstehung der Tonleitern.


 

Rechnen mit Frequenzen und Intervallen

Auf dieser Seite erkläre ich einige Regeln, die gelten, wenn wir mit Intervallen und ihren Frequenzen rechnen.

Intervalle sind Brüche

Ein Intervall geht von einem tieferen zu einem höheren Ton. Der Bruch des Intervalls rechnet sich, indem die Frequenz des höheren durch die Frequenz des tieferen Tons geteilt wird, z.B.

E  =  330 Hz
A  =  440 Hz

440/330 = 4/3. Das ist eine Quart. Das Intervall der Quart ist immer 4/3, der höhere Ton ist in der Quart genau 4/3 mal so schnell wie der tiefere.

Dabei kommt es nur auf die relativen Werte an, nicht auf die absoluten. Ob ich die Quart beim E beginne (E-A) oder beim C (C-F) ist egal, das relative Frequenzverhältnis ist immer 4/3. Mit anderen Worten, Intervalle sind immer relativ.

Der exponentielle Verlauf der Frequenzen

Wenn wir Intervalle miteinander vergleichen, gibt es eine entscheidende Besonderheit: Der Frequenzverlauf ist exponentiell.

Abb 1: Der Frequenzverlauf ist exponentiell

In Abb. 1 sehen Sie die Frequenzen von verschiedenen A Tönen, vom grossen A bis zum zweigestrichenen a". Auf der Klaviertastatur sieht es so aus, als wären die Abstände zwischen allen vier A’s die gleichen, doch wenn wir die Frequenzen anschauen, ist werden die Abstände immer grösser. Mit anderen Worten: Die Frequenzen steigen schneller an als die Intervalle. Mathematisch gesehen verlaufen die Intervalle linear, während die Frequenzen exponentiell verlaufen. Das hat nun einige Konsequenzen für das Rechnen mit den Intervallen.

Intervalle addieren

Wenn wir zwei Intervalle addieren, dann ist das bezüglich der Frequenzen eine Multiplikation. So hat der Ton (gross) A die Frequenz 110 Hz. Wenn wir eine Oktave höher gehen, so hat das (kleine) a eine Oktave höher die doppelte Frequenz, nämlich 220 Hz. Der Abstand zwischen 110 Hz und 220 Hz ist 110 Hz. Doch diese 110 Hz sind nur dann eine Oktave, wenn wir vom grossen A ausgehen. Wenn wir vom kleinen a jetzt wieder eine Oktave hochgehen, dürfen wir nicht die 110 Hz der tieferen Oktave dazuzählen (was 330 Hz gäbe), sondern wir müssen 220 Hz dazugeben und gelangen so von 220 Hz auf 440 Hz.

Unsere spontane Vorstellung, dass eine Oktave einem Wert in Hz entspricht, ist nicht zutreffend. Die Oktave bedeutet, dass die tiefere Frequenz mit 2 multipliziert wird (mit 2 weil die Oktave immer verdoppelt). Aus der Addition der Intervalle wird also eine Multiplikation. Dieser Wechsel der Rechenoperation ist auf den ersten Blick verwirrlich, doch wenn man es weiss, ist die Sache nicht so schwierig. Wir prägen uns deshalb ein:

Addition (von Intervallen) wird zur Multiplikation (von Frequenzen)

Intervalle subtrahieren 

Nicht überraschen ist es bei der Subtraktion ganz analog. Aus der Subtraktion wird eine Division.

Beispiel

Wir suchen den Abstand zwischen einer grossen Terz und der darüberliegenden Quinte. Unser Musikwissen sagt uns, dass der Abstand zwischen den beiden Intervallen eine kleine Terz ist. Können wir das auch ausrechnen?

Bei diesem Vergleich ziehen wir von der Quint die grosse Terz ab. Aber statt abzuziehen, dividieren wir:

Quinte            = 3/2
Grosse Terz = 5/4

Quinte – grosse Terz →3/2 : 5/4 = 3×4 / 2×5 = 12/10 = 6/5

6/5 ist bekanntlich die kleine Terz. Diese Methode funktioniert immer, für alle Intervalle:

Wir können zur Kontrolle die beiden Terzen wieder addieren und erhalten – selbstverständlich durch eine Multiplikation:

5/4 x 6/5 = 30 / 20 = 3/2

Die grosse und die kleine Terz ergeben auf diese Weise wieder die Quinte (3/2).

Der Vorteil: Wir können kürzen!

Die Verschiebung von Addition und Subtraktion zu Multiplikation und Division hat in Brüchen den Vorteil, dass man wie in den oben stehenden Beispielen oft kürzen kann.

Das hat direkten Einfluss auf die Resonanzen: Immer dann, wenn man kürzen kann, werden die Zahlen in den Brüchen kleiner – und kleine Zähler und Nenner in den Brüchen sind ein Vorteil für eine Resonanz. Dies erklärt auch, weshalb wir in den Intervallen lieber keine höheren Primzahlen als 5 haben. Nicht-Primzahlen wie 6, 8, 9, 10 ff. hingegen lassen sich kürzen, weshalb wir durchaus eine grosse Sekunde (9/8) in den Tonleitern finden, hingegen kein Intervall mit dem Bruch 7/4 oder 8/7.

Tonleitertöne aufeinander beziehen

Wenn wir zwei Töne innerhalb einer Tonleiter vergleichen, um zu entscheiden, ob zwischen ihnen eine Resonanz besteht, beziehen wir sie stets auf den gemeinsamen Grundton. Das hat ganz wesentlich mit dem Charakter von Tonleitern (und Akkorden) zu tun. Auf diesem Grundton (der Tonalität) baut die ganze Tonleiter, bzw. der Akkord auf.

Da die Intervalle stets relativ sind, kommt es nicht auf die absolute Höhe des Tons, d.h. nicht auf die absoluten Frequenzen darauf an. Wir setzen deshalb den

Grundton = 1

Alle anderen Töne geben wir als Intervalle zum Grundton an.

Abstand zwischen zwei Tonleitertönen

Wie verhalten sich z.B. die Quart und die Quint? Die Quart ist 4/3 über dem Grundton, die Quint 3/2. Wenn wir diese beiden Töne vergleichen wollen, können wir den Abstand zwischen ihnen berechnen. Der Abstand ist eine Subtraktion und eine Subtraktion ist bei Frequenzen eine Division. Wir rechne den höheren durch den tieferen Ton und erhalten: 3/2 : 4/3 = 9/8.

9/8 ist eine grosse Sekunde, der Abstand zwischen der Quart und der Quinte ist eine grosse Sekunde.

Resonanz zwischen dem Grundton und zwei Tonleitertönen

Wenn wir zwei Tonleitertöne anschauen, dann haben diese stets den Grundton «im Hinterkopf», bzw. im Fundament. Der Grundton bestimmt die Tonalität, und die Tonalität setzt die relative Tonleiter auf eine absolute Basis.

Wie aber mischen sich die drei Töne – Grundton, Quart und Quinte?

Damit Resonanz entsteht, müssen alle drei Töne auf einer gemeinsame Basis stehen, oder mathematisch ausgedrückt, es braucht so etwas wie eine gemeinsame Zählzeit für alle drei Frequenzen – also für den Grundton (1), die Quart (4/3) und die Quint (3/2).

Dazu suchen wir den kleinsten Nenner, der für alle drei Zahlen aufgeht. Im Beispiel ist es der Nenner 6:

Grundton 1 = 6/6
Quarte  4/3 = 8/6
Quinte  3/2 = 9/6

Dieser gemeinsame Nenner ist immer das kgV, das kleinste gemeinsame Vielfache aller beteiligten individuellen Nenner.

Ein weiteres Beispiel:

Grundton          1 = 15/15
kleine Terz   6/5 = 18/15
grosse Sext  5/3 = 25/15

Das kgV von 1, 5 und 3 ist 15.

Was bedeutet nun dieser gemeinsame Nenner von mehreren Tönen?

Ich stelle die Hypothese auf, dass eine Resonanz sich umso leichter einstellt, je kleiner dieser gemeinsame Nenner ist. Für unsere Resonanzüberlegung gilt auf Basis dieser Hypothese folgendes:

Töne, die einen tiefen gemeinsamen Nenner haben, mischen sich leicht.

Je höher der gemeinsame Nenner ist, umso kleiner ist die interne Resonanz der Töne. 

Über die Konsequenzen dieser Schlüsse berichte ich in den Texten über konkrete Tonleitern und Akkorde.


Hier finden Sie die Übersicht über die Texte zur Drei-Welten-Theorie.

Kriterien für attraktive Tonleitern (Übersicht)

Worum geht es?

Nach der 3-Welten-Theorie spielt die Mathematik (ideale Welt) bei physikalischen Prozessen (physikalische Welt) eine Rolle. Ohne unser subjektives Empfinden (mentale Welt) würden wir aber von all dem nichts mitbekommen. Wie diese drei sehr unterschiedlichen Welten in der Realität zusammenkommen, untersuche ich am Beispiel der Tonleitern. Hier gibt es einige Rätsel, z.B. weshalb die menschlichen Kulturen tausende von verschiedenen Tonleitern hervorgebracht haben, aber jede davon die Oktave verwendet.

Diese Konstanz der Oktave kann einfach durch Resonanz erklärt werden, die im Fall der Oktave besonders auffällig ist, weil sie einem mathematischen Verhältnis 2:1 entspricht. Der höhere Ton der Oktave schwingt mit doppelter Frequenz im Vergleich zum Grundton. Ein augenfälliges Beispiel dafür, wie Physik, Mathematik und subjektives Empfinden zusammenkommen.

Im Vorbeitrag habe ich untersucht, ob wir mit rein mathematischen Überlegungen weitere Intervalle finden können, die in realen Tonleitern vorkommen. Dabei finden wir mit wenigen mathematischen Kriterien einen ersten Pool von Intervallen, die sehr «resonanzaffin» sind, d.h. Tonleiter-Ton und Grundton stehen in einem Frequenzverhältnis, das sehr leicht zu einer kräftigen Resonanz führt.


Kriterien für Tonleitertöne

1. Tonbereich

Alle mit bekannten Tonleitern bewegen sich im Bereich einer Oktave. Das ist schon verblüffend und wir haben gesehen, dass alle drei Welten am Zustandekommen beteiligt sind.
Entscheidend für die Tonleitertöne sind ihre Frequenzen (f). Dabei kommt es nicht auf die absolute Höhe der Frequenz an, sondern nur auf die relative im Vergleich zu anderen Tönen. In der Folge bezeichnet die 1 den Grundton und die 2 die Oktave davon. Alle Tonleitertöne müssen sich zwischen dem Grundton und der Oktave befinden, mathematisch gesehen bedeutet das für die relative Frequenz f(TL) des Tonleitertons bezogen auf den Grundton:

1 ≤ f(TL 2

2. Resonanz

Die physikalische Bedingung für Resonanz ist, dass zwei Frequenzen in einem «rationalen» Verhältnis stehen. «Rational» bedeutet in der Zahlentheorie eine Zahl, die als Bruch von zwei ganzen Zahlen geschrieben werden kann. Mit anderen Worten: f2 = m/n f(m und n sind ganze Zahlen, f1 und f2 sind die beiden Frequenzen). Wir stellen nun die Hypothese auf, dass ein Tonleiterton (TL) zum Grundton (GT) vorteilhafterweise in einem Verhältnis (m/n) stehen, in dem sich eine Resonanz entwickeln kann. Mathematisch heisst das:

f(TL) = m/n f(GT)

Diese Bedingung hat mit der physikalischen und der mathematischen Welt zu tun und ist unabhängig von unserem subjektiven und kulturellen Empfinden eine generell gültige physikalische Bedingung für Resonanz, auch im nicht-akustischen Bereich.

Wenn das Rechnen mit Intervall-Brüchen für Sie neu ist, empfehle ich Ihnen die Adnexe, in denen die Rechenvorgänge und ihre Hintergründe detailliert beschrieben sind.

3. Kräftige Resonanz

Eine Resonanz entsteht nicht immer gleich schnell und gleich kräftig. Einige Tonleitertöne können deshalb schneller und kräftiger eine Resonanz entwickeln als andere. Ich stelle die Hypothese auf, dass die Resonanz umso stärker ist, je kleiner m und n sind und habe, ausgehend von der Zahl 1, untersucht, was für Intervalle wir mit möglichst kleinen Werten für m und n erhalten.

Überraschenderweise zeigt es sich, dass alle kleinen Nenner bis 5 nur Tonleitertöne ergeben, die wir in unseren traditionellen europäischen Tonleitern finden. Bei der Suche wird auch sichtbar, dass es nicht allein auf die absolute Höhe von m und n ankommt, sondern vielmehr auf die Primzahlen, die bei der Primzahlzerlegung von m und n entstehen. Hier zeigt sich erneut, dass 5 bei den Primzahlen auch für den Zähler die Grenze ist. In diesem Sinn sind 6, 8 und 9 als Nicht-Primzahlen zerlegbar (6=2×3, 8=2x2x2 und 9=3×3) und für Resonanzen brauchbar. Die 7 aber kann als Primzahl nicht weiter zerlegt werden und ist deshalb für m und n in der Praxis bereits zu hoch.

m und n
 sollen möglichst klein sein, präziser:

Bei der Primzahlzerlegung von m und n soll 5 die höchste Primzahl sein.

Weshalb die Primzahlzerlegung? – Der Tonleiterton steht nicht allein da, d.h. er soll nicht nur eine Resonanz zum Grundton haben, sondern auch zu anderen Tonleitertönen. Dabei entstehen zusammengesetzte Resonanzen (Brüche), bei denen oft in Zähler und Nenner gekürzt werden kann. Dadurch wird aus einer 8 schnell eine 4, aus der 15 eine 3 und wir haben wieder sehr kleine m und n. Beispiele werden folgen.

4. Weitere Kriterien
Die Resonanz ist nicht die einzige Bedingung für attraktive Tonleitern. Musiker und Zuhörer müssen die Töne ja auch unterscheiden können. Das ist einfacher, wenn es nicht zu viele Töne sind und wenn sie nicht zu nahe beieinanderliegen. Dies sind keine mathematischen Bedingungen, sie haben auch nichts mit der Resonanz zu tun. Der Ursprung dieser Forderung an die Tonleiter hat mit unserer Rezeption zu tun, also mit dem was wir wahrnehmen können – also unserer mentalen Welt. Unsere Wahrnehmung stützt sich dabei auf die Physik unseres Innenohrs und die Physik unseres Gehirns. Es handelt bei diesen Kriterien also um eine Forderung aus der mentalen Welt, gestützt auf die physikalische. An der Entstehung der vielen tausend verschiedenen Tonleitern sind offensichtlich alle drei Welten beteiligt. Nicht resonanzbedingten Kriterien sind:

4a)  Die Anzahl der Tonleitertöne darf nicht zu hoch sein.

4b) Die Tonleitertöne dürfen nicht zu nahe beieinander liegen.

Weder die Anzahl der Töne, noch ihr Minimalabstand sind in jeder Kultur gleich. In der Musik gibt es neben der Resonanz weitere Prinzipien, nämlich das der Interferenz und das Höher/Tiefer-Prinzip. Wenn Töne sehr nahe beieinanderliegen, können bei entsprechender Schulung durch die erlebte Kultur gerade sehr engliegende Töne interessant werden. Allerdings geschieht dies nicht über den gesamten Oktav-Umfang der Tonleiter. Denn wenn die Töne sehr nahe beieinanderliegen, darf die Gesamtzahl der Töne in der Leiter trotzdem nicht überhand nehmen. Zwischen anderen Tönen muss dann der Abstand auch wieder einmal grösser sein. Ein Tonleiter mit Vierteltönen über die ganze Oktave ist denkbar, wird sich in der Praxis aber kaum durchsetzen.

Neben den Interferenzen und dem Höher-Tiefer-Prinzip gibt es ein weiteres Prinzip, das Abwechslungs-Prinzip. Dieses ist weder mathematisch noch physikalisch, sondern nur mental begründbar. Wenn nämlich alles gleich ist, z.B. die Abstände in der Tonleiter, dann wird es langweilig. Deshalb empfinden wir z.B. die Ganzton-Tonleiter, welche aus lauter gleichen Intervallen besteht, als nicht besonders spannend. Die gleiche Ganzton-Tonleiter kann aber in einer Mischung mit anderen, variantenreicheren Leitern gerade einen interessanten Kontrast setzen. Musikstücke hingegen, die nur Ganzton-Tonleitern verwenden würden, wären nicht lange interessant.

Wir haben somit ein weiteres nicht-resonanzbedingtes Kriterium:

4c) Die Abstände in der Tonleiter sollen nicht alle gleich sein.

Grundton-Prinzip: Der Grundton ist der Ton, der die Tonleiter zusammenhält. Beim Abschnitt über die Kirchentonarten werden wir näher darauf eingehen. Als Folge des Grundton-Prinzips werden wir die Tonleitertöne stets auf den Grundton beziehen.

4d) Wir vergleichen alle Tonleitertöne über den Grundton.


Mit diesen Bedingungen werden wir unseren Pool von Intervallen aus dem Vorbeitrag sichten und erste Tonleitern herausfiltern. Nicht überraschend sind es solche, welche nicht nur mathematisch sehr einfach gebaut sind, sondern weltweit vorkommen. Es handelt sich um gewisse Pentatoniken, die nicht nur rund um den Globus in Reinform gebräuchlich, sondern auch in etwas komplexeren Tonleitern, z.B. unserer Standard-Durtonleiter als Grundgerüst mitenthalten sind. Zuerst schauen wir die resonantesten Tonleitern an


Die ist ein Beitrag zur Entstehung der Tonleitern.