Archiv der Kategorie: Semantik

Das semiotische Dreieck

Wörter und ihre Objekte

Wenn wir sprechen, verwenden wir Wörter, um die Gegenstände unserer Umgebung zu bezeichnen. Mit den Wörtern besitzen wir die Gegenstände aber nicht, sondern bezeichnen sie nur, und wie wir alle wissen, sind Wörter nicht identisch mit den bezeichneten Gegenständen. Dass keine Identität besteht, ist offensichtlich.

Beispiele für die nicht immer logische Wortgebung finden Sie in diesem Beitrag, indem erklärt wird, weshalb die Leise laut spielt und die Laute leise.

    Abb. 1: Das Piano (Das Leise)

   Abb.2: Die Laute (Das Holz)

Wie aber sieht die Beziehung zwischen Wörtern und Gegenständen aus, wenn sie keine Identität ist? Sie kann keine 1:1-Beziehung sein, denn wir bezeichnen verschiedene Gegenstände mit dem gleichen Wort und können umgekehrt mehrere Wörter für denselben Gegenstand verwenden. Die Beziehung ist auch nicht fix, denn je nach Kontext bedeutet das gleiche Wort etwas anderes. Wörter ändern sich unaufhaltsam mit der Zeit, sie ändern ihren Klang und ihre Bedeutung.

Der Bezug von Worten und bezeichneten Objekten wird sehr erhellt durch die berühmte Darstellung des semiotischen Dreiecks von Ogden und Richards1 von 1923.

 

Das semiotische Dreieck

 

Abb 3: Das Semiotische Dreieck nach Ogden und Richards1

Die Idee des Dreiecks hat viele Vorläufer. u.a. Gottlob Frege, Charles Peirce, Ferdinand de Saussure und Aristoteles.

Ogden und Richards machen mit dem semiotischen Dreieck darauf aufmerksam, dass wir Worte, Objekte und Begriffe nicht verwechseln sollen. Die drei Spitzen des Dreiecks zeigen nämlich auf drei Bereiche, die von ihrer Natur her völlig verschieden sind.

Das Heikle dabei ist, dass wir nicht nur versucht sind, sondern dass wir zu Recht nichts anderes tun, als die drei Spitzen zusammenzubringen, so als wären sie identisch. Wir wollen nämlich, dass das Wort ein Objekt genau bezeichnet. Wir wollen, dass unsere Begriffe genau mit den Wörtern, die wir dafür verwenden übereinstimmen. Trotzdem sind die Wörter nicht die Objekte und auch nicht Begriffe.

Ogden und Richards sagen dazu: «Zwischen dem Symbol [Wort] und dem Referenten [Objekt] gibt es keine andere relevante Beziehung als die indirekte, die darin besteht, dass das Symbol von jemandem [Subjekt] dazu benutzt wird, einen Referenten zu vertreten.»

Der Bezug zwischen dem Wort (Symbol, Zeichen) und dem Objekt (Referent) ist stets indirekt und verläuft über den Gedanken von jemandem, d.h. das Wort aktiviert ein gedankliches Konzept von ‹jemandem›, d.h. von einem menschlichen Subjekt, Sprecher oder Zuhörer. Dieses gedankliche Konzept ist der Begriff.

Abb. 4: So sehen Ogden und Richards den indirekten Bezug zwischen Symbol und bezeichnetem Objekt (Referent) –> Die abgeschwächte Basislinie findet sich auch im Original. Symbol (Wort) und Referent (Bezugsobjekt) sind nur indirekt über den Gedanken in den verstehenden Subjekten miteinander verbunden.

Wenn wir uns mit Semantik beschäftigen, ist es unverzichtbar, einen Blick auf auf das Dreieck zu werfen. Nur die Begriffe in unserem Kopf verbinden die Wörter mit den Gegenständen. Eine direkte Verbindung ist eine Illusion.


Dies ist ein Beitrag zum Thema Semantik.


1 Ogden C.K. und Richards I.A. 1989 (1923): The Meaning of Meaning. Orlando: Harcourt.

 

Das Piano spielt forte und die Laute leise

Viele Leute glauben, dass jedes Wort eine bestimmte Bedeutung hat. Weil das nicht so ist, müssen wir, wenn wir Semantik betreiben, die Bedeutungen der Wörter aus dem Kontext erschliessen.

Der Kontext ist beim Wort ‹Piano› eigentlich schnell klar, er ist meistens ein musikalischer. In der klassischen Musik sind italienische Wörter angesagt, weil Italien einst das Hochland der Musik war, und Wörter wie «Andante›, ‹Sonate›, ‹Tutti› und ‹Coda› zeugen davon. So auch das ‹Pianoforte›, das Instrument, das leise (ital: piano) und laut (ital: forte) spielen kann, im Gegensatz zum Cembalo, aus dem heraus es sich entwickelt hat. Von ‹Pianoforte› hat sich der Name dann zum ‹Piano›, dem ‹Leisen›, abgeschliffen. Genauso wie das Violoncello (die kleine Violone) zum Cello (dem «Kleinen») wurde. Das Piano heisst auf Deutsch auch Klavier. Dieses Wort kommt von Clave, dem Schlüssel. Mit Schlüssel sind die Tasten gemeint. Auf Englisch gibt es digitale Pianos, d.h. Keyboards, also Schlüsselbretter. Der ‹Flügel› ist kein Vogelflügel und auch kein Engelsflügel, sondern ein grosses Klavier, oder Englisch ‹Grand Piano›. Die Orgel wiederum heisst in England Organ, also gleich wie ein Organ, wie z.B. die Leber.

Die Instrumente haben es auch sonst in sich. Die ‹Violine› ist – mit dem ‹-ine› die Verkleinerung einer ‹Viola›. Die Viola ist das Geigeninstrument, das in Altlage spielt. Sie heisst auch Bratsche, was von Arm (ital: braccio) kommt, da die Bratsche mit dem Arm gehalten wird. Im Gegensatz zu den Gamben, die auf den Beinen (ital: gambas) stehend gespielt werden. Aber auch die Violine, die ‹kleine Viola›, die keine Bratsche (Altlage) ist, wird mit dem Arm gehalten. Neben der Violine (Sopranlage) gibt es auch die Geige in Basslage, die Violone, die auch Kontrabass (engl. double bass) oder Bassgeige heisst, und von der das Cello (Violoncello) die kleine Schwester ist. Cello und Bassgeige werden zwischen die Beine gestellt, sind also keine Bratschen. Sie sind aber auch keine Gamben. Gamben sind nämlich keine Geigen, obwohl ebenfalls Streichinstrumente. Sie haben aber eine etwas andere Form, einen etwas anderen Klang und Bünde, wie die Gitarren.

Die Vorläufer der Gitarren sind die Lauten, ebenfalls Saiteninstrumente, die im Gegensatz zu den Geigen aber gezupft und nicht gestrichen werden. Obwohl ihr Name darauf hindeuten könnte, dass sie laut spielen, sind sie in der Tat eher leise. Der Name hat auch gar nichts mit der Lautstärke zu tun (im Gegensatz zum Pianoforte), sondern kommt aus dem Arabischen. Dort heissen die Lauten ‹Ud›, mit Artikel ‹Al Ud› (männlich). In Europa heisst sich das ‹Al Ud› zu ‹La Ud› geschlechtsgewandelt und wir haben die Laute.

Der Stamm ‹Ud› im Wort Laute bedeutet ursprünglich Holz. Die Laute ist also ‹das Holz›, genauso wie Trompeten und Posaunen im Orchester ‹das Blech› genannt werden. Die Streicher im Symfonieorchester sind aber nicht ‹das Holz›, obwohl sie aus Holz sind, sondern ‹die Streicher›. ‹Das Holz›, das sind die Holzbläser, also die Flöten und Oboen. Bei den Oboen steckt das auch im Wort: Oboe = haut bois = hohes Holz. Die Querflöten sind heute aus Metall, gelten aber weiterhin als Holzblasinstrumente. Ebenso die Saxophone, obwohl sie schon immer aus Blech sind. Die Hörner sind in der klassischen Musik Blechblasinstrumente aus Metall, mit Nähe zur Jagd. Im Jazz hingegen sind auch die Saxophone Hörner (horns).

Die Welt der Wörter und ihrer Bedeutungen ist voll von Widersprüchen. Simple Logik führt uns schnell in die Irre. Um computergängige Semantik zu betreiben, muss man sich auf einiges gefasst machen 😉


Dies ist ein Beitrag zum Thema Semantik.


Vier Versuche, Semantik formal zu packen

Semantik: Was steckt hinter den Wörtern?

Das Thema Semantik interessiert heute viele Leute. Viele realisieren, dass Wörter nicht alles sind, sondern dass hinter den Wörtern Bedeutungen stecken, die sehr variabel sind und auf die es eigentlich ankommt. Gerade im Internet spielt das eine grosse Rolle. Je grösser das Netz wird, umso schwieriger wird die Suche. Was ist, wenn die gesuchte Adresse unter einem ganz anderen Wort zu finden ist, als ich annehme? Denken wir nur an die vielen Synonyme. Dazu kommen Ober- und Unterbegriffe und unterschiedliche Sprachen. Ideal wäre es, wenn ein sprachunabhängiges System der Bedeutungen existieren würde, ein System, dass Synonyme genauso kennt wie verschiedene Sprachen, Englisch, Französisch, Deutsch, Arabisch, Chinesisch etc. Dann müsste man nur noch die Wörter der jeweiligen Sprache in das semantische System hineinprojizieren. Geht das?

Versuch 1: Semantische Annotation (n:1)

Eine einfache «Semantische Annotation» ist für viele die naheliegende Lösung. Dabei gilt es, jedem Wort seine Bedeutung, d.h. seine eigentliche Semantik, zuzuweisen.

Nehmen wir eine Sprache, z.B. Deutsch und eine Domäne, z.B. Medizin. Das Ziel der semantischen Annotation wäre dann, das gesamte Vokabular der Domäne, also alle ihre Wörter auf eine grundlegende Semantik abzubilden. In dieser existiert dann ein einziger Punkt für den Begriff «Fraktur», und dieser semantische Zielpunkt wird erreicht durch Wörter wie «Fraktur», «Knochenbruch», «fracture», etc. Es handelt sich ja in der Tat um dasselbe, unabhängig davon, welche Wörter ich verwende. Das gilt auch für «Bruch», z.B. in «Beinbruch», «Bruch des Beins», «Bruch der Tibia» und «Bein gebrochen».

Alle diese Formulierungen müssen auf den gleichen semantischen Punkt kommen. Dabei können wir nicht auf die Grammatik gehen, sondern müssen Wörter auseinandernehmen können (Beinbruch), und aus Verben (gebrochen) Substantive machen können. Brüche gibt es viele, solche von Knochen, aber auch von Leisten, Ehen, Implantaten, Brillen etc. Eine einfache Annotation wird daraus kaum werden, sicher keine 1:1 oder n:1 Annotation.

Und wenn verschiedene Fachgebiete gemischt werden, wird es noch heikler: Ein Bruch ist ja nicht nur ein Knochenbruch, sondern auch ein Bruch in der Mathematik. Also etwas ganz anderes. Wie annotiere ich «Zürich»? Als Stadt, als Kanton, als Versicherung? «Berlin» kann je nach Kontext auch für das deutsche Kanzleramt stehen; ein «Berliner» ist ein Bürger oder eine Backware.

Fazit: Eine semantische Annotation ist komplex und ganz gewiss nicht mit einer einfachen n:1 Tabelle lösbar. Um wirklich semantisch zu annotieren, d.h. den Wörtern Bedeutungen zuzuweisen, muss man tiefer in die eigentliche Semantik einsteigen.

Versuch 2: Semantic Web

Initiator des Semantic Webs war der berühmte WWW-Erfinder Tim Berners-Lee. Seine Beobachtung war, dass im WWW die gesuchten Seiten zwar oft vorhanden, aber in der Fülle nicht auffindbar waren. Dem wollte er abhelfen, in dem er das Web selber semantisch machen wollte. Also nicht mehr die Anwender sollten die Semantik (Inhalte) der Internetseiten ergründen, sondern Berners-Lee’s Idee war, dass die Seitenanbieter im WWW ihre Semantik selber deklarieren. Auf diese Weise wäre gesuchte Annotation bereits verhanden. Und zwar nicht einfach als isolierter Punkt, wie «Zürich», sondern typisiert, also z.B. als «Stadt: Zürich». Die Typisierung ist ein echter und zweckmässiger Fortschritt. Der Charme der Typisierung besteht darin, dass die Mehrdeutigkeit angegangen werden. Ob Zürich nun die Stadt, den Kanton oder die Versicherung meint, kann durch ein entsprechend gebautes semantisches Netz klar unterschieden werden.

Das Problem ist nur: Welcher Seitenbetreiber macht sich die Mühe, seine Seite entsprechend semantisch zu verschlagworten? Und das Ganze funktioniert nur, wenn sich alle an das gleiche Einordnungssystem halten. Dazu kommen weitere Probleme, die sehr typisch sind für Versuche, ein semantisches Netz zu bauen. Ein solches Netz zu erstellen ist alles andere als banal, denn der Teufel steckt im Detail.

Und sobald das Netz einmal steht, kann es nicht mehr so einfach verändert werden. Das führt dann schnell zu faulen Kompromissen, Komplizierungen, Unschärfen, Varianten und Diskussionen.

Die grundlegende Frage dabei ist: Wie strukturieren wir das semantische Netz? Ich meine die abstrakte formale Struktur. Gibt es Oberbegriffe? Eigenschaften? Überschneidungen? Wie werden sie formal dargestellt? Gibt es eine «Logik» in der Semantik? Wir sind hier im Kern der wissenschaftlichen Semantik und meine Behauptung ist, dass die Scientific Community hier noch einiges dazuzulernen hat. Das Semantic Web basiert z.B. auf der RDF und OWL, zwei komplexen formalen Sprachen, welche kompliziert, unhandlich und trotzdem in ihren Möglichkeiten beschränkt sind.

Wenn die Annotation von den Seitenanbietern durchgeführt wird, können wir wegen des dafür nötigen Aufwands keine Durchgängigkeit und auch keine Einheitlichkeit erwarten.

Ideal wäre eine Software, welche die semantische Interpretation selbstständig und von aussen, also auf vorbestehende und frei formulierte Texte durchführen kann. Gibt es die? –

Die Antwort ist ja. Es gibt sogar zwei Herangehensweisen, die eine ist statistisch, die andere ist semantisch. Schauen wir zuerst die statistische an:

Versuch 3: Neuronale Netze (KI)

Neuronale Netze (NN) sind besser bekannt unter dem Namen «Künstliche Intelligenz«. Diese Systeme funktionieren über einen Lernkorpus, der viele Muster von Zuweisungen enthält, die vom NN maschinell  auf raffinierte Weise integriert werden. Anschliessend ermöglicht das NN weitere, bisher unbekannte Inputs auf die gleiche Weise zu verarbeiten wie im Lernkorpus. Es hat also die Interpretation «gelernt». Das kann sehr beeindruckend sein, und auch sehr nützlich. Allerdings kann das NN nichts wiedergeben, was nicht im Lernkorpus auf ähnliche Weise vorgegeben war. Die bekannten Schwächen der NN sind:

– Riesiger Lernkorpus nötig.
– Nur was im Korpus enthalten ist, kann erkannt werden.
– Seltenes mit grossen Auswirkungen (Black Swan) wird übersehen.
– Intransparenz der Schlüsse.
– Fehler im Korpus sind kaum korrigierbar.

Trotzdem sind Neuronale Netze für viele Anwendungen unglaublich effizient. Doch sie sind nicht semantisch. Sie urteilen nicht nach den Bedeutungen der Wörter, sondern nach statischen Gesichtspunkten. Was häufig zusammen vorkommt, gehört für sie zusammen. Das ist natürlich alles andere als sicher. Seltenere Bedeutungen fallen so unter den Tisch. Und was bedeuten die Wörter und Sätze überhaupt? Neuronale Netze zeigen nur statistische Nähe und überlassen die Bedeutungen dem Leser. Formale Musterekennung ist eine Stärke der Neuronalen Netze. Semantik nicht. Die Lösungen von Versuch 2, das Semantic Web der RDFs and OWL waren da schon näher dran.

Allerdings: In der Praxis haben die NN der kommerziellen Software-Anbieter die akademisch fundierten Versuche des Semantic Webs deutlich überholt. Die NN sind zwar nicht semantisch, aber sie sind im gegensatz zum Semantic Web real einsetzbar.

Ideal wäre jedicg eine Lösung, welche die Bedeutungen der Wörter auf eine ähnliche Weise findet, wie wir Menschen. Also ein Ansatz, der wirklich semantisch ist. Gibt es diesen?

Versuch 4: Begriffsmoleküle (BM)

Begriffsmoleküle sind eine Parallelentwicklung zum Semantic Web. Wie dieses setzen sie eine semantische Modellierung der anvisierten Wissensdomäne voraus. Der Unterschied liegt in der Art, wie die Semantik modelliert wird und wie Schlüsse gezogen werden. Sowohl das OWL des Semantic Web wie die alternativen Begriffsmoleküle sind regelbasiert, im Gegensatz zu den Neuronalen Netzen der KI, die korpusbasiert sind. Als regelbasierte Systeme sind OWL und BM transparent und können Schritt für Schritt untersucht werden. Ihre Begriffe zeigen eine klare Anordnung (semantische Architektur). Ihre Schlüsse sind formal geregelt. Das ist die Gemeinsamkeit. Der Unterschied liegt in der Art der semantischen Architektur und der Art der Schlussziehung (Inferenzmechanismus). Generell lässt sich sagen, dass die BM freier und offener sind als OWL.

Wie ist es möglich, eine freie und dynamische Semantik darzustellen und dabei so formal zu bleiben, dass unsere Gedanken für eine Maschine nachvollziehbar ist? Begriffsmoleküle versuchen genau das. Es geht dabei darum, zu modellieren, wie wir den gehörten Wörtern Bedeutungen zulegen.


Dies ist ein Beitrag zum Thema Semantik.


 

Mentale Welt

Was ist die mentale Welt?

Die mentale Welt ist die Welt in unserem Kopf. Es ist die Weise, wie wir die Welt wahrnehmen, sie umfasst unsere Empfindungen, Gefühle und Gedanken. Es ist eine ganz subjektive Welt.

In der Drei-Welten-Theorie ist die mentale Welt die dritte neben der physikalischen und die platonischen.

Unterschied zur physikalischen Welt

Während die physikalische Welt objektiv fassbar ist, bleibt die mentale subjektiv.

Mit anderen Worten: Während wir die Gegenstände der physikalischen Welt von aussen beobachten können, ist dies mit den Gegenständen der mentalen Welt nicht möglich.

Beispiel Farbe

Objektiv (physikalisch) sind die Farben messbar als Wellenlängen von Lichtwellen. So hat z.B. gelb oder blau eine bestimmte Wellenlänge, die in Nanometern objektiv messbar ist. Was wir wahrnehmen ist allerdings nicht die Wellenlänge. Wir haben einen subjektiven Eindruck von Gelb oder Blau, der zwar durch das physikalische Phänomen der Lichtwelle ausgelöst wird, doch was wir empfinden ist nicht die Wellenlänge, sondern ein ganz subjektiver Eindruck von gelber oder grüner Farbe. So nehmen wir z.B. grün als eine bestimmte Farbe wahr, die einem bestimmten Wellenlänge entspricht. Wie wir aus dem Zeichnungsunterricht wissen, kann das Grün aber aus blau und gelb gemischt werden. Das heisst, was auf unser Auge physikalisch eintrifft, ist eine Kombination von Photonen mit ‹blauer› und ‹gelber› Wellenlänge. Wir nehmen aber nicht diese beiden objektiv vorhandenen Wellenlängen wahr, sondern wir eimpfinden die Kombination als Grün, also als eine ganz andere Wellenlänge. Dieser subjektive Eindruck wird in der Literatur ‹Qualia‹ genannt.


Existiert die mentale Welt wirklich?

Oder ist sie einfach eine Auswirkung (Emanation) der physikalischen Welt? Viele Leute glauben dies. Der subjektive Eindruck, den wir empfinden, wird im Gehirn durch die elektrische Ströme erzeugt, die die Photonen auf unserer Netzhaut auslösen. In diesem Sinn existiert die mentale Welt nicht wirklich, sondern ist eine Emanation der physikalischen Welt, eine blosse Auswirkung der Physik, die uns die Farbempfindung vortäuscht.

Am anderen Ende des Spektrums stehen die Solipsisten und die radikalen Konstruktivisten wie Ernst von Glasersfeld. Für Solipsisten ist die mentale Welt – also ihre eigene Vorstellung – die einzige Welt, die sicher existiert. Alles andere kann eine Täuschung sein, ein Traum, nur die eigene Vorstellung ist sicher.

Wir haben also zwei Extreme

a) Physikalisten: Nur die physikalische Welt e xistiert, die mentale Welt wird völlig durch die physikalische konstruiert.

b) Solipsisten: Nur die mentale Welt existiert, sie täuscht uns die Existenz einer physikalischen Aussenwelt vor.

Interessanter als diese beiden Extreme sind die Meinungen dazwischen. Roger Penrose z.B. plädiert mit seiner Drei-Welten-Theorie dafür, keine der drei Welten als nicht-existierend auszuschliessen. Es geht ihm vielmehr darum, die Beziehungen der drei Welten zu klären.

Koexistenz

Dies ist auch meine Haltung: Obwohl es plausibel erscheint, die mentalen Empfindungen und Vorgänge als reine Auswirkungen der physikalsichen Welt zu sehen, erscheint es mir sinnvoll, die mentale Welt als eigene Welt anzusehen. Nicht weil sie nicht aus der physikalischen emaniert sein könnte, sondern weil sie auf diese Weise besser beschrieben werden kann. Um auf das Beispiel der Farben zurückzukommen: Es ist für das menschliche Verhalten irrelevant, ob grün mit seiner korrekten eigenen Wellenlänge oder mit einer Kombination von gelben und blauen Wellenlängen erzeugt wird, ich sehe immer die gleiche Farbe und verhalte mich auch entsprechend. Die Beschreibung des menschlichen Denkens, Empfindens und Verhaltens wird einfacher und gleichzeitig präziser, wenn wir die Vorgänge in der mentalen Welt direkt angehen. Dies ist möglich, aber nur von innen, wenn ich mir die Gedanken, Farben etc. der mentalen Welt selber vorstelle.

Auch eine Kommunikation über mentale Gegenstände (Gedanken, Farben etc.) ist möglich, setzt aber ebenfalls eine subjektiven Erfahrungsgrundlage voraus, diesmal eine, welche die Kommunikationsteilnehmer auf ähnliche Weise erlebt haben.


Wo spielt die mentale Welt eine Rolle?

Überall, wo es im innere Wahrnehmungen und Vorgänge geht, sind wir in der mentalen Welt.

Folgende Gebiete lassen sich kaum beschreiben, ohne die Existenz der mentalen Welt zu akzeptieren:

  • Psychologie
  • Kultur
  • Werte, Moral
  • Politik
  • Kunst

Die mentale Welt ist somit nicht ganz irrelevant.

Semantik

In meinem eigenen Gebiet, der Semantik, ist eine klare Trennlinie zwischen der objektiven und der subjektiven Welt erkennbar. Während Wörter und Sätze Teil der objektiven Welt sind, sind die Begriffe, also die Bedeutungen der Wörter, und die Gedanken, die mit den Sätzen ausgedrückt werden, Teil der subjektiven, d.h. der mentalen Welt.


Dies ist ein Beitrag zur Drei-Welten-Theorie.

Das Bit hat keine Bedeutung

Das Bit ist die Basis der IT

Unsere Informationstechnologie baut auf dem Bit auf. Alles, was in unseren Computern geschieht, basiert auf diesem kleinsten Basiselement der Information. Wenn Sie gefragt werden, was ein einzelnes Bit bedeutet, werden Sie möglicherweise antworten, dass das Bit zwei Zustände einnehmen kann, von denen der eine 0 ist und der andere 1 bedeutet. Auf diese Weise können wir bekanntlich beliebig hohe Zahlen schreiben, wir müssen einfach genügend Bits hintereinander reihen.

Aber stimmt das auch? Bedeutet wirklich der eine Zustand im Bit 0 und der andere 1? Können die beiden Zustände nicht auch ganz andere Bedeutungen annehmen?

Dem Bit können beliebige Bedeutungen zugeschrieben werden

In der Tat können die beiden Zustände des Bits irgendeine Bedeutung einnehmen. Beliebt sind neben 0/1 auch Wahr/Falsch, Ja/Nein, Positiv/Negativ, aber im Prinzip und in der Praxis können dem Bit von aussen irgendwelche Bedeutungen zugeschrieben werden. Selbstverständlich sind auch Umkehrungen erlaubt, also neben 0/1 auch 1/0.

Die Zuschreibung der Bedeutung des Bits erfolgt von aussen

Ob das konkrete Bit im Computerprogramm nun 0/1 oder 1/0 oder irgendetwas anderes bedeutet, spielt selbstverständlich eine entscheidende Rolle. Die Bedeutung liegt aber nicht im Bit selber, denn das Bit ist eine höchst radikale Abstraktion. Es sagt nur aus, dass zwei Zustände existieren und welcher zur Laufzeit gerade aktuell ist. Was die beiden aber bedeuten, ist eine ganz andere Geschichte, die über das einzelne Bit weit hinausgeht. In einem Computerprogramm kann z.B. deklariert werden, dass das Bit dem Wertepaar TRUE/FALSE entspricht. Das gleiche Bit kann aber auch mit anderen Bits zusammen als Teil einer Zahl oder eines Buchstabencodes interpretiert werden – sehr unterschiedliche Bedeutungen also, je nach Programmkontext.

Digitaler und analoger Kontext

Das Softwareprogramm ist der digitale Kontext und er besteht selbstverständlich aus weiteren Bits. Diese Bits aus der Umgebung können verwendet werden, um die Bedeutung eines Bits zu bestimmen. Nehmen wir an, unser Bit sei mit weiteren Bits daran beteiligt, den Buchstaben ‹f› zu definieren. Unser Programm sei auch so organisiert, dass dieser Buchstabe in eine Tabelle zu stehen kommt, und zwar in eine Spalte, die mit ‹Geschlecht› überschrieben ist. All dies ist in der Software klar geregelt. Legt nun die Software die Bedeutung des Bits fest? Sicher sind Sie nicht überrascht, wenn das ‹f› die Bedeutung ‹feminin› hat und die Tabelle vermutlich verschiedene Personen auflistet, die männlich oder weiblich (f) sein können. Was aber bedeuten männlich und weiblich? Erst in der analogen Welt bekommen diese Ausdrücke eine Bedeutung.

Das Bit, die perfekte Abstraktion

Das Bit stellt in der Tat den Endpunkt einer radikalen Informationsabstraktion dar. Die Information ist im einzelnen Bit soweit auf das absolut Elementare reduziert, dass die Information über die Bedeutung aus dem Bit vollständig herausgenommen worden ist. Das Bit sagt nur noch aus, dass zwei – ausserhalb des Bits beschriebene – Zustände existieren und welcher der beiden zu einem bestimmten Zeitpunkt aktuell ist.

Diese radikale Abstraktion ist gewollt und in einer Software sehr sinnvoll. Denn so kann das gleiche physische Bit im Chip des Computer immer wieder neu verwendet werden, einmal als TRUE/FALSE-Paar, einmal als 0/1, einmal als JA/NEIN usw. Das ist sehr praktisch und ermöglicht dem Computer, beliebige Aufgaben zu erfüllen. Die dadurch gewonnene perfekte Abstraktion nimmt dem einzelnen Bit aber gleichzeitig seine individuelle Bedeutung und diese kann und muss dann für jede Anwendung von aussen neu gegeben werden.

Der unendliche Regress

Wenn die Bedeutung des Bits von aussen gegeben wird, dann können natürlich andere Bits diese Aufgabe übernehmen und die Bedeutung des einen Bits definieren. Dazu müssen aber diese äusseren Bits die entsprechende Wirkkraft haben, die natürlich nicht ohne deren eigenen Bedeutung zu haben ist. Und selbstverständlich liegen die Bedeutungen der Bits dieses äusseren Kreises nicht in diesen Bits selber – aus den gleichen Gründen wie oben – sondern sie müssen von aussen, d.h. von einem weiteren Kreis von Bits gegeben werden. Die Bits dieses zweiten äusseren Kreises müssen in einem weiteren Kreis erklärt werden und die Bedeutung der Bits dieses weiteren Kreises wiederum von einem noch äusseren  …  Selbstverständlich kommt dieser Prozess der Bedeutungszuordnung in einer Welt von Bits nie an sein Ende, der Regress ist unendlich.

Erst im Analogen endet der unendliche Regress

Erst wenn wir aus dem Programm in die Realwelt heraustreten, können wir den Informationen aus dem Computer wirkliche eine Bedeutung zuordnen.

Selektiver und deskriptiver Informationsgehalt

Wenn wir das oben Beschriebene rekapitulieren können wir im Bit Folgendes unterscheiden:

Der deskriptive Informationsgehalt sagt aus, was das Bit bedeutet, er beschreibt die beiden Zustände des Bits, sagt aber nicht aus, welcher Zustand aktuell gewählt ist.  Der selektive Informationsgehalt andererseits sagt aus, welcher der beiden Zustände aktuell ist, weiss aber nichts über die Eigenschaften der beiden Zustände, und somit auch nichts über ihre jeweilige Bedeutung.

Die Unterscheidung zwischen selektivem und deskriptivem Informationsgehalt wurden vom britischen Radar-Pionier und Informationswissenschaftler Donald McKay in den 40-er Jahren des letzten Jahrhunderts geprägt, praktisch gleichzeitig mit der ersten Erwähnung und Beschreibung des klassischen Bits durch den Amerikaner Shannon. McKay hat auch bereits sehr klar erkannt, dass das Bit von Shannon nur einen selektiven Informationsgehalt trägt und der deskriptive muss von aussen gegeben werden.

Erstaunlicherweise ist diese Erkenntnis von McKay heute beinahe in Vergessenheit geraten.

Fazit:

1. Das Bit liefert den selektiven Informationsgehalt.
2. Der deskriptive Informationsgehalt liegt nicht im Bit.
3. Das Bit hat allein somit auch keine Bedeutung.
4. Die Bedeutung des Bits wird stets von aussen gegeben.
5. Dadurch wird ein unendlicher Regress initiiert.
6. Erst im Analogen endet der unendliche Regress.

Zwei Arten von Kodierung 2

Die beiden Arten von Kodierung in Mengendarstellungen

Ich möchte an den ersten Beitrag zu Zwei Arten von Codierung anschliessen und den Unterschied zwischen den beiden Arten von Kodierung mit Mengen-Diagrammen verdeutlichen, denn ich denke, dass der Unterschied für das Gebiet der Semantik und für die allgemeine Informationstheorie wichtig genug ist, um allgemein verstanden zu werden.

Informationserhaltende Kodierung

Den informationserhaltenden Typus der Kodierung, kann man mit folgendem Diagramm darstellen:

Mengendiagramm 1:1-Kodierung
Abb 1: Informationserhaltende Kodierung (1:1, alle Kodes erreichbar)

Links sei die ursprüngliche, rechts die kodierte Form. Der rote Punkt könnte links z.B. der Buchstabe A sein, rechts der Morsekode Punkt-Strich. Da es sich um eine 1:1 – Abbildung handelt, findet man von jedem Element rechts sicher wieder zum Ausgangselement links, vom Punkt-Strich des Morsecodes also wieder den Buchstaben A.

Mengendiagramm 1:1-Kodierung, nicht alle Kodes erreicht
Abb. 2: Informationserhaltende Kodierung (1:1, nicht alle Kodes erreichbar)

Eine 1:1 Kodierung ist natürlich auch dann informationserhaltend, wenn nicht alle Kodes benützt werden. Da die unbenutzten bei der Kodierung nie entstehen können, spielen sie gar keine Rolle. Von jedem für einen Kode benützten Element der Abbildungsmenge rechts gibt es genau ein Element der Ausgangsform. Der Kode ist dadurch ohne Informationsverlust reversibel, d.h. dekodierbar und die ursprüngliche Form kann für jeden entstehenden Kode verlustfrei wieder hergestellt werden.

Mengendarstellung: Informationserhaltende Kodierung (1:n)
Abb. 3: Informationserhaltende Kodierung (1:n)

Auch bei einer 1:n – Kodierung kann die ursprüngliche Form verlustfrei rekonstruiert werden. Ein Ursprungselement kann zwar auf verschiedene Weise kodiert werden, doch jeder Kode hat nur ein Ursprungselement. Somit kann der Ausgangswert zweifelsfrei wieder erreicht werden. Auch hier spielt es keine Rolle, ob alle möglichen Kodes (Elemente rechts) gebraucht werden oder nicht, da nicht verwendete mögliche Kodes nie erreicht und somit auch nicht rückübersetzt werden müssen.

Bei allen bisher dargestellten Kodierverhältnissen (1:1 und 1:n) kann die ursprüngliche Information wieder vollständig rekonstruiert werden. Dabei kommt es nicht darauf an, ob 1:1 oder 1:n, und ob alle möglichen Kodes verwendet werden oder manche auch frei bleiben. Wichtig ist nur, dass jeder Kode immer nur von einem Ursprungselement erreicht werden kann – mathematisch gesprochen handelt es sich bei den informationserhaltenden Kodierungen um linkseindeutige Relationen.

Informationsreduzierende Kodierung
Mengendiagramm: Informationsreduzierende Kodierung
Abb. 4: Informationsreduzierende Kodierung (n:1)

Hier gibt es nun in der Ausgangsmenge mehrere Elemente, die auf den gleichen Kode, d.h. auf das gleiche Element in der Menge der entstehenden Kodes zeigen. Dadurch kann die ursprüngliche Form später nicht mehr rekonstruiert werden. Der rote Punkt in der Abbildungsmenge rechts repräsentiert einen Kode für den es drei unterschiedliche Ausgangsformen gibt. Die Information über den Unterschied zwischen den drei Punkten geht dadurch rechts verloren und kann nicht mehr rekonstruiert werden. Mathematiker sprechen von einer Relation, die nicht linkseindeutig ist. Kodierungen von diesem Typ verlieren Information.

Dies Art Kodierung ist zwar weniger «sauber»,  trotzdem ist sie aber genau diejenige, die uns besonders interessiert, da sie in der Realität für viele Vorgänge typisch ist.

Zwei Arten von Codierung 1

Ein simpler Knochenbruch

Um im Gesundheitswesen Transparenz zu schaffen werden die medizinischen Diagnosen codiert. Dies ist nötig, weil die Diagnosen sehr unterschiedlich formuliert werden können. So kann ein Patient z.B. an Folgendem leiden:

– einem Armbruch
– einer distale Fraktur des Radius
– einer Radiusfraktur loco classico
– einer geschlossenen Extensionsfraktur am distalen Radius
– einem Bruch der Speiche links
– einem Knochenbruch am linken Unterarm
– einer Fx des dist. Radius li
– einer Colles-fracture

Alle obigen Ausdrücke können den gleichen Sachverhalt bezeichnen, einmal präziser formuliert, einmal weniger und mit unterschiedlichen Wörtern und Abkürzungen. Die Liste liesse sich noch lange fortsetzen. Ich habe mich während Jahrzehnten mit solchen Ausdrücken befasst und kann Ihnen versichern, dass es ohne Übertreibung Milliarden von unterschiedlichen, aber absolut korrekten Formulierungen für medizinische Diagnosen gibt.

Selbstverständlich entzieht sich dieser Wust von Freitexten einer statistischen Bearbeitung und deshalb werden die Diagnosen codiert. Häufig wird dabei der ICD (International Classification of Diseases) Code verwendet, der ja nach Variante zwischen 15’000 und 80’000 Codes umfasst. Zehntausende von Codes sind natürlich viele, aber in Anbetracht der Milliarden von möglichen Textformulierungen sind die ICD-Codes vergleichsweise überschaubar.

Wie die Interpretation der Texte automatisiert wird, sodass sie von einem Computerprogramm durchgeführt werden kann, ist übrigens eine hochspannende Angelegenheit.

Morsecode 

Ein Morsecode dient der Kommunikation in Fällen wo nur ganz einfache Signale gesendet werden können. Die Buchstaben des Alphabets werden vom Sender als Punkte und Striche codiert und so gesendet und vom Empfänger decodiert, also wieder in Buchstaben umgewandelt. So wird ein E zu einem Punkt und ein A zu einem Punkt, gefolgt von einem Strich. Der Vorgang der Codierung/Decodierung ist perfekt umkehrbar, die Abbildung ist eineindeutig.

Kryptographie

Auch hier soll der Code wieder in die ursprüngliche Form zurückübersetzt werden. Der Unterschied zum Morsecode besteht einzig darin, dass die Übersetzungsvorschrift nur einem kleinen Kreis bekannt sein soll und meist auch etwas komplizierter ist. Wie beim Morsecode soll die verschlüsselte Form aber die gleiche Information tragen wie die ursprüngliche Form.

Informationsreduktion

Morsecode und kryptographische Codes haben beide das Ziel, dass am Ende der Empfänger wieder die ursprüngliche Botschaft herstellen kann. Die Information soll unverändert bleiben, nur die äussere Form ändert sich.

Beim ICD-Code ist die Situation aber eine ganz andere. Es geht dabei nicht um die Wörter, die 1:1 austauschbar sind, wie z.B. im obigen Beispiel das Wort Radius und das Wort Speiche . Bei der ICD-Codierung geht es nicht um umkehrbare Abbildungen. Es geht vielmehr darum, dass Information bewusst unter den Tisch fällt und definitiv verloren geht. Die ICD-Codes sind Schubladen, die mit unterschiedlichen Diagnosen gefüllt werden.  Und das mit gutem Grund: Es gibt einfach zu viele Detaillierungen bei den Diagnosen. So kann eine Fraktur folgende voneinander unabhängige Charakteristika aufweisen:

– Name des betroffenen Knochens
– Stelle am betroffenen Knochen
– Zustand der Hautbarriere (offen/geschlossen)
– Gelenkbeteiligung (intraartikulär/extraartikulär)
– Richtung der Fehlstellung (Flexion, Extension …)
– Art der Bruchlinie (spiral, etc).
– Zahl und Art der Bruchfragmente (Monoblock, Trümmerfraktur)
– Ursache (Trauma, Tumor-Metastase, Ermüdung)
– u.v.m.

Alle diese Merkmale sind kombinierbar, was sich mathematisch als Multiplikation der Möglichkeiten präsentiert. Eine medizinische Statistik kann selbstverständlich nicht alle Kombinationsvarianten berücksichtigen, deshalb berücksichtigt der Diagnosecode nur wenige und die ICD kommt in Deutschland und der Schweiz mit weniger als 20’000 Schubladen für die gesamte Medizin zurecht. Welche Information die Schubladen berücksichtigen und welche nicht, ist ein wichtiges Thema, sowohl für die Akteure im Gesundheitswesen wie auch für uns, die wir uns informationstheoretische (und -praktische!) Überlegungen zum Codiervorgang machen.

Zwei Arten von Codierung

Ich halte den oben genannten Unterschied für bedeutsam. Einerseits haben wir Codierungen, die das Ziel haben, die Information zu erhalten und nur die Form zu ändern, so wie der Morsekode und kryptographische Verschlüsselungen. Andererseits haben wir Codierungen wie die medizinische Diagnosecodierung, deren Ziel es ist, die Menge an Information zu reduzieren. Der Grund dieser Informationsreduktion ist, dass die Ursprungsmenge an Information zu gross ist und sie zum Zweck der Übersichtlichkeit vereinfacht werden muss – meist drastisch. Informationsreduzierende Codierung verhält sich entscheidend anders als informationserhaltende.

Dieser Unterschied hat es in sich. Mathematische Modelle und wissenschaftliche Theorien, die für die informationserhaltende Codierung gelten, sind für die informationsreduzierende nicht verwendbar. Wir stehen hier informationstheoretisch vor einer ganz anderen Situation. Mehr dazu in Zwei Arten von Kodierung 2.


Die Informationsreduktion ist ein Vorgang, der bei realer Informationsverarbeitung häufig an entscheidender Stelle vorkommt. Einen Einstieg in das Thema Informationsreduktion finden Sie hier.

Semantik und Linguistik

Was ist Semantik?

Eine einfache und gut verständliche Antwort ist, dass Semantik die Bedeutung von Signalen ist. Wenn wir uns mit Semantik beschäftigen, untersuchen wir also, welche Bedeutungen hinter den Signalen stecken.

Die Signale können in irgendeiner Form vorliegen, als Text, als Bild usw. Am häufigsten wird die Semantik von Wörtern gesucht. Unsere hoch entwickelte Sprache unterscheidet uns Menschen von den Affen und gibt uns die Möglichkeit, komplexe und abstrakte Denkinhalte in Wörter zu fassen. Diese Denkinhalte sind die Semantik, d.h. die Bedeutungen, die wir in Wörter fassen (codieren) und aus den Wörtern herauslesen (decodieren).

Offensichtlich besteht ein enger Zusammenhang zwischen Wörtern und ihrer Semantik, so eng, dass Semantik oft als Teil der Sprachwissenschaft angesehen wird. Ein guter Grund also, das Verhältnis der Sprachwissenschaft (Linguistik) zur Semantik zu untersuchen.

Linguistik und Semantik

Linguistik als Lehre von Sprache und Sprachen hat schon immer die Grammatiken der Sprachen untersucht. Wenn die Grammatik (Syntax) eines Satzes verstanden ist, sehen die Linguisten zwei weitere Aufgaben, nämlich als nächstes die Semantik des Satzes und als drittes seine Pragmatik zu untersuchen. Bei der „Semantik“ geht es ihnen um die Bedeutung der Wörter und Sätze, bei der „Pragmatik“ um das „Warum“ einer Aussage, also um den grösseren Zusammenhang.

Der Dreischritt der Linguisten

Es gibt somit in den Augen der Linguisten einen Dreischritt beim Verstehen von Sprache: Syntax -> Semantik -> Pragmatik. Diese drei Aufgaben werden von den Linguisten ganz unterschiedlich gewichtet: ein konventionelles Lehrbuch behandelt vorwiegend Fragen der Syntax, während Semantik und Pragmatik nur am Rand vorkommen – und stets auf der Basis der vorher durchgeführten Syntaxanalyse. Die Syntaxanalyse der Linguisten stellt somit bereits die Weichen für das, was darauf aufbaut, nämlich Semantik und Pragmatik.

Das ist für die Semantik nicht wirklich ideal. Wenn man sich näher mit Semantik befasst, wird klar, dass Grammatik und andere Eigenheiten der jeweiligen Sprachen Äusserlichkeiten darstellen, welche den Kern der Aussagen – ihre Bedeutung – zwar auf gelegentlich sehr elegante Weise umschreiben, aber eben nur umschreiben und nicht vollständig und schon gar nicht direkt repräsentieren. Eine direkte formale Darstellung des mit dem Text Gemeinten wäre aber für eine wissenschaftliche Semantik das eigentliche Ziel.

Ist das Ziel erreichbar? Wir müssen uns als erstes über das Verhältnis von Wörtern und Begriffen klar werden – Wörter und Begriffe sind nicht dasselbe! Begriffe sind die Grundelemente der Semantik und sie haben einen speziellen, aber nicht ganz einfachen Bezug zu den Wörtern der Sprache.

Wort nicht gleich Begriff

Man könnte leichtfertig annehmen, dass eine 1-zu-1-Beziehung zwischen Wörtern und Begriffen besteht, dass also hinter jedem Wort ein Begriff steht, der zusammenfasst, was die Bedeutung des Wortes ist. Doch genau dies ist falsch. Wörter und Begriffe lassen sich nicht eindeutig aufeinander abbilden. Dass das so ist, kann jeder selbst erkennen, der sich beim Lesen, Sprechen und Denken beobachtet.

Es ist offensichtlich, dass ein Wort mehrere Bedeutungen haben kann, je nachdem in welchem Zusammenhang es gesprochen wird. Ein Wort kann gelegentlich auch gar keine Bedeutung haben, z.B. wenn es ein Fachwort ist und ich das Gebiet nicht kenne. Dann kann ich das Wort zwar nachsprechen, aber es bleibt für mich bedeutungsleer. Das Wort hat für mich somit keinen Begriff. Trotzdem kann es jemand verstehen, der das Sachgebiet versteht.

Bedeutung hat viel mit dem Empfänger zu tun

Wenn wir über diesen Sachverhalt noch etwas länger nachdenken, wird uns klar, dass Fachwörter wie Zitronensäurezyklus oder II-V-I-Progression für die meisten Leute keine Bedeutung haben. Aber nicht nur Fachwörter, auch ganz normale Wörter, die wir alle kennen, haben keine sichere, eindeutige Bedeutung, sondern können je nach Zuhörer oder Kontext eine jeweils leicht unterschiedliche Vorstellung (Bedeutung) hervorrufen. Dabei handelt es sich nicht nur um abstrakte Wörter oder Wörter mit wechselnden Wertvorstellung, wie Glück, Demokratie, Wahrheit usw., auch ganz konkrete Begriffe wie Hund, Wasser, Haus werden von verschiedenen Menschen verschieden bewertet.

Bedeutungen variieren

Auch in uns selber existieren für das gleiche Wort ganz unterschiedliche Vorstellung, je nach Situation verbinden mit dem gleichen Wort wir unterschiedliche Vorstellungen.

Umgekehrt kann die gleiche Vorstellung mit ganz unterschiedlichen Wörtern belegt werden. So können das deutsche Tisch und das englische table problemlos für die gleiche Vorstellung, den gleichen Begriff verwendet werden. Ganz problemlos ist die Geschichte aber nicht: Tisch und table sind keineswegs Synonyme: Zum Beispiel meint das englische table auch Tabelle, das deutsche Tisch aber nicht. Weitere Beispiele für die Inkongruenz von Wort und Begriff kann leicht jeder selber finden.

Semantik untersucht das Spiel der Bedeutungen

Wir müssen akzeptieren, dass ein Wort und ein Begriff sich nicht so einfach auf einander abbilden lassen. Obwohl es im Einzelfall durchaus so scheinen kann, als stünde hinter jedem Wort genau ein Begriff (eine Semantik), ist dies in Wirklichkeit eine völlig unangebrachte Vorstellung. Und diese verhindert, dass das Spiel der Bedeutungen korrekt verstanden wird. Doch genau dieses Spiel der Bedeutungen ist es, das m.E. die Semantik als Wissensgebiet ausmacht.


Dies ist ein Beitrag zum Thema Semantik.


Semantik, der blinde Fleck

Wohin gehört die Semantik?

Wenn Semantik als Wissenschaftsthema eingeordnet werden soll, bieten sich z.B. folgende Fächer an:

a) Linguistik
b) Informationstheorie
c) Mathematik
d) Psychologie
e) Philosophie

Die breite Auswahl zeigt, dass eine Zuordnung nicht selbstverständlich ist. Vielleicht haben ja alle diese Fächer recht, Semantik auf ihre Weise zu behandeln. Ich plädiere aber dafür, Semantik als ein eigenes Gebiet zu betrachten, mit eigenen Problemstellung und Lösungen und insbesondere auch mit eigenen formalen Methoden. Diese bauen nicht auf linguistischen oder mathematischen Methoden auf, sondern nehmen solche gegebenenfalls für klar definierte Aufgaben zu Hilfe, so wie die Physik mathematische Methoden zu Hilfe nimmt.

Semantik als eigenes Fachgebiet

Wenn Semantik als Bedeutung von Wörtern oder Daten definiert wird, so ist klar, dass die Wörter in jedem Fachgebiet ihre eigene Bedeutung, d.h. ihre eigene Semantik haben. Diese aber ist die Semantik des Fachgebietes und nicht die Semantik als Fachgebiet selber. Semantik als Fachgebiet hat mit der Darstellung und dem Prozessieren von Bedeutungen zu tun.

Wir haben somit zwei verschiedene Ebenen:

  •  Die Bedeutungen des Gegenstände des jeweiligen Fachgebietes
  • Die Methode, mit welcher die Bedeutungen dargestellt werden (also eine Art Metaebene)

Es ist klar, dass nur letzteres das Fachgebiet der Semantik selber darstellen kann.

Der blinde Fleck

Im Auge werden die eingehenden Lichtstrahlen auf der Netzhaut abgebildet. Die über die ganze Netzhaut verstreuten Signale werden in einem eng umschriebenen Gebiet gebündelt, wo sie in den Sehnerv eintreten. An diesem Ort sehen wir nichts, da eintreffende Lichtsignale dort keine Lichtrezeptoren vorfinden, weil dieses Gebiet bereits vollständig von der Infrastruktur der Weiterleitung, dem Sehnerv,  beansprucht wird. Bemerkenswerterweise fällt uns die Blindheit an dieser Stelle nicht auf. Sobald wir nämlich einen Gegenstand ansehen wollen, der sich an dieser Stelle befindet, fokussieren wir ihn. Das bedeutet, dass wir das Auge so bewegen, dass wir den anvisierten Gegenstand nun neu an der Stelle des schärfsten Sehens haben. Der blinde Fleck fällt uns dadurch nicht mehr auf. Wir sind an dieser Stelle doppelt blind. Der blinde Fleck  ist nicht nur blind, weil wir dort nichts sehen, wir sind darüber hinaus blind bezüglich der Tatsache, dass wir dort nichts sehen.

Bei der Semantik ist es genau gleich. Sie taucht in jedem Fachgebiet auf, um die Gegenstände des Fachgebiets zu beschreiben, gehört aber selber nicht zum Fachgebiet. Sie spielt also immer eine Rolle, aber man sieht sie nicht.

Soviel zum blinden Fleck – und weshalb wir Probleme haben, Semantik als solche, d.h. als eine Methode der Beschreibung von Bedeutung zu erkennen.

Dieser Beitrag ist fortgesetzt in: Und aussen war das Wort (1)


Dies ist ein Beitrag zum Thema Semantik.