Schlagwort-Archive: NMR

Die drei Neuerungen der regelbasierten KI

Haben die neuronalen Netze die regelbasierten Systeme abgehängt?

Es ist nicht zu übersehen: Die korpusbasierte KI hat die regelbasierte KI um Längen überholt. Neuronale Netze machen das Rennen, wohin man schaut. Schläft die Konkurrenz? Oder sind regelbasierte Systeme schlicht nicht in der Lage, gleichwertige Ergebnisse wie neuronale Netze zu erzielen?

Meine Antwort ist, dass die beiden Methoden aus Prinzip für sehr unterschiedliche Aufgaben prädisponiert sind. Ein Blick auf die jeweiligen Wirkweisen macht klar, wofür die beiden Methoden sinnvollerweise eingesetzt werden. Je nach Fragestellung ist die eine oder die andere im Vorteil.

Trotzdem bleibt das Bild: Die regelbasierte Variante scheint auf der Verliererspur. Woher kommt das?

In welcher Sackgasse steckt die regelbasierte KI?

Meines Erachtens hat das Hintertreffen der regelbasierten KI damit zu tun, dass sie ihre Altlasten nicht loswerden will. Dabei wäre es so einfach. Es geht darum:

  1. Semantik als eigenständiges Wissensgebiet zu erkennen
  2. Komplexe Begriffsarchitekturen zu verwenden
  3. Eine offene und flexible Logik (NMR) einzubeziehen.

Wir tun dies seit über 20 Jahren mit Erfolg. Andernorts allerdings ist
die Notwendigkeit dieser drei Neuerungen und des damit verbundenen Paradigmenwechsels noch nicht angekommen.

Was bedeuten die drei Punkte nun im Detail?

Punkt 1: Semantik als eigenständiges Wissensgebiet erkennen

Üblicherweise ordnet man die Semantik der Linguistik zu. Dem wäre im Prinzip nichts entgegen zu halten, doch in der Linguistik lauert für die Semantik eine kaum bemerkte Falle: Linguistik beschäftigt sich mit Wörtern und Sätzen. Der Fehler entsteht dadurch, dass man die Bedeutung, d.h. die Semantik, durch den Filter der Sprache sieht und glaubt, ihre Elemente auf die gleiche Weise anordnen zu müssen, wie die Sprache das mit den Wörtern macht. Doch die Sprache unterliegt einer entscheidenden Einschränkung, sie ist linear, d.h. sequenziell: Ein Buchstabe kommt nach dem anderen, ein Wort nach dem anderen.  Es ist nicht möglich, Wörter parallel nebeneinander zu setzen. Im Denken können wir das aber. Und wenn wir die Semantik von etwas untersuchen, geht es darum, wie wir denken und nicht, wie wir sprechen.

Wir müssen also Formalismen finden für die Begriffe, wie sie im Denken vorkommen. Die Beschränkung durch die lineare Anordnung der Elemente und die sich daraus ergebende Notwendigkeit, behelfsweise und in jeder Sprache anders mit grammatikalischen Kunstgriffen Klammerungen und komplexe Beziehungsstrukturen nachzubilden, diese Beschränkung gilt im Denken nicht und wir erhalten dadurch auf der semantischen Seite ganz andere Strukturen als auf der sprachlichen Seite.

Wort ≠ Begriff

Was sicher nicht funktioniert, ist eine simple «semantische Annotation» von Wörtern. Ein Wort kann viele, sehr unterschiedliche Bedeutungen haben. Eine Bedeutung (= ein Begriff) kann durch unterschiedliche Wörter ausgedrückt werden. Wenn man Texte analysieren will, darf man nicht die einzelnen Wörter, sondern muss immer den Gesamtkontext ansehen. Nehmen wir das Wort «Kopf». Wir sprechen z.B. vom Kopf eines Briefes oder vom Kopf eines Unternehmens. Wir können nun den Kontext in unseren Begriff hineinnehmen, indem wir den Begriff <Kopf< mit anderen Begriffen verbinden. So gibt es einen <Körperteil<Kopf< und eine <Funktion<Kopf<.  Der Begriff links (<Körperteil<) sagt dann aus, von welchem Typ der Begriff rechts (<Kopf<) ist. Wir typisieren also. Wir suchen den semantischen Typ eines Begriffs und setzen ihn vor den Unterbegriff.

Konsequent komposite Datenelemente

Die Verwendung typisierter Begriffe ist nichts Neues. Wir gehen aber weiter und bilden ausgedehnte strukturierte Graphen, diese komplexen Graphen bilden dann die Basis unserer Arbeit. Das ist etwas ganz anderes als die Arbeit mit Wörtern. Die Begriffsmoleküle, die wir verwenden, sind solche Graphen, die eine ganz spezielle Struktur aufweisen, sodass sie sowohl für Menschen wie für Maschinen leicht und schnell lesbar sind. Die komposite Darstellung hat viele Vorteile, einer ist z.B. dass der kombinatorischen Explosion ganz einfach begegnet wird und so die Zahl der atomaren Begriffe und Regeln drastisch gekürzt werden kann. Durch die Typisierung und die Attribute können ähnliche Begriffe beliebig geschärft werden, wir können mit Molekülen dadurch sehr präzis «sprechen». Präzision und Transparenz der Repräsentation haben darüber hinaus viel damit zu tun, dass die spezielle Struktur der Graphen (Moleküle) direkt von der multifokalen Begriffsarchitektur abgeleitet ist (siehe im folgenden Punkt 2).

Punkt 2: Komplexe Begriffsarchitekturen verwenden

Begriffe sind in den Graphen (Begriffsmoleküle) über Relationen verbunden. Die oben genannte Typisierung ist eine solche Relation: Wenn der <Kopf< als ein <Körperteil< gesehen wird, dann ist er vom Typ <Körperteil< und es besteht eine ganz bestimmte Relation zwischen <Kopf< und <Körperteil<, nämlich eine sogenannte hierarchische oderIS-A‹-Relation – letzteres darum, weil man bei hierarchischen Relationen immer ‹IST-EIN› sagen kann, also in unserem Fall: der <Kopf< ist ein <Körperteil<.

Die Typisierung ist eine der beiden grundlegenden Relationen in der Semantik. Wir ordnen eine Anzahl Begriffe einem übergeordneten Begriff, also ihrem Typ zu. Dieser Typ ist natürlich genauso ein Begriff und er kann deshalb selber wieder typisiert werden. Dadurch entstehen hierarchische Ketten von ‹IS-A›-Relationen, mit zunehmender Spezifizierung, z.B. <Gegenstand<Möbel<Tisch<Küchentisch<. Wenn wir alle Ketten der untergeordneten Begriffe, die von einem Typ ausgehen, zusammenbinden, erhalten wir einen Baum. Dieser Baum ist der einfachste der vier Architekturtypen für die Anordnung von Begriffen.

Von dieser Baumstruktur gehen wir aus, müssen aber erkennen, dass eine blosse Baumarchitektur entscheidende Nachteile hat, die es verunmöglichen, damit wirklich präzis greifende Semantiken zu bauen. Wer sich für die verbesserten und komplexeren Architekturtypen und ihre Vor- und Nachteile interessiert, findet eine ausführliche Darstellung der vier Architekturtypen auf der Website von meditext.ch.

Bei den Begriffsmolekülen haben wir den gesamten Formalismus, d.h. die innere Struktur der Regeln und Moleküle selbst auf die komplexen Architekturen ausgerichtet. Das bietet viele Vorteile, denn die Begriffsmoleküle weisen jetzt in sich genau die gleiche Struktur auf wie die Achsen der multifokalen Begriffsarchitektur. Man kann die komplexen Faltungen der multifokalen Architektur als Gelände auffassen, mit den Dimensionen oder semantischen Freiheitsgraden als komplex verschachtelte Achsen. Die Begriffsmoleküle nun folgen diesen Achsen in ihrer eigenen inneren Struktur. Das macht das Rechnen mit den Molekülen so einfach. Mit simplen Hierarchiebäumen oder multidimensionalen Systemen würde das nicht funktionieren. Und ohne konsequent komposite Datenelemente, deren innere Struktur auf fast selbstverständliche Weise den Verzweigungen der komplexen Architektur folgt, auch nicht.

Punkt 3: Eine offene und flexible Logik (NMR) einbeziehen

Dieser Punkt ist für theoretisch vorbelastete Wissenschaftler möglicherweise der härteste. Denn die klassische Logik erscheint den meisten unverzichtbar und viele kluge Köpfe sind stolz auf ihre Kenntnisse darin. Klassische Logik ist in der Tat unverzichtbar – nur muss sie am richtigen Ort eingesetzt werden. Meine Erfahrung zeigt, dass wir im Bereich des NLP (Natural Language Processing) eine andere Logik brauchen, nämlich eine, die nicht monoton ist. Eine solche nichtmonotone Logik (NMR) erlaubt es, für das gleiche Resultat mit viel weniger Regeln in der Wissensbasis auszukommen. Die Wartung wird dadurch zusätzlich vereinfacht. Auch ist es möglich, das System ständig weiter zu entwickeln, weil es logisch offen bleibt. Ein logisch offenes System mag einen Mathematiker beunruhigen, die Erfahrung aber zeigt, dass ein NMR-System für die regelbasierte Erfassung des Sinns von frei formuliertem Text wesentlich besser funktioniert als ein monotones.

Fazit

Heute scheinen die regelbasierten Systeme im Vergleich zu den korpusbasierten im Hintertreffen zu sein. Dieser Eindruck täuscht aber und rührt daher, dass die meisten regelbasierten Systeme den Sprung in ein modernes System noch nicht vollzogen haben. Dadurch sind sie entweder:

  • nur für Aufgaben in kleinem und wohldefiniertem Fachgebiet anwendbar oder
  • sehr rigid und deshalb kaum einsetzbar oder
  • sie benötigen einen unrealistischen Ressourceneinsatz und werden unwartbar.

Wenn wir aber konsequent komposite Datenelemente und höhergradige Begriffsarchitekturen verwenden und bewusst darauf verzichten, monoton zu schliessen, kommen wir – für die entsprechenden Aufgaben – mit regelbasierten Systemen weiter als mit korpusbasierten.

Regelbasierte und korpusbasierte Systeme sind sehr unterschiedlich und je nach Aufgabe ist das eine oder das andere im Vorteil. Darauf werde ich in einem späteren Beitrag eingehen.


Dies ist ein Beitrag zum Thema künstliche Intelligenz (KI). Ein Folgebeitrag beschäftigt sich mit der aktuellen Verbreitung der beiden KI-Methoden.

Präzisierung der Herausforderungen an die regelbasierte KI

Die regelbasierte KI ist im Hintertreffen

Die Unterscheidung zwischen regelbasierter und korpusbasierter KI ist in mehrerer Hinsicht sinnvoll, denn die beiden Methoden funktionieren völlig unterschiedlich. Das bedeutet nicht nur, dass die Herausforderungen ganz andere sind, sondern in der Folge auch die Entwicklungsverläufe zeitlich nicht parallel erfolgen. Wenn heute von KI gesprochen wird, ist eigentlich nur die korpusbasierte gemeint, die regelbasierte scheint deutlich abgehängt zu sein.

Meines Erachtens hat das aber nur damit zu tun, dass die regelbasierte KI in eine Sackgasse gekommen ist, aus der sie erst herausfindet, wenn sie ihre spezifischen Herausforderungen richtig erkennt.  Deshalb sollen hier die Herausforderungen genauer beschrieben werden.

Übersicht über die Herausforderungen

Im Vorbeitrag habe ich vier Herausforderungen an die regelbasierte KI genannt. Die ersten beiden lassen sich nicht grundsätzlich verbessern. Es braucht Experten für die Regelerstellung und die müssen sowohl Experten für abstrakte Logik wie auch Experten des jeweiligen Fachgebietes sein. Daran lässt sich nicht viel ändern. Auch die zweite Herausforderung bleibt bestehen, das Finden solcher Experten bleibt ein Problem.

Besser steht es um die Herausforderungen drei und vier, nämlich um die grosse Zahl der nötigen Regeln und ihre Komplexität. Obwohl gerade diese beiden Herausforderungen scheinbar unveränderliche Hürden von beträchtlicher Höhe darstellen, können sie mit den nötigen Erkenntnissen einiges an Schrecken verlieren. Allerdings müssen beide Herausforderungen konsequent angegangen werden, und das heisst, dass wir einige liebgewordenen Gewohnheiten und Denkmuster über Bord werfen müssen. Das sehen wir uns jetzt genauer an.

Für die Regeln braucht es einen Raum und einen Kalkulus

Regelbasierte KI besteht aus zwei Dingen:

  • den Regeln, die eine Domain (Fachgebiet) in einem bestimmten Format beschreiben und
  • einem Algorithmus, der bestimmt, wann welche Regeln ausgeführt werden.

Um die Regeln zu bauen, brauchen wir einen Raum, der festlegt, aus welchen Elementen die Regeln bestehen können und dadurch auch, was innerhalb des Systems überhaupt ausgesagt werden kann. Ein solcher Raum besteht nicht von selber, sondern muss bewusst gestaltet werden. Und zweitens brauchen wir ein Kalkulus, d.h. einen Algorithmus, der festlegt, wie die so gebauten Regeln angewendet werden. Selbstverständlich können sowohl der Raum als auch der Kalkulus ganz unterschiedlich angelegt sein, und diese Unterschiede «machen den Unterschied», d.h. sie erlauben eine entscheidende Verbesserung der regelbasierten KI, allerdings um den Preis, dass liebgewordene Gewohnheiten über Bord geworfen werden müssen.

Drei Neuerungen

In den 90er Jahren haben wir in unserem Projekt Semfinder deshalb in Beides investiert, sowohl in die grundlegende Gestaltung des Begriffsraums wie auch in den Kalkulus. Wir haben unser regelbasiertes System auf der Grundlage folgender drei Neuerungen erstellt:

  • Datenelemente: Konsequent komposite Datenelemente (Begriffsmoleküle).
  • Raum: Multidimensional-multifokale Architektur.
  • Kalkulus: Non Monotonic Reasoning (NMR).

Diese drei Neuerungen wirken zusammen und erlauben es , mit weniger Datenelementen und Regeln mehr Situationen präziser abzufangen. Durch die multifokale Architektur kann besser, d.h. situationsgerechter und detaillierter modelliert werden. Da gleichzeitig die Zahl der Elemente und Regeln abnimmt, verbessert sich die Übersicht und Wartbarkeit. Durch die drei Neuerungen gelingt es, die Grenzen zu sprengen, die regelbasierten Systemen bisher bezüglich Umfang, Präzision und Wartbarkeit gesetzt waren.


Dies ist ein Beitrag zum Thema künstliche Intelligenz (KI). Im Folgebeitrag werden wir untersuchen, wie die drei oben genannten Neuerungen wirken.

Logodynamik

Logodynamik

Was sind die Kriterien für eine korrekte Logik? Dieser Text handelt von den zwei Formen der Logik, der statischen und der dynamischen. Bekannt ist den meisten Wissenschaftlern die statische Form, welche sich hervorragend dafür eignet, Beweise zu führen. Demgegenüber steht die dynamische Form der Logik, welche es erst möglich macht, Beweise zu finden.

Wie in allen Gebieten der Physik zwischen Statik und Dynamik, zwischen Zuständen und Veränderungen unterschieden wird, ist es sinnvoll, auch im Bereich der Logik zwischen Statik – Logostatik – und Dynamik – Logodynamik – zu unterscheiden.

Wozu dient Logik?

Geht es bei Logik ums Denken? Das dachte ich jedenfalls früher. Logik sei die Grundlage des korrekten Denkens, die «Lehre vom richtigen Denken«. Beim näheren Blick aber zeigt sich, dass es bei dem, was als Logik bezeichnet und studiert wird, nicht ums Denken, sondern ums Beweisen geht. Die klassische formale Logik der Mathematiker untersucht Aussagen im Hinblick auf ihre Gültigkeit, also bezüglich ihrer formalen Widerspruchsfreiheit, ganz unabhängig vom Inhalt der Aussagen. Wenn die Aussagen formal zu keinem Widerspruch führen, sind sie wahr, andernfalls sind sie falsch. So können Beweise formal abgesichert werden. Die Logik der Mathematiker ist damit eine Wissenschaft des Beweisens – und nicht des Denkens.

Denn Denken ist weit mehr als Beweisen. Jeder Denkende weiss, dass er die Beweise zuerst finden muss. Die Suche dafür erfolgt in einem im Prinzip offenen Feld. Doch nicht jeder Fund ist hilfreich. Als nächstes muss der Denkende die gefundenen Beweise in einem zur Fragestellung passenden Kontext bewerten. Auch dies erfolgt in einem offenen Feld, denn nicht jeder sieht den Kontext gleich. Und jeder bewusst Denkende hat schon erlebt, dass sein Kontext sich ändert. Was geschieht mit den Widersprüchen, die sich aus unterschiedlichen Sichtweisen und Zielvorgaben ergeben? Wer hat dann recht? Wie geht der Logiker mit Widersprüchen um? Ist sein Typ Logik geeignet, mit wechselnden Verhältnissen und unklaren und offenen Situationen umzugehen?

Um im Alltag und in der Wissenschaft brauchbar zu sein, muss eine Logik des Denkens sich diesen Fragen auf eine konkrete Weise stellen, die gleichzeitig offen und formal ist. Die klassische Logik der Mathematiker ist zwar formal perfekt. Das reicht für formal korrekte Beweise. Doch die Beweise sind nur gültig, wenn der Kontext zutrifft und die Fragestellung sorgfältig geklärt ist. Kontext und Fragestellung bleiben ausserhalb der mathematischen Logik. Wir brauchen dazu mehr als eine Wissenschaft des Beweisens, sondern eine Logik, welche den offenen Kontext einbezieht. Wie finden wir eine solche Logik? Und wie unterscheidet sie sich von der klassischen mathematischen Logik?


Statik und Dynamik

In der Physik werden Zustände und Abläufe unterschieden. Während Zustände die Kräfteverhältnisse in einem bestimmten Moment beschreiben, beschreiben die Abläufe, was geschieht, wenn die Kräfte zu wirken beginnen und sich die Zustände ändern. So beschreibt die Elektrostatik die elektrischen Verhältnisse in einem bestimmten Moment und die Elektrodynamik, was geschieht, wenn Ströme zu fliessen beginnen. In der Statik spielt die Zeit keine Rolle, in der Dynamik hingegen schon; dort ist die Zeit das entscheidende Merkmal.

Genau gleich können wir das beim Denken beobachten.

Der entscheidende Schritt liegt deshalb in der Erkenntnis, dass es eine statische und eine dynamische Logik gibt. Die statische dient dazu, das gewonnene Denksystem widerspruchsfrei zu halten und – innerhalb der gesetzten Grenzen – Beweise zu führen. Doch das ist nicht alles, was Denken können muss. Aktives Denken muss diese Grenzen überwinden und sich in einer offenen Welt bewegen, um Beweise zu finden und diese in einem offenen Denkraum zu bewerten.

Dazu braucht es eine dynamische Logik. Beide, die statische wie die dynamische Logik machen Sinn. Doch erst wenn wir den sicheren Garten der statischen Logik verlassen, können wir anfangen, das reale Denken zu untersuchen.


Klassische Logik = Logostatik

Die statische Logik prägte das abendländische Geistesleben über mehr als zwei Jahrtausende. Sie findet sich bei den Syllogismen des Aristoteles, in der Scholastik des Mittelalters bis hin zur heute gültigen Prädikatenlogik der Mathematiker, der sogenannten Prädikatenlogik Ersten Grades (englisch: First Order Logic = FOL).

Alle diese Logiken, von den Syllogismen des Aristoteles bis zur FOL der modernen Mathematiker, sind genuin statisch. Sie zeichnen sich durch eine logische Geschlossenheit aus, was von Vorteil ist bezüglich der Geschlossenheit der Beweise, aber auch von Nachteil, weil die Geschlossenheit es nicht erlaubt, über die einmal getroffenen Definitionen hinaus zu denken. Bei diesen Systemen hat jede Aussage einen allgemein gültigen, absoluten Wahrheitswert; die Aussage ist entweder wahr oder falsch – und das darf sich nicht ändern, weil sonst das ganze Beweissystem zusammenbricht.

Mit anderen Worten: Das logische Gebäude der klassischen Logik ist grundsätzlich und zwingenderweise statisch. Die Mathematiker bauen darauf und nenen eine solche statische Logik monoton.

Monotonie bedeutet, dass eine Aussage einen nicht änderbaren – d.h. monotonen – Wahrheitswert hat. In einer geschlossenen Logik ist das zwingenderweise und auch ganz sinnvollerweise so. Doch sobald das Denksystem geöffnet wird, können die einzelnen Aussagen nicht mehr als monoton wahr oder monoton falsch deklariert werden. Wenn wir Aussagen unterschiedlich (=nonmonoton) bewerten wollen, begeben wir uns auf das Feld der dynamischen Logik. Denn mit jeder Änderung gibt es ein Vorher und ein Nachher. Mit der Nonmonotonie kommt automatisch die Zeit in die Logik.


Dynamische Logik = Logodynamik

Wenn eine Aussage einmal als falsch und einmal als wahr betrachtet wird, führt das zu einem Widerspruch. Gilt die Aussage nun?

Während solche Widersprüche in einem klassischen Logiksystem nicht geduldet werden können, sind sie in einem dynamischen System entscheidende Elemente im offenen Netzwerk der Aussagen. Genau so wie sie es in unserem Denken sind. Denn Widersprüche sind nichts anderes als Ausgangspunkte für unser Denken. Sie zwingen uns zum Beispiel, Beobachtungen, die nicht zueinander passen, genauer anzusehen. Wenn Aussagen einander widersprechen, wollen wir darüber nachdenken, was nun gilt. Widersprüche, in klassischer Logik verboten, sind in dynamischer Logik der eigentliche Ausgangspunkt des Denkens. Genauso wie in der Physik eine elektrische Spannung die Energie für den Strom liefert, so bildet ein Widerspruch beim Denken die Spannung, um weiter zu denken.

Weiterdenken heisst aber immer auch, offen zu sein für ganz neue Aussagen. Denken muss ergebnisoffen sein. Denken kann Aussagen je nach Kontext neu bewerten. Denken kann auch zur Erkenntnis führen, dass eine Frage im Moment unbeantwortbar ist. Auch darin unterscheidet sich die dynamisch Logik von der klassischen Logik.

Statische Logik definiert zuerst ihre «Welt», das heisst alle Elemente, die später, bzw. überhaupt verwendet werden dürfen. Das System muss geschlossen sein. Die klassische Logik verlangt eine klare Grenzziehung (Definition) um die Welt eines Aussagensystems herum, und dies, bevor Schlüsse gezogen (gedacht) werden können. Freies Denken kann aber nicht geschlossen sein. Wir können immer neue Denkobjekte, Begriffe und Gedanken einbeziehen, neue Differenzierungen für bekannte Objekte austesten, neue Gründe für widersprechende Thesen finden, und die gefundenen Gründe in unterschiedlichsten Kontexten neu bewerten. Mit anderen Worten:

→  Wir lernen  ←

Denken heisst lernen. Und Lernen verlangt ein dynamisches, d.h. offenes System. Ein Logiksystem, das die Art, wie wir Menschen denken, abbilden soll, muss offen sein. Es kann nicht statisch sein.


Logik und Zeit

Die Zeit ist ist ein schwieriges Thema in der formalen Logik, aber sie ist entscheidend. In den klassischen logischen Systemen wie den Syllogismen oder der First Order Logic gibt es keine Zeit. Alles was gilt, gilt immer. In einer dynamischen Logik hingegen ist das nicht möglich. Was heute als wahr angesehen wird, kann morgen als Irrtum erkannt werden. Ohne diese Möglichkeit gäbe es kein Lernen. Das dynamische System erkennt die Zeit als ein notwendiges und internes Element der Logik. Das ist eine Folge der Non-Monotonie, also der Tatsache, dass in einer dynamischen Denklogik, Aussagen ihren Wahrheitsgehalt – falsch oder richtig – ändern können müssen. Diese Änderung erfolgt in der Zeit. Deshalb ist die Zeit keine Variable wie in der klassischen Logik, sondern ein konstituierendes Element innerhalb der Logik. Und dieses Zeitelement greift ganz tief in den Mechanismus der dynamischen Logik, in den «Grundschalter» der Logik ein, nämlich in das IF-THEN:

Was viele nicht wissen ist, dass das IF-THEN  der klassischen Logik genau genommen keine Zeit kennt. Die Aussage des IF und diejenige des THENs gelten in der klassischen mathematischen Logik immer gleichzeitig. Wenn das IF gilt, gilt auch das THEN, zwingend und ohne irgendeinen Zeitabstand dazwischen. Das IF-THEN der dynamischen Logik hingegen hat immer einen Zeitbezug: Das IF ist stets vor dem THEN. Das ist übrigens auch in der Informatik so. Ein Computerprogramm schaut zuerst das IF an und bewirkt dann das THEN. Computerprogramme sind dadurch näher bei der dynamischen Logik als es die mathematische Logik der Bool’schen Algebra ist.

Ein statisches System kann Zeit zwar als eine Variable einbeziehen, wie irgendeine andere Variable. Doch damit wird die Zeit nicht zu einem inneren Element des Logikprozesses. Erst die dynamische Logik kann das, mit dem bewusstem Einbezug der Zeit in die Logik des IF-THENS. Der Zeiteinbezug führt zum Bruch der Monotonie, die in der statischen Logik noch als selbstverständlich angesehen wurde.

Dieser interne Zeiteinbezug unterscheidet die dynamische von der statischen Logik.


Fazit Logodynamik

Dynamische Logiksysteme unterscheiden sich von statischen durch folgende drei Eigenschaften:

  1. Non-Monotonie: Widersprüche im System sind erlaubt.
  2. Offenheit: Jederzeit können neue Elemente im System auftauchen.
  3. Systeminterne Zeit: Zwischen IF und THEN vergeht Zeit.

Die drei Eigenschaften hängen zusammen und bedingen sich gegenseitig. Erst dynamische Logiksysteme erlauben es, Denkvorgänge abzubilden.

Die Logodynamik untersucht und formalisiert solche dynamischen Systeme.


Erste eine dynamische Logik erlaubt es, Denk- und Informationsprozesse in einen realen Rahmen zu sehen. Mehr zum Thema Logik -> Übersichtsseite Logik


 

Non-Monotonic Reasoning (NMR)

Begriffsmoleküle und NMR

Im Beitrag Zwei Arten von Codierung 1 habe ich die Aufgabe beschrieben, Computer die beeindruckende Vielfalt der medizinischen Diagnosen «verstehen» zu lassen. Dazu war es  nötig, die unterschiedlichen Diagnoseformulierungen beim Lesen durch den Computer in eine einheitliche Form zu überführen, welche alle semantischen Details in leicht abrufbarer Form repräsentiert.

Mit den Begriffsmolekülen ist uns das erfolgreich gelungen. Dabei halfen uns zwei Eigenschaften der Methode der Begriffsmoleküle, nämlich a) die konsequent komposite Repräsentation der Semantik, sowie b) ein Reasoner auf nicht-monotoner Basis. Die Verwendung eines nicht-monotonen Reasoners war damals überhaupt nicht im Trend. Die meisten Forschungsgruppen im Bereich der medizinischen Computerlinguistik waren gerade dabei, von der First-Order-Logic (FOL) auf Description Logic (DL) umzusteigen und glaubten, dass komplexe Semantiken am besten mit Hilfe von DL durch einen Computer interpretiert werden. In der Praxis allerdings zeigte sich, dass wir als kleine private Forschungsfirma ohne staatliche Unterstützung die erfolgreicheren waren. Wir setzten auf eine nicht-monotone Methode, während die anerkannte Lehrmeinung mit FOL und DL auf eine monotone Methode setzte.

Was ist monotone Logik?

Monotonie bedeutet in der Logik, dass durch Schlüsse gewonnene Aussagen ihren Wahrheitsgehalt nicht ändern, auch wenn neue Aussagen dazu kommen, die ihnen widersprechen. Was also im System als wahr erkannt wurde, bleibt wahr, was als falsch erkannt wurde, bleibt falsch. Nicht-Monotonie bedeutet umgekehrt, dass durch das System gezogene Schlüsse auch wieder in Frage gestellt werden können.

Was ist das Problem bei der Nicht-Monotonie?

Man muss sich im Klaren sein, dass Beweise nur in einem monotonen System möglich sind. In einem nicht-monotonen weiss man nie, ob nicht irgendwoher ein Argument kommt, das zu ganz anderen Schlüssen führt. Da Beweise z.B. in der Mathematik essentiell sind, ist es einleuchtend, dass die mathematische Logik ganz klar auf Monotonie setzt. 

Natürlich geht es bei der Computerlinguistik nicht um Beweise, sondern um korrekte Zuordnungen von Wörtern zu Begriffen. Der Vorteil, Beweise führen zu können, so wichtig er für die Mathematik ist, spielt für unsere Aufgabe keine Rolle.

Was ist das Problem bei der Monotonie?

Ein System, das seine Aussagen nicht verändern kann, ist nicht in der Lage, wirklich zu lernen. So funktioniert z.B. das menschliche Hirn mit Sicherheit nicht-monoton.

Ein monotones System muss auch geschlossen sein. In der Praxis sind wissenschaftliche Ontologien natürlich nicht geschlossen, sondern wachsen mit dem Erkenntnisfortschritt. Das gleiche Fortschreiten zeigt sich bei der Entwicklung eines Interpretationsprogramms. Auch hier gibt es eine kontinuierliche Verbesserung und Erweiterung, was monotone Systeme vor Probleme stellt.

Monotone Systeme können zudem mit Ausnahmen nicht so einfach umgehen. Jede Regel hat bekanntlich Ausnahmen und ein nicht-monotones System kann damit wesentlich gezielter und einfacher umgehen.

Nicht-Monotonie in der Praxis

Wenn man regelbasierte Systeme vergleicht, sind m.E. für unsere Aufgaben nicht-monotone den monotonen eindeutig vorzuziehen. Zwar ist die Nicht-Monotonie kein leichtes Pflaster und weist einige Fallen und Knacknüsse auf, doch die einfache Modellierbarkeit auch von detailreichen und komplexen Gebieten spricht für das nicht-monotone Reasoning.


Nicht-Monotonie ist eine Eigenschaft von dynamischen Logiken. Mehr zum Thema Logik -> Übersichtsseite Logik