Schlagwort-Archive: KI

Die Wurzeln der KI


Wie beeinflusst die Geschichte der KI ihre Zukunft?

Heute ist mit KI die Methode der  Neuronalen Netze gemeint. Dies ist eine ganz spezielle Form der Maschinenintelligenz, die auf der statistische Auswertung von riesigen Datenmengen beruht. Der geschichtliche Blick sieht sich neben dieser sehr erfolgreichen, statistischen Methode die Maschinenintelligenz ganz allgemein. Wie hat sich diese entwickelt? Was sind ihre Wurzlen. Wohin führt sie?

Heutige, offene Denker stellen der ‹traditionellen› Vergangenheit gern eine neue ‹originelle› Zukunft gegenüber. Doch wir wissen alle nicht, was in der Zukunft wirklich sein wird – auch wenn ich selber darüber gern spekuliere.

Die Tradition ist für die Zukunft nützlich, wenn man sich eingesteht, dass Sie folgende vier unterscheidbare Elemente enthält:

  1. Ungelöste Fragen, die heute beantwortet werden können und den Boden der Zukunft bilden
  2. Erkannte Fehler, die in der Zukunft korrigiert werden können
  3. Verschmähte Perlen, die von der Gegenwart ignoriert, aber in Zukunft wieder Bedeutung erlangen können.
  4. Bleibendes, das auch in Zukunft gilt

Diese unterschiedlichen Elemente der Tradition zu unterscheiden ist nicht einfach, doch genau darum geht es.


Wissenschaftsgeschichte

Wissenschaftsgeschichte hat mich seit der Schule interessiert. So enthält zum Beispiel die Medizingeschichte viele verblüffende Wendungen, was angewendeten Praktiken und die ihnen zugrundelegenden Erklärungen betrifft. Das ist faszinierend. Im Medizinstudium hat mich die Geschichte der Medizin brennend interessiert, die voll ist von Erneuerungen, Paradigmenwechseln und ideologischen Vorgaben. Sehr spannend, und den Ärzten und der Allgemeinheit kaum bekannt.

Ganz ähnlich steht es um die Geschichte der Informationswissenschaft. Auch hier sind die divergierenden Elemente a) bis d) deutlich zu erkennen, doch auch diese Geschichte ist der Allgemeinheit und den Fachspezialisten kaum bekannt. Die IT-Geschichte wird von den aktuellen Diskussionen um die AI und ihren Einfluss auf unsere Gesellschaft völlig überblendet. Dabei hilft erst der Blick auf die Geschichte, die heutigen Herausforderungen in einem nüchternen Blick zu sehen.


Informationswissenschaft

Die Geschichte der Informationswissenschaft kann bis zu den Syllogismen von Aristoteles zurückverfolgt werden. Rechenmaschinen und ihre Theorie finden sich z.B. im Mittelalter beim missionierenden Franziskaner und Logiker Ramon Lullus und im Barock beim Universalgelehrten Gottfried Wilhelm Leibniz.

In der Mitte des 20. Jahrhundert finden wir dann eine wirkmächtige Entwicklung, eine eigentliche ‹kybernetische Welle‹ mit vielen Facetten und Köpfen, die am Ursprung der heutigen IT-Explosion steht.

Zur Kybernetischen Welle gehört neben vielen anderen der Ingenieur Claude Shannon, der für die Telefongesellschaft Bell das Leibniz’sche Bit aufgegriffen und in die Berechnungen der Telefonsignale eingeführt hat, oder der Praktiker Zuse, der in Berlin den ersten funktionierenden Computer im heutigen Sinn gebaut hat. Zur  vielköpfigen ‹kybernetischen Welle› gehören unter anderen der Antroposoph und Logiker Gregory Bateson, der Österreich-Amerikaner Heinz von Förster, der Mathematikerschreck George Spencer-Brown, der britische Radarpionier Donald MacKay und die enthusiastische amerikanische Pionierszene der Kybernetik der 50-er und 60-er Jahre,  eine bemerkenswerte Kombination von intellektuellen Hippies und an neuen Techniken interessierten Nachrichtenoffizieren, die sich damals z.B. in den Macy-Konferenzen fanden, und die zusammen die gesamte heutige IT inklusive AI recht eigentlich begründet haben.


Zur kybernetischen Welle gehören für mich aber auch Nicht-Informatiker wie der Schriftsteller Stanislaw Lem, der in den «Sterntagebüchern» einen raumfahrenden Baron von Münchhausen auftreten lässt, Ijon Tichy genannt. In den fiktiven Reisebeschreibungen, die zwischen 1957 und 1971 entstanden, werden nicht zuletzt logische Probleme, insbesondere solche der KI, exemplarisch behandelt. Klügere Literatur zu Logik und Auswirkung der KI habe ich nirgendwo gefunden.

Auch der Mathematiker und Physiker Roger Penrose muss erwähnt werden, der zur Kosmologie der Entropie – der physikalischen Dimension von Information – geforscht hat und dessen Buch ‹Emperors New Mind‹ im Jahr 1989 als Kritik an einer überbordenden KI-Gläubigkeit entstand, im Endergebnis aber einen ausführlichen und fundierten Einblick in das physikalische Wissen am Ende des 20. Jahrhunderts ermöglicht.

Die erwähnten Kybernetiker, Philosophen, Naturwissenschaftler und Schriftsteller sind die praktischen Begründer und Vordenker der KI. Sie ringen stets auch um philosophischen Fragen. Sie beschäftigen sich nicht zuletzt intensiv mit der Fragen der Logik – geschlossen oder doch offen? – und der Rolle der KI, also der Frage, wie Intelligenz und Maschinen vereinbar sind.


Was bringt nun die Zukunft?​

Wir können die Zukunft gestalten, indem wir auf die oben erwähnten Elemente der Vergangenheit reagieren und versuchen …

  1. zu antworten: In den ungelösten Fragen der Verganenheit liegt die Zukunft
  2. zu erkennen: Die blinden Flecken und Tabus der Vergenheit.
  3. zu schätzen: Nicht alles von früher ist schlecht.
  4. zu behalten: Was ist der bleibende Kern?

 

Künstliche Intelligenz und Musik


Was kann KI in der Kunst und was nicht?

Der Schriftsteller Daniel Kehlmann studierte vor drei Jahren die Zusammenarbeit mit einem KI-System (CTRL) und berichtete über seine Erfahrungen beim Bau einer Kurzgeschichte. Die generative KI hat sich seither rasant weiterentwickelt. Kann sie jetzt kreativ sein? Speziell interessant ist die Fragestellung auf dem Gebiet der Musik, da Musik schon immer viel mit Mathematik zu tun hatte. Darüber hat Radio SRF im Rahmen ihrer KI-Woche eine hochaktuelle Sendung produziert.

Künstliche Intelligenz in der Diskothek von Radio SRF 2

Im Rahmen der wöchentlichen Musikdiskussion «Diskothek im Zwei» widmeten sich Redaktor Benjamin Herzog zusammen mit Musikwissenschaftler Michael Harenberg und Tonmeister Andreas Werner verschiedenen mittelalterlichen bis aktuellen Kombinationen von Algorithmen und hörbarer Musik.

Der Würfelkanon, Bach und Chopin

Der geschichtliche Rückblick bringt u.a. den «Würfelkanon» von W. A. Mozart, bei dem durch Kombinatorik immer neue Varianten möglich sind. Generative Intelligenz also, auf Basis von einfachen Kombinationsalgorithmen. 1957 liessen entusiatische Informatikfachleute einen Computer ein rudimentäres Streichquartett komponieren und aufführen. Besonders einladend für generative Intelligenz ist der Kontrapunkt des Barock, ein genaues Regelwerk für mehrstimmige Musik, das sich präzis algorithmisch formulieren lässt. Das führt dazu, dass immer wieder Musik im Stil von J. S. Bach von Computern komponiert wird. Aber ist das Bach? Die Diskothek bringt eine Invention nach Bach aus dem Jahr 1994 und lässt eine Mazurka nach Fréderic Chopin.

Genügen die einzelnen Komponenten, Phrasen und Motive, die uns die Komponisten erkennen lassen oder hat die KI jeweils wirklich kreative Werke selber komponiert? Wer ist der Komponist dieser Werke, Bach, die KI oder der Programmierer? Wie auch immer die Antwort ausfällt, interessant ist es allemal, die Werke mit einem kritischen Ohr anzuhören. Was ist es genau, was fehlt? Ist es der grosse Bogen, der fehlt? Die intelligent durchdachte Zusammenspiel der Komponenten? Der Wille, eine bestimmte Aussage zu machen? Mit anderen Worten, das Bewusstsein des menschlichen, bzw. maschinellen Komponisten?

Aktuelle Werke

Interessant und überraschend sind dann die aktuellen KI-Produktionen. Besonders aufgefallen sind mir:

  • George E Lewis: The reincarnation of blind Tom:
    Es handelt sich um ein Doppelkonzert für menschlichen Saxophonisten, KI-Klavier und Orchester, live aufgeführt in Donau-Eschingen 2024. Das Orchester spielte minutiös notierte Noten, der Saxaphonist inprovisierte völlig frei und die KI offenbar genauso frei. Sie ist generativ, aber auch analytisch, denn sie hört genau, an welcher Stelle der Komposition das Orchester sich befindet und reagiert darauf. Abgesehen von der spannenden Frage, wer nun wo jeweils kreativ ist, ist das Doppelkonzert auch ein farbiges und reiches Stück faszinierende Musik.
  • Holly Herndon: Proto. Album bei 4AD, 2019:
    Die Musikstudios der Pop- und Elektroszene sind seit vielen Jahren darauf spezialisiert, Stimmen zu verfremden. Die Sängerin Herndon hat ihre Stimme nun zu einem eigenen KI-Modell gemacht, das sie in vielen Parametern live verändern und einsetzen kann. Das Album fasziniert mit einer Vielzahl verschiedener Stimmungen und komplexer Geschichten.

Nicht nur die gespielten Musikbeispiele sind interessant. Grundsätzliche Fragen tauchen auf. Was macht die Kreativität aus? Ist es die Idee in der ursprünglichen Erfindung? Oder die Live-Performance? Oder der Interpret? Oder ist es ganz generell der Komponist und Musiker als Mensch, der in der Musik eine menschliche Erfahrung präsentiert, ganz persönlich und doch vom Zuhörer nachvollziehbar?

Imperfektion

Besonders interessant fand ich das Thema der Imperfektion. Schon KI-generierte Bilder sind auffällig makellos, gerade ihre Perfektion lässt sie beeindruckend, aber auch unmenschlich wirken. Genauso ist es mit rein KI-generierter Musik. Tonmeister Werner erkennt Ki-generierte Musik genau an dieser Perfektion, also am Fehlen von kleinen Verzögerungen, Kratzern im Klang, minimalen Intonationsfehlern usw. Moderne KI kann solche Imperfektionen zwar künstlich einbauen, doch ist das das gleiche?

Hier sehe ich den entscheidenden Unterschied: Die KI generiert zu schön, zu ‹gerade›, ein Einbau von Imperfektion erfolgt nicht natürlich, sondern wäre ein zusätzlicher Leistungsaufwand. Der Live-Musiker hingegen, auch der beste, kämpft dauernd mit der Imperfektion. Er kann die ungewollten Abweichungen nicht verhindern, so sehr er genau das auch geübt hat, doch er kann auf sie im Moment der Aufführung reagieren, indem er die kleinen Fehler im weiteren Gang der live gespielten Musik mit der Absicht des Stücks versöhnt, sie im sukzessive einbezieht und so automatisch zum Teil seines ganz persönlichen Stils macht. Seine persönliche und biologische Intelligenz, d.h. sein komplexes menschliches Gehirn und seine jahrelange Erfahrung und Übung macht das möglich. Weil wir Zuhörer auch Menschen sind, können wir sein Erleben mitempfinden, und das berührt uns.

Eine einfache KI wirkt schnell steril, auch bei Bildern. Komplexere Formen hingegen erscheinen oft ziellos, ihr perfekt gelerntes Material zufällig und ohne Plan und Absicht aneinanderreihend. Das trifft nun sicher weder auf Lewis noch Herndon zu. Bei beiden performt nicht die Maschine allein, vielmehr geht es um die Interaktion des menschlichen Musikers mit der Maschine, und umgekehrt. Die Interaktion ist das, was diese Experimente interessant macht.


Nachhören der Sendung im Internet:

https://www.srf.ch/audio/diskothek/kuenstliche-intelligenz-in-der-musik?id=dd4b2bf1-2204-3f04-b2fb-512353fbd52a#autoplay


 

Die 21. Reise und die künstliche Intelligenz

Littering im Weltraum ist nicht erst seit Elon Musks Starlink-Programm ein Thema und aktuell werden verschiedene Methoden zur Reinigung des zunehmend vermüllten Weltraums rund um unserer Erde diskutiert. Die Aufgabe ist nicht einfach, weil – aufgrund des zweiten Hauptsatzes, nämlich der unausweichlichen Entropiezunahme – jede Vermüllung die Tendenz hat, exponentiell zuzunehmen. Wenn eines der Tausenden von Schrottteilen im Weltraum von einem anderen Schrottteil getroffen wird, entstehen aus dem einen getroffenen Stück viele neue, mit irrer Geschwindigkeit herumfliegende Teile. Das Weltraumvermüllung ist also ein Selbstläufer mit zunehmend exponentieller Tendenz.

Aber kennen wir dieses Problem nicht schon lange? In den 60-er Jahren hatte der polnische Schriftsteller Stanislaw Lem bereits darüber geschrieben. Ich holte deshalb seine Zusammenstellung der Reisen des Kosmonauten Ijon Tichys hervor. In der 21. seiner Reisen trifft dieser auf einen vermüllten Planeten. Tichy, der weitgereiste Kosmonaut, schreibt:

«Jede Zivilisation, die in der technischen Phase steckt, beginnt allmählich in den Abfällen zu versinken, die ihr gewaltige Sorgen bereiten.»

Des weiteren beschreibt Tichy, wie deshalb die Abfälle in den Weltraum rund um den Planeten entsorgt werden, dort aber neue Probleme bereiten, was Folgen hat, die auch Kosmonaut Tichy zu spüren bekommt.

Doch die 21. Reise hat es aus noch ganz anderen Gründen in sich. Das Hauptthema dieser Reise ist – wie bei vielen Geschichten von Stanislaw Lem – die künstliche Intelligenz.

Tichy trifft auf dem jetzt gereinigten Planeten nicht nur auf eine weitere unliebsame Folge des zweiten Hauptsatzes (nämlich eine entartete Biogenetik), sondern auch auf einen Mönchsorden, der aus Robotern besteht. Diese Robotor diskutieren mit Tichy über die Bedingungen und Folgen ihrer künstlichen Intelligenz. So sagt z.B. der Roboterprior über die Beweiskraft von Algorithmen:

«Die Logik ist ein Werkzeug» erwiderte der Prior, «und aus einem Werkzeug resultiert nichts. Es muss einen Schaft und eine lenkende Hand haben.» (S. 272, Lem)

Ich selber bewegte mich – ohne dass mir der Zusammenhang und die mögliche Beeinflussung meiner Gedanken durch Stanislaw Lem bewusst war – ganz auf den Spuren von Lems Roboter-Priors und schrieb:

«Eine Instanz (Intelligenz) […]  muss zwecks Beurteilung der Daten den Bezug zwischen den Daten und dem Beurteilungsziel herstellen. Diese Aufgabe ist immer an eine Instanz mit einer bestimmten Absicht gebunden.» (Straub 2021, S. 64-65)

Lem hat bereits vor 50 Jahren  formuliert, was meines Erachtens den prinzipiellen Unterschied zwischen einer Werkzeug-Intelligenz und einer belebten (d.h. biologischen) Intelligenz ausmacht – nämlich die Absicht, welche die Logik lenkt. Bei der Maschine fehlt sie, bzw. wird sie von aussen (von wem?) eingebeben. Die menschliche Intelligenz hingegen kann – wenn wir keine Roboter sein wollen – ihre Ziele selber bestimmen. Sie besteht in den Worten von Lems Prior nicht nur aus der Logik, welche von der lenkenden Hand geführt wird, sondern beinhaltet die lenkende Hand mit.

Als Konsequenz dieser Überlegung folgt für mich bezüglich KI:

Wenn wir uns der technischen Möglichkeiten der KI bedienen (und weshalb sollten wir nicht?), dann sollten wir immer auch berücksichtigen, nach welchem Ziel unsere Algorithmen ausgerichtet sind.

Literatur

  • Lem, S. (1971) Sterntagebücher, Frankfurt am Main, Suhrkamp, 1978.
  • Straub, HR. (2021) Wie die künstliche Intelligenz zur Intelligenz kommt, St. Gallen, ZIM-Verlag.
  • Nowotny, H. (2021) In AI we Trust, Power, Illusion and Control of Predictive Algorithms, Cambridge/Medford, Polity Press.

Menupunkt: Künstliche Intelligenz


Ist KI gefährlich oder nützlich?

Diese Frage wird aktuell ausgiebig diskutiert. Es soll hier nicht darum gehen, wohlbekannte Meinungen zu wiederholen, sondern darum, Grundlagen der Technologie zu nennen, die Ihnen bisher ziemlich sicher unbekannt sind. Oder wissen Sie, woher die KI ihre Intelligenz hat?

Ich arbeite seit einem Vierteljahrhundert mit «intelligenten» Informatiksystemen und wundere mich vor allem darüber, dass wir der künstliche Intelligenz überhaupt eine eigenständige Intelligenz zubilligen. Genau die hat sie nämlich nicht. Ihre Intelligenz kommt stets von Menschen, welche die Daten nicht nur liefern, sondern sie auch bewerten müssen, bevor die KI sie verwenden kann. Trotzdem überrascht die KI mit einer immensen Leistungsfähigkeit und sinnvollen Anwendungen in den unterschiedlichsten Gebieten. Wie macht sie das?

2019 habe ich hier eine Blogserie zum Thema begonnen, zu der Sie unten eine Übersicht sehen. 2021 habe ich dann die Beiträge in einem Buch zusammengefasst, mit dem Titel Wie die künstliche Intelligenz zur Intelligenz kommt›


Hier folgen die Blogbeiträge:

Regelbasiert oder korpusbasiert?

Die Computerintelligenz verfügt über zwei grundlegend verschiedene Methoden: Sie kann entweder auf Regeln oder auf einer Datensammlung (=Korpus) beruhen. Im Einstiegsbeitrag stelle ich sie mit zwei charakteristischen Anekdoten vor:


Bezüglich Erfolg haben die korpusbasierten Systeme die regelbasierten offensichtlich überflügelt:


Die regelbasierten Systeme hatten es schwieriger. Was sind ihre Herausforderungen? Wie können sie ihre Schwächen überwinden? Und wo steckt bei ihnen die Intelligenz?


Zurück zu den korpusbasierten Systemen. Wie sind sie aufgebaut? Wie wird ihr Korpus zusammengestellt und bewertet? Was hat es mit dem neuronalen Netz auf sich? Und was sind die natürlichen Grenzen der korpusbasierten Systeme?


Als nächstes beschäftigen wir uns mit Suchmaschinen, die ebenfalls korpusbasierte Systeme sind. Wie gelangen sie zu ihren Vorschlägen? Wo sind ihre Grenzen und Gefahren? Weshalb entstehen z.B. zwingend Blasen?


Kann ein Programm lernen, ohne dass ein Mensch ihm gute Ratschläge zuflüstert? Mit Deep Learning scheint das zu klappen. Um zu verstehen, was dabei passiert, vergleichen wir zuerst ein einfaches Kartenspiel mit Schach: Was braucht mehr Intelligenz? Überraschend wird klar, dass für den Computer Schach das einfachere Spiel ist.

An den Rahmenbedingungen von Go und Schach erkennen wir, unter welchen Voraussetzungen Deep Learning funktioniert.


Im anschliessenden Beitrag gebe ich einen systematischen Überblick über die mir bekannten KI-Arten, skizziere kurz ihren jeweiligen Aufbau und die Unterschiede in ihrer Funktionsweise.

Wo steckt nun die Intelligenz?


Die angestellten Überlegungen lassen erkennen, was die natürliche Intelligenz gegenüber der künstlichen auszeichnet:


Ihre Leistungsfähigkeit zeigt die KI nur, wenn die Aufgabenstellung klar und einfach ist. Sobald die Fragestellung komplex wird, versagen sie. Oder sie flunkern, indem sie schöne Sätze, die sich in ihrem Datenschatz finden, so anordnen, dass es intelligent klingt (ChatGPT, LaMDA). Sie arbeiten nicht mit Logik, sondern mit Statistik, also mit Wahrscheinlichkeit. Aber ist das Wahr-Scheinliche auch immer das Wahre?

Die Schwächen folgen zwingend aus dem Konstruktionsprinzip der KI. Damit befassen sich weitere Beiträge:


 

Was der Korpus weiss – und was nicht

Die Erstellung des Korpus

In einem Vorbeitrag haben wir gesehen, wie der Korpus – die Basis für das neuronale Netz der KI – erstellt wird. Das neuronale Netz kann den Korpus auf raffinierte Weise interpretieren, aber selbstverständlich kann das neuronale Netz nichts aus dem Korpus herausziehen, was nicht drin steckt.

Das neuronale Netz holt das Wissen aus seinem Korpus
Abb. 1: Das neuronale Netz holt das Wissen aus seinem Korpus

Wie wird der Korpus erstellt? Ein Fachexperte ordnet Bilder einer bestimmten Klasse, einem bestimmten Typus zu, z.B. ‹fremde Panzer› versus ‹eigene Panzer›. Diese Zuordnungen des Experten sind in Abb. 2 die roten Pfeile, welche z.B. die Panzerbilder bewerten.

Abb. 2: Erstellung der Zuordnungen im Korpus
Abb. 2: Erstellung der Zuordnungen im Korpus

Selbstverständlich müssen die durch den menschlichen Experten erfolgten Zuordnungen der einzelnen Bilder zu den Zielkategorien korrekt sein. Doch das reicht nicht. Es bestehen prinzipielle Grenzen für die Auswertbarkeit eines Korpus durch ein noch so raffiniertes neuronales Netz.

Der Zufall regiert im zu kleinen Korpus

Wenn ich nur farbige Bilder der eigenen und schwarzweisse Bilder der fremden Panzer habe (siehe Einstiegsbeitrag zur KI), dann kann sich das System leicht irren und alle farbigen der eigenen und die schwarzweissen der fremden Armee zuordnen. Mit einem genügend grossen Korpus kann dieser Mangel zwar behoben werden, doch zeigt das Beispiel, wie wichtig die richtige Bestückung des Korpus ist. Wenn ein Zufall (farbig/schwarzweiss) entscheidend in den Korpus hineinspielt, wird das System falsche Schlüsse ziehen. Der Zufall spielt dabei eine umso grössere Rolle, je kleiner der Korpus, aber auch je grösser die Anzahl der möglichen ‹Outcomes› (= Anzahl der prinzipiell möglichen Resultate) ist.

Neben diesen relativen Hindernissen gibt es aber auch prinzipielle Grenzen der Auswertbarkeit eines KI-Korpus. Darauf gehen wir jetzt ein.

Raupen- oder Radpanzer?

Was im Korpus nicht drin ist, kann auch nicht herausgeholt werden. Selbstverständlich kann ich mit einem Panzer-Korpus keine Flugzeuge klassifizieren.

Neuronales Netz mit Panzern
Abb 3: Die Bewertung entscheidet – Korpus mit eigenen und fremden Panzern und entsprechend programmiertem Netz.

Was aber ist, wenn unser Panzersystem herausfinden soll, ob es sich um Raupen- oder um Radpanzer handelt? Im Prinzip können im Korpus ja Bilder von beiden Sorten von Panzern enthalten sein. Wie kann die Panzer-KI aus unserem Beispiel das erkennen?

Die einfache Antwort ist: gar nicht. Im Korpus hat das System zwar viele Bilder von Panzern und weiss bei jedem, ob es ein fremder oder eigener ist. Aber ist es ein Radpanzer oder nicht? Diese Information steckt im Korpus (noch) nicht drin und kann deshalb von der KI nicht herausgezogen werden. Zwar kann ein Mensch jedes einzelne Bild entsprechend beurteilen, so wie er das mit der Eigenschaft ‹fremd/eigen› gemacht hat. Aber dann ist es eine KI-fremde, von aussen zugeführte Intelligenz, die das tut. Das neuronale Netz kann das nicht selber leisten, da es nichts über Raupen oder Räder weiss. Es hat nur gelernt, eigene von fremden Panzern zu unterscheiden. Für jede neue Kategorie muss zuerst die Information in den Korpus gegeben (neue rote Pfeile in Abb. 2) und dann das neuronale Netz für die neuen Fragen geschult werden.

Eine solche Schulung muss zwar nicht zwingend am Panzer-Korpus erfolgen. Das System könnte auch anhand eines Korpus von ganz anderen Fahrzeugen lernen, ob sich diese sich auf Rädern oder Raupen bewegen. Auch wenn sich der Unterschied automatisch auf den Panzerkorpus übertragen lässt, muss doch das externe Räder/Raupen-System vorgängig trainiert werden – und zwar mit Zuordnungen, die wieder ein Mensch gemacht hat.

Selber, ohne vorgegebene Beispiele, findet das KI-System dies nicht heraus.

Fazit

  1. Aus einem Korpus können nur Schlüsse gezogen werden, die im Korpus angelegt sind.
  2. Die Kategorie-Zuordnungen (die roten Pfeile in Abb. 2) kommen immer von aussen, d.h. von einem Menschen.

In unserem Beispiel haben wir mit dem Panzerbeispiel eine typische Bilderkennungs-KI untersucht. Aber gelten die daraus gezogenen Schlüsse (siehe Fazit oben) auch für andere korpusbasierte Systeme? Und gibt es nicht so etwas wie ‹Deep Learning›, also die Möglichkeit, dass ein KI-System ganz von selber lernt?

Schauen wir deshalb im nächsten Beitrag einen ganz anderen Typ mit korpusbasierter KI an.


Dies ist ein Beitrag zum Thema künstliche Intelligenz.


 

Vergleich der Entwicklung der beiden KI-Methoden

Zwei KI-Methoden und ihre Herausforderungen

In meinem ersten Beitrag zur KI  habe ich die beiden bereits in den 90er-Jahren verwendeten, sehr unterschiedlichen KI-Methoden skizziert. Beide Methoden waren damals nicht in Hochform. Folgende Mängel standen ihnen im weg:

Bei der korpusbasierten waren es:
– Die Intransparenz der Schlussfolgerungs-Wege
– Die Notwendigkeit, einen sehr grossen und korrekten Lernkorpus aufzubauen.

Bei der regelbasierten waren es:
– Die Rigidität der mathematischen Logik
– Die Unschärfe unserer Wörter
– Die Notwendigkeit, sehr grosse Wissensbasen manuell aufzubauen
– Die Notwendigkeit, teure und seltene Fachexperten einzusetzen.

Was wurde seit den 90er-Jahren verbessert?

Wir haben den phänomenalen Aufschwung der korpusbasierten Technik erlebt; praktisch alles, was heute KI genannt wird, funktioniert über die korpusbasierte Methode und ist in der Tat sehr eindrücklich.

Im Gegensatz dazu waren die Hindernisse für die regelbasierte Methode – rigide Logik und vieldeutige Begriffe – nicht so leicht zu überwinden. Sie machten einen Paradigmenwechsel erforderlich, eine grundlegende Änderung der Denkweise: Weg von der Sicherheit der traditionellen Logik hin zu einem offenen System. Diesen Schritt wollten die akademischen Teams nicht gehen, weshalb die traditionelle regelbasierte Methode mehr oder weniger dort blieb, wo sie war. Die Hindernisse sind zwar nicht unüberwindlich, wie der Erfolg z.B. unserer Begriffsmoleküle zeigt, doch diese neue regelbasierte Methoden ist kaum bekannt.

Verbreitung der KI-Methoden im Verlauf der Zeit

Abb 1: Schätzung der Verbreitung der KI-Methoden.
Die Vertikalachse ist vertikal gestaucht, d.h. die Grössenverhältnisse sind noch drastischer als dargestellt. Die Kurve ist zudem oben abgeschnitten, da die exponentielle Zunahme der korpusbasierten Methode den Rahmen sprengen würde.

In Abb. 1 habe ich versucht darzustellen, wie sich der Einsatz der Methoden im Verlauf der Zeit verändert hat.  Während die korpusbasierten Methoden (grün) ihre Verbreitung exponentiell gesteigert haben, sind die regelbasierten (blau) praktisch stationär geblieben. Die verbesserte regelbasierte Methode der Begriffsmoleküle (gelb) wird zur Zeit erst marginal eingesetzt.


Dies ist ein Beitrag zum Thema künstliche Intelligenz (KI). Aber ist der Name überhaupt korrekt? Sind diese Systeme wirklich intelligent? Schauen wir als erstes die regelbasierte Intelligenz an.

Die drei Neuerungen der regelbasierten KI

Haben die neuronalen Netze die regelbasierten Systeme abgehängt?

Es ist nicht zu übersehen: Die korpusbasierte KI hat die regelbasierte KI um Längen überholt. Neuronale Netze machen das Rennen, wohin man schaut. Schläft die Konkurrenz? Oder sind regelbasierte Systeme schlicht nicht in der Lage, gleichwertige Ergebnisse wie neuronale Netze zu erzielen?

Meine Antwort ist, dass die beiden Methoden aus Prinzip für sehr unterschiedliche Aufgaben prädisponiert sind. Ein Blick auf die jeweiligen Wirkweisen macht klar, wofür die beiden Methoden sinnvollerweise eingesetzt werden. Je nach Fragestellung ist die eine oder die andere im Vorteil.

Trotzdem bleibt das Bild: Die regelbasierte Variante scheint auf der Verliererspur. Woher kommt das?

In welcher Sackgasse steckt die regelbasierte KI?

Meines Erachtens hat das Hintertreffen der regelbasierten KI damit zu tun, dass sie ihre Altlasten nicht loswerden will. Dabei wäre es so einfach. Es geht darum:

  1. Semantik als eigenständiges Wissensgebiet zu erkennen
  2. Komplexe Begriffsarchitekturen zu verwenden
  3. Eine offene und flexible Logik (NMR) einzubeziehen.

Wir tun dies seit über 20 Jahren mit Erfolg. Andernorts allerdings ist
die Notwendigkeit dieser drei Neuerungen und des damit verbundenen Paradigmenwechsels noch nicht angekommen.

Was bedeuten die drei Punkte nun im Detail?

Punkt 1: Semantik als eigenständiges Wissensgebiet erkennen

Üblicherweise ordnet man die Semantik der Linguistik zu. Dem wäre im Prinzip nichts entgegen zu halten, doch in der Linguistik lauert für die Semantik eine kaum bemerkte Falle: Linguistik beschäftigt sich mit Wörtern und Sätzen. Der Fehler entsteht dadurch, dass man die Bedeutung, d.h. die Semantik, durch den Filter der Sprache sieht und glaubt, ihre Elemente auf die gleiche Weise anordnen zu müssen, wie die Sprache das mit den Wörtern macht. Doch die Sprache unterliegt einer entscheidenden Einschränkung, sie ist linear, d.h. sequenziell: Ein Buchstabe kommt nach dem anderen, ein Wort nach dem anderen.  Es ist nicht möglich, Wörter parallel nebeneinander zu setzen. Im Denken können wir das aber. Und wenn wir die Semantik von etwas untersuchen, geht es darum, wie wir denken und nicht, wie wir sprechen.

Wir müssen also Formalismen finden für die Begriffe, wie sie im Denken vorkommen. Die Beschränkung durch die lineare Anordnung der Elemente und die sich daraus ergebende Notwendigkeit, behelfsweise und in jeder Sprache anders mit grammatikalischen Kunstgriffen Klammerungen und komplexe Beziehungsstrukturen nachzubilden, diese Beschränkung gilt im Denken nicht und wir erhalten dadurch auf der semantischen Seite ganz andere Strukturen als auf der sprachlichen Seite.

Wort ≠ Begriff

Was sicher nicht funktioniert, ist eine simple «semantische Annotation» von Wörtern. Ein Wort kann viele, sehr unterschiedliche Bedeutungen haben. Eine Bedeutung (= ein Begriff) kann durch unterschiedliche Wörter ausgedrückt werden. Wenn man Texte analysieren will, darf man nicht die einzelnen Wörter, sondern muss immer den Gesamtkontext ansehen. Nehmen wir das Wort «Kopf». Wir sprechen z.B. vom Kopf eines Briefes oder vom Kopf eines Unternehmens. Wir können nun den Kontext in unseren Begriff hineinnehmen, indem wir den Begriff <Kopf< mit anderen Begriffen verbinden. So gibt es einen <Körperteil<Kopf< und eine <Funktion<Kopf<.  Der Begriff links (<Körperteil<) sagt dann aus, von welchem Typ der Begriff rechts (<Kopf<) ist. Wir typisieren also. Wir suchen den semantischen Typ eines Begriffs und setzen ihn vor den Unterbegriff.

Konsequent komposite Datenelemente

Die Verwendung typisierter Begriffe ist nichts Neues. Wir gehen aber weiter und bilden ausgedehnte strukturierte Graphen, diese komplexen Graphen bilden dann die Basis unserer Arbeit. Das ist etwas ganz anderes als die Arbeit mit Wörtern. Die Begriffsmoleküle, die wir verwenden, sind solche Graphen, die eine ganz spezielle Struktur aufweisen, sodass sie sowohl für Menschen wie für Maschinen leicht und schnell lesbar sind. Die komposite Darstellung hat viele Vorteile, einer ist z.B. dass der kombinatorischen Explosion ganz einfach begegnet wird und so die Zahl der atomaren Begriffe und Regeln drastisch gekürzt werden kann. Durch die Typisierung und die Attribute können ähnliche Begriffe beliebig geschärft werden, wir können mit Molekülen dadurch sehr präzis «sprechen». Präzision und Transparenz der Repräsentation haben darüber hinaus viel damit zu tun, dass die spezielle Struktur der Graphen (Moleküle) direkt von der multifokalen Begriffsarchitektur abgeleitet ist (siehe im folgenden Punkt 2).

Punkt 2: Komplexe Begriffsarchitekturen verwenden

Begriffe sind in den Graphen (Begriffsmoleküle) über Relationen verbunden. Die oben genannte Typisierung ist eine solche Relation: Wenn der <Kopf< als ein <Körperteil< gesehen wird, dann ist er vom Typ <Körperteil< und es besteht eine ganz bestimmte Relation zwischen <Kopf< und <Körperteil<, nämlich eine sogenannte hierarchische oderIS-A‹-Relation – letzteres darum, weil man bei hierarchischen Relationen immer ‹IST-EIN› sagen kann, also in unserem Fall: der <Kopf< ist ein <Körperteil<.

Die Typisierung ist eine der beiden grundlegenden Relationen in der Semantik. Wir ordnen eine Anzahl Begriffe einem übergeordneten Begriff, also ihrem Typ zu. Dieser Typ ist natürlich genauso ein Begriff und er kann deshalb selber wieder typisiert werden. Dadurch entstehen hierarchische Ketten von ‹IS-A›-Relationen, mit zunehmender Spezifizierung, z.B. <Gegenstand<Möbel<Tisch<Küchentisch<. Wenn wir alle Ketten der untergeordneten Begriffe, die von einem Typ ausgehen, zusammenbinden, erhalten wir einen Baum. Dieser Baum ist der einfachste der vier Architekturtypen für die Anordnung von Begriffen.

Von dieser Baumstruktur gehen wir aus, müssen aber erkennen, dass eine blosse Baumarchitektur entscheidende Nachteile hat, die es verunmöglichen, damit wirklich präzis greifende Semantiken zu bauen. Wer sich für die verbesserten und komplexeren Architekturtypen und ihre Vor- und Nachteile interessiert, findet eine ausführliche Darstellung der vier Architekturtypen auf der Website von meditext.ch.

Bei den Begriffsmolekülen haben wir den gesamten Formalismus, d.h. die innere Struktur der Regeln und Moleküle selbst auf die komplexen Architekturen ausgerichtet. Das bietet viele Vorteile, denn die Begriffsmoleküle weisen jetzt in sich genau die gleiche Struktur auf wie die Achsen der multifokalen Begriffsarchitektur. Man kann die komplexen Faltungen der multifokalen Architektur als Gelände auffassen, mit den Dimensionen oder semantischen Freiheitsgraden als komplex verschachtelte Achsen. Die Begriffsmoleküle nun folgen diesen Achsen in ihrer eigenen inneren Struktur. Das macht das Rechnen mit den Molekülen so einfach. Mit simplen Hierarchiebäumen oder multidimensionalen Systemen würde das nicht funktionieren. Und ohne konsequent komposite Datenelemente, deren innere Struktur auf fast selbstverständliche Weise den Verzweigungen der komplexen Architektur folgt, auch nicht.

Punkt 3: Eine offene und flexible Logik (NMR) einbeziehen

Dieser Punkt ist für theoretisch vorbelastete Wissenschaftler möglicherweise der härteste. Denn die klassische Logik erscheint den meisten unverzichtbar und viele kluge Köpfe sind stolz auf ihre Kenntnisse darin. Klassische Logik ist in der Tat unverzichtbar – nur muss sie am richtigen Ort eingesetzt werden. Meine Erfahrung zeigt, dass wir im Bereich des NLP (Natural Language Processing) eine andere Logik brauchen, nämlich eine, die nicht monoton ist. Eine solche nichtmonotone Logik (NMR) erlaubt es, für das gleiche Resultat mit viel weniger Regeln in der Wissensbasis auszukommen. Die Wartung wird dadurch zusätzlich vereinfacht. Auch ist es möglich, das System ständig weiter zu entwickeln, weil es logisch offen bleibt. Ein logisch offenes System mag einen Mathematiker beunruhigen, die Erfahrung aber zeigt, dass ein NMR-System für die regelbasierte Erfassung des Sinns von frei formuliertem Text wesentlich besser funktioniert als ein monotones.

Fazit

Heute scheinen die regelbasierten Systeme im Vergleich zu den korpusbasierten im Hintertreffen zu sein. Dieser Eindruck täuscht aber und rührt daher, dass die meisten regelbasierten Systeme den Sprung in ein modernes System noch nicht vollzogen haben. Dadurch sind sie entweder:

  • nur für Aufgaben in kleinem und wohldefiniertem Fachgebiet anwendbar oder
  • sehr rigid und deshalb kaum einsetzbar oder
  • sie benötigen einen unrealistischen Ressourceneinsatz und werden unwartbar.

Wenn wir aber konsequent komposite Datenelemente und höhergradige Begriffsarchitekturen verwenden und bewusst darauf verzichten, monoton zu schliessen, kommen wir – für die entsprechenden Aufgaben – mit regelbasierten Systemen weiter als mit korpusbasierten.

Regelbasierte und korpusbasierte Systeme sind sehr unterschiedlich und je nach Aufgabe ist das eine oder das andere im Vorteil. Darauf werde ich in einem späteren Beitrag eingehen.


Dies ist ein Beitrag zum Thema künstliche Intelligenz (KI). Ein Folgebeitrag beschäftigt sich mit der aktuellen Verbreitung der beiden KI-Methoden.

Präzisierung der Herausforderungen an die regelbasierte KI

Die regelbasierte KI ist im Hintertreffen

Die Unterscheidung zwischen regelbasierter und korpusbasierter KI ist in mehrerer Hinsicht sinnvoll, denn die beiden Methoden funktionieren völlig unterschiedlich. Das bedeutet nicht nur, dass die Herausforderungen ganz andere sind, sondern in der Folge auch die Entwicklungsverläufe zeitlich nicht parallel erfolgen. Wenn heute von KI gesprochen wird, ist eigentlich nur die korpusbasierte gemeint, die regelbasierte scheint deutlich abgehängt zu sein.

Meines Erachtens hat das aber nur damit zu tun, dass die regelbasierte KI in eine Sackgasse gekommen ist, aus der sie erst herausfindet, wenn sie ihre spezifischen Herausforderungen richtig erkennt.  Deshalb sollen hier die Herausforderungen genauer beschrieben werden.

Übersicht über die Herausforderungen

Im Vorbeitrag habe ich vier Herausforderungen an die regelbasierte KI genannt. Die ersten beiden lassen sich nicht grundsätzlich verbessern. Es braucht Experten für die Regelerstellung und die müssen sowohl Experten für abstrakte Logik wie auch Experten des jeweiligen Fachgebietes sein. Daran lässt sich nicht viel ändern. Auch die zweite Herausforderung bleibt bestehen, das Finden solcher Experten bleibt ein Problem.

Besser steht es um die Herausforderungen drei und vier, nämlich um die grosse Zahl der nötigen Regeln und ihre Komplexität. Obwohl gerade diese beiden Herausforderungen scheinbar unveränderliche Hürden von beträchtlicher Höhe darstellen, können sie mit den nötigen Erkenntnissen einiges an Schrecken verlieren. Allerdings müssen beide Herausforderungen konsequent angegangen werden, und das heisst, dass wir einige liebgewordenen Gewohnheiten und Denkmuster über Bord werfen müssen. Das sehen wir uns jetzt genauer an.

Für die Regeln braucht es einen Raum und einen Kalkulus

Regelbasierte KI besteht aus zwei Dingen:

  • den Regeln, die eine Domain (Fachgebiet) in einem bestimmten Format beschreiben und
  • einem Algorithmus, der bestimmt, wann welche Regeln ausgeführt werden.

Um die Regeln zu bauen, brauchen wir einen Raum, der festlegt, aus welchen Elementen die Regeln bestehen können und dadurch auch, was innerhalb des Systems überhaupt ausgesagt werden kann. Ein solcher Raum besteht nicht von selber, sondern muss bewusst gestaltet werden. Und zweitens brauchen wir ein Kalkulus, d.h. einen Algorithmus, der festlegt, wie die so gebauten Regeln angewendet werden. Selbstverständlich können sowohl der Raum als auch der Kalkulus ganz unterschiedlich angelegt sein, und diese Unterschiede «machen den Unterschied», d.h. sie erlauben eine entscheidende Verbesserung der regelbasierten KI, allerdings um den Preis, dass liebgewordene Gewohnheiten über Bord geworfen werden müssen.

Drei Neuerungen

In den 90er Jahren haben wir in unserem Projekt Semfinder deshalb in Beides investiert, sowohl in die grundlegende Gestaltung des Begriffsraums wie auch in den Kalkulus. Wir haben unser regelbasiertes System auf der Grundlage folgender drei Neuerungen erstellt:

  • Datenelemente: Konsequent komposite Datenelemente (Begriffsmoleküle).
  • Raum: Multidimensional-multifokale Architektur.
  • Kalkulus: Non Monotonic Reasoning (NMR).

Diese drei Neuerungen wirken zusammen und erlauben es , mit weniger Datenelementen und Regeln mehr Situationen präziser abzufangen. Durch die multifokale Architektur kann besser, d.h. situationsgerechter und detaillierter modelliert werden. Da gleichzeitig die Zahl der Elemente und Regeln abnimmt, verbessert sich die Übersicht und Wartbarkeit. Durch die drei Neuerungen gelingt es, die Grenzen zu sprengen, die regelbasierten Systemen bisher bezüglich Umfang, Präzision und Wartbarkeit gesetzt waren.


Dies ist ein Beitrag zum Thema künstliche Intelligenz (KI). Im Folgebeitrag werden wir untersuchen, wie die drei oben genannten Neuerungen wirken.

Die Herausforderungen an die regelbasierte KI

Regelbasiert im Vergleich zu korpusbasiert

Die korpusbasierte KI (Typus «Panzer», siehe KI-Einstiegsbeitrag) konnte ihre Schwächen erfolgreich überwinden (siehe Vorbeitrag). Dafür reichte eine Kombination von «Brute Force» (verbesserte Hardware) und einem idealen Opportunitätsfenster, als nämlich während der superheissen Expansionsphase des Internets Firmen wie Google, Amazon, Facebook und viele andere grosse Datenmengen sammeln und damit ihre Datenkorpora füttern konnten. Und mit einem ausreichend grossen Datenkorpus steht und fällt die korpusbasierte KI.

für die regelbasierte KI aber reichte «Brute Force» nicht aus. Es nützte auch nichts, viele Daten zu sammeln, da für den Regelbau die Daten auch organisiert werden müssen – und zwar grossenteils von Hand, also durch menschliche Fachexperten.

Herausforderung 1: Unterschiedliche Mentalitäten

Nicht alle Menschen sind gleichermassen davon fasziniert, Algorithmen zu bauen. Es braucht dazu eine besondere Art Abstraktionsfähigkeit, gepaart mit einer sehr gewissenhaften  Ader – jedenfalls was die Abstraktionen betrifft.  Jeder noch so kleine Fehler im Regelbau wird sich unweigerlich auswirken. Mathematiker verfügen sehr ausgeprägt über diese hier gefragte konsequent-gewissenhafte Mentalität, aber auch Naturwissenschaftler und Ingenieure zeichnen sich vorteilhaft dadurch aus. Natürlich müssen auch Buchhalter gewissenhaft sein, für den Regelbau der KI ist aber zusätzlich noch Kreativität gefragt.

Verkäufer, Künstler und Ärzte hingegen arbeiten in anderen Bereichen. Oft ist Abstraktion eher nebensächlich, und das Konkrete ist wichtig. Auch das Einfühlungsvermögen in andere Menschen kann sehr wichtig sein. Oder man muss schnell und präzis handeln können, z.B. als Chirurg. Diese Eigenschaften sind alle sehr wertvoll, für den Algorithmenbau aber weniger wichtig.

Das ist für die regelbasierte KI ein Problem. Denn für den Regelbau braucht es sowohl die Fähigkeiten des einen und als auch das Wissen des anderen Lagers: Es braucht die Mentalität, die einen guten Algorithmiker ausmacht, gepaart mit der Denkweise und dem Wissen des Fachgebiets, auf das sich die Regeln beziehen. Eine solche Kombination des Fachgebietswissens mit dem Talent zur Abstraktion ist selten zu finden. In den Krankenhäusern, in denen ich gearbeitet habe, waren die beiden Kulturen in ihrer Getrenntheit ganz klar ersichtlich. Hier die Ärzte, die Computer höchstens für die Rechnungsstellung oder für gewisse teure technische Apparate akzeptierten, die Informatik allgemein aber gering schätzten, und dort die Informatiker, die keine Ahnung davon hatten, was die Ärzte taten und wovon sie überhaupt sprachen. Die beiden Lager gingen sich meist einfach aus dem Weg. Selbstverständlich war es da nihct verwunderlich, dass die für die Medizin gebauten Expertensysteme meist nur für ganz kleine Teilgebiete funktionierten, wenn sie nicht im blossen Experimentierstadium verharrten.

Herausforderung 2: Wo finde ich die Experten?

Experten, die kreativ und in den beiden Mentalitätslagern gleichermassen zuhause sind, sind selbstverständlich schwer zu finden. Erschwerend kommt hinzu: Es gibt kaum Ausbildungsstätten für diese Art Experten. Realistisch sind auch folgende Fragen: Wo sind die Ausbildner, die sich mit den aktuellen Herausforderungen auskennen? Welche Diplome gelten wofür? Und wie evaluiert ein Geldgeber auf diesem neuen Gebiet, ob die eingesetzten Experten taugen und die Projektrichtung stimmt?

Herausforderung 3: Schiere Menge an nötigen Detailregeln

Dass eine grosse Menge an Detailwissen nötig ist, um in einer Realsituation sinnvolle Schlüsse zu ziehen, war schon für die korpusbasierte KI eine Herausforderung. Denn erst mit wirklich grossen Korpora, d.h. dank des Internets und gesteigerter Computerleistung gelang es ihr, die riesige Menge an Detailwissen zu erfassen, das für jedes realistische Expertensystem eine der Basisvoraussetzungen ist.

Für die regelbasierte KI ist es aber besonders schwierig, die grosse Wissensmenge bereitzustellen, denn sie braucht für die Wissenserstellung Menschen, welche die grosse Wissensmenge von Hand in computergängige Regeln fassen. Das ist eine sehr zeitraubende Arbeit, die zudem die schwierig zu findenden menschlichen Fachexperten erfordert, die den oben genannten Herausforderungen 1 und 2 genügen.

In dieser Situation stellt sich die Frage, wie grössere und funktionierende Regelsysteme überhaupt gebaut werden können? Gibt es eventuell Möglichkeiten, den Bau der Regelsysteme zu vereinfachen?

Herausforderung 4: Komplexität

Wer je versucht hat, ein Fachgebiet wirklich mit Regeln zu unterfüttern, merkt, dass er schnell an komplexe Fragen stösst, für die er in der Literatur keine Lösungen findet. In meinem Gebiet des Natural Language Processing (NLP) ist das offensichtlich. Die Komplexität ist hier nicht zu übersehen. Deshalb muss unbedingt auf sie eingegangen werden. Mit anderen Worten: Das Prinzip Hoffnung reicht nicht, sondern die Komplexität muss thematisiert und intensiv studiert werden.

Was Komplexität bedeutet, und wie man ihr begegnen kann, darauf möchte ich in einem weiteren Beitrag eingehen. Selbstverständlich darf dabei die Komplexität nicht zu einer übermässigen Regelvermehrung führen (siehe Herausforderung 3). Die Frage, die sich für die regelbasierte KI stellt, ist deshalb: Wie kann ein Regelsystem gebaut werden, das Detailhaltigkeit und Komplexität berücksichtigt, dabei aber einfach und übersichtlich bleibt?

Die gute Botschaft ist: Auf diese Frage gibt es durchaus Antworten.


Dies ist ein Beitrag zum Thema künstliche Intelligenz (KI). In einem Folgebeitrag werden die Herausforderungen präzisiert.

Regelbasierte KI: Wo steckt die Intelligenz?

Zwei KI-Varianten: regelbasiert und korpusbasiert

Die in den Vorbeiträgen erwähnten beiden KI-Varianten sind auch heute noch aktuell, und beide haben bemerkenswerte Erfolge zu verbuchen. Sie unterscheiden sich nicht zuletzt darin, wo genau bei ihnen die Intelligenz sitzt. Schauen wir zuerst das regelbasierte System an:

Aufbau eines regelbasierten Systems

Bei der Firma Semfinder verwendeten wir ein regelbasiertes System. Ich zeichnete 1999 dafür folgende Skizze:

Grün: Daten
Braun: Software
Hellblau: Knowledge Ware
Dunkelblau: Knowledge Engineer

Die Skizze besteht aus zwei Rechtecken, die zwei verschiedene Orte bezeichnen. Das Rechteck links unten zeigt, was im Krankenhaus geschieht, das Rechteck rechts oben, was zusätzlich im Knowledge Engineering abläuft.

Im Krankenhaus liest unser Kodierprogramm die Freitexte der Ärzte, interpretiert sie  zu Begriffsmolekülen und weist diesen mit Hilfe einer Wissensbasis die entsprechenden Kodes zu. Die Wissensbasis enthält die Regeln, mit denen die Texte interpretiert werden. Diese Regeln werden bei uns in der Entwicklerfirma von Menschen (Human Experts) erstellt. Die Regeln sind vergleichbar mit den Algorithmen eines Software-Programms, nur dass sie in einer «höheren» Programmiersprache geschrieben sind, sodass auch Nicht-Informatiker, nämlich die Domain-Experten, die in unserem Fall Ärzte sind, sie einfach bauen und sicher warten können. Dazu verwenden sie den Wissensbasis-Editor, eine weitere Software, welche es erlaubt, die Regeln zu sichten, zu testen, zu modifizieren oder auch ganz neu zu bauen.

Wo sitzt nun die Intelligenz?

Sie steckt in der Wissensbasis. Aber es handelt sich nicht um wirkliche Intelligenz. Die Wissensbasis kann nicht selbstständig denken, sie führt nur aus, was ein Mensch ihr vorgegeben hat. Ich habe deshalb unser System nie als ein intelligentes bezeichnet. Intelligenz bedeutet im mindesten, dass man neue Dinge lernen kann. Die Wissensbasis lernt aber nichts. Wenn ein neues Wort auftaucht oder ein neuer Aspekt der Kodierung eingebaut wird, dann macht dies nicht die Wissensbasis, sondern der Knowledge Engineerjj, also der Mensch. Der Rest (Hardware, Software, Wissensbasis) führt nur aus, was der Mensch vorgibt. Die Intelligenz in unserem System war immer und ausschliesslich Sache der Menschen – also eine natürliche und keine künstliche.


Ist das bei der korpusbasierten Methode anders? Im Folgebeitrag schauen wir dazu ein solches korpusbasiertes System genauer an.

Dies ist ein Beitrag zum Thema künstliche Intelligenz.

Zur KI: Schnaps und Panzer

KI im letzten Jahrhundert

KI ist heute ein grosses Schlagwort, war aber bereits in den 80er und 90er Jahren des letzten Jahrhunderts ein Thema, das für mich auf meinem Gebiet des Natural Language Processing interessant war. Es gab damals zwei Methoden, die gelegentlich als KI bezeichnet wurden und die unterschiedlicher nicht hätten sein können. Das Spannende daran ist, dass diese beiden unterschiedlichen Methoden heute noch existieren und sich weiterhin essenziell voneinander unterscheiden.

KI-1: Schnaps

Die erste, d.h. die Methode, die bereits die allerersten Computerpioniere verwendeten, war eine rein algorithmische, d.h. eine regelbasierte. Beispielhaft für diese Art Regelsysteme sind die Syllogismen des Aristoteles:

Prämisse 1: Alle Menschen sind sterblich.
Prämisse 2: Sokrates ist ein Mensch.
Schlussfolgerung: Sokrates ist sterblich.

Der Experte gibt Prämisse 1 und 2 ein, und das System zieht dann selbstständig die Schlussfolgerung. Solche Systeme lassen sich mathematisch untermauern. Mengenlehre und First-Order-Logic (Aussagelogik ersten Grades) gelten oft als sichere mathematische Grundlage. Theoretisch waren diese Systeme somit wasserdicht abgesichert. In der Praxis sah die Geschichte allerdings etwas anders aus. Probleme ergaben sich durch die Tatsache, dass auch die kleinsten Details in das Regelsystem aufgenommen werden mussten, da sonst das Gesamtsystem «abstürzte», d.h. total abstruse Schlüsse zog. Die Korrektur dieser Details nahm mit der Grösse des abgedeckten Wissens überproportional zu. Die Systeme funktionierten allenfalls für kleine Spezialgebiete, für die klare Regeln gefunden werden konnten, für ausgedehntere Gebiete wurden die Regelbasen aber zu gross und waren nicht mehr wartbar. Ein weiteres gravierendes Problem war die Unschärfe, die vielen Ausdrücken eigen ist, und die mit solchen hart-kodierten Systemen schwer in den Griff zu bekommen ist.

Diese Art KI geriet also zunehmend in die Kritik. Kolportiert wurde z.B. folgender Übersetzungsversuch: Ein NLP-Programm übersetzte Sätze vom Englischen ins Russische und wieder zurück, dabei ergab die Eingabe:
«Das Fleisch ist willig, aber der Geist ist schwach» die Übersetzung:
«Das Steak ist kräftig, aber der Schnaps ist lahm.»

Die Geschichte hat sich vermutlich nicht genau so zugetragen, aber das Beispiel zeigt die Schwierigkeiten, wenn man versucht, Sprache mit regelbasierten Systemen einzufangen. Die Anfangseuphorie, die seit den 50er Jahren mit dem «Elektronenhirn» und seiner «maschinellen Intelligenz» verbunden worden war, verblasste, der Ausdruck «Künstliche Intelligenz» wurde obsolet und durch den Ausdruck «Expertensystem» ersetzt, der weniger hochgestochen klang.

Später, d.h. um 2000, gewannen die Anhänger der regelbasierten KI allerdings wieder Auftrieb. Tim Berners-Lee, Pionier des WWW, lancierte zur besseren Benutzbarkeit des Internets die Initiative Semantic Web. Die Experten der regelbasierten KI, ausgebildet an den besten technischen Hochschulen der Welt, waren gern bereit, ihm dafür Wissensbasen zu bauen, die sie nun Ontologien nannten. Bei allem Respekt vor Berners-Lee und seinem Bestreben, Semantik ins Netz zu bringen, muss festgestellt werden, dass die Initiative Semantic Web nach bald 20 Jahren das Internet nicht wesentlich verändert hat. Meines Erachtens gibt es gute Gründe dafür: Die Methoden der klassischen mathematischen Logik sind zu rigid, die komplexen Vorgänge des Denkens nachzuvollziehen – mehr dazu in meinen anderen Beiträgen, insbesondere zur statischen und dynamischen Logik. Jedenfalls haben weder die klassischen regelbasierten Expertensysteme des 20. Jahrhunderts noch die Initiative «Semantic Web» die hoch gesteckten Erwartungen erfüllt.

KI-2: Panzer

In den 90er Jahren gab es aber durchaus auch schon Alternativen, die versuchten, die Schwächen der rigiden Aussagenlogik zu korrigieren. Dazu wurde das mathematische Instrumentarium erweitert.

Ein solcher Versuch war die Fuzzy Logic. Eine Aussage oder eine Schlussfolgerung war nun nicht mehr eindeutig wahr oder falsch, sondern der Wahrheitsgehalt konnte gewichtet werden. Neben Mengenlehre und Prädikatenlogik hielt nun auch die Wahrscheinlichkeitstheorie Einzug ins mathematische Instrumentarium der Expertensysteme. Doch einige Probleme blieben: Wieder musste genau und aufwendig beschrieben werden, welche Regeln gelten. Die Fuzzy Logic gehört also ebenfalls zur regelbasierten KI, wenn auch mit Wahrscheinlichkeiten versehen. Heute funktionieren solche Programme in kleinen, wohlabgegrenzten technischen Nischen perfekt, haben aber darüberhinaus keine Bedeutung.

Eine andere Alternative waren damals die Neuronalen Netze. Sie galten als interessant, allerdings wurden ihre praktischen Anwendungen eher etwas belächelt. Folgende Geschichte wurde dazu herum

gereicht:

Die amerikanische Armee – seit jeher ein wesentlicher Treiber der Computertechnologie – soll ein neuronales Netz zur Erkennung von eigenen und fremden Panzern gebaut haben. Ein neuronales Netz funktioniert so, dass die Schlussfolgerungen über mehrere Schichten von Folgerungen vom System selber gefunden werden. Der Mensch muss also keine Regeln mehr eingeben, diese werden vom System selber erstellt.

Wie kann das System das? Es braucht dazu einen Lernkorpus. Bei der Panzererkennung war das eine Serie von Fotos von amerikanischen und russischen Panzern. Für jedes Foto war also bekannt, ob amerikanisch oder russisch, und das System wurde nun so lange trainiert, bis es die geforderten Zuordnungen selbstständig erstellten konnte. Die Experten nahmen auf das Programm nur indirekt Einfluss, indem sie den Lernkorpus aufbauten; das Programm stellte die Folgerungen im neuronalen Netz selbstständig zusammen – ohne dass die Experten genau wussten, aus welchen Details das System mit welchen Regeln welche Schlüsse zog. Nur das Resultat musste natürlich stimmen. Wenn das System nun den Lernkorpus vollkommen integriert hatte, konnte man es testen, indem man ihm einen neuen Input zeigte, z.B. ein neues Panzerfoto, und es wurde erwartet, dass es mit den aus dem Lernkorpus gefundenen Regeln das neue Bild korrekt zuordnete. Die Zuordnung geschah, wie gesagt, selbständig durch das System, ohne dass der Experte weiteren Einfluss nahm und ohne dass er genau wusste, wie im konkreten Fall die Schlüsse gezogen wurden.

Das funktionierte, so wurde erzählt, bei dem Panzererkennungsprogramm perfekt. So viele Fotos dem Programm auch gezeigt wurden, stets erfolgte die korrekte Zuordnung. Die Experten konnten selber kaum glauben, dass sie wirklich ein Programm mit einer hundertprozentigen Erkennungsrate erstellt hatten. Wie konnte so etwas sein? Schliesslich fanden sie den Grund: Die Fotos der amerikanischen Panzer waren in Farbe, diejenigen der russischen schwarzweiss. Das Programm musste also nur die Farbe erkennen, die Silhouetten der Panzer waren irrelevant.

Regelbasiert versus korpusbasiert

Die beiden Anekdoten zeigen, welche Probleme damals auf die regelbasierte und die korpusbasierte KI warteten.

  • Bei der regelbasierten KI waren es:
    – die Rigidität der mathematischen Logik
    – die Unschärfe unserer Wörter
    – die Notwendigkeit, sehr grosse Wissenbasen aufzubauen
    – die Notwendigkeit, Fachexperten für die Wissensbasen einzusetzen
  • Bei der korpusbasierten KI waren es:
    – die Intransparenz der Schlussfolgerungs-Wege
    – die Notwendigkeit, einen sehr grossen und relevanten Lernkorpus aufzubauen

Ich hoffe, dass ich mit den beiden oben beschriebenen, zugegebenermassen etwas unfairen Beispielen den Charakter und die Wirkweise der beiden KI-Typen habe darstellen können, mitsamt den Schwächen, die die beiden Typen jeweils kennzeichnen.

Die Herausforderungen bestehen selbstverständlich weiterhin.  In den folgenden Beiträgen werde ich darstellen, wie die beiden KI-Typen darauf reagiert haben und wo bei den beiden Systemen nun wirklich die Intelligenz sitzt. Als Erstes schauen wir die korpusbasierte KI an.

Dies ist ein Beitrag zum Thema künstliche Intelligenz.