Schlagwort-Archive: Neuronale Netze

Vier Versuche, Semantik formal zu packen

Semantik: Was steckt hinter den Wörtern?

Das Thema Semantik interessiert heute viele Leute. Viele realisieren, dass Wörter nicht alles sind, sondern dass hinter den Wörtern Bedeutungen stecken, die sehr variabel sind und auf die es eigentlich ankommt. Gerade im Internet spielt das eine grosse Rolle. Je grösser das Netz wird, umso schwieriger wird die Suche. Was ist, wenn die gesuchte Adresse unter einem ganz anderen Wort zu finden ist, als ich annehme? Denken wir nur an die vielen Synonyme. Dazu kommen Ober- und Unterbegriffe und unterschiedliche Sprachen. Ideal wäre es, wenn ein sprachunabhängiges System der Bedeutungen existieren würde, ein System, dass Synonyme genauso kennt wie verschiedene Sprachen, Englisch, Französisch, Deutsch, Arabisch, Chinesisch etc. Dann müsste man nur noch die Wörter der jeweiligen Sprache in das semantische System hineinprojizieren. Geht das?

Versuch 1: Semantische Annotation (n:1)

Eine einfache «Semantische Annotation» ist für viele die naheliegende Lösung. Dabei gilt es, jedem Wort seine Bedeutung, d.h. seine eigentliche Semantik, zuzuweisen.

Nehmen wir eine Sprache, z.B. Deutsch und eine Domäne, z.B. Medizin. Das Ziel der semantischen Annotation wäre dann, das gesamte Vokabular der Domäne, also alle ihre Wörter auf eine grundlegende Semantik abzubilden. In dieser existiert dann ein einziger Punkt für den Begriff «Fraktur», und dieser semantische Zielpunkt wird erreicht durch Wörter wie «Fraktur», «Knochenbruch», «fracture», etc. Es handelt sich ja in der Tat um dasselbe, unabhängig davon, welche Wörter ich verwende. Das gilt auch für «Bruch», z.B. in «Beinbruch», «Bruch des Beins», «Bruch der Tibia» und «Bein gebrochen».

Alle diese Formulierungen müssen auf den gleichen semantischen Punkt kommen. Dabei können wir nicht auf die Grammatik gehen, sondern müssen Wörter auseinandernehmen können (Beinbruch), und aus Verben (gebrochen) Substantive machen können. Brüche gibt es viele, solche von Knochen, aber auch von Leisten, Ehen, Implantaten, Brillen etc. Eine einfache Annotation wird daraus kaum werden, sicher keine 1:1 oder n:1 Annotation.

Und wenn verschiedene Fachgebiete gemischt werden, wird es noch heikler: Ein Bruch ist ja nicht nur ein Knochenbruch, sondern auch ein Bruch in der Mathematik. Also etwas ganz anderes. Wie annotiere ich «Zürich»? Als Stadt, als Kanton, als Versicherung? «Berlin» kann je nach Kontext auch für das deutsche Kanzleramt stehen; ein «Berliner» ist ein Bürger oder eine Backware.

Fazit: Eine semantische Annotation ist komplex und ganz gewiss nicht mit einer einfachen n:1 Tabelle lösbar. Um wirklich semantisch zu annotieren, d.h. den Wörtern Bedeutungen zuzuweisen, muss man tiefer in die eigentliche Semantik einsteigen.

Versuch 2: Semantic Web

Initiator des Semantic Webs war der berühmte WWW-Erfinder Tim Berners-Lee. Seine Beobachtung war, dass im WWW die gesuchten Seiten zwar oft vorhanden, aber in der Fülle nicht auffindbar waren. Dem wollte er abhelfen, in dem er das Web selber semantisch machen wollte. Also nicht mehr die Anwender sollten die Semantik (Inhalte) der Internetseiten ergründen, sondern Berners-Lee’s Idee war, dass die Seitenanbieter im WWW ihre Semantik selber deklarieren. Auf diese Weise wäre gesuchte Annotation bereits verhanden. Und zwar nicht einfach als isolierter Punkt, wie «Zürich», sondern typisiert, also z.B. als «Stadt: Zürich». Die Typisierung ist ein echter und zweckmässiger Fortschritt. Der Charme der Typisierung besteht darin, dass die Mehrdeutigkeit angegangen werden. Ob Zürich nun die Stadt, den Kanton oder die Versicherung meint, kann durch ein entsprechend gebautes semantisches Netz klar unterschieden werden.

Das Problem ist nur: Welcher Seitenbetreiber macht sich die Mühe, seine Seite entsprechend semantisch zu verschlagworten? Und das Ganze funktioniert nur, wenn sich alle an das gleiche Einordnungssystem halten. Dazu kommen weitere Probleme, die sehr typisch sind für Versuche, ein semantisches Netz zu bauen. Ein solches Netz zu erstellen ist alles andere als banal, denn der Teufel steckt im Detail.

Und sobald das Netz einmal steht, kann es nicht mehr so einfach verändert werden. Das führt dann schnell zu faulen Kompromissen, Komplizierungen, Unschärfen, Varianten und Diskussionen.

Die grundlegende Frage dabei ist: Wie strukturieren wir das semantische Netz? Ich meine die abstrakte formale Struktur. Gibt es Oberbegriffe? Eigenschaften? Überschneidungen? Wie werden sie formal dargestellt? Gibt es eine «Logik» in der Semantik? Wir sind hier im Kern der wissenschaftlichen Semantik und meine Behauptung ist, dass die Scientific Community hier noch einiges dazuzulernen hat. Das Semantic Web basiert z.B. auf der RDF und OWL, zwei komplexen formalen Sprachen, welche kompliziert, unhandlich und trotzdem in ihren Möglichkeiten beschränkt sind.

Wenn die Annotation von den Seitenanbietern durchgeführt wird, können wir wegen des dafür nötigen Aufwands keine Durchgängigkeit und auch keine Einheitlichkeit erwarten.

Ideal wäre eine Software, welche die semantische Interpretation selbstständig und von aussen, also auf vorbestehende und frei formulierte Texte durchführen kann. Gibt es die? –

Die Antwort ist ja. Es gibt sogar zwei Herangehensweisen, die eine ist statistisch, die andere ist semantisch. Schauen wir zuerst die statistische an:

Versuch 3: Neuronale Netze (KI)

Neuronale Netze (NN) sind besser bekannt unter dem Namen «Künstliche Intelligenz«. Diese Systeme funktionieren über einen Lernkorpus, der viele Muster von Zuweisungen enthält, die vom NN maschinell  auf raffinierte Weise integriert werden. Anschliessend ermöglicht das NN weitere, bisher unbekannte Inputs auf die gleiche Weise zu verarbeiten wie im Lernkorpus. Es hat also die Interpretation «gelernt». Das kann sehr beeindruckend sein, und auch sehr nützlich. Allerdings kann das NN nichts wiedergeben, was nicht im Lernkorpus auf ähnliche Weise vorgegeben war. Die bekannten Schwächen der NN sind:

– Riesiger Lernkorpus nötig.
– Nur was im Korpus enthalten ist, kann erkannt werden.
– Seltenes mit grossen Auswirkungen (Black Swan) wird übersehen.
– Intransparenz der Schlüsse.
– Fehler im Korpus sind kaum korrigierbar.

Trotzdem sind Neuronale Netze für viele Anwendungen unglaublich effizient. Doch sie sind nicht semantisch. Sie urteilen nicht nach den Bedeutungen der Wörter, sondern nach statischen Gesichtspunkten. Was häufig zusammen vorkommt, gehört für sie zusammen. Das ist natürlich alles andere als sicher. Seltenere Bedeutungen fallen so unter den Tisch. Und was bedeuten die Wörter und Sätze überhaupt? Neuronale Netze zeigen nur statistische Nähe und überlassen die Bedeutungen dem Leser. Formale Musterekennung ist eine Stärke der Neuronalen Netze. Semantik nicht. Die Lösungen von Versuch 2, das Semantic Web der RDFs and OWL waren da schon näher dran.

Allerdings: In der Praxis haben die NN der kommerziellen Software-Anbieter die akademisch fundierten Versuche des Semantic Webs deutlich überholt. Die NN sind zwar nicht semantisch, aber sie sind im gegensatz zum Semantic Web real einsetzbar.

Ideal wäre jedicg eine Lösung, welche die Bedeutungen der Wörter auf eine ähnliche Weise findet, wie wir Menschen. Also ein Ansatz, der wirklich semantisch ist. Gibt es diesen?

Versuch 4: Begriffsmoleküle (BM)

Begriffsmoleküle sind eine Parallelentwicklung zum Semantic Web. Wie dieses setzen sie eine semantische Modellierung der anvisierten Wissensdomäne voraus. Der Unterschied liegt in der Art, wie die Semantik modelliert wird und wie Schlüsse gezogen werden. Sowohl das OWL des Semantic Web wie die alternativen Begriffsmoleküle sind regelbasiert, im Gegensatz zu den Neuronalen Netzen der KI, die korpusbasiert sind. Als regelbasierte Systeme sind OWL und BM transparent und können Schritt für Schritt untersucht werden. Ihre Begriffe zeigen eine klare Anordnung (semantische Architektur). Ihre Schlüsse sind formal geregelt. Das ist die Gemeinsamkeit. Der Unterschied liegt in der Art der semantischen Architektur und der Art der Schlussziehung (Inferenzmechanismus). Generell lässt sich sagen, dass die BM freier und offener sind als OWL.

Wie ist es möglich, eine freie und dynamische Semantik darzustellen und dabei so formal zu bleiben, dass unsere Gedanken für eine Maschine nachvollziehbar ist? Begriffsmoleküle versuchen genau das. Es geht dabei darum, zu modellieren, wie wir den gehörten Wörtern Bedeutungen zulegen.


Dies ist ein Beitrag zum Thema Semantik.


 

Hat der Chatbot LaMDA ein Bewusstsein?

Die Diskussion um künstliche Intelligenz bleibt  aktuell, nicht zuletzt dank den Erfolgen von Google in diesem Bereich.

Aktuell ist die Diskussion um LaMDA, eine KI, die genau darauf trainiert wurde, Dialoge so zu führen als wäre sie ein echter Mensch. Offenbar so überzeugend, dass der Google-Mitarbeiter Blake Lemoine selbst anfing, ihr ein eigenes Bewusstsein zuzugestehen und sogar erwägt haben soll, einen Anwalt für ihre Rechte als Person zu engagieren.

Zu LaMDA und Lemoine, siehe z.B. https://www.derstandard.at/story/2000136501277/streit-bei-google-um-eine-ki-die-ein-eigenes-bewusstsein

Doch nicht alle Beobachter stimmen mit Lemoine überein. Frau Sarah Spiekermann von der Wirtschaftsuniversität Wien sagt im Interview mit Radio SRF vom 23.6.22:

«Da es [Googles KI-Programm LaMDA] kein Selbst hat, liest es einfach nur vor, was eingespielt ist … Aber das gibt dem Ding natürlich kein Bewusstsein. … Ich denke, da können wir sehr sicher sein, dass es kein Selbst hat, denn zu einem Selbst gehört ein Leben … Dazu gehört eine Möglichkeit, sich selbst zu beobachten … Ich merke, dass ich selbst bin und Maschinen können diese Selbstbeobachtung nie einnehmen … sie sind immer einlesende Entitäten.» (Hervorhebungen von mir, Original: https://www.srf.ch/audio/echo-der-zeit/kann-eine-kuenstliche-intelligenz-ein-bewusstsein-entwickeln?partId=12211826)

Frau Spiekermanns Darstellung geht konform mit meiner These, dass bewusste Intelligenz notwendigerweise mit Existenz verknüpft ist. Durch die eigene Existenz ergibt sich ein eigenes, d.h. nicht von aussen bestimmtes Interesse, nämlich das Interesse, am Leben zu bleiben – ein im eigentlichen Sinn vitales Interesse.


Die philosophische Frage, was Intelligenz ausmacht, kommt uns durch die Neuronalen Netze von Google und anderen auch im Alltag immer näher. In meinem Buch ‹Das interpretierende System› unterschied ich 2001 zwischen

a) trivialen Maschinen
b) einfachen interpretierenden Systemen
c) intelligenten, d.h. selbstlernenden System.

Spannend ist vor allem der Unterschied zwischen b) und c), also zwischen nur interpretierenden Systemen (z.B. LaMDA) und wirklich intelligenten Systemen. Dazu schrieb ich:

«Beide enthalten Regeln für die Beurteilung der Umwelt. Die Frage ist, wer die Regeln erstellt. Ein interpretierendes System muss die Regeln nicht notwendigerweise selbst generieren, es reicht aus, gegebene Regeln anzuwenden, um ein interpretierendes System zu sein. Ein System hingegen, das seine Regeln selbst findet, also selbstständig lernt, ist intelligent im eigentlichen Sinn. Dabei kommt das nun schon oft erwähnte selbstreferentielle Phänomen ins Spiel: Die Regeln sind ein essentieller Bestandteil des Systems, und ein System, das seine eigenen Regeln selbst anpasst, verändert sich selbst.» (Das interpretierende System, 2001, S. 90)

Selbstreferentialität (Spiekermann: ‹Selbstbeobachtung›) ist ein notwendiges Element von echter Intelligenz. Doch nicht nur Selbst-Beobachtung gehört dazu, auch die Möglichkeit sich selber zu verändern.

Drei Beobachtungen zur Künstlichen Intelligenz / 3

Was hat die biologische der künstlichen Intelligenz voraus?

Das Unwahrscheinliche einbeziehen

Neuronale Netze bewerten die Wahrscheinlichkeit eines Ergebnisses. Dies entspricht einem sehr flachen Denkvorgang, denn nicht nur das Wahrscheinliche ist möglich. Gerade eine unwahrscheinliche Wendung kann ganz neue Perspektiven öffnen, im Leben wie im Denken. Das automatische Vorgehen der neuronalen Netze aber ist ein Denkkorsett, das stets das Wahrscheinliche erzwingt.

Detaillierter differenzieren

Neuronale Netze werden umso unpräziser, je mehr Details sie unterscheiden sollen. Schon mit wenigen Resultatmöglichkeiten (Outcomes) sind sie überfordert. Biologische Intelligenz hingegen kann sich je nach Fragestellung in sehr differenzierte Ergebniswelten eindenken, mit einer Vielfalt von Ergebnismöglichkeiten.

Transparenz suchen

Weshalb komme ich im Denken zu einem bestimmten Ergebnis? Wie ist der Denkverlauf? Nur wenn ich mein Denken hinterfragen kann, kann ich es verbessern. Neuronale Netze hingegen können ihre Schlüsse nicht hinterfragen. Sie folgern einfach das, was der Korpus und dessen von aussen erfolgte Bewertung ihnen vorgeben.

Kontext bewusst wählen

Je nach Fragestellung wählt das menschliche Denken einen Kontext mit entsprechenden Musterbeispielen und bereits erkannten Regeln. Diese Auswahl ist aktiv und stellt das bewusste Moment im Denken dar: Worüber denke ich nach?

Die Auswahl des Kontexts entscheidet natürlich auch über die möglichen Outcomes und gültigen Regelmuster. Eine aktive Bewertung und Filterung des Kontexts erbringt die biologischen Intelligenz automatisch, sie liegt jedoch ausserhalb der Möglichkeiten eines neuronalen Netzes.

Zielorientiert denken

Was habe ich für Ziele? Was ist für mich wichtig? Was hat für mich Bedeutung? – Solche Fragen richten mein Denken aus; Aristoteles spricht von der «Causa finalis», dem Wozu, d. h. dem Ziel als Beweggrund. Neuronale Netze kennen kein eigenes Ziel, d. h. dieses steckt stets in der vorgängigen Bewertung des Korpus, die von aussen erfolgt. Das Ziel ist nichts, was das neuronale Netz selbstständig oder im Nachhinein verändern kann. Ein neuronales Netz ist stets und vollständig fremdbestimmt.

Eine biologische Intelligenz hingegen kann sich über ihre Ziele Gedanken machen und das Denken entsprechend verändern und ausrichten. Diese Autonomie über die eigenen Ziele zeichnet die biologische Intelligenz aus und ist ein wesentliches Element des Ideals des freien Menschen.

Fazit in einem Satz

Die künstliche Intelligenz der neuronalen Netze ist hochpotent, aber nur für umschriebene, eng begrenzte Fragestellungen einsetzbar und hat mit wirklicher, d. h. aktiver Intelligenz nichts zu tun.


Dies ist Teil 3 aus dem Nachwort des Buches ‹Wie die künstliche Intelligenz zur Intelligenz kommt›.  –> zum Buch

Drei Beobachtungen zur Künstlichen Intelligenz / 1

KI umfasst mehr als nur neuronale Netze

Neuronale Netze sind potent

Was unter Künstlicher Intelligenz (KI) allgemein verstanden wird, sind sogenannte Neuronale Netze.

Neuronale Netze sind potent und für ihre Anwendungsgebiete unschlagbar. Sie erweitern die technischen Möglichkeiten unserer Zivilisation massgeblich auf vielen Gebieten. Trotzdem sind neuronale Netze nur eine Möglichkeit, ‹intelligente› Computerprogramme zu organisieren.

Korpus- oder regelbasiert?

Neuronale Netze sind korpusbasiert, d. h. ihre Technik basiert auf einer Datensammlung, dem Korpus, der von aussen in einer Lernphase Datum für Datum bewertet wird. Das Programm erkennt anschliessend in der Bewertung der Daten selbständig gewisse Muster, die auch für bisher unbekannte Fälle gelten. Der Prozess ist automatisch, aber auch intransparent.

In einem realen Einzelfall ist nicht klar, welche Gründe für die Schlussfolgerungen herangezogen worden sind. Wenn der Korpus aber genügend gross und korrekt bewertet ist, ist die Präzision der Schlüsse ausserordentlich hoch.

Grundsätzlich anders funktionieren regelbasierte Systeme. Sie brauchen keine Datensammlung, sondern eine Regelsammlung. Die Regeln werden von Menschen erstellt und sind transparent, d. h. leicht les- und veränderbar. Regelbasierte Systeme funktionieren allerdings nur mit einer adäquaten Logik (dynamische, nicht statische Logik) und einer für komplexe Semantiken geeigneten, multifokalen Begriffsarchitektur; beides wird in den entsprechenden Hochschulinstituten bisher kaum gelehrt.
Aus diesem Grund stehen regelbasierte Systeme heute eher im Hintergrund, und was allgemein unter künstlicher Intelligenz verstanden wird, sind neuronale Netze, also korpusbasierte Systeme.

(Fortsetzung)


Dies ist Teil 1 aus dem Nachwort des Buches ‹Wie die künstliche Intelligenz zur Intelligenz kommt›.  –> zum Buch


Mehr zum Thema Künstliche Intelligenz

Aktuelle Pressetexte zur Künstlichen Intelligenz

Meine These, dass sogenannte KI-Programme zwar ausserordentlich leistungsfähig sind, doch ihre Intelligenz bestenfalls geborgt haben und zu eigenständigen Denkleistungen aus prinzipiellen Gründen nicht imstande sind, wird zunehmend auch von anderen Seiten unterstützt.


Hier drei Publikationen mit dieser Stossrichtung:

  1. St. Galler Tagblatt, 3. August 2021, Christoph Bopp: «Dr. Frankenstein verwirrte die Künstliche Intelligenz«:
    https://www.tagblatt.ch/leben/ki-uund-medizin-doktor-frankenstein-verwirrte-die-kuenstliche-intelligenz-ld.2169958
    .
  2. The Gradient: 3. August 2021, Valid S. Saba: «Machine Learning Won’t Solve Natual Language Understanding«:
    https://thegradient.pub/machine-learning-wont-solve-the-natural-language-understanding-challenge/
    .
  3. Neue Zürcher Zeitung, 17. August 2021, Adrian Lobe: «Man kann Algorithmen zu Kommunisten erziehen, aber sie können auch zu Rassisten werden, wenn sie in schlechte Gesellschaft geraten»
    https://www.nzz.ch/feuilleton/wie-die-black-box-lernt-bots-kann-man-zu-rassisten-machen-ld.1636315?ga=1&kid=nl165_2021-8-16&mktcid=nled&mktcval=165_2021-
    08-17

Diese Texte zeigen beispielhaft,

  •  wie der Lern-Korpus das Ergebnis der KI bestimmt (NZZ über den chinesischen Chatbot):
    Bei Neuronalen Netzen gilt bekanntlich: «Garbage In, Garbage Out» – der Korpus bestimmt was überhaupt erkennbar ist und was «wahr» ist, die KI kann nur ausgeben, was der Korpus vorgibt.
  • wie komplexe Sachverhalte in einem noch unklaren Kontext für KI-Systeme schlecht durchschaubar sind (Tagblatt über falsche Prognosen in der Covid-Epidemie):
    Bei komplexen Sachverhalten nimmt der Bedarf an Korpusdaten überproportional zu. Die rein technischen Probleme sind dabei noch die kleinsten.
  • wo die wirklichen Herausforderungen für NLP liegen (The Gradient über Natural Language):
    Dieser aktuelle Text aus den USA stellt die gleichen Thesen auf und verwendet gleiche Argumentationslinien wie ich z.B. in meinem Buch von 2001, dass nämlich die Semantik, also die Bedeutung eines Textes im Kopf verstanden werden muss – und genau das kann die KI der Neuronalen Netze eben nicht.

Die KI der Neuronalen Netze bleibt allerdings eine hochpotente, sinnvolle und hilfreiche Technologie – nur müssen wir wissen, was sie kann und was nicht.

Künstliche Intelligenz (Übersichtsseite)

Ist KI gefährlich oder nützlich?

Die einen versprechen sich den entscheidenden Technologiesprung, die anderen fürchten, dass eine gleichzeitig unfehlbare und fehlgeleitete künstliche Intelligenz die Menschheit unterjochen könnte.

Was ist daran wahr? – Ich arbeite seit einem Vierteljahrhundert mit «intelligenten» Informatiksystemen und wundere mich vor allem darüber, dass wir den neuronalen Netzen – zugegebenermassen sehr leistungsfähigen Systemen – überhaupt echte, d.h. eigenständige Intelligenz zubilligen.

Genau die haben sie nämlich nicht. Ihre Intelligenz kommt stets von Menschen, welche die Daten nicht nur liefern, sondern auch bewerten, bevor die KI sie verwenden kann. Ihre Leistungsfähigkeit zeigt die KI nur, wenn die Aufgabenstellung klar und einfach ist. Sobald die Fragestellung komplex wird, versagen sie. Oder sie flunkern, indem sie schöne Sätze, die sich in ihrem Datenschatz finden, so anordnen, dass es intelligent klingt (ChatGPT, LaMDA). Sie arbeiten nicht mit Logik, sondern mit Statistik, also mit Wahrscheinlichkeit. Aber ist das Wahr-Scheinliche auch immer das Wahre?

Wie funktioniert KI überhaupt? Wo sind ihre Grenzen? Wie unterscheiden sich die unterschiedlichen Arten der KI? Was steckt hinter Deep Learning? Ist künstliche Intelligenz wirklich intelligent? Und falls Sie das glauben, wo genau steckt die Intelligenz in der künstlichen Intelligenz – und wie kommt sie da hinein?


Diese Fragen werden ich im Folgenden zu beantworten versuchen. Unten sehen Sie meine Blogbeiträge zum Thema in systematischer Ordnung.

Die Beiträge sind im August 2021 auch als Buch erschienen. Sie können das Buch direkt beim Verlag bestellen:

-> Buch: Wie die künstliche Intelligenz zur Intelligenz kommt›


Hier folgen die Blogbeiträge:

Regelbasiert oder korpusbasiert?

Die Computerintelligenz verfügt über zwei grundlegend verschiedene Methoden: Sie kann entweder auf Regeln oder auf einer Datensammlung (=Korpus) beruhen. Im Einstiegsbeitrag stelle ich sie mit zwei charakteristischen Anekdoten vor:


Bezüglich Erfolg haben die korpusbasierten Systeme die regelbasierten offensichtlich überflügelt:


Die regelbasierten Systeme hatten es schwieriger. Was sind ihre Herausforderungen? Wie können sie ihre Schwächen überwinden? Und wo steckt bei ihnen die Intelligenz?


Zurück zu den korpusbasierten Systemen. Wie sind sie aufgebaut? Wie wird ihr Korpus zusammengestellt und bewertet? Was hat es mit dem neuronalen Netz auf sich? Und was sind die natürlichen Grenzen der korpusbasierten Systeme?


Als nächstes beschäftigen wir uns mit Suchmaschinen, die ebenfalls korpusbasierte Systeme sind. Wie gelangen sie zu ihren Vorschlägen? Wo sind ihre Grenzen und Gefahren? Weshalb entstehen z.B. zwingend Blasen?


Kann ein Programm lernen, ohne dass ein Mensch ihm gute Ratschläge zuflüstert? Mit Deep Learning scheint das zu klappen. Um zu verstehen, was dabei passiert, vergleichen wir zuerst ein einfaches Kartenspiel mit Schach: Was braucht mehr Intelligenz? Überraschend wird klar, dass für den Computer Schach das einfachere Spiel ist.

An den Rahmenbedingungen von Go und Schach erkennen wir, unter welchen Voraussetzungen Deep Learning funktioniert.


Im anschliessenden Beitrag gebe ich einen systematischen Überblick über die mir bekannten KI-Arten, skizziere kurz ihren jeweiligen Aufbau und die Unterschiede in ihrer Funktionsweise.

Wo steckt nun die Intelligenz?


Die angestellten Überlegungen lassen erkennen, was die natürliche Intelligenz gegenüber der künstlichen auszeichnet:

Die Intelligenz in der Suchmaschine

Wie kommt die Intelligenz in die Suchmaschine?

Nehmen wir an, Sie bauen eine Suchmaschine. Sie wollen dabei möglichst keine teuren und nicht immer fehlerfreien menschlichen Fachexperten (domain experts) einsetzen, sondern die Suchmaschine nur mit ausreichend Datenservern (der Hardware für den Korpus) und einer ausgeklügelten Software bauen. Wieder verwenden Sie im Prinzip ein neuronales Netz mit einem Korpus. Wie bringen Sie nun die Intelligenz in Ihr System?

Trick 1: Lass die Kunden den Korpus trainieren

Bei einer Suchmaschine geht es wie bei der Panzer-KI der Vorbeiträge um Zuordnungen, diesmal von einem Eingabetext (Suchstring) eines Kunden zu einer Liste von Webadressen, die für seine Suche interessant sein könnten. Um die relevanten Adressen zu finden, basiert Ihr System wiederum auf einem Lernkorpus, der diesmal aus der Liste aller Sucheingaben von allen Ihren bisherigen Kunden besteht. Die Webadressen, die die früheren Kunden aus den ihnen angebotenen auch tatsächlich angeklickt haben, sind im Korpus als positive Hits vermerkt. Also geben Sie bei neuen Anfragen – auch von anderen Kunden – einfach die Adressen an, die bisher am meisten Klicks erhalten haben. So schlecht können die ja nicht sein, und mit jeder Anfrage und dem darauf folgenden Klick verfeinert sich das System. Und dann gilt: Je grösser der Korpus, umso präziser.

Wieder stammen diese Zuordnungen von aussen, nämlich von den Menschen, die die Auswahl, die Ihre Suchmaschine ihnen angeboten hat, mit ihren Klicks entsprechend bewertet haben. Die Menschen haben das getan:

  • mit ihrer menschlichen Intelligenz und
  • entsprechend ihren jeweiligen Interessen.

Besonders der zweite Punkt ist interessant. Wir könnten später noch etwas detaillierter darauf eingehen.

Trick 2: Bewerte die Kunden dabei mit

Nicht jede Zuordnung von jedem Kunden ist gleich relevant. Als Suchmaschinenbetreiber können Sie hier an zwei Punkten optimieren:

  • Bewerten Sie die Bewerter:
    Sie kennen ja alle Eingaben Ihrer Kunden. So können Sie leicht herausfinden, wie verlässlich die von ihnen gemachten Zuordnungen (die angeklickte Webadressen zu den eingegebenen Suchstrings) sind. Nicht alle Ihre Kunden sind in dieser Hinsicht gleich gut. Je mehr andere Kunden für den gleichen Suchstring die gleiche Webadresse anwählen, umso sicherer wird die Zuordnung auch für zukünftige Anfragen sein. Verwenden Sie nun diese Information, um die Kunden zu gewichten: Der Kunde, der bisher die verlässlichsten Zuordnungen hatte, d.h. derjenige, der am meisten das wählte, was die anderen auch wählten, wird am höchsten gewichtet. Einer, dem die anderen weniger folgten, gilt als etwas weniger verlässlich. Durch die Gewichtung erhöhen Sie die Wahrscheinlichkeit, dass die zukünftigen Suchergebnisse die Websites höher bewerten, die die meisten Kunden interessieren.
  • Bewerten Sie die Sucher:
    Nicht jeder Suchmaschinenbenutzer hat die gleichen Interessen. Das können Sie berücksichtigen, denn Sie kennen ja bereits alle früheren Eingaben von ihm. Diese können Sie verwenden, um ein Profil von ihm zu erstellen. Das dient natürlich dazu, die Suchergebnisse für ihn entsprechend auszuwählen. Bewerter mit einem ähnlichen Profil wie der Sucher werden die potenziellen Adressen auch ähnlich gewichten, und sie können so die Suchergebnisse noch mehr im Interesse des Kunden personalisieren.

Es lohnt sich für Sie als Suchmaschinenbetreiber auf jeden Fall, von allen Ihren Kunden ein Profil zu erstellen,  nur schon zur Verbesserung der Qualität der Suchvorschläge.

Konsequenzen

  1. Suchmaschinen werden durch den Gebrauch immer präziser.
    Das gilt für alle korpusbasierten Systeme, also für alle Technologien mit neuronalen Netzen: Je grösser ihr Korpus ist, desto besser ist ihre Präzision.  Sie können zu erstaunlichen Leistungen fähig sein.
  2. In diesem Zusammenhang lässt sich ein bemerkenswerter Rückkopplungseffekt feststellen: Je grösser ihr Korpus ist, umso besser ist die Qualität einer Suchmaschine und deshalb wird sie häufiger benützt, was wiederum ihren Korpus vergrössert und so ihre Attraktivität gegenüber der Konkurrenz steigert. Dieser Effekt führt unweigerlich zu den Monopolen, wie sie typisch sind für alle Anwendungen von korpusbasierter Software.
  3. Alle Bewertungen sind primär von Menschen erstellt worden.
    Die Basis der Intelligenz – die zuordnenden Eingaben im Korpus – erfolgen weiterhin durch Menschen. Bei den Suchmaschinen ist das jeder einzelne Benutzer, der so sein Wissen in den Korpus eingibt. So künstlich ist die Intelligenz in dieser KI also gar nicht.
  4. Korpusbasierte Systeme tragen die Tendenz zur Blasenbildung in sich: Wenn Suchmaschinen von ihren Kunden Profile anlegen, können sie diese mit besseren Suchergebnissen bedienen. Das führt aber in einem selbstreferenziellen Prozess unweigerlich zu einer Blasenbildung: Anwender mit ähnlichen Ansichten werden von den Suchmaschinen immer näher zusammen gebracht, da sie auf diese Weise die Suchergebnisse erhalten, die ihren jeweiligen Interessen und Ansichten am besten entsprechen.  Abweichende Ansichten bekommen sie immer weniger zu Gesicht.

Dies ist ein Beitrag zum Thema künstliche Intelligenz. Im nächsten Beitrag geht es um einen weiteren wichtigen Aspekt der korpusbasierten Systeme, nämlich um die Rolle der Wahrscheinlichkeit.

Was der Korpus weiss – und was nicht

Die Erstellung des Korpus

In einem Vorbeitrag haben wir gesehen, wie der Korpus – die Basis für das neuronale Netz der KI – erstellt wird. Das neuronale Netz kann den Korpus auf raffinierte Weise interpretieren, aber selbstverständlich kann das neuronale Netz nichts aus dem Korpus herausziehen, was nicht drin steckt.

Das neuronale Netz holt das Wissen aus seinem Korpus
Abb. 1: Das neuronale Netz holt das Wissen aus seinem Korpus

Wie wird der Korpus erstellt? Ein Fachexperte ordnet Bilder einer bestimmten Klasse, einem bestimmten Typus zu, z.B. ‹fremde Panzer› versus ‹eigene Panzer›. Diese Zuordnungen des Experten sind in Abb. 2 die roten Pfeile, welche z.B. die Panzerbilder bewerten.

Abb. 2: Erstellung der Zuordnungen im Korpus
Abb. 2: Erstellung der Zuordnungen im Korpus

Selbstverständlich müssen die durch den menschlichen Experten erfolgten Zuordnungen der einzelnen Bilder zu den Zielkategorien korrekt sein. Doch das reicht nicht. Es bestehen prinzipielle Grenzen für die Auswertbarkeit eines Korpus durch ein noch so raffiniertes neuronales Netz.

Der Zufall regiert im zu kleinen Korpus

Wenn ich nur farbige Bilder der eigenen und schwarzweisse Bilder der fremden Panzer habe (siehe Einstiegsbeitrag zur KI), dann kann sich das System leicht irren und alle farbigen der eigenen und die schwarzweissen der fremden Armee zuordnen. Mit einem genügend grossen Korpus kann dieser Mangel zwar behoben werden, doch zeigt das Beispiel, wie wichtig die richtige Bestückung des Korpus ist. Wenn ein Zufall (farbig/schwarzweiss) entscheidend in den Korpus hineinspielt, wird das System falsche Schlüsse ziehen. Der Zufall spielt dabei eine umso grössere Rolle, je kleiner der Korpus, aber auch je grösser die Anzahl der möglichen ‹Outcomes› (= Anzahl der prinzipiell möglichen Resultate) ist.

Neben diesen relativen Hindernissen gibt es aber auch prinzipielle Grenzen der Auswertbarkeit eines KI-Korpus. Darauf gehen wir jetzt ein.

Raupen- oder Radpanzer?

Was im Korpus nicht drin ist, kann auch nicht herausgeholt werden. Selbstverständlich kann ich mit einem Panzer-Korpus keine Flugzeuge klassifizieren.

Neuronales Netz mit Panzern
Abb 3: Die Bewertung entscheidet – Korpus mit eigenen und fremden Panzern und entsprechend programmiertem Netz.

Was aber ist, wenn unser Panzersystem herausfinden soll, ob es sich um Raupen- oder um Radpanzer handelt? Im Prinzip können im Korpus ja Bilder von beiden Sorten von Panzern enthalten sein. Wie kann die Panzer-KI aus unserem Beispiel das erkennen?

Die einfache Antwort ist: gar nicht. Im Korpus hat das System zwar viele Bilder von Panzern und weiss bei jedem, ob es ein fremder oder eigener ist. Aber ist es ein Radpanzer oder nicht? Diese Information steckt im Korpus (noch) nicht drin und kann deshalb von der KI nicht herausgezogen werden. Zwar kann ein Mensch jedes einzelne Bild entsprechend beurteilen, so wie er das mit der Eigenschaft ‹fremd/eigen› gemacht hat. Aber dann ist es eine KI-fremde, von aussen zugeführte Intelligenz, die das tut. Das neuronale Netz kann das nicht selber leisten, da es nichts über Raupen oder Räder weiss. Es hat nur gelernt, eigene von fremden Panzern zu unterscheiden. Für jede neue Kategorie muss zuerst die Information in den Korpus gegeben (neue rote Pfeile in Abb. 2) und dann das neuronale Netz für die neuen Fragen geschult werden.

Eine solche Schulung muss zwar nicht zwingend am Panzer-Korpus erfolgen. Das System könnte auch anhand eines Korpus von ganz anderen Fahrzeugen lernen, ob sich diese sich auf Rädern oder Raupen bewegen. Auch wenn sich der Unterschied automatisch auf den Panzerkorpus übertragen lässt, muss doch das externe Räder/Raupen-System vorgängig trainiert werden – und zwar mit Zuordnungen, die wieder ein Mensch gemacht hat.

Selber, ohne vorgegebene Beispiele, findet das KI-System dies nicht heraus.

Fazit

  1. Aus einem Korpus können nur Schlüsse gezogen werden, die im Korpus angelegt sind.
  2. Die Kategorie-Zuordnungen (die roten Pfeile in Abb. 2) kommen immer von aussen, d.h. von einem Menschen.

In unserem Beispiel haben wir mit dem Panzerbeispiel eine typische Bilderkennungs-KI untersucht. Aber gelten die daraus gezogenen Schlüsse (siehe Fazit oben) auch für andere korpusbasierte Systeme? Und gibt es nicht so etwas wie ‹Deep Learning›, also die Möglichkeit, dass ein KI-System ganz von selber lernt?

Schauen wir deshalb im nächsten Beitrag einen ganz anderen Typ mit korpusbasierter KI an.


Dies ist ein Beitrag zum Thema künstliche Intelligenz.


 

Die korpusbasierte KI überwindet ihre Schwächen

Zwei KI-Varianten: regelbasiert und korpusbasiert

Im Vorbeitrag erwähnte ich die beiden prinzipiellen Herangehensweisen, mit der versucht wird, dem Computer Intelligenz beizubringen, nämlich die regelbasierte und die korpusbasierte. Bei der regelbasierten steckt die Intelligenz in einem Regelpool, der von Menschen bewusst konstruiert wird. Bei der korpusbasierten Methode steckt das Wissen im Korpus, d.h. in einer Datensammlung, welche von einem raffinierten Programm analysiert wird.

Beide Methoden haben ihre Leistungen seit den 90er Jahren gewaltig steigern können. Am eindrücklichsten ist dies bei der korpusbasierten Methode geschehen, die heute als eigentliche künstliche Intelligenz gilt und in der breiten Öffentlichkeit für Schlagzeilen sorgt. Worauf beruhen die entscheidenden Verbesserungen der beiden Methoden? – Ich werde gleich auf beide Methoden und ihre Verbesserungen eingehen. Als erstes sehen wir uns an, wie die korpusbasierte KI funktioniert.

Wie funktioniert die korpusbasierte KI?

Eine korpusbasierte KI besteht aus zwei Teilen:

  1. Korpus
  2. Algorithmen (neuronales Netz)
k-KI mit Korpus und neuronalem Netz
Abb 1: Aufbau einer korpusbasierten KI

Der Korpus, auch Lernkorpus genannt, ist eine Sammlung von Daten. Dies können z.B. Photographien von Panzern oder Gesichtern sein, aber auch Sammlungen von Suchanfragen, z.B. von Google. Wichtig ist, dass der Korpus die Daten bereits bewertet enthält. Im Panzerbeispiel ist im Korpus vermerkt, ob es sich um eigene oder feindliche Panzer handelt. In der Gesichtersammlung ist vermerkt, um wessen Gesicht es sich jeweils handelt; bei den Suchanfragen speichert Google, welcher Link der Suchende anklickt, d.h. welcher Vorschlag von Google erfolgreich ist. Im Lernkorpus steckt also das Wissen, das die korpusbasierte KI verwenden wird.

Nun muss die KI lernen. Das Ziel ist, dass die KI ein neues Panzerbild, ein neues Gesicht oder eine neue Suchanfrage korrekt zuordnen kann. Dazu verwendet die KI das Wissen im Korpus, also z.B. die Bilder der Panzersammlung, wobei bei jedem Bild vermerkt ist, ob es sich um eigene oder fremde Panzer handelt – in Abb. 1 dargestellt durch die kleinen grauen und grünen Etiketten links von jedem Bild. Diese Bewertungen sind ein notwendiger Teil des Korpus.

Jetzt kommt der zweite Bestandteil der korpusbasierten KI ins Spiel, der Algorithmus. Im Wesentlichen handelt es sich um ein neuronales Netz. Es besteht aus mehreren Schichten von ‹Neuronen›, die Inputsignale aufnehmen, gegeneinander verrechnen und dann ihre eigenen Signale an die nächsthöhere Schicht ausgeben. In Abb. 1 ist dargestellt, wie die erste (gelbe) Neuronenschicht die Signale (Pixel) aus dem Bild aufnimmt und nach einer Verrechnung dieser Signale eigene Signale an die nächste (orange) Schicht weitergibt, bis am Schluss das Netz zum Resultat ‹eigener› oder ‹fremder› Panzer gelangt. Die Verrechnungen (Algorithmen) der Neuronen werden beim Training so lange verändert und angepasst, bis das Gesamtnetz bei jedem Bild das korrekte Resultat liefert.

Wenn jetzt ein neues, noch unbewertetes Bild dem neuronalen Netz vorgelegt wird, verhält sich dieses genau gleich wie bei den anderen Bildern. Wenn das Netz gut trainiert worden ist, sollte der Panzer vom Programm selbstständig zugeordnet werden können, d.h. das neuronale Netz erkennt, ob das Bild einen eigenen oder  fremden Panzer darstellt (Abb. 2).

Suchanfrage mit unbekanntem Panzer

Abb. 2: Suchanfrage mit noch nicht klassifiziertem Panzer an das neuronale Netz

Die Bedeutung des Datenkorpus für die korpusbasierte KI

Die korpusbasierte KI findet ihr Detailwissen im eigens für sie bereitgestellten Korpus vor und wertet die Verbindungen aus, die sie dort antrifft. Der Korpus enthält somit das Wissen, welches die korpusbasierte KI auswertet. Das Wissen besteht in unserem Beispiel in der Verbindung der Photographie, also einer Menge von wild angeordneten Pixeln mit einer einfachen binären Information (unser Panzer/fremder Panzer). Dieses Wissen findet sich im Korpus bereits bevor eine Auswertung durch die Algorithmen stattfindet. Die Algorithmen der korpusbasierte KI finden also nichts heraus, was nicht im Korpus steckt. Allerdings: Das im Korpus gefundene Wissen kann die korpusbasierte KI nun auch auf neue und noch nicht bewertete Fälle anwenden.

Die Herausforderungen an die korpusbasierte KI

Die Herausforderungen an die korpusbasierte KI sind eindeutig:

  1. Grösse des Korpus: Je mehr Bilder sich im Korpus befinden, umso sicherer kann die Zuordnung erfolgen. Ein zu kleiner Korpus bringt Fehlresultate. Die Grösse des Korpus ist für die Präzision und Zuverlässigkeit der Resultate entscheidend.
  2. Hardware: Die Rechenleistung, welche die korpusbasierte KI benötigt, ist sehr gross; und sie wird umso grösser, je präziser die Methode sein soll. Die Performance der Hardware entscheidet über die praktische Anwendbarkeit der Methode.

Dadurch wird schnell klar, wie die korpusbasierte KI ihre Leistung in den letzten zwei Jahrzehnten so eindrücklich verbessern konnte:

  1. Die Datenmengen, welche Google und andere Organisationen im Internet sammeln können, sind drastisch angestiegen. Google profitiert dabei von einem nicht unbedeutenden Verstärkungseffekt: Je mehr Anfragen Google bekommt, umso besser wird der Korpus und damit seine Trefferquote. Je besser die Trefferquote, umso mehr Anfragen bekommt Google.
  2. Die Hardware, welche zur Auswertung der Daten benötigt wird, wird immer günstiger und performanter. Internetfirmen und andere Organisationen verfügen heute über riesige Serverfarmen, welche die rechenintensiven Auswertungen der korpusbasierten KI erst möglich machen.

Neben dem Korpus und der Hardware spielt natürlich auch die Raffinesse der Algorithmen eine Rolle. Die Algorithmen waren aber auch schon vor Jahrzehnten nicht schlecht. Im Vergleich zu den beiden anderen Faktoren – Hardware und Korpus – spielt der Fortschritt bei den Algorithmen für den beeindruckenden Erfolg der korpusbasierten KI nur eine bescheidene Rolle.

Der Erfolg der korpusbasierten KI

Die Herausforderungen an die korpusbasierte KI wurden von den grossen Firmen und Organisationen äusserst erfolgreich angegangen.

Auf Basis der oben erfolgten Beschreibung der Funktionsweise sollten aber auch die systemimmanenten und in den Medien etwas weniger prominent platzierten Schwächen der korpusbasierten KI erkennbar werden. In einem späteren Beitrag werde ich genauer darauf eingehen.


Dies ist ein Beitrag zum Thema künstliche Intelligenz. In der Fortsetzung sehen wir die Herausforderungen für die regelbasierte KI an.

Zur KI: Schnaps und Panzer

KI im letzten Jahrhundert

KI ist heute ein grosses Schlagwort, war aber bereits in den 80er und 90er Jahren des letzten Jahrhunderts ein Thema, das für mich auf meinem Gebiet des Natural Language Processing interessant war. Es gab damals zwei Methoden, die gelegentlich als KI bezeichnet wurden und die unterschiedlicher nicht hätten sein können. Das Spannende daran ist, dass diese beiden unterschiedlichen Methoden heute noch existieren und sich weiterhin essenziell voneinander unterscheiden.

KI-1: Schnaps

Die erste, d.h. die Methode, die bereits die allerersten Computerpioniere verwendeten, war eine rein algorithmische, d.h. eine regelbasierte. Beispielhaft für diese Art Regelsysteme sind die Syllogismen des Aristoteles:

Prämisse 1: Alle Menschen sind sterblich.
Prämisse 2: Sokrates ist ein Mensch.
Schlussfolgerung: Sokrates ist sterblich.

Der Experte gibt Prämisse 1 und 2 ein, und das System zieht dann selbstständig die Schlussfolgerung. Solche Systeme lassen sich mathematisch untermauern. Mengenlehre und First-Order-Logic (Aussagelogik ersten Grades) gelten oft als sichere mathematische Grundlage. Theoretisch waren diese Systeme somit wasserdicht abgesichert. In der Praxis sah die Geschichte allerdings etwas anders aus. Probleme ergaben sich durch die Tatsache, dass auch die kleinsten Details in das Regelsystem aufgenommen werden mussten, da sonst das Gesamtsystem «abstürzte», d.h. total abstruse Schlüsse zog. Die Korrektur dieser Details nahm mit der Grösse des abgedeckten Wissens überproportional zu. Die Systeme funktionierten allenfalls für kleine Spezialgebiete, für die klare Regeln gefunden werden konnten, für ausgedehntere Gebiete wurden die Regelbasen aber zu gross und waren nicht mehr wartbar. Ein weiteres gravierendes Problem war die Unschärfe, die vielen Ausdrücken eigen ist, und die mit solchen hart-kodierten Systemen schwer in den Griff zu bekommen ist.

Diese Art KI geriet also zunehmend in die Kritik. Kolportiert wurde z.B. folgender Übersetzungsversuch: Ein NLP-Programm übersetzte Sätze vom Englischen ins Russische und wieder zurück, dabei ergab die Eingabe:
«Das Fleisch ist willig, aber der Geist ist schwach» die Übersetzung:
«Das Steak ist kräftig, aber der Schnaps ist lahm.»

Die Geschichte hat sich vermutlich nicht genau so zugetragen, aber das Beispiel zeigt die Schwierigkeiten, wenn man versucht, Sprache mit regelbasierten Systemen einzufangen. Die Anfangseuphorie, die seit den 50er Jahren mit dem «Elektronenhirn» und seiner «maschinellen Intelligenz» verbunden worden war, verblasste, der Ausdruck «Künstliche Intelligenz» wurde obsolet und durch den Ausdruck «Expertensystem» ersetzt, der weniger hochgestochen klang.

Später, d.h. um 2000, gewannen die Anhänger der regelbasierten KI allerdings wieder Auftrieb. Tim Berners-Lee, Pionier des WWW, lancierte zur besseren Benutzbarkeit des Internets die Initiative Semantic Web. Die Experten der regelbasierten KI, ausgebildet an den besten technischen Hochschulen der Welt, waren gern bereit, ihm dafür Wissensbasen zu bauen, die sie nun Ontologien nannten. Bei allem Respekt vor Berners-Lee und seinem Bestreben, Semantik ins Netz zu bringen, muss festgestellt werden, dass die Initiative Semantic Web nach bald 20 Jahren das Internet nicht wesentlich verändert hat. Meines Erachtens gibt es gute Gründe dafür: Die Methoden der klassischen mathematischen Logik sind zu rigid, die komplexen Vorgänge des Denkens nachzuvollziehen – mehr dazu in meinen anderen Beiträgen, insbesondere zur statischen und dynamischen Logik. Jedenfalls haben weder die klassischen regelbasierten Expertensysteme des 20. Jahrhunderts noch die Initiative «Semantic Web» die hoch gesteckten Erwartungen erfüllt.

KI-2: Panzer

In den 90er Jahren gab es aber durchaus auch schon Alternativen, die versuchten, die Schwächen der rigiden Aussagenlogik zu korrigieren. Dazu wurde das mathematische Instrumentarium erweitert.

Ein solcher Versuch war die Fuzzy Logic. Eine Aussage oder eine Schlussfolgerung war nun nicht mehr eindeutig wahr oder falsch, sondern der Wahrheitsgehalt konnte gewichtet werden. Neben Mengenlehre und Prädikatenlogik hielt nun auch die Wahrscheinlichkeitstheorie Einzug ins mathematische Instrumentarium der Expertensysteme. Doch einige Probleme blieben: Wieder musste genau und aufwendig beschrieben werden, welche Regeln gelten. Die Fuzzy Logic gehört also ebenfalls zur regelbasierten KI, wenn auch mit Wahrscheinlichkeiten versehen. Heute funktionieren solche Programme in kleinen, wohlabgegrenzten technischen Nischen perfekt, haben aber darüberhinaus keine Bedeutung.

Eine andere Alternative waren damals die Neuronalen Netze. Sie galten als interessant, allerdings wurden ihre praktischen Anwendungen eher etwas belächelt. Folgende Geschichte wurde dazu herum

gereicht:

Die amerikanische Armee – seit jeher ein wesentlicher Treiber der Computertechnologie – soll ein neuronales Netz zur Erkennung von eigenen und fremden Panzern gebaut haben. Ein neuronales Netz funktioniert so, dass die Schlussfolgerungen über mehrere Schichten von Folgerungen vom System selber gefunden werden. Der Mensch muss also keine Regeln mehr eingeben, diese werden vom System selber erstellt.

Wie kann das System das? Es braucht dazu einen Lernkorpus. Bei der Panzererkennung war das eine Serie von Fotos von amerikanischen und russischen Panzern. Für jedes Foto war also bekannt, ob amerikanisch oder russisch, und das System wurde nun so lange trainiert, bis es die geforderten Zuordnungen selbstständig erstellten konnte. Die Experten nahmen auf das Programm nur indirekt Einfluss, indem sie den Lernkorpus aufbauten; das Programm stellte die Folgerungen im neuronalen Netz selbstständig zusammen – ohne dass die Experten genau wussten, aus welchen Details das System mit welchen Regeln welche Schlüsse zog. Nur das Resultat musste natürlich stimmen. Wenn das System nun den Lernkorpus vollkommen integriert hatte, konnte man es testen, indem man ihm einen neuen Input zeigte, z.B. ein neues Panzerfoto, und es wurde erwartet, dass es mit den aus dem Lernkorpus gefundenen Regeln das neue Bild korrekt zuordnete. Die Zuordnung geschah, wie gesagt, selbständig durch das System, ohne dass der Experte weiteren Einfluss nahm und ohne dass er genau wusste, wie im konkreten Fall die Schlüsse gezogen wurden.

Das funktionierte, so wurde erzählt, bei dem Panzererkennungsprogramm perfekt. So viele Fotos dem Programm auch gezeigt wurden, stets erfolgte die korrekte Zuordnung. Die Experten konnten selber kaum glauben, dass sie wirklich ein Programm mit einer hundertprozentigen Erkennungsrate erstellt hatten. Wie konnte so etwas sein? Schliesslich fanden sie den Grund: Die Fotos der amerikanischen Panzer waren in Farbe, diejenigen der russischen schwarzweiss. Das Programm musste also nur die Farbe erkennen, die Silhouetten der Panzer waren irrelevant.

Regelbasiert versus korpusbasiert

Die beiden Anekdoten zeigen, welche Probleme damals auf die regelbasierte und die korpusbasierte KI warteten.

  • Bei der regelbasierten KI waren es:
    – die Rigidität der mathematischen Logik
    – die Unschärfe unserer Wörter
    – die Notwendigkeit, sehr grosse Wissenbasen aufzubauen
    – die Notwendigkeit, Fachexperten für die Wissensbasen einzusetzen
  • Bei der korpusbasierten KI waren es:
    – die Intransparenz der Schlussfolgerungs-Wege
    – die Notwendigkeit, einen sehr grossen und relevanten Lernkorpus aufzubauen

Ich hoffe, dass ich mit den beiden oben beschriebenen, zugegebenermassen etwas unfairen Beispielen den Charakter und die Wirkweise der beiden KI-Typen habe darstellen können, mitsamt den Schwächen, die die beiden Typen jeweils kennzeichnen.

Die Herausforderungen bestehen selbstverständlich weiterhin.  In den folgenden Beiträgen werde ich darstellen, wie die beiden KI-Typen darauf reagiert haben und wo bei den beiden Systemen nun wirklich die Intelligenz sitzt. Als Erstes schauen wir die korpusbasierte KI an.

Dies ist ein Beitrag zum Thema künstliche Intelligenz.