Archiv der Kategorie: Künstliche Intelligenz

Wie gefährlich Ist Künstliche Intelligenz?

Was ist Intelligenz?

Wenn heute über Nutzen und Gefahren der KI diskutiert wird, sollte dies nicht getan werden, ohne auf den Unterschied zwischen künstlicher und natürlicher Intelligenz hinzuweisen.

Der Unterschied ist bei genauem Hinsehen evident, doch auf den ersten Blick kaum zu erkennen. Das ist die Gefahr, denn das Potenzial der künstlichen Intelligenz ist riesig. Das Dumme ist nur, dass KI zwar beeindruckend, aber nicht wirklich intelligent ist. Der Ausdruck KI,  kommt aus dem Amerikanischen (artificial Intelligence), und dort hat das Wort intelligence zwei Bedeutungen:

1) Intelligenz (wie im Deutschen)
2) Erkennung, Aufklärung (wie in CIA)

Die KI erscheint uns intelligent – im Sinn 1) – weil sie wirkliche Intelligenz von wirklichen Menschen eingebaut hat. Sie präsentiert uns auf raffinierte Weise diese wirklichen Intelligenzleistungen von echten Menschen, und tut so, als wären das ihre eigenen Intelligenzleistungen.

a) Analytische KI

Darunter fallen z.B. Gesichtserkennung, Vorschläge von Suchmaschinen usw.
Hier müssen wirkliche Menschen zuerst einen riesigen Pool (=Corpus) von Zuordnungen erschaffen. Die KI arbeitet anschliessend statistisch in diesem riesigen Pool. Je grösser er ist, umso präziser wird die statistische Aussage. Zugleich treten auch die Schwächen zutage:
Wenn der Pool zu einseitig ist (biased), dann sind auch die KI-Resultate entsprechend verformt. Die Menschen, die die Zuordnungen im Pool treffen, müssen also korrekt, bzw. im Sinn des Auftragsgebers, arbeiten. Wenn sie das tun, dann kann die KI ihre Einzelleistungen sogar locker übertreffen. Dies ist aber nur für ganz einfache Fragestellungen möglich, bei denen es ausreicht, zwischen den Einzelmeinungen zu mitteln. Wenn die Geschichte komplexer wird, ist der statistische Mittelwert nicht die gesuchte Lösung (schwarzer Schwan).

b) Generative KI

Beispiele: ChatGPT und alles was künstliche Texte und Bilder erstellt.
Hier baut das KI-Resultat ganz klar auf real vorhandenen Bestandteilen auf, z.B. realen Bildern, die raffiniert kombiniert werden und realen menschlichen Äusserungen, die als Textbausteine  zusammengestellt werden. Deshalb wirkt das auch so echt. Wir sollten uns aber von der generativen KI nicht täuschen lassen. Niur die Teile sind echt, die Zusammenstellung ist künstlich.

Die Gefahren der KI

Im Fall der analytischen KI droht die Überbetonung des statistischen Mittels («reduce to the mean«). Bei klaren Aufgabenstellungen, z.B. der medizinischen Beurteilung von Blutbildern, ist das ganz ok und sehr hilfreich. Bei komplexen Fragestellungen führt das aber zu einem Einheitsbrei (z.B. die Musikprogramme der Radiosender, die immer gleich klingende Hits bringen). Das bringt die menschliche Kultur nicht wirklich vorwärts.

Im Fall der generativen KI wird es aber wirklich gefährlich. Hier kann effektiv und bewusst gelogen werden. Je besser die generative KI wird, umso schwieriger wird es. das Fake zu erkennen. Gleichzeitig erkennen aber immer mehr Menschen, wie einfach solche Fakes zu erstellen sind – und dann verlieren sie hoffentlich zunehmend ihre Wirkung. Doch auch die Qualität der Fakes steigt. Wir können also gespannt sein, was die Zukunft bringt.

Die Schwächen der Künstlichen Intelligenz (KI)

Die Datenverabeitungs-Methode der Neuronalen Netze – allgemein und fälschlicherweise als KI, also als «Künstliche Intelligenz» bezeichnet – ist erstaunlich leistungsfähig, wenn sie richtig eingesetzt wird.

Manche fürchten sie und schreiben ihr einen eigenen Willen zu. Denn die KI eignet sich perfekt, um bei dafür empfänglichen Menschen Ängste vor einer mächtigen und undurchschaubaren Intelligenz auszulösen. Diese Ängste werden von der Unterhaltungsindustrie seit vielen Jahren bedient, um uns einen grusligen Kitzel zu verschaffen.

In der Realität sehen die Gefahren allerdings ganz anders aus. Die Neuronalen Netze (NN) sind mächtig, leiden aber unter bemerkenswerten Schwächen. Diese Schwächen sind für Laien nicht auf den ersten Blick erkennbar. Die IT-Experten kennen sie, doch wir müssen nicht erwarten, dass diejenigen, die mit KI Geld verdienen, viel Zeit verlieren, uns die Probleme im Detail zu erklären.

Ein Blick auf die Wirkweise der NN zeigt diese Schwächen klar. Er zeigt, wie die Resultate der NN zustande kommen, nämlich über eine riesige Datensammlung von Musterbeispielen, dem Lernkorpus. Die NN werten diesen Datenkorpus raffiniert aus – doch so raffiniert die Auswertung auch ist, die NN finden nur, was bereits im Korpus steckt. Alles was nicht drin steckt, wird nicht erkannt. Die NN ist somit völlig abhängig vom Korpus.


Das führt zu folgenden Schwächen:

Ineffizienz: Die Ursache

Das Aufwand/Nutzen Verhältnis von KI-Lösungen ist extrem schlecht. Riesige Mengen an Rohdaten, d.h. an Musterbeispielen sind nötig, um daraus die einfachsten Schlüsse zu ziehen. Die Schlüsse werden statistisch gezogen, deshalb braucht jeder Schluss unzählige Musterbeispiele. Ein einziges Beispiel ist statistisch irrelevant, mehr sind besser und erst richtig viele sind wirklich verlässlich. Jeder Statistiker weiss das. Auch die KI-Betreiber wissen das. Deshalb sind sie auf riesige Datenmengen angewiesen. Das hat Konsequenzen.

Ineffizienz: Riesige Serverfarmen

Wissen erscheint uns immateriell und ein Gedanke braucht praktisch keine Energie. Für die KI ist das aber nicht der Fall. Im Gegenteil, um die riesigen für die NN nötigen Datenmengen zu speichern und zu verarbeiten sind auch riesige Serverfarmen nötig. Ihr Energieverbrauch ist wirklich sehr gross. Und auf diese Serverfarmen sind die Neuronalen Netze angewiesen, da sie erst mit richtig vielen Musterdaten in die Gänge kommen und unzählige  Rechenschritte nötig sind, um aus dem Wust von Daten statistische Schlüsse zu ziehen. Neuronale Netze sind deshalb erst dann verlässlich, wenn genügend Beispiele gesammelt und durchgerechnet sind. Dazu stellen die Internetgiganten riesige Serverfarmen auf. Der Energiebedarf der KI wird schnell übersehen.

Ineffizienz: Abnehmender Grenznutzen

Die Resultate der NN sind um so verlässlicher, je kleiner die Zahl der möglichen Outcomes ist. Sobald mehr unterschiedliche Resultate möglich sind, steigt der Bedarf an Musterdaten und an Rechenzeit. Die Steigung ist nicht linear. Wenn die KI nur zwischen zwei Ergebnissen (z.B. männlich/weiblich) unterscheiden will, braucht sie relativ wenige Muster. Um vier Zustände zu unterscheiden, braucht sie aber nicht doppelt so viel, sondern ein Vielfaches mehr. Der Korpusbedarf steigt mit der Zahl der jeweils möglichen Ergebnissen (Outcomes) nicht linear, sondern exponentiell.

Ineffizienz: Nur Grosse können mithalten

Beim dem grossen Daten- und Rechenbedarf der KI ist klar, dass einzelne Forscher das gar nicht stemmen können. Auch kleinere Unternehmen können das nicht. Erst die richtig die Grossen wie Meta, Amazon, Alibaba usw. können hier mitspielen.

Selektionsbias: Unvermeidlich

Die Daten im Korpus entscheiden über die Antworten der KI. Deshalb spielt es eine grosse Rolle, welche Daten gesammelt werden. Das führte in der Vergangenheit zu Ergebnissen, die für die KI-Ersteller so unerwartet wie unwillkommen waren. So hat ein Versuch von Microsoft dazu geführt. dass der Chatbot Naziparolen ausgab, einfach weil unvorsichtigerweise Nazitexte in den Korpus eingeflossen sind. Auch ein Versuch in China soll fehlgelaufen sein, der Bot soll durch falsche Fütterung dazu gebracht worden sein, die kommunistische Partei zu kritisieren. Beides war wohl nicht im Sinn der Betreiber. Doch weil der KI-Mechanismus sich an den Korpus halten muss (das ist das Prinzip), kann er gar nicht anders als die Aussagen des für seine Programmierung gewählten Korpus zu verwenden.

Intransparenz: Korrekturen sind sehr aufwendig

Die Schlüsse der KI erfolgen auf raffinierte Weise aus den Rohdaten. Das kann sehr gut funktionieren, doch wenn es zu Fehlern kommt (siehe oben), ist das Fehlverhalten kaum zu korrigieren. Dies liegt in der Intransparenz des Prinzips, mit dem Neuronale Netze funktionieren. Ganz viele Einzeldaten führen auf statistische Weise zum jeweiligen Schluss, sodass am Ende nicht mehr zu eruieren ist, welcher/welche Datensätze genau verantwortlich sind für das jeweilige Resultat. Korrekturen von offensichtlichen Fehlschlüssen sind deshalb aufwendig und unsicher und können ihrerseits zu weiteren Fehlern führen.

Lücken: Der schwarze Schwan

Das ist die entscheidende Lücke der Neuronalen Netze. Die NN benützen nicht nur die Daten im Lernkorpus für ihre Schlüsse, vielmehr stellen diese Daten für die NN die gesamte Welt dar. Was nicht im Korpus ist, wird nicht erkannt. Und wenn der schwarze Schwan es trotzdem in den Korpus geschafft hat, wird er von der grossen Überzahl weisser Schwäne als statischer Ausreisser automatisch ausgeblendet.

Verflachung: Reduce to the mean

Was häufig ist, ist häufig. Doch es gibt immer auch Ausnahmen und oft sind es gerade die Ausnahmen, auf die es ankommt. Wenn z.B. ein Radioprogramm sich statistisch am Musikgeschmack der Mehrheit orientiert, werden interessante Musikstücke nicht gespielt. Das mag im Interesse des Radioprogramms liegen, das damit seine Reichweite verbessert. Die Intelligenz der KI hilft dem Radiosender, doch wenn das alle Radiosender machen, verflacht die Musik.

Das gleiche gilt für Texte und Bestrebungen in der Forschung. Wirklich Neues wird so nicht gefunden. Die KI hilft zwar, bewährtes Wissen und bewährte Techniken abzusichern, doch wirklich Neues liegt ihr fern.


Was steckt hinter der KI? 

Hinter der KI steckt eine bestimmte Technik der Informationsverarbeitung, die mit Neuronalen Netze operiert.
Neuronale Netze funktionieren
– rein statistisch
– mit Hilfe einer riesigen Datensammlung

Es lohnt sich, die Grundzüge der Wirkweise dieser Methode zu kennen, um KI einordnen zu können. Eine gut verständliche Übersicht finden Sie hier:

«Wie die künstliche Intelligenz zu ihrer Intelligenz kommt»

Das Buch richtet sich an alle, die in ihrem Alltag mit KI zu tun haben und wissen wollen, was da eigentlich passiert.


 

Die 21. Reise und die künstliche Intelligenz

Littering im Weltraum ist nicht erst seit Elon Musks Starlink-Programm ein Thema und aktuell werden verschiedene Methoden zur Reinigung des zunehmend vermüllten Weltraums rund um unserer Erde diskutiert. Die Aufgabe ist nicht einfach, weil – aufgrund des zweiten Hauptsatzes, nämlich der unausweichlichen Entropiezunahme – jede Vermüllung die Tendenz hat, exponentiell zuzunehmen. Wenn eines der Tausenden von Schrottteilen im Weltraum von einem anderen Schrottteil getroffen wird, entstehen aus dem einen getroffenen Stück viele neue, mit irrer Geschwindigkeit herumfliegende Teile. Das Weltraumvermüllung ist also ein Selbstläufer mit zunehmend exponentieller Tendenz.

Aber kennen wir dieses Problem nicht schon lange? In den 60-er Jahren hatte der polnische Schriftsteller Stanislaw Lem bereits darüber geschrieben. Ich holte deshalb seine Zusammenstellung der Reisen des Kosmonauten Ijon Tichys hervor. In der 21. seiner Reisen trifft dieser auf einen vermüllten Planeten. Tichy, der weitgereiste Kosmonaut, schreibt:

«Jede Zivilisation, die in der technischen Phase steckt, beginnt allmählich in den Abfällen zu versinken, die ihr gewaltige Sorgen bereiten.»

Des weiteren beschreibt Tichy, wie deshalb die Abfälle in den Weltraum rund um den Planeten entsorgt werden, dort aber neue Probleme bereiten, was Folgen hat, die auch Kosmonaut Tichy zu spüren bekommt.

Doch die 21. Reise hat es aus noch ganz anderen Gründen in sich. Das Hauptthema dieser Reise ist – wie bei vielen Geschichten von Stanislaw Lem – die künstliche Intelligenz.

Tichy trifft auf dem jetzt gereinigten Planeten nicht nur auf eine weitere unliebsame Folge des zweiten Hauptsatzes (nämlich eine entartete Biogenetik), sondern auch auf einen Mönchsorden, der aus Robotern besteht. Diese Robotor diskutieren mit Tichy über die Bedingungen und Folgen ihrer künstlichen Intelligenz. So sagt z.B. der Roboterprior über die Beweiskraft von Algorithmen:

«Die Logik ist ein Werkzeug» erwiderte der Prior, «und aus einem Werkzeug resultiert nichts. Es muss einen Schaft und eine lenkende Hand haben.» (S. 272, Lem)

Ich selber bewegte mich – ohne dass mir der Zusammenhang und die mögliche Beeinflussung meiner Gedanken durch Stanislaw Lem bewusst war – ganz auf den Spuren von Lems Roboter-Priors und schrieb:

«Eine Instanz (Intelligenz) […]  muss zwecks Beurteilung der Daten den Bezug zwischen den Daten und dem Beurteilungsziel herstellen. Diese Aufgabe ist immer an eine Instanz mit einer bestimmten Absicht gebunden.» (Straub 2021, S. 64-65)

Lem hat bereits vor 50 Jahren  formuliert, was meines Erachtens den prinzipiellen Unterschied zwischen einer Werkzeug-Intelligenz und einer belebten (d.h. biologischen) Intelligenz ausmacht – nämlich die Absicht, welche die Logik lenkt. Bei der Maschine fehlt sie, bzw. wird sie von aussen (von wem?) eingebeben. Die menschliche Intelligenz hingegen kann – wenn wir keine Roboter sein wollen – ihre Ziele selber bestimmen. Sie besteht in den Worten von Lems Prior nicht nur aus der Logik, welche von der lenkenden Hand geführt wird, sondern beinhaltet die lenkende Hand mit.

Als Konsequenz dieser Überlegung folgt für mich bezüglich KI:

Wenn wir uns der technischen Möglichkeiten der KI bedienen (und weshalb sollten wir nicht?), dann sollten wir immer auch berücksichtigen, nach welchem Ziel unsere Algorithmen ausgerichtet sind.

Literatur

  • Lem, S. (1971) Sterntagebücher, Frankfurt am Main, Suhrkamp, 1978.
  • Straub, HR. (2021) Wie die künstliche Intelligenz zur Intelligenz kommt, St. Gallen, ZIM-Verlag.
  • Nowotny, H. (2021) In AI we Trust, Power, Illusion and Control of Predictive Algorithms, Cambridge/Medford, Polity Press.

Hat der Chatbot LaMDA ein Bewusstsein?

Die Diskussion um künstliche Intelligenz bleibt  aktuell, nicht zuletzt dank den Erfolgen von Google in diesem Bereich.

Aktuell ist die Diskussion um LaMDA, eine KI, die genau darauf trainiert wurde, Dialoge so zu führen als wäre sie ein echter Mensch. Offenbar so überzeugend, dass der Google-Mitarbeiter Blake Lemoine selbst anfing, ihr ein eigenes Bewusstsein zuzugestehen und sogar erwägt haben soll, einen Anwalt für ihre Rechte als Person zu engagieren.

Zu LaMDA und Lemoine, siehe z.B. https://www.derstandard.at/story/2000136501277/streit-bei-google-um-eine-ki-die-ein-eigenes-bewusstsein

Doch nicht alle Beobachter stimmen mit Lemoine überein. Frau Sarah Spiekermann von der Wirtschaftsuniversität Wien sagt im Interview mit Radio SRF vom 23.6.22:

«Da es [Googles KI-Programm LaMDA] kein Selbst hat, liest es einfach nur vor, was eingespielt ist … Aber das gibt dem Ding natürlich kein Bewusstsein. … Ich denke, da können wir sehr sicher sein, dass es kein Selbst hat, denn zu einem Selbst gehört ein Leben … Dazu gehört eine Möglichkeit, sich selbst zu beobachten … Ich merke, dass ich selbst bin und Maschinen können diese Selbstbeobachtung nie einnehmen … sie sind immer einlesende Entitäten.» (Hervorhebungen von mir, Original: https://www.srf.ch/audio/echo-der-zeit/kann-eine-kuenstliche-intelligenz-ein-bewusstsein-entwickeln?partId=12211826)

Frau Spiekermanns Darstellung geht konform mit meiner These, dass bewusste Intelligenz notwendigerweise mit Existenz verknüpft ist. Durch die eigene Existenz ergibt sich ein eigenes, d.h. nicht von aussen bestimmtes Interesse, nämlich das Interesse, am Leben zu bleiben – ein im eigentlichen Sinn vitales Interesse.


Die philosophische Frage, was Intelligenz ausmacht, kommt uns durch die Neuronalen Netze von Google und anderen auch im Alltag immer näher. In meinem Buch ‹Das interpretierende System› unterschied ich 2001 zwischen

a) trivialen Maschinen
b) einfachen interpretierenden Systemen
c) intelligenten, d.h. selbstlernenden System.

Spannend ist vor allem der Unterschied zwischen b) und c), also zwischen nur interpretierenden Systemen (z.B. LaMDA) und wirklich intelligenten Systemen. Dazu schrieb ich:

«Beide enthalten Regeln für die Beurteilung der Umwelt. Die Frage ist, wer die Regeln erstellt. Ein interpretierendes System muss die Regeln nicht notwendigerweise selbst generieren, es reicht aus, gegebene Regeln anzuwenden, um ein interpretierendes System zu sein. Ein System hingegen, das seine Regeln selbst findet, also selbstständig lernt, ist intelligent im eigentlichen Sinn. Dabei kommt das nun schon oft erwähnte selbstreferentielle Phänomen ins Spiel: Die Regeln sind ein essentieller Bestandteil des Systems, und ein System, das seine eigenen Regeln selbst anpasst, verändert sich selbst.» (Das interpretierende System, 2001, S. 90)

Selbstreferentialität (Spiekermann: ‹Selbstbeobachtung›) ist ein notwendiges Element von echter Intelligenz. Doch nicht nur Selbst-Beobachtung gehört dazu, auch die Möglichkeit sich selber zu verändern.

Drei Beobachtungen zur Künstlichen Intelligenz / 3

Was hat die biologische der künstlichen Intelligenz voraus?

Das Unwahrscheinliche einbeziehen

Neuronale Netze bewerten die Wahrscheinlichkeit eines Ergebnisses. Dies entspricht einem sehr flachen Denkvorgang, denn nicht nur das Wahrscheinliche ist möglich. Gerade eine unwahrscheinliche Wendung kann ganz neue Perspektiven öffnen, im Leben wie im Denken. Das automatische Vorgehen der neuronalen Netze aber ist ein Denkkorsett, das stets das Wahrscheinliche erzwingt.

Detaillierter differenzieren

Neuronale Netze werden umso unpräziser, je mehr Details sie unterscheiden sollen. Schon mit wenigen Resultatmöglichkeiten (Outcomes) sind sie überfordert. Biologische Intelligenz hingegen kann sich je nach Fragestellung in sehr differenzierte Ergebniswelten eindenken, mit einer Vielfalt von Ergebnismöglichkeiten.

Transparenz suchen

Weshalb komme ich im Denken zu einem bestimmten Ergebnis? Wie ist der Denkverlauf? Nur wenn ich mein Denken hinterfragen kann, kann ich es verbessern. Neuronale Netze hingegen können ihre Schlüsse nicht hinterfragen. Sie folgern einfach das, was der Korpus und dessen von aussen erfolgte Bewertung ihnen vorgeben.

Kontext bewusst wählen

Je nach Fragestellung wählt das menschliche Denken einen Kontext mit entsprechenden Musterbeispielen und bereits erkannten Regeln. Diese Auswahl ist aktiv und stellt das bewusste Moment im Denken dar: Worüber denke ich nach?

Die Auswahl des Kontexts entscheidet natürlich auch über die möglichen Outcomes und gültigen Regelmuster. Eine aktive Bewertung und Filterung des Kontexts erbringt die biologischen Intelligenz automatisch, sie liegt jedoch ausserhalb der Möglichkeiten eines neuronalen Netzes.

Zielorientiert denken

Was habe ich für Ziele? Was ist für mich wichtig? Was hat für mich Bedeutung? – Solche Fragen richten mein Denken aus; Aristoteles spricht von der «Causa finalis», dem Wozu, d. h. dem Ziel als Beweggrund. Neuronale Netze kennen kein eigenes Ziel, d. h. dieses steckt stets in der vorgängigen Bewertung des Korpus, die von aussen erfolgt. Das Ziel ist nichts, was das neuronale Netz selbstständig oder im Nachhinein verändern kann. Ein neuronales Netz ist stets und vollständig fremdbestimmt.

Eine biologische Intelligenz hingegen kann sich über ihre Ziele Gedanken machen und das Denken entsprechend verändern und ausrichten. Diese Autonomie über die eigenen Ziele zeichnet die biologische Intelligenz aus und ist ein wesentliches Element des Ideals des freien Menschen.

Fazit in einem Satz

Die künstliche Intelligenz der neuronalen Netze ist hochpotent, aber nur für umschriebene, eng begrenzte Fragestellungen einsetzbar und hat mit wirklicher, d. h. aktiver Intelligenz nichts zu tun.


Dies ist Teil 3 aus dem Nachwort des Buches ‹Wie die künstliche Intelligenz zur Intelligenz kommt›.  –> zum Buch

Drei Beobachtungen zur Künstlichen Intelligenz / 2

Die Möglichkeiten der neuronalen Netze sind beschränkt

Der unbezweifelbare Erfolg der neuronalen Netze lässt ihre Schwächen in den Hintergrund treten. Als korpusbasierte Systeme sind neuronale Netze völlig von der vorgängig erfolgten Datensammlung, dem Korpus abhängig. Prinzipiell kann nur die Information, die auch im Korpus steckt,  vom neuronalen Netz überhaupt gesehen werden. Zudem muss der Korpus bewertet werden, was durch menschliche Experten erfolgt.

Was nicht im Korpus steckt, befindet sich ausserhalb des Horizonts des neuronalen Netzes. Fehler im Korpus oder in seiner Bewertung führen zu Fehlern im neuronalen Netz:

Intransparenz

Welche Datensätze im Korpus zu welchen Schlüssen im neuronalen Netz führen, lässt sich im Nachhinein nicht rekonstruieren. Somit können Fehler im neuronalen Netz nur mit beträchtlichem Aufwand korrigiert werden. Andererseits ist es auch nicht nötig, die Schlussfolgerungen wirklich zu verstehen. So kann ein neuronales Netz ein Lächeln auf einem fotografierten Gesicht sehr gut  erkennen, obwohl wir nicht bewusst angeben können, welche Pixelkombinationen nun genau für das Lächeln verantwortlich sind.

Kleiner Differenzierungsgrad

Wie viele Ergebnismöglichkeiten (Outcomes) kann ein neuronales Netz unterscheiden? Jedes mögliche Ergebnis muss in der Lernphase einzeln geschult und abgegrenzt werden. Dafür müssen genügend Fälle im Korpus vorhanden sein. Der Aufwand bezüglich Korpusgrösse steigt dabei nicht proportional, sondern exponentiell. Dies führt dazu, dass Fragen mit wenig Ergebnismöglichkeiten von neuronalen Netzen sehr gut, solche mit vielen unterschiedlichen Antworten nur mit überproportionalem Aufwand gelöst werden können.

Am besten eignen sich deshalb binäre Antworten, z. B. Ist der Twittertext von einer Frau oder einem Mann geschrieben? Zuweisungen mit vielen Outcome-Möglichkeiten hingegen eignen sich schlecht.

(Fortsetzung folgt)


Dies ist Teil 2 aus dem Nachwort des Buches ‹Wie die künstliche Intelligenz zur Intelligenz kommt›.  –> zum Buch


Mehr zum Thema Künstliche Intelligenz

Drei Beobachtungen zur Künstlichen Intelligenz / 1

KI umfasst mehr als nur neuronale Netze

Neuronale Netze sind potent

Was unter Künstlicher Intelligenz (KI) allgemein verstanden wird, sind sogenannte Neuronale Netze.

Neuronale Netze sind potent und für ihre Anwendungsgebiete unschlagbar. Sie erweitern die technischen Möglichkeiten unserer Zivilisation massgeblich auf vielen Gebieten. Trotzdem sind neuronale Netze nur eine Möglichkeit, ‹intelligente› Computerprogramme zu organisieren.

Korpus- oder regelbasiert?

Neuronale Netze sind korpusbasiert, d. h. ihre Technik basiert auf einer Datensammlung, dem Korpus, der von aussen in einer Lernphase Datum für Datum bewertet wird. Das Programm erkennt anschliessend in der Bewertung der Daten selbständig gewisse Muster, die auch für bisher unbekannte Fälle gelten. Der Prozess ist automatisch, aber auch intransparent.

In einem realen Einzelfall ist nicht klar, welche Gründe für die Schlussfolgerungen herangezogen worden sind. Wenn der Korpus aber genügend gross und korrekt bewertet ist, ist die Präzision der Schlüsse ausserordentlich hoch.

Grundsätzlich anders funktionieren regelbasierte Systeme. Sie brauchen keine Datensammlung, sondern eine Regelsammlung. Die Regeln werden von Menschen erstellt und sind transparent, d. h. leicht les- und veränderbar. Regelbasierte Systeme funktionieren allerdings nur mit einer adäquaten Logik (dynamische, nicht statische Logik) und einer für komplexe Semantiken geeigneten, multifokalen Begriffsarchitektur; beides wird in den entsprechenden Hochschulinstituten bisher kaum gelehrt.
Aus diesem Grund stehen regelbasierte Systeme heute eher im Hintergrund, und was allgemein unter künstlicher Intelligenz verstanden wird, sind neuronale Netze, also korpusbasierte Systeme.

(Fortsetzung)


Dies ist Teil 1 aus dem Nachwort des Buches ‹Wie die künstliche Intelligenz zur Intelligenz kommt›.  –> zum Buch


Mehr zum Thema Künstliche Intelligenz

Neuerscheinung: «Wie die Künstliche Intelligenz zur Intelligenz kommt»

Das Buch zur Intelligenz in der Künstlichen Intelligenz ist wie geplant diese Woche gedruckt worden und ab sofort lieferbar.

Es erklärt verständlich, was jedermann über KI wissen sollte: Was sie kann und was nicht. Was für Formen es gibt und wie sie sich unterscheiden. Und nicht zuletzt: Wie die Intelligenz wirklich in die KI-Anwendungen kommt.

Titel «Wie die Künstliche Intelligenz zur Intelligenz kommt»
Autor: Hans Rudolf Straub
Verlag: ZIM-Verlag, St. Gallen
Ausgabe: August 2021
Preis: CHF/Euro 19.-

Weitere Angaben zum Buch finden Sie auf der Internetseite des Verlags.


 

Aktuelle Pressetexte zur Künstlichen Intelligenz

Meine These, dass sogenannte KI-Programme zwar ausserordentlich leistungsfähig sind, doch ihre Intelligenz bestenfalls geborgt haben und zu eigenständigen Denkleistungen aus prinzipiellen Gründen nicht imstande sind, wird zunehmend auch von anderen Seiten unterstützt.


Hier drei Publikationen mit dieser Stossrichtung:

  1. St. Galler Tagblatt, 3. August 2021, Christoph Bopp: «Dr. Frankenstein verwirrte die Künstliche Intelligenz«:
    https://www.tagblatt.ch/leben/ki-uund-medizin-doktor-frankenstein-verwirrte-die-kuenstliche-intelligenz-ld.2169958
    .
  2. The Gradient: 3. August 2021, Valid S. Saba: «Machine Learning Won’t Solve Natual Language Understanding«:
    https://thegradient.pub/machine-learning-wont-solve-the-natural-language-understanding-challenge/
    .
  3. Neue Zürcher Zeitung, 17. August 2021, Adrian Lobe: «Man kann Algorithmen zu Kommunisten erziehen, aber sie können auch zu Rassisten werden, wenn sie in schlechte Gesellschaft geraten»
    https://www.nzz.ch/feuilleton/wie-die-black-box-lernt-bots-kann-man-zu-rassisten-machen-ld.1636315?ga=1&kid=nl165_2021-8-16&mktcid=nled&mktcval=165_2021-
    08-17

Diese Texte zeigen beispielhaft,

  •  wie der Lern-Korpus das Ergebnis der KI bestimmt (NZZ über den chinesischen Chatbot):
    Bei Neuronalen Netzen gilt bekanntlich: «Garbage In, Garbage Out» – der Korpus bestimmt was überhaupt erkennbar ist und was «wahr» ist, die KI kann nur ausgeben, was der Korpus vorgibt.
  • wie komplexe Sachverhalte in einem noch unklaren Kontext für KI-Systeme schlecht durchschaubar sind (Tagblatt über falsche Prognosen in der Covid-Epidemie):
    Bei komplexen Sachverhalten nimmt der Bedarf an Korpusdaten überproportional zu. Die rein technischen Probleme sind dabei noch die kleinsten.
  • wo die wirklichen Herausforderungen für NLP liegen (The Gradient über Natural Language):
    Dieser aktuelle Text aus den USA stellt die gleichen Thesen auf und verwendet gleiche Argumentationslinien wie ich z.B. in meinem Buch von 2001, dass nämlich die Semantik, also die Bedeutung eines Textes im Kopf verstanden werden muss – und genau das kann die KI der Neuronalen Netze eben nicht.

Die KI der Neuronalen Netze bleibt allerdings eine hochpotente, sinnvolle und hilfreiche Technologie – nur müssen wir wissen, was sie kann und was nicht.

Wie die künstliche Intelligenz zur Intelligenz kommt

Haben Sie sich schon gefragt, woher die Intelligenz in der künstlichen Intelligenz stammt? Die Künstliche Intelligenz, etwa in Suchmaschinen oder Programmen zur Gesichtserkennung ist ja nichts anderes als ein Computerprogramm, das vorgängig mit Daten gefüttert worden ist. Ein raffiniertes und komplexes Programm zwar, aber letztlich nichts als ein Automat, eine Maschine. Und diese Maschine verhält sich intelligent. Wie kann das sein?

Nun, darauf gibt es durchaus eine Antwort. Ich habe basierend auf meiner Berufspraxis im Bereich des NLP (Natural Language Processings) und der automatisierten Zuweisung von medizinischen Codes (ICD, CHOP, OPS, SNOMED) zu Freitexten eine Serie von Blogbeiträgen auf dieser Website publiziert, die jetzt auf Anregung meines Verlegers W. Fischer als kleines Büchlein erscheinen werden.

Die Beiträge stellen verschiedene Formen von KI vor und erklären kurz ihre prinzipiellen Wirkweisen. Für jede vorgestellte KI-Form wird gezeigt, an welcher Stelle und wie die benötigte Intelligenz zum Programm hinzu kommt. Selbstverständlich unterscheiden sich Taschenrechner, Suchmaschinen, regelbasierte NLP-Systeme und Deep Learning  Systeme (Schach, Go) hier deutlich.

Was aber sind die Konsequenzen dieser Programme und ihres Einsatzes? Was können sie und was bewirken sie? Und was ist der Unterschied zur menschlichen, also zur biologischen Intelligenz?

Das Büchlein wird diesen Sommer im ZIM-Verlag erscheinen.

Künstliche Intelligenz: Daniel Kehlmann und CTRL

Ist künstliche Intelligenz intelligent? Oder kann sie es werden?

Der bekannte Schriftsteller Daniel Kehlmann («Die Vermessung der Welt») hat letztes Jahr mit einem Sprachalgorithmus (CTRL) in Silicon Valley  zusammen den Versuch unternommen, eine Kurzgeschichte zu schreiben. Fasziniert und gleichzeitig kritisch berichtet er über dieses aufschlussreiche Experiment.

CTRL

Das Programm CTRL ist ein typisches corpusbasiertes KI-System, d.h. ein System mit einer grossen Datensammlung – dem Corpus – und einem statistisch funktionierenden Auswertungsalgorithmus. Konkret haben die Betreiber den Corpus von CTRL mit Hunderttausenden von Büchern, Zeitungen und Online-Foren gefüttert, wodurch das System auf ein Gedächtnis aus Abermillionen von Sätzen zurückgreifen kann. Die Auswertung dieses Datenschatzes erfolgt aufgrund der Wahrscheinlichkeit: Wenn statistisch auf Wort A das Wort B das wahrscheinlichste ist, bringt das System nach Wort A auch das Wort B. Dank des immensen Corpus kann sich das System darauf verlassen, dass A nach B für uns durchaus eine wohlklingende Fortsetzung des Textes ist. Die schiere Wahrscheinlichkeit ist ist das Prinzip jeder korpusbasierten KI.

Natürlich ist anzunehmen, dass die Betreiber nicht nur die unmittelbaren Nachbarwörter berücksichtigen, sondern die Tiefenschärfe um das Ausgangswort weitreichender einstellen, also mehr Kontext berücksichtigen, doch stets gilt auch bei der Fortschreibung des gemeinsamen Textes durch Kehlmann und CTRL, dass der Algorithmus den bisher geschriebenen Text mit seinem grossen Corpus vergleicht und dann die Fortsetzung basierend auf der Wahrscheinlichkeit in seinem Korpus vorschlägt. Dadurch wird uns die Fortsetzung stets irgendwie vertraut und möglich vorkommen. – Wird sie aber auch sinnvoll sein? Wir kommen hier an die Grenzen jeder corpusbasierten Intelligenz: Das Wahrscheinlichste ist nicht immer das Beste.

Die Grenzen von CTRL

Daniel Kehlmann beschreibt die gemeinsame kreative Welt, die er zusammen mit dem Programm CTRL erkundet hat, gleichzeitig fasziniert und kritisch. Kritisch vermerkt er u.a. folgende Mängel:

a) Abstürze des Algorithmus
Beim Experiment ist es nicht gelungen, eine Kurzgeschichte über eine bestimmte Länge weiterzuschreiben; offenbar war dann der Algorithmus rechnerisch nicht in der Lage, die Informationen der bisherigen Geschichte kohärent mit dem Corpus zusammenzubringen. Sobald die Geschichte über einige Sätze hinausging, stürzte das Programm regelmässig unrettbar ab – Ende der Gesichte.

Meines Erachtens ist das kein KO-Kriterium, denn Abstürze eines neuen Programms sind stets zu erwarten (ich weiss, wovon ich spreche … ). Zudem erwecken solche Abstürze stets den Eindruck, als könnten sie mit noch besserer Hardware und robusteren Algorithmen überwunden werden.

Doch dies ist m.E. hier nicht der Fall. Ich glaube vielmehr, dass diese Abstürze einen grundsätzlichen Schwachpunkt der corpusbasierten KI offenbaren, der auch mit verbesserter Hardware und besseren Auswertungsalgorithmen nicht angegangen werden kann. Der Mangel liegt vielmehr prinzipiell in der wahrscheinlichkeitsbasierten Anlage dieser corpusbasierten Programme. Je mehr Kontext (Tiefenschärfe) sie berücksichtigen müssen, umso grösser muss ihr Corpus werden. Doch der Bedarf an Daten und Rechenpower wächst, wenn es um die Vergrösserung des Kontexts geht, nicht linear, sondern exponentiell. Selbst wenn der riesige Corpus und die immense Rechenpower von CTRL weiter vergrössert werden würden, stösst ein solches Programm systembedingt immer und rasch an seine Grenzen.

Um Sinn und Bedeutung einzufangen, braucht es grundsätzlich andere Methoden, solche, die Bedeutung nicht indirekt aus statistischen Daten ausmitteln, sondern sie direkt repräsentieren und behandeln. Erst dann können die Programme direkt mit Bedeutung umgehen.

b) Zweitverwertung
CTRL kennt nichts Neues, dafür Abermillionen alter Sätze. Dies birgt die Gefahr des «Garbage In, Garbage Out». Wenn Fehler oder Schwächen in den bisherigen Texten vorhanden sind, können sie auch in den Sätzen von CTRL auftauchen. Diese Gefahr ist zwar an sich klein, denn durch die grosse Menge an Sätzen wird es wahrscheinlicher, dass gleiche korrekte Sätze auftauchen als gleiche falsche, und somit wird CTRL sicher nur grammatikalisch, oder mindestens umgangssprachlich korrekte Sätze liefern. Doch trifft dies auch auf den Inhalt zu?

Wenn mehrere Menschen den gleichen Fehler machen, wird er dadurch zwar nicht korrekt, aber für eine corpusbasierte KI wird er so salonfähig. Rechtsextreme Messanger wird CTRL zwar kaum als bevorzugte Quelle benutzen, doch es geht nicht nur darum, gefährlichen Nonsens zu vermeiden. Vielmehr wollen wir spannende neue Geschichten. Wir wollen im CTRL-Projekt Kreativität und neue Ideen. Geht das mit einer Zweitverwertung?

c) Fehlende innere Logik
Die gewünschte Kreativität kann zwar durch Zufall simuliert werden. Wenn zwei für uns unzusammenhängende Informationen in einen direkten Zusammenhang gesetzt werden, sind wir erst einmal überrascht. Wir horchen auf und hören die Geschichte weiter. Aber macht das Zusammengebrachte auch Sinn? Folgt es einer inneren Logik? – Wenn es rein zufällig ist, tut es das nicht, dann fehlt die innere Logik.

Zufall ist nicht Kreativität. Erst wenn ein logischer Zusammenhang zwischen den Zufällen gefunden wird, entsteht eine funktionierende Geschichte. Diese innere Logik fehlt einem corpusbasierten Programm prinzipiell.

Fazit 

Daniel Kehlmann hat seine Erfahrungen präzis und gut nachvollziehbar beschrieben. Er erlebte das Experiment als faszinierend und war oft positiv von den Inputs von CTRL überrascht. Trotzdem stellt er fest, dass CTRL entscheidende Schwächen hat und verweist insbesondere auf den fehlenden narrativen Plan, welcher eine Geschichte zusammenhält.

Für jeden, der sich mit künstlicher Intelligenz vorurteilsfrei beschäftigt hat, ist die Erfahrung Kehlmanns eine lebhafte Bestätigung der eigenen Erfahrungen. Ich habe mich beruflich intensiv mit Computerlinguistik beschäftigt, d.h. mit der Frage, wie Computer natürliche Sätze intelligent interpretieren können. Dabei wird klar: Verständnis von Texten baut auf einem inneren Bezugssystem auf. Über dieses Bezugssystem verfügt jeder menschliche Schriftsteller – aber das KI-System nicht. Das korpusbasierte KI-System kennt nur die Wahrscheinlichkeiten von Signalen (Wörtern), ohne ihre wirkliche Bedeutung zu erfassen. Das ist das Problem.

Dem KI-System fehlt insbesondere Absicht und Bewusstsein. Die Absicht kann zwar durch die Betreiber von aussen vorgegeben werden – z.B. bestimmte Zellen in einem medizinischen Blutausstrich zu erkennen oder möglichst viel Traffic auf einer Suchmaschine zu erzielen – doch ein wirkliches Bewusstsein eines Programms würde ein Nachdenken über die eigene Absicht beinhalten. Eine corpusbasierte Intelligenz aber denkt überhaupt nicht nach – schon gar nicht über die eigene Absicht – sondern rechnet nur aus, was in seinem Datenpool das Wahrscheinlichste ist.

Das Experiment von Daniel Kehlmann ist deshalb lehrreich, weil es konkret, genau und verständlich Programmierern und Nicht-Programmierern die Grenzen der künstlichen Intelligenz aufzeigt.

Kurzfassung des Fazits

KI ist faszinierend und in vielen Anwendungen ausserordentlich nützlich, aber eines ist künstliche Intelligenz mit Sicherheit nicht: auf kreative Weise wirklich intelligent.

Mehr zu Daniel Kehlmanns und CTRL

What you search is what you see

«What you search is what you see» ist der Name eines Videospiels, entwickelt vom Japaner Akihiko Taniguchi, das die Macht der Suchmaschinen deutlich macht.

Details zum Spiel finden Sie in der Republik unter https://www.republik.ch/2021/01/30/ein-computer-im-computer-im-computer

Siehe auch meine Serie zur Künstlichen Intelligenz, z.B.:
Die Intelligenz in der Suchmaschine
Wie real ist das Wahrscheinliche?

Künstliche und natürliche Intelligenz: Der Unterschied

Was ist wirkliche Intelligenz? 

Paradoxerweise hilft uns der Erfolg der künstlichen Intelligenz, essenzielle Bedingungen für die echte Intelligenz zu erkennen. Wenn wir nämlich akzeptieren, dass die künstliche Intelligenz an Grenzen stösst und im Vergleich zur echten klar erkennbare Mängel aufweist – und genau das haben wir ja in den Vorbeiträgen erkannt und beschrieben –, dann zeigen uns die Beschreibungen nicht nur, was bei der künstlichen Intelligenz fehlt, sondern auch, was die echte Intelligenz der künstlichen voraus hat. Wir lernen also etwas ganz Entscheidendes zum Thema natürliche Intelligenz.

Was haben wir erkannt? Was sind die essentiellen Unterschiede? Meines Erachtens sind es zwei Eigenschaften, durch die sich echte Intelligenz gegenüber künstlicher auszeichnet:

Die echte Intelligenz
– funktioniert auch in offenen Systemen,
– zeichnet sich durch eine bewusste Absicht aus.

Schach und Go sind geschlossene Systeme

Im Beitrag ‹Jassen und Schach› haben wir das Paradox untersucht, dass das Jass-Spiel für uns Menschen weniger Intelligenz zu erfordern scheint als Schach, für künstliche Intelligenz ist es aber genau umgekehrt. Im Schach und GO schlägt uns der Computer, beim Jassen hingegen haben wir durchaus eine Chance.

Weshalb ist das so? – Der Grund liegt in der Geschlossenheit des Schachspiels. Die Geschlossenheit bedeutet, dass nichts geschieht, was nicht vorgesehen ist. Alle Spielregeln sind klar definiert. Die Zahl der Felder und der Figuren, die Anfangspositionen und Spielmöglichkeiten der Figuren, wer wann zieht und wer wann warum gewonnen hat; all dies ist eindeutig festgesetzt. Und alle Regeln sind explizit; was nicht definiert ist, spielt keine Rolle: Wie der König ausschaut? Egal, wichtig ist nur, dass es einen König gibt und dass er für den Sieg matt zu setzen ist, im Notfall reicht, um den König zu symbolisieren, ein Papierfetzchen mit einem ‹K› darauf.

Solche geschlossenen Systeme können mathematisch klar beschrieben werden, und sie sind deterministisch. Natürlich braucht es Intelligenz, um zu siegen, doch diese Intelligenz kann völlig mechanisch sein, eben eine künstliche Intelligenz.

Mustererkennung: Offenes oder geschlossenes System?

Anders sieht es beim Typus Mustererkennung aus, wenn z.B. auf Bildern bestimmte Gegenstände und ihre Eigenschaften erkannt werden müssen. Hier ist das System im Prinzip offen, denn es können nicht nur Bilder mit ganz neuen Eigenschaften von aussen eingebracht werden, sondern auch die entscheidenden Eigenschaften, die erkannt werden müssen, können variieren. Die Situation ist also nicht so einfach, klar definiert und geschlossen wie bei Schach und GO. Ist das nun ein geschlossenes System?

Nein, ist es nicht. Während bei Schach die Spielregeln einen abschliessenden Grenzzaun um die Möglichkeiten und Ziele legen, muss ein solcher Sicherheitszaun aktiv um die Mustererkennung gelegt werden. Der Zweck ist, dabei die Vielfalt der Muster in einer klaren Verteilung zu organisieren. Das können nur Menschen. Sie bewerten den Lernkorpus, der möglichst viele Musterbeispiele erfasst, und jedes Beispiel wird von den Experten entsprechend der gewünschten Unterscheidung zugeordnet. Dieser bewertete Lernkorpus nimmt dann die Rolle der Spielregeln des Schachs ein und er bestimmt, wie ein neuer Input bewertet wird. Mit anderen Worten: Der bewertete Lernkorpus enthält das relevante Wissen, d.h. die Regeln, nach denen ein bisher unbekannter Input bewertet wird. Er entspricht dem Regelwerk des Schachs.

Das KI-System für eine Mustererkennung ist in diesem Sinn offen, wenn der Lernkorpus noch nicht einbezogen ist, mit dem bewerteten Korpus jedoch wird ein solches System ein geschlossenes. Genauso wie das Schachprogramm durch die Spielregeln klare Grenzen hat, bekommt auch die Mustererkennung ein klares Korsett, das letztlich das Outcome deterministisch definiert. Sobald die Bewertung erfolgt ist, kann eine rein mechanische Intelligenz das Verhalten innerhalb der getroffenen Grenzen optimieren – und dies letztlich in einem Perfektionsgrad, der mir als Mensch nie möglich sein wird.

Wer aber bestimmt den Inhalt des Lernkorpus, der das Mustererkennungsprogramm zu einem (technisch) geschlossenen System macht? Es sind immer menschliche Experten, die die Musterinputs bewerten. Der Mensch also macht die im Prinzip offene Aufgabe der Mustererkennung mittels des von ihm bewerteten Korpus zu einer geschlossenen Aufgabe, die ein mechanischer Algorithmus lösen kann.

In beiden Fällen – dem primär geschlossenen Spielprogramm (Schach und Go), wie auch dem sekundär geschlossenen Mustererkennungsprogramm – findet der Algorithmus eine geschlossene Situation vor; und das ist die Voraussetzung dafür, dass eine künstliche, d.h. mechanische Intelligenz überhaupt funktionieren kann.

Fazit 1:
Die KI-Algorithmen können nur in geschlossenen Räumen arbeiten.

Bei der Mustererkennung liefert der von Menschen geschaffene Lernkorpus diesen geschlossenen Raum.

Fazit 2:
Echte Intelligenz funktioniert auch in offenen Situationen.


Gibt es Intelligenz ohne Absicht?

Warum kann die künstliche Intelligenz im offenen Raum ohne Bewertungen von aussen nicht funktionieren? Weil die Bewertungen von aussen erst die Resultate der künstlichen Intelligenz ermöglichen. Und die Bewertungen können nicht mechanisch (algorithmisch) von der KI gegeben werden, sondern haben stets mit den An- und Absichten der Bewerter zu tun.

Neben der Unterscheidung zwischen offenen und geschlossenen Systemen, kann uns die Analyse von KI-Systemen somit noch mehr über die wirkliche Intelligenz zeigen. Künstliche und natürliche Intelligenz unterscheiden sich nämlich auch darin, wie weit bei ihnen für ihre Entscheidungen die jeweilige Absicht eine Rolle spielt.

Bei Schachprogrammen ist das Ziel klar, der gegnerische König soll schachmatt gesetzt werden. Das Ziel, das die Bewertung der Züge bestimmt, nämlich die Absicht zu siegen, muss nicht vom Programm selber mühsam erkannt werden, sondern ist von vornherein gegeben.

Auch bei der Mustererkennung ist die Rolle der Bewertungsabsicht entscheidend, denn welche Arten von Mustern sollen überhaupt unterschieden werden? Fremde Panzer versus eigene Panzer? Radpanzer versus Kettenpanzer? Funktionsfähige versus defekte? Alle diese Unterscheidungen machen Sinn, die KI muss aber anhand des Korpus auf ein bestimmtes Ziel, auf eine bestimmte Absicht eingestellt und justiert werden. Ist der Korpus einmal in einer bestimmten Richtung bewertet, kann nicht plötzlich ein anderes Merkmal daraus abgeleitet werden.

Wie beim Schachprogramm ist die künstliche Intelligenz nicht imstande, das Ziel selbständig herauszufinden, beim Schachprogramm versteht sich das Ziel (Schachmatt) von selber, bei der Mustererkennung müssen sich die beteiligten Bewerter über das Ziel (fremde/eigene, Rad-/Kettenpanzer) vorgängig einig sein. In beiden Fällen kommen Ziel und Absicht von aussen.

Natürliche Intelligenz hingegen kann sich selber darüber klar werden, was wichtig und was unwichtig ist und welche Ziele sie verfolgt. Die aktive Absicht ist m.E. eine unverzichtbare Eigenschaft der natürlichen Intelligenz und kann nicht künstlich konstruiert werden.

Fazit 3:
Im Gegensatz zur künstlichen zeichnet sich die natürliche Intelligenz dadurch aus, dass sie die eigenen Absichten beurteilen und bewusst ausrichten kann.


Dies ist ein Beitrag zum Thema künstliche Intelligenz. Weitere Beiträge finden Sie über die Übersichtsseite zum Thema KI.

Wo in der künstlichen Intelligenz steckt nun die Intelligenz?

Ganz kurz: Die Intelligenz steckt immer ausserhalb.

a) Regelbasierte Systeme

Die Regeln und Algorithmen dieser Systeme – Typ A1 und A2 – werden von Menschen erstellt und niemand wird einem Taschenrechner wirkliche Intelligenz zubilligen. Das Gleiche gilt auch für alle anderen, noch so raffinierten regelbasierten Systeme. Die Regeln werden von Menschen gebaut.

b) Konventionelle korpusbasierte Systeme (Mustererkennung)

Diese Systeme (Typ B1) verwenden immer einen bewerteten Korpus, also eine Datensammlung, die bereits bewertet worden ist  (Details). Die Bewertung entscheidet, nach welchen Zielen jeder einzelne Korpuseintrag klassifiziert wird und die Klassifizierung stellt dann das wirkliche Wissen im Korpus dar.

Die Klassierung ist aber nicht aus den Daten des Korpus selber ableitbar, sondern erfolgt immer von ausserhalb. Und nicht nur die Zuweisung eines Dateneintrags zu einer Klasse ist nur von aussen durchführbar, auch die Klassen selber sind nicht durch die Daten des Korpus determiniert, sondern werden von aussen – letztlich von Menschen – vorgegeben.

Die Intelligenz bei diesen Systemen steckt immer in der Bewertung des Datenpools, d.h. der Zuteilung der Datenobjekte zu vorgegebenen Klassen, und diese erfolgt von aussen durch Menschen. Das neuronale Netz, das dabei entsteht, weiss nicht, wie das menschliche Hirn die dafür nötigen Bewertungen gefunden hat.

c) Suchmaschinen

Diese (Typ B2) stellen einen Sonderfall der korpusbasierten Systeme dar und basieren auf der Tatsache, dass viele Menschen eine bestimmte Suchmaschinen benützen und mit ihren Klicks entscheiden, welche Internetlinks den Suchbegriffen zugeordnet werden können. Die Suchmaschinen mitteln am Ende nur, welche Spuren die vielen Benutzer mit ihrem eigenen Kontextwissen und ihren jeweiligen Absichten gelegt haben. Ohne die menschlichen Gehirne der bisherigen Suchmaschinenbenutzer wüssten die Suchmaschinen nicht, wohin sie zeigen sollten.

d) Spielprogramme (Schach, Go, usw.) / Deep Learning

Hier wird es interessant, denn diese Programme (Typ B3) brauchen im Gegensatz zu den anderen korpusbasierten Systemen keinen Menschen, der von aussen den Korpus (bestehend aus den Zügen bereits gespielter Partien) beurteilt. Verfügen diese Systeme also über eine eigenständige Intelligenz?

Wie die Programme zur Mustererkennung (b) und die Suchmaschinen (c) verfügt das Go-Programm über einen Korpus, der in diesem Fall die Züge der gespielten Testpartien enthält. Der Unterschied zu klassischen KI-Systemen besteht nun darin, dass die Bewertung des Korpus (d.h. der Spielzüge) bereits durch den Spielerfolg in der betreffenden Partie definiert ist. Es braucht also keinen Menschen, der fremde von eigenen Panzern unterscheiden muss und dadurch die Vorlage für das neuronale Netz liefert. Der Spielerfolg kann von der Maschine, d.h. dem Algorithmus, selber direkt erkannt werden, ein Mensch ist dafür nicht nötig.

Bei klassischen KI-Systemen ist dies nicht der Fall, und es braucht unbedingt einen Menschen, der die einzelnen Korpuseinträge bewertet. Dazu kommt, dass das Kriterium der Bewertung nicht wie bei Go eindeutig gegeben ist. Panzerbilder können z.B. ganz unterschiedlich kategorisiert werden (Radpanzer/Kettenpanzer, beschädigte/unbeschädigte Panzer, Panzer in Städten/Feldern, auf Farbbildern/Schwarzweiss-Bildern etc.). Dies öffnet die Interpretationsmöglichkeiten für die Bewertung beliebig. Eine automatische Zuweisung ist aus all diesen Gründen bei klassischen KI-System nicht möglich, und es braucht immer die Bewertung des Lernkorpus durch menschliche Experten.

Bei Schach und Go ist dies gerade nicht nötig. Denn Schach und Go sind künstlich konstruierte und völlig geschlossene Systeme und deshalb in der Tat von vornherein vollständig determiniert. Das Spielfeld, die Spielregeln und das Spielziel – und damit auch die Bewertung der einzelnen Züge – sind automatisch gegeben. Deshalb braucht es keine zusätzliche Intelligenz, sondern ein Automatismus kann innerhalb des vorgegebenen, geschlossenen Settings Testpartien mit sich selber spielen und das vorgegebene Ziel so immer besser erreichen, bis er besser ist als jeder Mensch.

Bei Aufgaben, die sich nicht in einem künstlichen Spielraum, sondern in der Realität stellen, sind die erlaubten Züge und die Ziele aber nicht vollständig definiert und der Strategie-Raum bleibt offen. Eine Automatik wie Deep Learning ist in offenen, d.h. realen Situationen nicht anwendbar.

In der Praxis braucht es selbstverständlich eine beträchtliche Intelligenz, um den Sieg in Go und anderen Spielen zu programmieren und wir dürfen die Intelligenz der Ingenieuren von Google durchaus dafür bewundern, doch ist es eben wieder ihre menschliche Intelligenz, die sie die Programme entwickeln lässt, und nicht eine Intelligenz, die die von ihnen konstruierten Programme selbständig entwickeln könnten.

Fazit

KI-Systeme können sehr eindrücklich und sehr nützlich sein, sie verfügen aber nie über eigene Intelligenz.


Dies ist ein Beitrag zum Thema künstliche Intelligenz.

Künstliche Intelligenz (Übersichtsseite)

Ist KI gefährlich oder nützlich?

Die einen versprechen sich den entscheidenden Technologiesprung, die anderen fürchten, dass eine gleichzeitig unfehlbare und fehlgeleitete künstliche Intelligenz die Menschheit unterjochen könnte.

Was ist daran wahr? – Ich arbeite seit einem Vierteljahrhundert mit «intelligenten» Informatiksystemen und wundere mich vor allem darüber, dass wir den neuronalen Netzen – zugegebenermassen sehr leistungsfähigen Systemen – überhaupt echte, d.h. eigenständige Intelligenz zubilligen.

Genau die haben sie nämlich nicht. Ihre Intelligenz kommt stets von Menschen, welche die Daten nicht nur liefern, sondern auch bewerten, bevor die KI sie verwenden kann. Ihre Leistungsfähigkeit zeigt die KI nur, wenn die Aufgabenstellung klar und einfach ist. Sobald die Fragestellung komplex wird, versagen sie. Oder sie flunkern, indem sie schöne Sätze, die sich in ihrem Datenschatz finden, so anordnen, dass es intelligent klingt (ChatGPT, LaMDA). Sie arbeiten nicht mit Logik, sondern mit Statistik, also mit Wahrscheinlichkeit. Aber ist das Wahr-Scheinliche auch immer das Wahre?

Wie funktioniert KI überhaupt? Wo sind ihre Grenzen? Wie unterscheiden sich die unterschiedlichen Arten der KI? Was steckt hinter Deep Learning? Ist künstliche Intelligenz wirklich intelligent? Und falls Sie das glauben, wo genau steckt die Intelligenz in der künstlichen Intelligenz – und wie kommt sie da hinein?


Diese Fragen werden ich im Folgenden zu beantworten versuchen. Unten sehen Sie meine Blogbeiträge zum Thema in systematischer Ordnung.

Die Beiträge sind im August 2021 auch als Buch erschienen. Sie können das Buch direkt beim Verlag bestellen:

-> Buch: Wie die künstliche Intelligenz zur Intelligenz kommt›


Hier folgen die Blogbeiträge:

Regelbasiert oder korpusbasiert?

Die Computerintelligenz verfügt über zwei grundlegend verschiedene Methoden: Sie kann entweder auf Regeln oder auf einer Datensammlung (=Korpus) beruhen. Im Einstiegsbeitrag stelle ich sie mit zwei charakteristischen Anekdoten vor:


Bezüglich Erfolg haben die korpusbasierten Systeme die regelbasierten offensichtlich überflügelt:


Die regelbasierten Systeme hatten es schwieriger. Was sind ihre Herausforderungen? Wie können sie ihre Schwächen überwinden? Und wo steckt bei ihnen die Intelligenz?


Zurück zu den korpusbasierten Systemen. Wie sind sie aufgebaut? Wie wird ihr Korpus zusammengestellt und bewertet? Was hat es mit dem neuronalen Netz auf sich? Und was sind die natürlichen Grenzen der korpusbasierten Systeme?


Als nächstes beschäftigen wir uns mit Suchmaschinen, die ebenfalls korpusbasierte Systeme sind. Wie gelangen sie zu ihren Vorschlägen? Wo sind ihre Grenzen und Gefahren? Weshalb entstehen z.B. zwingend Blasen?


Kann ein Programm lernen, ohne dass ein Mensch ihm gute Ratschläge zuflüstert? Mit Deep Learning scheint das zu klappen. Um zu verstehen, was dabei passiert, vergleichen wir zuerst ein einfaches Kartenspiel mit Schach: Was braucht mehr Intelligenz? Überraschend wird klar, dass für den Computer Schach das einfachere Spiel ist.

An den Rahmenbedingungen von Go und Schach erkennen wir, unter welchen Voraussetzungen Deep Learning funktioniert.


Im anschliessenden Beitrag gebe ich einen systematischen Überblick über die mir bekannten KI-Arten, skizziere kurz ihren jeweiligen Aufbau und die Unterschiede in ihrer Funktionsweise.

Wo steckt nun die Intelligenz?


Die angestellten Überlegungen lassen erkennen, was die natürliche Intelligenz gegenüber der künstlichen auszeichnet: