Archiv der Kategorie: Künstliche Intelligenz

Die Wurzeln der KI


Wie beeinflusst die Geschichte der KI ihre Zukunft?

Heute ist mit KI die Methode der  Neuronalen Netze gemeint. Dies ist eine ganz spezielle Form der Maschinenintelligenz, die auf der statistische Auswertung von riesigen Datenmengen beruht. Der geschichtliche Blick sieht sich neben dieser sehr erfolgreichen, statistischen Methode die Maschinenintelligenz ganz allgemein. Wie hat sich diese entwickelt? Was sind ihre Wurzlen. Wohin führt sie?

Heutige, offene Denker stellen der ‹traditionellen› Vergangenheit gern eine neue ‹originelle› Zukunft gegenüber. Doch wir wissen alle nicht, was in der Zukunft wirklich sein wird – auch wenn ich selber darüber gern spekuliere.

Die Tradition ist für die Zukunft nützlich, wenn man sich eingesteht, dass Sie folgende vier unterscheidbare Elemente enthält:

  1. Ungelöste Fragen, die heute beantwortet werden können und den Boden der Zukunft bilden
  2. Erkannte Fehler, die in der Zukunft korrigiert werden können
  3. Verschmähte Perlen, die von der Gegenwart ignoriert, aber in Zukunft wieder Bedeutung erlangen können.
  4. Bleibendes, das auch in Zukunft gilt

Diese unterschiedlichen Elemente der Tradition zu unterscheiden ist nicht einfach, doch genau darum geht es.


Wissenschaftsgeschichte

Wissenschaftsgeschichte hat mich seit der Schule interessiert. So enthält zum Beispiel die Medizingeschichte viele verblüffende Wendungen, was angewendeten Praktiken und die ihnen zugrundelegenden Erklärungen betrifft. Das ist faszinierend. Im Medizinstudium hat mich die Geschichte der Medizin brennend interessiert, die voll ist von Erneuerungen, Paradigmenwechseln und ideologischen Vorgaben. Sehr spannend, und den Ärzten und der Allgemeinheit kaum bekannt.

Ganz ähnlich steht es um die Geschichte der Informationswissenschaft. Auch hier sind die divergierenden Elemente a) bis d) deutlich zu erkennen, doch auch diese Geschichte ist der Allgemeinheit und den Fachspezialisten kaum bekannt. Die IT-Geschichte wird von den aktuellen Diskussionen um die AI und ihren Einfluss auf unsere Gesellschaft völlig überblendet. Dabei hilft erst der Blick auf die Geschichte, die heutigen Herausforderungen in einem nüchternen Blick zu sehen.


Informationswissenschaft

Die Geschichte der Informationswissenschaft kann bis zu den Syllogismen von Aristoteles zurückverfolgt werden. Rechenmaschinen und ihre Theorie finden sich z.B. im Mittelalter beim missionierenden Franziskaner und Logiker Ramon Lullus und im Barock beim Universalgelehrten Gottfried Wilhelm Leibniz.

In der Mitte des 20. Jahrhundert finden wir dann eine wirkmächtige Entwicklung, eine eigentliche ‹kybernetische Welle‹ mit vielen Facetten und Köpfen, die am Ursprung der heutigen IT-Explosion steht.

Zur Kybernetischen Welle gehört neben vielen anderen der Ingenieur Claude Shannon, der für die Telefongesellschaft Bell das Leibniz’sche Bit aufgegriffen und in die Berechnungen der Telefonsignale eingeführt hat, oder der Praktiker Zuse, der in Berlin den ersten funktionierenden Computer im heutigen Sinn gebaut hat. Zur  vielköpfigen ‹kybernetischen Welle› gehören unter anderen der Antroposoph und Logiker Gregory Bateson, der Österreich-Amerikaner Heinz von Förster, der Mathematikerschreck George Spencer-Brown, der britische Radarpionier Donald MacKay und die enthusiastische amerikanische Pionierszene der Kybernetik der 50-er und 60-er Jahre,  eine bemerkenswerte Kombination von intellektuellen Hippies und an neuen Techniken interessierten Nachrichtenoffizieren, die sich damals z.B. in den Macy-Konferenzen fanden, und die zusammen die gesamte heutige IT inklusive AI recht eigentlich begründet haben.


Zur kybernetischen Welle gehören für mich aber auch Nicht-Informatiker wie der Schriftsteller Stanislaw Lem, der in den «Sterntagebüchern» einen raumfahrenden Baron von Münchhausen auftreten lässt, Ijon Tichy genannt. In den fiktiven Reisebeschreibungen, die zwischen 1957 und 1971 entstanden, werden nicht zuletzt logische Probleme, insbesondere solche der KI, exemplarisch behandelt. Klügere Literatur zu Logik und Auswirkung der KI habe ich nirgendwo gefunden.

Auch der Mathematiker und Physiker Roger Penrose muss erwähnt werden, der zur Kosmologie der Entropie – der physikalischen Dimension von Information – geforscht hat und dessen Buch ‹Emperors New Mind‹ im Jahr 1989 als Kritik an einer überbordenden KI-Gläubigkeit entstand, im Endergebnis aber einen ausführlichen und fundierten Einblick in das physikalische Wissen am Ende des 20. Jahrhunderts ermöglicht.

Die erwähnten Kybernetiker, Philosophen, Naturwissenschaftler und Schriftsteller sind die praktischen Begründer und Vordenker der KI. Sie ringen stets auch um philosophischen Fragen. Sie beschäftigen sich nicht zuletzt intensiv mit der Fragen der Logik – geschlossen oder doch offen? – und der Rolle der KI, also der Frage, wie Intelligenz und Maschinen vereinbar sind.


Was bringt nun die Zukunft?​

Wir können die Zukunft gestalten, indem wir auf die oben erwähnten Elemente der Vergangenheit reagieren und versuchen …

  1. zu antworten: In den ungelösten Fragen der Verganenheit liegt die Zukunft
  2. zu erkennen: Die blinden Flecken und Tabus der Vergenheit.
  3. zu schätzen: Nicht alles von früher ist schlecht.
  4. zu behalten: Was ist der bleibende Kern?

 

Künstliche Intelligenz und Musik


Was kann KI in der Kunst und was nicht?

Der Schriftsteller Daniel Kehlmann studierte vor drei Jahren die Zusammenarbeit mit einem KI-System (CTRL) und berichtete über seine Erfahrungen beim Bau einer Kurzgeschichte. Die generative KI hat sich seither rasant weiterentwickelt. Kann sie jetzt kreativ sein? Speziell interessant ist die Fragestellung auf dem Gebiet der Musik, da Musik schon immer viel mit Mathematik zu tun hatte. Darüber hat Radio SRF im Rahmen ihrer KI-Woche eine hochaktuelle Sendung produziert.

Künstliche Intelligenz in der Diskothek von Radio SRF 2

Im Rahmen der wöchentlichen Musikdiskussion «Diskothek im Zwei» widmeten sich Redaktor Benjamin Herzog zusammen mit Musikwissenschaftler Michael Harenberg und Tonmeister Andreas Werner verschiedenen mittelalterlichen bis aktuellen Kombinationen von Algorithmen und hörbarer Musik.

Der Würfelkanon, Bach und Chopin

Der geschichtliche Rückblick bringt u.a. den «Würfelkanon» von W. A. Mozart, bei dem durch Kombinatorik immer neue Varianten möglich sind. Generative Intelligenz also, auf Basis von einfachen Kombinationsalgorithmen. 1957 liessen entusiatische Informatikfachleute einen Computer ein rudimentäres Streichquartett komponieren und aufführen. Besonders einladend für generative Intelligenz ist der Kontrapunkt des Barock, ein genaues Regelwerk für mehrstimmige Musik, das sich präzis algorithmisch formulieren lässt. Das führt dazu, dass immer wieder Musik im Stil von J. S. Bach von Computern komponiert wird. Aber ist das Bach? Die Diskothek bringt eine Invention nach Bach aus dem Jahr 1994 und lässt eine Mazurka nach Fréderic Chopin.

Genügen die einzelnen Komponenten, Phrasen und Motive, die uns die Komponisten erkennen lassen oder hat die KI jeweils wirklich kreative Werke selber komponiert? Wer ist der Komponist dieser Werke, Bach, die KI oder der Programmierer? Wie auch immer die Antwort ausfällt, interessant ist es allemal, die Werke mit einem kritischen Ohr anzuhören. Was ist es genau, was fehlt? Ist es der grosse Bogen, der fehlt? Die intelligent durchdachte Zusammenspiel der Komponenten? Der Wille, eine bestimmte Aussage zu machen? Mit anderen Worten, das Bewusstsein des menschlichen, bzw. maschinellen Komponisten?

Aktuelle Werke

Interessant und überraschend sind dann die aktuellen KI-Produktionen. Besonders aufgefallen sind mir:

  • George E Lewis: The reincarnation of blind Tom:
    Es handelt sich um ein Doppelkonzert für menschlichen Saxophonisten, KI-Klavier und Orchester, live aufgeführt in Donau-Eschingen 2024. Das Orchester spielte minutiös notierte Noten, der Saxaphonist inprovisierte völlig frei und die KI offenbar genauso frei. Sie ist generativ, aber auch analytisch, denn sie hört genau, an welcher Stelle der Komposition das Orchester sich befindet und reagiert darauf. Abgesehen von der spannenden Frage, wer nun wo jeweils kreativ ist, ist das Doppelkonzert auch ein farbiges und reiches Stück faszinierende Musik.
  • Holly Herndon: Proto. Album bei 4AD, 2019:
    Die Musikstudios der Pop- und Elektroszene sind seit vielen Jahren darauf spezialisiert, Stimmen zu verfremden. Die Sängerin Herndon hat ihre Stimme nun zu einem eigenen KI-Modell gemacht, das sie in vielen Parametern live verändern und einsetzen kann. Das Album fasziniert mit einer Vielzahl verschiedener Stimmungen und komplexer Geschichten.

Nicht nur die gespielten Musikbeispiele sind interessant. Grundsätzliche Fragen tauchen auf. Was macht die Kreativität aus? Ist es die Idee in der ursprünglichen Erfindung? Oder die Live-Performance? Oder der Interpret? Oder ist es ganz generell der Komponist und Musiker als Mensch, der in der Musik eine menschliche Erfahrung präsentiert, ganz persönlich und doch vom Zuhörer nachvollziehbar?

Imperfektion

Besonders interessant fand ich das Thema der Imperfektion. Schon KI-generierte Bilder sind auffällig makellos, gerade ihre Perfektion lässt sie beeindruckend, aber auch unmenschlich wirken. Genauso ist es mit rein KI-generierter Musik. Tonmeister Werner erkennt Ki-generierte Musik genau an dieser Perfektion, also am Fehlen von kleinen Verzögerungen, Kratzern im Klang, minimalen Intonationsfehlern usw. Moderne KI kann solche Imperfektionen zwar künstlich einbauen, doch ist das das gleiche?

Hier sehe ich den entscheidenden Unterschied: Die KI generiert zu schön, zu ‹gerade›, ein Einbau von Imperfektion erfolgt nicht natürlich, sondern wäre ein zusätzlicher Leistungsaufwand. Der Live-Musiker hingegen, auch der beste, kämpft dauernd mit der Imperfektion. Er kann die ungewollten Abweichungen nicht verhindern, so sehr er genau das auch geübt hat, doch er kann auf sie im Moment der Aufführung reagieren, indem er die kleinen Fehler im weiteren Gang der live gespielten Musik mit der Absicht des Stücks versöhnt, sie im sukzessive einbezieht und so automatisch zum Teil seines ganz persönlichen Stils macht. Seine persönliche und biologische Intelligenz, d.h. sein komplexes menschliches Gehirn und seine jahrelange Erfahrung und Übung macht das möglich. Weil wir Zuhörer auch Menschen sind, können wir sein Erleben mitempfinden, und das berührt uns.

Eine einfache KI wirkt schnell steril, auch bei Bildern. Komplexere Formen hingegen erscheinen oft ziellos, ihr perfekt gelerntes Material zufällig und ohne Plan und Absicht aneinanderreihend. Das trifft nun sicher weder auf Lewis noch Herndon zu. Bei beiden performt nicht die Maschine allein, vielmehr geht es um die Interaktion des menschlichen Musikers mit der Maschine, und umgekehrt. Die Interaktion ist das, was diese Experimente interessant macht.


Nachhören der Sendung im Internet:

https://www.srf.ch/audio/diskothek/kuenstliche-intelligenz-in-der-musik?id=dd4b2bf1-2204-3f04-b2fb-512353fbd52a#autoplay


 

Wie gefährlich Ist Künstliche Intelligenz?

Was ist Intelligenz?

Wenn heute über Nutzen und Gefahren der KI diskutiert wird, sollte dies nicht getan werden, ohne auf den Unterschied zwischen künstlicher und natürlicher Intelligenz hinzuweisen.

Der Unterschied ist bei genauem Hinsehen evident, doch auf den ersten Blick kaum zu erkennen. Das ist die Gefahr, denn das Potenzial der künstlichen Intelligenz ist riesig. Das Dumme ist nur, dass KI zwar beeindruckend, aber nicht wirklich intelligent ist. Der Ausdruck KI,  kommt aus dem Amerikanischen (artificial Intelligence), und dort hat das Wort intelligence zwei Bedeutungen:

1) Intelligenz (wie im Deutschen)
2) Erkennung, Aufklärung (wie in CIA)

Die KI erscheint uns intelligent – im Sinn 1) – weil sie wirkliche Intelligenz von wirklichen Menschen eingebaut hat. Sie präsentiert uns auf raffinierte Weise diese wirklichen Intelligenzleistungen von echten Menschen, und tut so, als wären das ihre eigenen Intelligenzleistungen.

a) Analytische KI

Darunter fallen z.B. Gesichtserkennung, Vorschläge von Suchmaschinen usw.
Hier müssen wirkliche Menschen zuerst einen riesigen Pool (=Corpus) von Zuordnungen erschaffen. Die KI arbeitet anschliessend statistisch in diesem riesigen Pool. Je grösser er ist, umso präziser wird die statistische Aussage. Zugleich treten auch die Schwächen zutage:
Wenn der Pool zu einseitig ist (biased), dann sind auch die KI-Resultate entsprechend verformt. Die Menschen, die die Zuordnungen im Pool treffen, müssen also korrekt, bzw. im Sinn des Auftragsgebers, arbeiten. Wenn sie das tun, dann kann die KI ihre Einzelleistungen sogar locker übertreffen. Dies ist aber nur für ganz einfache Fragestellungen möglich, bei denen es ausreicht, zwischen den Einzelmeinungen zu mitteln. Wenn die Geschichte komplexer wird, ist der statistische Mittelwert nicht die gesuchte Lösung (schwarzer Schwan).

b) Generative KI

Beispiele: ChatGPT und alles was künstliche Texte und Bilder erstellt.
Hier baut das KI-Resultat ganz klar auf real vorhandenen Bestandteilen auf, z.B. realen Bildern, die raffiniert kombiniert werden und realen menschlichen Äusserungen, die als Textbausteine  zusammengestellt werden. Deshalb wirkt das auch so echt. Wir sollten uns aber von der generativen KI nicht täuschen lassen. Nur die Teile sind echt, die Zusammenstellung ist künstlich.

Die Gefahren der KI

Im Fall der analytischen KI droht die Überbetonung des statistischen Mittels («reduce to the mean«). Bei klaren Aufgabenstellungen, z.B. der medizinischen Beurteilung von Blutbildern, ist das ganz ok und sehr hilfreich. Bei komplexen Fragestellungen führt das aber zu einem Einheitsbrei (z.B. die Musikprogramme der Radiosender, die immer gleich klingende Hits bringen). Das bringt die menschliche Kultur nicht wirklich vorwärts.

Im Fall der generativen KI wird es aber wirklich gefährlich. Hier kann effektiv und bewusst gelogen werden. Je besser die generative KI wird, umso schwieriger wird es. das Fake zu erkennen. Gleichzeitig erkennen aber immer mehr Menschen, wie einfach solche Fakes zu erstellen sind – und dann verlieren sie hoffentlich zunehmend ihre Wirkung. Doch auch die Qualität der Fakes steigt. Wir können also gespannt sein, was die Zukunft bringt.


Weitere Beiträge zum Thema KI finden Sie über die Übersichtsseite Künstliche Intelligenz.

Die Schwächen der Künstlichen Intelligenz (KI)

Die Datenverabeitungs-Methode der Neuronalen Netze – allgemein und fälschlicherweise als KI, also als «Künstliche Intelligenz» bezeichnet – ist erstaunlich leistungsfähig, wenn sie richtig eingesetzt wird.

Manche fürchten sie und schreiben ihr einen eigenen Willen zu. Denn die KI eignet sich perfekt, um bei dafür empfänglichen Menschen Ängste vor einer mächtigen und undurchschaubaren Intelligenz auszulösen. Diese Ängste werden von der Unterhaltungsindustrie seit vielen Jahren bedient, um uns einen grusligen Kitzel zu verschaffen.

In der Realität sehen die Gefahren allerdings ganz anders aus. Die Neuronalen Netze (NN) sind mächtig, leiden aber unter bemerkenswerten Schwächen. Diese Schwächen sind für Laien nicht auf den ersten Blick erkennbar. Die IT-Experten kennen sie, doch wir müssen nicht erwarten, dass diejenigen, die mit KI Geld verdienen, viel Zeit verlieren, uns die Probleme im Detail zu erklären.

Ein Blick auf die Wirkweise der NN zeigt diese Schwächen klar. Er zeigt, wie die Resultate der NN zustande kommen, nämlich über eine riesige Datensammlung von Musterbeispielen, dem Lernkorpus. Die NN werten diesen Datenkorpus raffiniert aus – doch so raffiniert die Auswertung auch ist, die NN finden nur, was bereits im Korpus steckt. Alles was nicht drin steckt, wird nicht erkannt. Die NN ist somit völlig abhängig vom Korpus.


Das führt zu folgenden Schwächen:

Ineffizienz: Die Ursache

Das Aufwand/Nutzen Verhältnis von KI-Lösungen ist extrem schlecht. Riesige Mengen an Rohdaten, d.h. an Musterbeispielen sind nötig, um daraus die einfachsten Schlüsse zu ziehen. Die Schlüsse werden statistisch gezogen, deshalb braucht jeder Schluss unzählige Musterbeispiele. Ein einziges Beispiel ist statistisch irrelevant, mehr sind besser und erst richtig viele sind wirklich verlässlich. Jeder Statistiker weiss das. Auch die KI-Betreiber wissen das. Deshalb sind sie auf riesige Datenmengen angewiesen. Das hat Konsequenzen.

Ineffizienz: Riesige Serverfarmen

Wissen erscheint uns immateriell und ein Gedanke braucht praktisch keine Energie. Für die KI ist das aber nicht der Fall. Im Gegenteil, um die riesigen für die NN nötigen Datenmengen zu speichern und zu verarbeiten sind auch riesige Serverfarmen nötig. Ihr Energieverbrauch ist wirklich sehr gross. Und auf diese Serverfarmen sind die Neuronalen Netze angewiesen, da sie erst mit richtig vielen Musterdaten in die Gänge kommen und unzählige  Rechenschritte nötig sind, um aus dem Wust von Daten statistische Schlüsse zu ziehen. Neuronale Netze sind deshalb erst dann verlässlich, wenn genügend Beispiele gesammelt und durchgerechnet sind. Dazu stellen die Internetgiganten riesige Serverfarmen auf. Der Energiebedarf der KI wird schnell übersehen.

Ineffizienz: Abnehmender Grenznutzen

Die Resultate der NN sind um so verlässlicher, je kleiner die Zahl der möglichen Outcomes ist. Sobald mehr unterschiedliche Resultate möglich sind, steigt der Bedarf an Musterdaten und an Rechenzeit. Die Steigung ist nicht linear. Wenn die KI nur zwischen zwei Ergebnissen (z.B. männlich/weiblich) unterscheiden will, braucht sie relativ wenige Muster. Um vier Zustände zu unterscheiden, braucht sie aber nicht doppelt so viel, sondern ein Vielfaches mehr. Der Korpusbedarf steigt mit der Zahl der jeweils möglichen Ergebnissen (Outcomes) nicht linear, sondern exponentiell.

Ineffizienz: Nur Grosse können mithalten

Beim dem grossen Daten- und Rechenbedarf der KI ist klar, dass einzelne Forscher das gar nicht stemmen können. Auch kleinere Unternehmen können das nicht. Erst die richtig die Grossen wie Meta, Amazon, Alibaba usw. können hier mitspielen.

Selektionsbias: Unvermeidlich

Die Daten im Korpus entscheiden über die Antworten der KI. Deshalb spielt es eine grosse Rolle, welche Daten gesammelt werden. Das führte in der Vergangenheit zu Ergebnissen, die für die KI-Ersteller so unerwartet wie unwillkommen waren. So hat ein Versuch von Microsoft dazu geführt. dass der Chatbot Naziparolen ausgab, einfach weil unvorsichtigerweise Nazitexte in den Korpus eingeflossen sind. Auch ein Versuch in China soll fehlgelaufen sein, der Bot soll durch falsche Fütterung dazu gebracht worden sein, die kommunistische Partei zu kritisieren. Beides war wohl nicht im Sinn der Betreiber. Doch weil der KI-Mechanismus sich an den Korpus halten muss (das ist das Prinzip), kann er gar nicht anders als die Aussagen des für seine Programmierung gewählten Korpus zu verwenden.

Intransparenz: Korrekturen sind sehr aufwendig

Die Schlüsse der KI erfolgen auf raffinierte Weise aus den Rohdaten. Das kann sehr gut funktionieren, doch wenn es zu Fehlern kommt (siehe oben), ist das Fehlverhalten kaum zu korrigieren. Dies liegt in der Intransparenz des Prinzips, mit dem Neuronale Netze funktionieren. Ganz viele Einzeldaten führen auf statistische Weise zum jeweiligen Schluss, sodass am Ende nicht mehr zu eruieren ist, welcher/welche Datensätze genau verantwortlich sind für das jeweilige Resultat. Korrekturen von offensichtlichen Fehlschlüssen sind deshalb aufwendig und unsicher und können ihrerseits zu weiteren Fehlern führen.

Lücken: Der schwarze Schwan

Das ist die entscheidende Lücke der Neuronalen Netze. Die NN benützen nicht nur die Daten im Lernkorpus für ihre Schlüsse, vielmehr stellen diese Daten für die NN die gesamte Welt dar. Was nicht im Korpus ist, wird nicht erkannt. Und wenn der schwarze Schwan es trotzdem in den Korpus geschafft hat, wird er von der grossen Überzahl weisser Schwäne als statischer Ausreisser automatisch ausgeblendet.

Verflachung: Reduce to the mean

Was häufig ist, ist häufig. Doch es gibt immer auch Ausnahmen und oft sind es gerade die Ausnahmen, auf die es ankommt. Wenn z.B. ein Radioprogramm sich statistisch am Musikgeschmack der Mehrheit orientiert, werden interessante Musikstücke nicht gespielt. Das mag im Interesse des Radioprogramms liegen, das damit seine Reichweite verbessert. Die Intelligenz der KI hilft dem Radiosender, doch wenn das alle Radiosender machen, verflacht die Musik.

Das gleiche gilt für Texte und Bestrebungen in der Forschung. Wirklich Neues wird so nicht gefunden. Die KI hilft zwar, bewährtes Wissen und bewährte Techniken abzusichern, doch wirklich Neues liegt ihr fern.


Was steckt hinter der KI? 

Hinter der KI steckt eine bestimmte Technik der Informationsverarbeitung, die mit Neuronalen Netze operiert.
Neuronale Netze funktionieren
– rein statistisch
– mit Hilfe einer riesigen Datensammlung

Es lohnt sich, die Grundzüge der Wirkweise dieser Methode zu kennen, um KI einordnen zu können. Eine gut verständliche Übersicht finden Sie hier:

«Wie die künstliche Intelligenz zu ihrer Intelligenz kommt»

Das Buch richtet sich an alle, die in ihrem Alltag mit KI zu tun haben und wissen wollen, was da eigentlich passiert.


Weitere Beiträge zum Thema KI finden Sie über die Übersichtsseite Künstliche Intelligenz.


 

Die 21. Reise und die künstliche Intelligenz

Littering im Weltraum ist nicht erst seit Elon Musks Starlink-Programm ein Thema und aktuell werden verschiedene Methoden zur Reinigung des zunehmend vermüllten Weltraums rund um unserer Erde diskutiert. Die Aufgabe ist nicht einfach, weil – aufgrund des zweiten Hauptsatzes, nämlich der unausweichlichen Entropiezunahme – jede Vermüllung die Tendenz hat, exponentiell zuzunehmen. Wenn eines der Tausenden von Schrottteilen im Weltraum von einem anderen Schrottteil getroffen wird, entstehen aus dem einen getroffenen Stück viele neue, mit irrer Geschwindigkeit herumfliegende Teile. Das Weltraumvermüllung ist also ein Selbstläufer mit zunehmend exponentieller Tendenz.

Aber kennen wir dieses Problem nicht schon lange? In den 60-er Jahren hatte der polnische Schriftsteller Stanislaw Lem bereits darüber geschrieben. Ich holte deshalb seine Zusammenstellung der Reisen des Kosmonauten Ijon Tichys hervor. In der 21. seiner Reisen trifft dieser auf einen vermüllten Planeten. Tichy, der weitgereiste Kosmonaut, schreibt:

«Jede Zivilisation, die in der technischen Phase steckt, beginnt allmählich in den Abfällen zu versinken, die ihr gewaltige Sorgen bereiten.»

Des weiteren beschreibt Tichy, wie deshalb die Abfälle in den Weltraum rund um den Planeten entsorgt werden, dort aber neue Probleme bereiten, was Folgen hat, die auch Kosmonaut Tichy zu spüren bekommt.

Doch die 21. Reise hat es aus noch ganz anderen Gründen in sich. Das Hauptthema dieser Reise ist – wie bei vielen Geschichten von Stanislaw Lem – die künstliche Intelligenz.

Tichy trifft auf dem jetzt gereinigten Planeten nicht nur auf eine weitere unliebsame Folge des zweiten Hauptsatzes (nämlich eine entartete Biogenetik), sondern auch auf einen Mönchsorden, der aus Robotern besteht. Diese Robotor diskutieren mit Tichy über die Bedingungen und Folgen ihrer künstlichen Intelligenz. So sagt z.B. der Roboterprior über die Beweiskraft von Algorithmen:

«Die Logik ist ein Werkzeug» erwiderte der Prior, «und aus einem Werkzeug resultiert nichts. Es muss einen Schaft und eine lenkende Hand haben.» (S. 272, Lem)

Ich selber bewegte mich – ohne dass mir der Zusammenhang und die mögliche Beeinflussung meiner Gedanken durch Stanislaw Lem bewusst war – ganz auf den Spuren von Lems Roboter-Priors und schrieb:

«Eine Instanz (Intelligenz) […]  muss zwecks Beurteilung der Daten den Bezug zwischen den Daten und dem Beurteilungsziel herstellen. Diese Aufgabe ist immer an eine Instanz mit einer bestimmten Absicht gebunden.» (Straub 2021, S. 64-65)

Lem hat bereits vor 50 Jahren  formuliert, was meines Erachtens den prinzipiellen Unterschied zwischen einer Werkzeug-Intelligenz und einer belebten (d.h. biologischen) Intelligenz ausmacht – nämlich die Absicht, welche die Logik lenkt. Bei der Maschine fehlt sie, bzw. wird sie von aussen (von wem?) eingebeben. Die menschliche Intelligenz hingegen kann – wenn wir keine Roboter sein wollen – ihre Ziele selber bestimmen. Sie besteht in den Worten von Lems Prior nicht nur aus der Logik, welche von der lenkenden Hand geführt wird, sondern beinhaltet die lenkende Hand mit.

Als Konsequenz dieser Überlegung folgt für mich bezüglich KI:

Wenn wir uns der technischen Möglichkeiten der KI bedienen (und weshalb sollten wir nicht?), dann sollten wir immer auch berücksichtigen, nach welchem Ziel unsere Algorithmen ausgerichtet sind.

Literatur

  • Lem, S. (1971) Sterntagebücher, Frankfurt am Main, Suhrkamp, 1978.
  • Straub, HR. (2021) Wie die künstliche Intelligenz zur Intelligenz kommt, St. Gallen, ZIM-Verlag.
  • Nowotny, H. (2021) In AI we Trust, Power, Illusion and Control of Predictive Algorithms, Cambridge/Medford, Polity Press.

Hat der Chatbot LaMDA ein Bewusstsein?

Die Diskussion um künstliche Intelligenz bleibt  aktuell, nicht zuletzt dank den Erfolgen von Google in diesem Bereich.

Aktuell ist die Diskussion um LaMDA, eine KI, die genau darauf trainiert wurde, Dialoge so zu führen als wäre sie ein echter Mensch. Offenbar so überzeugend, dass der Google-Mitarbeiter Blake Lemoine selbst anfing, ihr ein eigenes Bewusstsein zuzugestehen und sogar erwägt haben soll, einen Anwalt für ihre Rechte als Person zu engagieren.

Zu LaMDA und Lemoine, siehe z.B. https://www.derstandard.at/story/2000136501277/streit-bei-google-um-eine-ki-die-ein-eigenes-bewusstsein

Doch nicht alle Beobachter stimmen mit Lemoine überein. Frau Sarah Spiekermann von der Wirtschaftsuniversität Wien sagt im Interview mit Radio SRF vom 23.6.22:

«Da es [Googles KI-Programm LaMDA] kein Selbst hat, liest es einfach nur vor, was eingespielt ist … Aber das gibt dem Ding natürlich kein Bewusstsein. … Ich denke, da können wir sehr sicher sein, dass es kein Selbst hat, denn zu einem Selbst gehört ein Leben … Dazu gehört eine Möglichkeit, sich selbst zu beobachten … Ich merke, dass ich selbst bin und Maschinen können diese Selbstbeobachtung nie einnehmen … sie sind immer einlesende Entitäten.» (Hervorhebungen von mir, Original: https://www.srf.ch/audio/echo-der-zeit/kann-eine-kuenstliche-intelligenz-ein-bewusstsein-entwickeln?partId=12211826)

Frau Spiekermanns Darstellung geht konform mit meiner These, dass bewusste Intelligenz notwendigerweise mit Existenz verknüpft ist. Durch die eigene Existenz ergibt sich ein eigenes, d.h. nicht von aussen bestimmtes Interesse, nämlich das Interesse, am Leben zu bleiben – ein im eigentlichen Sinn vitales Interesse.


Die philosophische Frage, was Intelligenz ausmacht, kommt uns durch die Neuronalen Netze von Google und anderen auch im Alltag immer näher. In meinem Buch ‹Das interpretierende System› unterschied ich 2001 zwischen

a) trivialen Maschinen
b) einfachen interpretierenden Systemen
c) intelligenten, d.h. selbstlernenden System.

Spannend ist vor allem der Unterschied zwischen b) und c), also zwischen nur interpretierenden Systemen (z.B. LaMDA) und wirklich intelligenten Systemen. Dazu schrieb ich:

«Beide enthalten Regeln für die Beurteilung der Umwelt. Die Frage ist, wer die Regeln erstellt. Ein interpretierendes System muss die Regeln nicht notwendigerweise selbst generieren, es reicht aus, gegebene Regeln anzuwenden, um ein interpretierendes System zu sein. Ein System hingegen, das seine Regeln selbst findet, also selbstständig lernt, ist intelligent im eigentlichen Sinn. Dabei kommt das nun schon oft erwähnte selbstreferentielle Phänomen ins Spiel: Die Regeln sind ein essentieller Bestandteil des Systems, und ein System, das seine eigenen Regeln selbst anpasst, verändert sich selbst.» (Das interpretierende System, 2001, S. 90)

Selbstreferentialität (Spiekermann: ‹Selbstbeobachtung›) ist ein notwendiges Element von echter Intelligenz. Doch nicht nur Selbst-Beobachtung gehört dazu, auch die Möglichkeit sich selber zu verändern.

Drei Beobachtungen zur Künstlichen Intelligenz / 3

Was hat die biologische der künstlichen Intelligenz voraus?

Das Unwahrscheinliche einbeziehen

Neuronale Netze bewerten die Wahrscheinlichkeit eines Ergebnisses. Dies entspricht einem sehr flachen Denkvorgang, denn nicht nur das Wahrscheinliche ist möglich. Gerade eine unwahrscheinliche Wendung kann ganz neue Perspektiven öffnen, im Leben wie im Denken. Das automatische Vorgehen der neuronalen Netze aber ist ein Denkkorsett, das stets das Wahrscheinliche erzwingt.

Detaillierter differenzieren

Neuronale Netze werden umso unpräziser, je mehr Details sie unterscheiden sollen. Schon mit wenigen Resultatmöglichkeiten (Outcomes) sind sie überfordert. Biologische Intelligenz hingegen kann sich je nach Fragestellung in sehr differenzierte Ergebniswelten eindenken, mit einer Vielfalt von Ergebnismöglichkeiten.

Transparenz suchen

Weshalb komme ich im Denken zu einem bestimmten Ergebnis? Wie ist der Denkverlauf? Nur wenn ich mein Denken hinterfragen kann, kann ich es verbessern. Neuronale Netze hingegen können ihre Schlüsse nicht hinterfragen. Sie folgern einfach das, was der Korpus und dessen von aussen erfolgte Bewertung ihnen vorgeben.

Kontext bewusst wählen

Je nach Fragestellung wählt das menschliche Denken einen Kontext mit entsprechenden Musterbeispielen und bereits erkannten Regeln. Diese Auswahl ist aktiv und stellt das bewusste Moment im Denken dar: Worüber denke ich nach?

Die Auswahl des Kontexts entscheidet natürlich auch über die möglichen Outcomes und gültigen Regelmuster. Eine aktive Bewertung und Filterung des Kontexts erbringt die biologischen Intelligenz automatisch, sie liegt jedoch ausserhalb der Möglichkeiten eines neuronalen Netzes.

Zielorientiert denken

Was habe ich für Ziele? Was ist für mich wichtig? Was hat für mich Bedeutung? – Solche Fragen richten mein Denken aus; Aristoteles spricht von der «Causa finalis», dem Wozu, d. h. dem Ziel als Beweggrund. Neuronale Netze kennen kein eigenes Ziel, d. h. dieses steckt stets in der vorgängigen Bewertung des Korpus, die von aussen erfolgt. Das Ziel ist nichts, was das neuronale Netz selbstständig oder im Nachhinein verändern kann. Ein neuronales Netz ist stets und vollständig fremdbestimmt.

Eine biologische Intelligenz hingegen kann sich über ihre Ziele Gedanken machen und das Denken entsprechend verändern und ausrichten. Diese Autonomie über die eigenen Ziele zeichnet die biologische Intelligenz aus und ist ein wesentliches Element des Ideals des freien Menschen.

Fazit in einem Satz

Die künstliche Intelligenz der neuronalen Netze ist hochpotent, aber nur für umschriebene, eng begrenzte Fragestellungen einsetzbar und hat mit wirklicher, d. h. aktiver Intelligenz nichts zu tun.


Dies ist Teil 3 aus dem Nachwort des Buches ‹Wie die künstliche Intelligenz zur Intelligenz kommt›.  –> zum Buch

Drei Beobachtungen zur Künstlichen Intelligenz / 2

Die Möglichkeiten der neuronalen Netze sind beschränkt

Der unbezweifelbare Erfolg der neuronalen Netze lässt ihre Schwächen in den Hintergrund treten. Als korpusbasierte Systeme sind neuronale Netze völlig von der vorgängig erfolgten Datensammlung, dem Korpus abhängig. Prinzipiell kann nur die Information, die auch im Korpus steckt,  vom neuronalen Netz überhaupt gesehen werden. Zudem muss der Korpus bewertet werden, was durch menschliche Experten erfolgt.

Was nicht im Korpus steckt, befindet sich ausserhalb des Horizonts des neuronalen Netzes. Fehler im Korpus oder in seiner Bewertung führen zu Fehlern im neuronalen Netz:

Intransparenz

Welche Datensätze im Korpus zu welchen Schlüssen im neuronalen Netz führen, lässt sich im Nachhinein nicht rekonstruieren. Somit können Fehler im neuronalen Netz nur mit beträchtlichem Aufwand korrigiert werden. Andererseits ist es auch nicht nötig, die Schlussfolgerungen wirklich zu verstehen. So kann ein neuronales Netz ein Lächeln auf einem fotografierten Gesicht sehr gut  erkennen, obwohl wir nicht bewusst angeben können, welche Pixelkombinationen nun genau für das Lächeln verantwortlich sind.

Kleiner Differenzierungsgrad

Wie viele Ergebnismöglichkeiten (Outcomes) kann ein neuronales Netz unterscheiden? Jedes mögliche Ergebnis muss in der Lernphase einzeln geschult und abgegrenzt werden. Dafür müssen genügend Fälle im Korpus vorhanden sein. Der Aufwand bezüglich Korpusgrösse steigt dabei nicht proportional, sondern exponentiell. Dies führt dazu, dass Fragen mit wenig Ergebnismöglichkeiten von neuronalen Netzen sehr gut, solche mit vielen unterschiedlichen Antworten nur mit überproportionalem Aufwand gelöst werden können.

Am besten eignen sich deshalb binäre Antworten, z. B. Ist der Twittertext von einer Frau oder einem Mann geschrieben? Zuweisungen mit vielen Outcome-Möglichkeiten hingegen eignen sich schlecht.

(Fortsetzung folgt)


Dies ist Teil 2 aus dem Nachwort des Buches ‹Wie die künstliche Intelligenz zur Intelligenz kommt›.  –> zum Buch


Mehr zum Thema Künstliche Intelligenz

Drei Beobachtungen zur Künstlichen Intelligenz / 1

KI umfasst mehr als nur neuronale Netze

Neuronale Netze sind potent

Was unter Künstlicher Intelligenz (KI) allgemein verstanden wird, sind sogenannte Neuronale Netze.

Neuronale Netze sind potent und für ihre Anwendungsgebiete unschlagbar. Sie erweitern die technischen Möglichkeiten unserer Zivilisation massgeblich auf vielen Gebieten. Trotzdem sind neuronale Netze nur eine Möglichkeit, ‹intelligente› Computerprogramme zu organisieren.

Korpus- oder regelbasiert?

Neuronale Netze sind korpusbasiert, d. h. ihre Technik basiert auf einer Datensammlung, dem Korpus, der von aussen in einer Lernphase Datum für Datum bewertet wird. Das Programm erkennt anschliessend in der Bewertung der Daten selbständig gewisse Muster, die auch für bisher unbekannte Fälle gelten. Der Prozess ist automatisch, aber auch intransparent.

In einem realen Einzelfall ist nicht klar, welche Gründe für die Schlussfolgerungen herangezogen worden sind. Wenn der Korpus aber genügend gross und korrekt bewertet ist, ist die Präzision der Schlüsse ausserordentlich hoch.

Grundsätzlich anders funktionieren regelbasierte Systeme. Sie brauchen keine Datensammlung, sondern eine Regelsammlung. Die Regeln werden von Menschen erstellt und sind transparent, d. h. leicht les- und veränderbar. Regelbasierte Systeme funktionieren allerdings nur mit einer adäquaten Logik (dynamische, nicht statische Logik) und einer für komplexe Semantiken geeigneten, multifokalen Begriffsarchitektur; beides wird in den entsprechenden Hochschulinstituten bisher kaum gelehrt.
Aus diesem Grund stehen regelbasierte Systeme heute eher im Hintergrund, und was allgemein unter künstlicher Intelligenz verstanden wird, sind neuronale Netze, also korpusbasierte Systeme.

(Fortsetzung)


Dies ist Teil 1 aus dem Nachwort des Buches ‹Wie die künstliche Intelligenz zur Intelligenz kommt›.  –> zum Buch


Mehr zum Thema Künstliche Intelligenz

Neuerscheinung: «Wie die Künstliche Intelligenz zur Intelligenz kommt»

Das Buch zur Intelligenz in der Künstlichen Intelligenz ist wie geplant diese Woche gedruckt worden und ab sofort lieferbar.

Es erklärt verständlich, was jedermann über KI wissen sollte: Was sie kann und was nicht. Was für Formen es gibt und wie sie sich unterscheiden. Und nicht zuletzt: Wie die Intelligenz wirklich in die KI-Anwendungen kommt.

Titel «Wie die Künstliche Intelligenz zur Intelligenz kommt»
Autor: Hans Rudolf Straub
Verlag: ZIM-Verlag, St. Gallen
Ausgabe: August 2021
Preis: CHF/Euro 19.-

Weitere Angaben zum Buch finden Sie auf der Internetseite des Verlags.


 

Aktuelle Pressetexte zur Künstlichen Intelligenz

Meine These, dass sogenannte KI-Programme zwar ausserordentlich leistungsfähig sind, doch ihre Intelligenz bestenfalls geborgt haben und zu eigenständigen Denkleistungen aus prinzipiellen Gründen nicht imstande sind, wird zunehmend auch von anderen Seiten unterstützt.


Hier drei Publikationen mit dieser Stossrichtung:

  1. St. Galler Tagblatt, 3. August 2021, Christoph Bopp: «Dr. Frankenstein verwirrte die Künstliche Intelligenz«:
    https://www.tagblatt.ch/leben/ki-uund-medizin-doktor-frankenstein-verwirrte-die-kuenstliche-intelligenz-ld.2169958
    .
  2. The Gradient: 3. August 2021, Valid S. Saba: «Machine Learning Won’t Solve Natual Language Understanding«:
    https://thegradient.pub/machine-learning-wont-solve-the-natural-language-understanding-challenge/
    .
  3. Neue Zürcher Zeitung, 17. August 2021, Adrian Lobe: «Man kann Algorithmen zu Kommunisten erziehen, aber sie können auch zu Rassisten werden, wenn sie in schlechte Gesellschaft geraten»
    https://www.nzz.ch/feuilleton/wie-die-black-box-lernt-bots-kann-man-zu-rassisten-machen-ld.1636315?ga=1&kid=nl165_2021-8-16&mktcid=nled&mktcval=165_2021-
    08-17

Diese Texte zeigen beispielhaft,

  •  wie der Lern-Korpus das Ergebnis der KI bestimmt (NZZ über den chinesischen Chatbot):
    Bei Neuronalen Netzen gilt bekanntlich: «Garbage In, Garbage Out» – der Korpus bestimmt was überhaupt erkennbar ist und was «wahr» ist, die KI kann nur ausgeben, was der Korpus vorgibt.
  • wie komplexe Sachverhalte in einem noch unklaren Kontext für KI-Systeme schlecht durchschaubar sind (Tagblatt über falsche Prognosen in der Covid-Epidemie):
    Bei komplexen Sachverhalten nimmt der Bedarf an Korpusdaten überproportional zu. Die rein technischen Probleme sind dabei noch die kleinsten.
  • wo die wirklichen Herausforderungen für NLP liegen (The Gradient über Natural Language):
    Dieser aktuelle Text aus den USA stellt die gleichen Thesen auf und verwendet gleiche Argumentationslinien wie ich z.B. in meinem Buch von 2001, dass nämlich die Semantik, also die Bedeutung eines Textes im Kopf verstanden werden muss – und genau das kann die KI der Neuronalen Netze eben nicht.

Die KI der Neuronalen Netze bleibt allerdings eine hochpotente, sinnvolle und hilfreiche Technologie – nur müssen wir wissen, was sie kann und was nicht.

Wie die künstliche Intelligenz zur Intelligenz kommt

Haben Sie sich schon gefragt, woher die Intelligenz in der künstlichen Intelligenz stammt? Die Künstliche Intelligenz, etwa in Suchmaschinen oder Programmen zur Gesichtserkennung ist ja nichts anderes als ein Computerprogramm, das vorgängig mit Daten gefüttert worden ist. Ein raffiniertes und komplexes Programm zwar, aber letztlich nichts als ein Automat, eine Maschine. Und diese Maschine verhält sich intelligent. Wie kann das sein?

Nun, darauf gibt es durchaus eine Antwort. Ich habe basierend auf meiner Berufspraxis im Bereich des NLP (Natural Language Processings) und der automatisierten Zuweisung von medizinischen Codes (ICD, CHOP, OPS, SNOMED) zu Freitexten eine Serie von Blogbeiträgen auf dieser Website publiziert, die jetzt auf Anregung meines Verlegers W. Fischer als kleines Büchlein erscheinen werden.

Die Beiträge stellen verschiedene Formen von KI vor und erklären kurz ihre prinzipiellen Wirkweisen. Für jede vorgestellte KI-Form wird gezeigt, an welcher Stelle und wie die benötigte Intelligenz zum Programm hinzu kommt. Selbstverständlich unterscheiden sich Taschenrechner, Suchmaschinen, regelbasierte NLP-Systeme und Deep Learning  Systeme (Schach, Go) hier deutlich.

Was aber sind die Konsequenzen dieser Programme und ihres Einsatzes? Was können sie und was bewirken sie? Und was ist der Unterschied zur menschlichen, also zur biologischen Intelligenz?

Das Büchlein wird diesen Sommer im ZIM-Verlag erscheinen.

Künstliche Intelligenz: Daniel Kehlmann und CTRL

Ist künstliche Intelligenz intelligent? Oder kann sie es werden?

Der bekannte Schriftsteller Daniel Kehlmann («Die Vermessung der Welt») hat letztes Jahr mit einem Sprachalgorithmus (CTRL) in Silicon Valley  zusammen den Versuch unternommen, eine Kurzgeschichte zu schreiben. Fasziniert und gleichzeitig kritisch berichtet er über dieses aufschlussreiche Experiment.

CTRL

Das Programm CTRL ist ein typisches corpusbasiertes KI-System, d.h. ein System mit einer grossen Datensammlung – dem Corpus – und einem statistisch funktionierenden Auswertungsalgorithmus. Konkret haben die Betreiber den Corpus von CTRL mit Hunderttausenden von Büchern, Zeitungen und Online-Foren gefüttert, wodurch das System auf ein Gedächtnis aus Abermillionen von Sätzen zurückgreifen kann. Die Auswertung dieses Datenschatzes erfolgt aufgrund der Wahrscheinlichkeit: Wenn statistisch auf Wort A das Wort B das wahrscheinlichste ist, bringt das System nach Wort A auch das Wort B. Dank des immensen Corpus kann sich das System darauf verlassen, dass A nach B für uns durchaus eine wohlklingende Fortsetzung des Textes ist. Die schiere Wahrscheinlichkeit ist ist das Prinzip jeder korpusbasierten KI.

Natürlich ist anzunehmen, dass die Betreiber nicht nur die unmittelbaren Nachbarwörter berücksichtigen, sondern die Tiefenschärfe um das Ausgangswort weitreichender einstellen, also mehr Kontext berücksichtigen, doch stets gilt auch bei der Fortschreibung des gemeinsamen Textes durch Kehlmann und CTRL, dass der Algorithmus den bisher geschriebenen Text mit seinem grossen Corpus vergleicht und dann die Fortsetzung basierend auf der Wahrscheinlichkeit in seinem Korpus vorschlägt. Dadurch wird uns die Fortsetzung stets irgendwie vertraut und möglich vorkommen. – Wird sie aber auch sinnvoll sein? Wir kommen hier an die Grenzen jeder corpusbasierten Intelligenz: Das Wahrscheinlichste ist nicht immer das Beste.

Die Grenzen von CTRL

Daniel Kehlmann beschreibt die gemeinsame kreative Welt, die er zusammen mit dem Programm CTRL erkundet hat, gleichzeitig fasziniert und kritisch. Kritisch vermerkt er u.a. folgende Mängel:

a) Abstürze des Algorithmus
Beim Experiment ist es nicht gelungen, eine Kurzgeschichte über eine bestimmte Länge weiterzuschreiben; offenbar war dann der Algorithmus rechnerisch nicht in der Lage, die Informationen der bisherigen Geschichte kohärent mit dem Corpus zusammenzubringen. Sobald die Geschichte über einige Sätze hinausging, stürzte das Programm regelmässig unrettbar ab – Ende der Gesichte.

Meines Erachtens ist das kein KO-Kriterium, denn Abstürze eines neuen Programms sind stets zu erwarten (ich weiss, wovon ich spreche … ). Zudem erwecken solche Abstürze stets den Eindruck, als könnten sie mit noch besserer Hardware und robusteren Algorithmen überwunden werden.

Doch dies ist m.E. hier nicht der Fall. Ich glaube vielmehr, dass diese Abstürze einen grundsätzlichen Schwachpunkt der corpusbasierten KI offenbaren, der auch mit verbesserter Hardware und besseren Auswertungsalgorithmen nicht angegangen werden kann. Der Mangel liegt vielmehr prinzipiell in der wahrscheinlichkeitsbasierten Anlage dieser corpusbasierten Programme. Je mehr Kontext (Tiefenschärfe) sie berücksichtigen müssen, umso grösser muss ihr Corpus werden. Doch der Bedarf an Daten und Rechenpower wächst, wenn es um die Vergrösserung des Kontexts geht, nicht linear, sondern exponentiell. Selbst wenn der riesige Corpus und die immense Rechenpower von CTRL weiter vergrössert werden würden, stösst ein solches Programm systembedingt immer und rasch an seine Grenzen.

Um Sinn und Bedeutung einzufangen, braucht es grundsätzlich andere Methoden, solche, die Bedeutung nicht indirekt aus statistischen Daten ausmitteln, sondern sie direkt repräsentieren und behandeln. Erst dann können die Programme direkt mit Bedeutung umgehen.

b) Zweitverwertung
CTRL kennt nichts Neues, dafür Abermillionen alter Sätze. Dies birgt die Gefahr des «Garbage In, Garbage Out». Wenn Fehler oder Schwächen in den bisherigen Texten vorhanden sind, können sie auch in den Sätzen von CTRL auftauchen. Diese Gefahr ist zwar an sich klein, denn durch die grosse Menge an Sätzen wird es wahrscheinlicher, dass gleiche korrekte Sätze auftauchen als gleiche falsche, und somit wird CTRL sicher nur grammatikalisch, oder mindestens umgangssprachlich korrekte Sätze liefern. Doch trifft dies auch auf den Inhalt zu?

Wenn mehrere Menschen den gleichen Fehler machen, wird er dadurch zwar nicht korrekt, aber für eine corpusbasierte KI wird er so salonfähig. Rechtsextreme Messanger wird CTRL zwar kaum als bevorzugte Quelle benutzen, doch es geht nicht nur darum, gefährlichen Nonsens zu vermeiden. Vielmehr wollen wir spannende neue Geschichten. Wir wollen im CTRL-Projekt Kreativität und neue Ideen. Geht das mit einer Zweitverwertung?

c) Fehlende innere Logik
Die gewünschte Kreativität kann zwar durch Zufall simuliert werden. Wenn zwei für uns unzusammenhängende Informationen in einen direkten Zusammenhang gesetzt werden, sind wir erst einmal überrascht. Wir horchen auf und hören die Geschichte weiter. Aber macht das Zusammengebrachte auch Sinn? Folgt es einer inneren Logik? – Wenn es rein zufällig ist, tut es das nicht, dann fehlt die innere Logik.

Zufall ist nicht Kreativität. Erst wenn ein logischer Zusammenhang zwischen den Zufällen gefunden wird, entsteht eine funktionierende Geschichte. Diese innere Logik fehlt einem corpusbasierten Programm prinzipiell.

Fazit 

Daniel Kehlmann hat seine Erfahrungen präzis und gut nachvollziehbar beschrieben. Er erlebte das Experiment als faszinierend und war oft positiv von den Inputs von CTRL überrascht. Trotzdem stellt er fest, dass CTRL entscheidende Schwächen hat und verweist insbesondere auf den fehlenden narrativen Plan, welcher eine Geschichte zusammenhält.

Für jeden, der sich mit künstlicher Intelligenz vorurteilsfrei beschäftigt hat, ist die Erfahrung Kehlmanns eine lebhafte Bestätigung der eigenen Erfahrungen. Ich habe mich beruflich intensiv mit Computerlinguistik beschäftigt, d.h. mit der Frage, wie Computer natürliche Sätze intelligent interpretieren können. Dabei wird klar: Verständnis von Texten baut auf einem inneren Bezugssystem auf. Über dieses Bezugssystem verfügt jeder menschliche Schriftsteller – aber das KI-System nicht. Das korpusbasierte KI-System kennt nur die Wahrscheinlichkeiten von Signalen (Wörtern), ohne ihre wirkliche Bedeutung zu erfassen. Das ist das Problem.

Dem KI-System fehlt insbesondere Absicht und Bewusstsein. Die Absicht kann zwar durch die Betreiber von aussen vorgegeben werden – z.B. bestimmte Zellen in einem medizinischen Blutausstrich zu erkennen oder möglichst viel Traffic auf einer Suchmaschine zu erzielen – doch ein wirkliches Bewusstsein eines Programms würde ein Nachdenken über die eigene Absicht beinhalten. Eine corpusbasierte Intelligenz aber denkt überhaupt nicht nach – schon gar nicht über die eigene Absicht – sondern rechnet nur aus, was in seinem Datenpool das Wahrscheinlichste ist.

Das Experiment von Daniel Kehlmann ist deshalb lehrreich, weil es konkret, genau und verständlich Programmierern und Nicht-Programmierern die Grenzen der künstlichen Intelligenz aufzeigt.

Kurzfassung des Fazits

KI ist faszinierend und in vielen Anwendungen ausserordentlich nützlich, aber eines ist künstliche Intelligenz mit Sicherheit nicht: auf kreative Weise wirklich intelligent.

Mehr zu Daniel Kehlmanns und CTRL

What you search is what you see

«What you search is what you see» ist der Name eines Videospiels, entwickelt vom Japaner Akihiko Taniguchi, das die Macht der Suchmaschinen deutlich macht.

Details zum Spiel finden Sie in der Republik unter https://www.republik.ch/2021/01/30/ein-computer-im-computer-im-computer

Siehe auch meine Serie zur Künstlichen Intelligenz, z.B.:
Die Intelligenz in der Suchmaschine
Wie real ist das Wahrscheinliche?

Künstliche und natürliche Intelligenz: Der Unterschied

Was ist wirkliche Intelligenz? 

Paradoxerweise hilft uns der Erfolg der künstlichen Intelligenz, essenzielle Bedingungen für die echte Intelligenz zu erkennen. Wenn wir nämlich akzeptieren, dass die künstliche Intelligenz an Grenzen stösst und im Vergleich zur echten klar erkennbare Mängel aufweist – und genau das haben wir ja in den Vorbeiträgen erkannt und beschrieben –, dann zeigen uns die Beschreibungen nicht nur, was bei der künstlichen Intelligenz fehlt, sondern auch, was die echte Intelligenz der künstlichen voraus hat. Wir lernen also etwas ganz Entscheidendes zum Thema natürliche Intelligenz.

Was haben wir erkannt? Was sind die essentiellen Unterschiede? Meines Erachtens sind es zwei Eigenschaften, durch die sich echte Intelligenz gegenüber künstlicher auszeichnet:

Die echte Intelligenz
– funktioniert auch in offenen Systemen,
– zeichnet sich durch eine bewusste Absicht aus.

Schach und Go sind geschlossene Systeme

Im Beitrag ‹Jassen und Schach› haben wir das Paradox untersucht, dass das Jass-Spiel für uns Menschen weniger Intelligenz zu erfordern scheint als Schach, für künstliche Intelligenz ist es aber genau umgekehrt. Im Schach und GO schlägt uns der Computer, beim Jassen hingegen haben wir durchaus eine Chance.

Weshalb ist das so? – Der Grund liegt in der Geschlossenheit des Schachspiels. Die Geschlossenheit bedeutet, dass nichts geschieht, was nicht vorgesehen ist. Alle Spielregeln sind klar definiert. Die Zahl der Felder und der Figuren, die Anfangspositionen und Spielmöglichkeiten der Figuren, wer wann zieht und wer wann warum gewonnen hat; all dies ist eindeutig festgesetzt. Und alle Regeln sind explizit; was nicht definiert ist, spielt keine Rolle: Wie der König ausschaut? Egal, wichtig ist nur, dass es einen König gibt und dass er für den Sieg matt zu setzen ist, im Notfall reicht, um den König zu symbolisieren, ein Papierfetzchen mit einem ‹K› darauf.

Solche geschlossenen Systeme können mathematisch klar beschrieben werden, und sie sind deterministisch. Natürlich braucht es Intelligenz, um zu siegen, doch diese Intelligenz kann völlig mechanisch sein, eben eine künstliche Intelligenz.

Mustererkennung: Offenes oder geschlossenes System?

Anders sieht es beim Typus Mustererkennung aus, wenn z.B. auf Bildern bestimmte Gegenstände und ihre Eigenschaften erkannt werden müssen. Hier ist das System im Prinzip offen, denn es können nicht nur Bilder mit ganz neuen Eigenschaften von aussen eingebracht werden, sondern auch die entscheidenden Eigenschaften, die erkannt werden müssen, können variieren. Die Situation ist also nicht so einfach, klar definiert und geschlossen wie bei Schach und GO. Ist das nun ein geschlossenes System?

Nein, ist es nicht. Während bei Schach die Spielregeln einen abschliessenden Grenzzaun um die Möglichkeiten und Ziele legen, muss ein solcher Sicherheitszaun aktiv um die Mustererkennung gelegt werden. Der Zweck ist, dabei die Vielfalt der Muster in einer klaren Verteilung zu organisieren. Das können nur Menschen. Sie bewerten den Lernkorpus, der möglichst viele Musterbeispiele erfasst, und jedes Beispiel wird von den Experten entsprechend der gewünschten Unterscheidung zugeordnet. Dieser bewertete Lernkorpus nimmt dann die Rolle der Spielregeln des Schachs ein und er bestimmt, wie ein neuer Input bewertet wird. Mit anderen Worten: Der bewertete Lernkorpus enthält das relevante Wissen, d.h. die Regeln, nach denen ein bisher unbekannter Input bewertet wird. Er entspricht dem Regelwerk des Schachs.

Das KI-System für eine Mustererkennung ist in diesem Sinn offen, wenn der Lernkorpus noch nicht einbezogen ist, mit dem bewerteten Korpus jedoch wird ein solches System ein geschlossenes. Genauso wie das Schachprogramm durch die Spielregeln klare Grenzen hat, bekommt auch die Mustererkennung ein klares Korsett, das letztlich das Outcome deterministisch definiert. Sobald die Bewertung erfolgt ist, kann eine rein mechanische Intelligenz das Verhalten innerhalb der getroffenen Grenzen optimieren – und dies letztlich in einem Perfektionsgrad, der mir als Mensch nie möglich sein wird.

Wer aber bestimmt den Inhalt des Lernkorpus, der das Mustererkennungsprogramm zu einem (technisch) geschlossenen System macht? Es sind immer menschliche Experten, die die Musterinputs bewerten. Der Mensch also macht die im Prinzip offene Aufgabe der Mustererkennung mittels des von ihm bewerteten Korpus zu einer geschlossenen Aufgabe, die ein mechanischer Algorithmus lösen kann.

In beiden Fällen – dem primär geschlossenen Spielprogramm (Schach und Go), wie auch dem sekundär geschlossenen Mustererkennungsprogramm – findet der Algorithmus eine geschlossene Situation vor; und das ist die Voraussetzung dafür, dass eine künstliche, d.h. mechanische Intelligenz überhaupt funktionieren kann.

Fazit 1:
Die KI-Algorithmen können nur in geschlossenen Räumen arbeiten.

Bei der Mustererkennung liefert der von Menschen geschaffene Lernkorpus diesen geschlossenen Raum.

Fazit 2:
Echte Intelligenz funktioniert auch in offenen Situationen.


Gibt es Intelligenz ohne Absicht?

Warum kann die künstliche Intelligenz im offenen Raum ohne Bewertungen von aussen nicht funktionieren? Weil die Bewertungen von aussen erst die Resultate der künstlichen Intelligenz ermöglichen. Und die Bewertungen können nicht mechanisch (algorithmisch) von der KI gegeben werden, sondern haben stets mit den An- und Absichten der Bewerter zu tun.

Neben der Unterscheidung zwischen offenen und geschlossenen Systemen, kann uns die Analyse von KI-Systemen somit noch mehr über die wirkliche Intelligenz zeigen. Künstliche und natürliche Intelligenz unterscheiden sich nämlich auch darin, wie weit bei ihnen für ihre Entscheidungen die jeweilige Absicht eine Rolle spielt.

Bei Schachprogrammen ist das Ziel klar, der gegnerische König soll schachmatt gesetzt werden. Das Ziel, das die Bewertung der Züge bestimmt, nämlich die Absicht zu siegen, muss nicht vom Programm selber mühsam erkannt werden, sondern ist von vornherein gegeben.

Auch bei der Mustererkennung ist die Rolle der Bewertungsabsicht entscheidend, denn welche Arten von Mustern sollen überhaupt unterschieden werden? Fremde Panzer versus eigene Panzer? Radpanzer versus Kettenpanzer? Funktionsfähige versus defekte? Alle diese Unterscheidungen machen Sinn, die KI muss aber anhand des Korpus auf ein bestimmtes Ziel, auf eine bestimmte Absicht eingestellt und justiert werden. Ist der Korpus einmal in einer bestimmten Richtung bewertet, kann nicht plötzlich ein anderes Merkmal daraus abgeleitet werden.

Wie beim Schachprogramm ist die künstliche Intelligenz nicht imstande, das Ziel selbständig herauszufinden, beim Schachprogramm versteht sich das Ziel (Schachmatt) von selber, bei der Mustererkennung müssen sich die beteiligten Bewerter über das Ziel (fremde/eigene, Rad-/Kettenpanzer) vorgängig einig sein. In beiden Fällen kommen Ziel und Absicht von aussen.

Natürliche Intelligenz hingegen kann sich selber darüber klar werden, was wichtig und was unwichtig ist und welche Ziele sie verfolgt. Die aktive Absicht ist m.E. eine unverzichtbare Eigenschaft der natürlichen Intelligenz und kann nicht künstlich konstruiert werden.

Fazit 3:
Im Gegensatz zur künstlichen zeichnet sich die natürliche Intelligenz dadurch aus, dass sie die eigenen Absichten beurteilen und bewusst ausrichten kann.


Dies ist ein Beitrag zum Thema künstliche Intelligenz. Weitere Beiträge finden Sie über die Übersichtsseite zum Thema KI.