Menupunkt: Informationstheorie


Das Bit

Das Bit gilt als Grundbaustein der Information. Doch welche Information trägt dieser Grundbaustein?

Das Bit hat viel zu tun mit der Entropie und mit der Unterscheidung (Distinction) nach Georg Spencer-Brown:


Die Entropie

Entropie misst Information. Deshalb ist der Begriff Entropie unverzichtbar, wenn wir uns um ein Verständnis des Phänomens Information bemühen. Für die Beiträge zur Entropie gibt es eine eigene Übersichtsseite auf dieser Website:

Der Begriff Entropie stammt aus der Wärmelehre und ergänzt dort den Begriff der Energie. Entropie ist aber viel mehr, nämlich als Informationsentropie nach Shannon auch ein Mass für Information.  Trotz seiner enormen Bedeutung in der Physik ganz allgemein, in der Informationstheorie (Bits), aber auch im Alltag, gilt der Begriff der Entropie als kaum verständlich.


Maschinelles Denken

Als Informatiker bin ich fasziniert von Denkmaschinen. Doch denken Automaten wirklich selber? Oder beziehen sie ihre Intelligenz von denjenigen, die sie bauen, füttern und lenken? Was ist der Unterschied zwischen maschineller und biologischer Intelligenz?

  • KI (Künstliche Intelligenz)

 

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert