Das ist Information

Bok av Horst Völz
Der Begriff Information wurde 1940 von Norbert Wiener mit seiner Kybernetik eingeführt. Wesentlich für seine große Verbreitung war Shannons Informationstheorie, die wichtige Grundlagen der Nachrichten-, Rechen- und Speichertechnik bereitstellte. Heute ist Information ein nahezu universell angewendeter Begriff, der aber leider sehr oft nur unscharf und intuitiv benutzt wird. Mit diesem Buch liegt wohl erstmalig eine exakte Begriffsdefinition vor. Sie geht weitgehend auf Wieners Einführung zurück. Information ist kein Objekt, sondern betrifft immer ein komplexes Geschehen, das aus drei Teilen besteht. Der stofflich-energetische Informationsträger wirkt auf ein spezifisches System ein und ruft in ihm und in dessen Umgebung eine spezielle Wirkung, das Informat hervor. Bei einer Musikaufzeichnung ist z. B. die verbogene Rille der Schallplatte der ursprüngliche Informationsträger, der über technische Schritte den Schall erzeugt, der schließlich auf Menschen einwirkt. Damit er die ursprünglich beabsichtigte Wirkung, das Informat hervorruft muss der Mensch (als angepasstes System) bereits über spezifische Musikerfahrungen verfügen.Im Allgemeinen besitzt Information vielfältige Möglichkeiten und Varianten. Sie werden detailliert begründet und exakt behandelt. Dabei ist es notwendig, fünf Aspekte der Information zu unterscheiden. Grundlegend ist der dreistufige Fall aus Informationsträger, System und Informat, der wegen der wichtigen und spezifischen Wirkung (dem Informat) W-Information genannt wird. Vielfach, insbesondere bei Sprache und Schrift werden jedoch nicht die Originale als Informationsträger benutzt. Statt ihrer werden im Sinne der Semiotik auf sie verweisende Zeichen verwendet. Dann sind u. a. zusätzlich mittels Klassenbildung und Axiomatik sehr nützliche Komprimierungen als Vereinfachungen der Prozesse möglich. Deshalb wird dieser Aspekt als Z-Information bezeichnet. Ein dritter Aspekt betrifft die Nachrichtentechnik und deren Grenzen, wie sie von Shannon eingeführt und inzwischen enorm erweitert und ganz entscheidend für ihre Optimierung sind. Deshalb sind diese Inhalte unter S-Information erfasst und betreffen u. a. die Übertragung, Fehlerkorrektur, Komprimierung und Datensicherheit. Besonders wichtig für die Information sind die Möglichkeiten der Speicherung. Dafür ist eine umfangreiche Speichertheorie entstanden. Im gespeicherten Zustand liegt jedoch die Information nur potentiell vor. Erst durch die Wiedergabe muss aus dem Speicherzustand erneut ein Informationsträger erzeugt werden. Deshalb wurde hierfür der Begriff P-Information gewählt. Hierbei ist die von Shannon einführte Entropie wesentlich. Leider wird sie (selbst von Experten) recht oft mangelhaft bis falsch behandelt. Deshalb wird sie hier möglich anschaulich, aber dennoch mathematisch exakt erklärt. Die höchste Stufe der Information entsteht mittels der Nutzung der Rechentechnik. Sie ermöglicht völlig neue Anwendungen, die u. a. zu virtuellen Welten führen. Deshalb wurde hierfür die Bezeichnung V-Information gewählt.Für alle Informationsarten werden die wichtigsten Beispiele eingeführt und ausführlich erklärt. So ist quasi ein Kompendium der Information mit genauer Erfassung ihrer Möglichkeiten und Grenzen bis hin zu den technischen Anwendungen entstanden. Da leider mit den vielen Möglichkeiten der Information auch ein umfangreicher Missbrauch entstanden ist und weiter entstehen wird, wurde ein Kapitel angefügt, das vor allem versucht, für die Zukunft einige Abgrenzungen und Maßnahmen aufzuzeigen,