Information
Der lateinische Ursprung informare= bilden, durch Unterweisung Gestalt geben) weist darauf hin, dass Information ursprünglich als der Vorgang der Übermittlung von Wissen oder von Bedeutungsinhalten verstanden wurde.
Im heutigen Gebrauch wird Information mehr als potentiell oder aktuell vorhandenes, nutzbares oder genutztes Wissen verstanden. Wesentlich für die Information ist die Wiedererkennbarkeit sowie der Neuigkeitsgehalt anhand eines bestimmten Musters von Materie und/oder Energieformen in Raum und/oder Zeit: Das verwendete Muster entwickelt für einen Betrachter innerhalb eines bestimmten Kontextes Bedeutung und verändert dadurch dessen inneren Zustand - im menschlichen Zusammenhang insbesondere dessen Wissen.
Information ist heute ein sehr weitläufig verwendeter und daher auch schwer abzugrenzender Begriff. Verschiedene Wissenschaften betrachten die Information als ihr Arbeitsgebiet, namentlich die deutsche Informatik und die Informationswissenschaft, doch auch die Physik, die Biologie, die Nachrichtentechnik, die Informationsökonomik und die Semiotik haben jeweils eine eigene Auffassung über das Wesen der Information. Diese Ansätze unterscheiden sich zum Teil erheblich.
Erst in jüngster Zeit gibt es Bestrebungen, die einzelnen Ansätze zu verbinden und zu einem allgemeingültigen Informationsbegriff zu kommen. Entsprechende Literatur findet sich derzeit meist unter dem Stichwort Philosophie in den Regalen. Von einer vereinheitlichten Theorie der Information kann daher nicht gesprochen werden.
Eine der Hauptschwierigkeiten des Informationsbegriffes liegt darin,
dass im allgemeinen Sprachgebrauch sowie in einigen Wissenschaften (Semiotik, Informationswissenschaften) oft "Information" mit "Bedeutung" oder "übertragenem Wissen" gleichgesetzt wird. Wesentliche Ansätze für unser heutiges Verständnis von Information entstanden aber aus der Nachrichtentechnik, und in den frühen Theorien (insbesondere von Claude Shannon) ist Information erst einmal völlig von jeglicher Bedeutung gelöst, und auf die reine Unterscheidbarkeit von Zuständen reduziert.
In diesem Artikel wird zunächst auf die begriffliche Unterscheidung von Struktur und Bedeutung eingegangen, sowie auf die Verschränkungen, denen diese Teilaspekte unterliegen.
Aus diesen Betrachtungen ergeben sich drei Ebenen, unter denen der Begriff der
Information heute allgemein betrachtet wird. Diese sind
Charakteristika des Informationsbegriffes
Struktur und Bedeutung
Dem Begriff der Information kann man sich also von zwei Seiten aus nähern: Die
eine Betrachtungsweise greift am Informationsträger an, und stellt sich die
Frage, welche Struktur sich innerhalb dieses Trägers feststellen lässt.
Der andere Ansatz bemüht sich zu verstehen, welche Bedeutung dem zukommt, was man dann (irgendwie) diesem Informationsträger entnommmen hat.
Die erste Sichtweise hat ihre Wurzeln in der Nachrichtentechnik, die zweite eher in den Kognitionswissenschaft. Eine nachrichtentechnisch erkennbare Struktur (z.B. Lichtimpulse, die in einer zeitlichen Reihenfolge auf einzelne Zellen in der Netzhaut treffen) muss in einem komplexen Dekodierungsprozess in eine Bedeutung übersetzt werden.
Wo hier die reine Strukturinformation aufhört, und beginnt, eine Bedeutungsinformation zu werden, wo also in diesem Dekodierungsprozess die Grenze zum Bewusstsein zu ziehen ist, ist eine der spannenden Fragen der Informations- und Kognitionswissenschaften. Je tiefer man die Grenze ansetzt, um so metaphysischer wird die strukturelle Information:
Ist die in der DNA gespeicherte Erbinformation nur Struktur oder schon
Bedeutung? Oder wird sie vielleicht erst zur Bedeutung, indem sie benutzt wird, also zur Herstellung von Proteinen dient?
Die drei Ebenen sollen an der Zeichenfolge "ES IST WARM" erläutert werden:
Auf der syntaktischen Ebene wird Information nur als Struktur gesehen, die es zu übermitteln gilt. Der Inhalt der Information ist hierbei im Wesentlichen uninteressant. Beispielsweise könnte das Problem darin bestehen, das Bild einer Kamera auf einen Monitor zu übertragen. Das Übertragungssystem interessiert sich dabei z.B. nicht dafür, ob es das Bild überhaupt wert ist, übertragen zu werden (Einbrecher macht sich am Fenster zu schaffen) oder nicht (Katze läuft am Fenstersims entlang), oder ob überhaupt etwas zu erkennen ist (auch das Bild einer komplett unscharf eingestellten Kamera wird vollständig übertragen, obwohl es da eigentlich nichts erkennbares zu sehen gibt). Der Informationsgehalt ist dabei ein Maß für die maximale Effizienz, mit der die Information verlustfrei übertragen werden kann.
Grundprinzip der syntaktischen Information ist die Unterscheidbarkeit: Information enthält, was unterschieden werden kann. Eine Unterscheidung setzt jedoch mindestens zwei unterschiedliche Möglichkeiten voraus.
Sind es genau zwei Möglichkeiten, so lässt sich die Unterscheidung mit einer einzigen Ja/Nein-Frage klären. Beispiel: Angenommen, auf einer Speisekarte gibt es nur zwei Gerichte, Schnitzel und Spaghetti. Um herauszufinden, was jemand bestellt hat, braucht man ihm nur eine einzige Frage zu stellen: "Haben Sie Schnitzel bestellt?" Lautet die Antwort "Ja", so hat er ein Schnitzel bestellt, lautet die Antwort "Nein", so hat er Spaghetti bestellt (denn etwas anderes gibt es ja nicht zu bestellen).
Sind hingegen mehr als zwei Möglichkeiten vorhanden, so kann man dennoch mittels Ja-Nein-Fragen herausfinden, welche Alternative zutrifft. Eine einfache Möglichkeit wäre, einfach der Reihenfolge nach alle Gerichte abzufragen. Jedoch ist das eine recht ineffiziente Methode: Wenn ein Gericht gegen Ende der Speisekarte bestellt wurde, braucht man sehr viele Fragen, um es herauszufinden. Günstiger ist es, wenn man z.B. erst fragt: "Haben Sie ein Fleischgericht bestellt?", um dann konkreter zu werden, "War es Schweinefleisch?", so dass schließlich nur noch wenige Alternativen übrig bleiben ("War es Schweineschnitzel?", "Schweinebraten?", "Schweinshaxe?").
Auch die Wahrscheinlichkeiten spielen bei einer optimalen Fragestrategie eine Rolle: Wenn man z.B. weiß, dass die Hälfte aller Gäste Schweineschnitzel bestellt, so ist es sicher sinnvoll, erst einmal nach Schweineschnitzel zu fragen, bevor man den Rest der Karte durchgeht.
Der Informationsgehalt einer Struktur bestimmt sich nun dadurch, wieviele Ja-Nein-Fragen man im Mittel bei einer idealen Fragestrategie braucht.
Interessant ist hierbei, dass zwar vordergründig keinerlei semantische oder pragmatische Informationen verwendet werden, diese jedoch implizit in Form der Wahrscheinlichkeit dennoch eingehen. Beispielsweise ist die Tatsache, dass 50% der Gäste Schweineschnitzel bestellen, nicht aus der Speisekarte zu erkennen; es ist eine pragmatische Information. Und dass man normalerweise nicht nach der Bestellung von "Wir wünschen Ihnen einen guten Appetit" fragt, folgt aus der semantischen Information, dass dies keine Speise ist, und es daher höchst unwahrscheinlich ist, dass jemand dies bestellt.
Die Zeichenfolge "ES IST WARM" enthält nur Großbuchstaben.
Wenn wir einmal nur davon ausgehen, dass wir nur Großbuchstaben zur Verfügung hätten (also 27 Buchstaben einschließlich Leerzeichen), so können wir an jeder der elf Stellen der obigen Nachricht eines der 27 Zeichen setzen. Jede Stelle der Nachricht hat also 27 mögliche "Zustände".
Man kann dies nun dahingehend verallgemeinern, dass man die Zustände binarisiert, also in mehrere Unterscheidungen zwischen exakt zwei möglichen Zuständen unterteilt, die man durch eins und null darstellt.
Diese kleinstmögliche Unterscheidung zwischen zwei Zuständen wird als Bit bezeichnet. Man kann zum Beispiel den Buchstaben A durch "00001", B durch "00010", C durch "00011", D durch "00100", E durch "00101" darstellen, und so weiter bis zum Leerzeichen "11100".
Unsere Nachricht hieße dann "00101 10011 11100 01001 10011 10100 11100 ...
01101".
Jede Stelle hat jetzt also den Informationsgehalt von 1 Bit. Um einen unserer 27 Buchstaben zu codieren, braucht man, wie zu sehen ist, genau fünf Bit: Es muss fünf mal die Unterscheidung zwischen ja und nein getroffen werden, bis klar ist, um welchen Buchstaben es sich handelt.
Nun ist die obige Codierung der Buchstaben in fünf Ja/Nein-Entscheidungen nicht die allein gültige. Im Rahmen der klassischen Informationstheorie wird nämlich der Informationsträger in einem semantischen Kontext betrachtet.
So kann berücksichtigt werden, wie häufig ein bestimmtes Zeichen des Zeichenvorrats verwendet wird, mit anderen Worten, wie wahrscheinlich sein Auftreten ist. So ist beispielsweise der Buchstabe "E" im Deutschen häufiger als der Buchstabe "Y". (Wichtig ist an dieser Stelle festzuhalten, dass der Zeichenvorrat für jede syntaktische Betrachtung bekannt sein muss, dass Information also bereits zur rein syntaktischen Aufbereitung im Rahmen eines semantischen Kontextes betrachtet werden muss.)
Berücksichtigt man diese Auftretenswahrscheinlichkeit der Zeichen im Zeichenvorrat, so kann man die Anzahl der benötigten Ja/Nein-Entscheidungen, die zum Erkennen eines Zeichens notwendig sind, je nach Zeichen unterschiedlich groß machen. Technisch lässt sich ein solcher Code zum Beispiel nach dem Huffman-Verfahren entwickeln.
Damit benötigt man, um ein häufig auftretendes Zeichen zu codieren, weniger Bits, als für ein selten auftretendes Zeichen. Ein Zeichen hat also einen um so höheren Informationsgehalt (benötigt zur Erkennung eine höhere Anzahl an atomaren Entscheidungseinheiten, an Bits), wenn es in einem semantischen Kontext seltener auftritt.
Mathematisch ergibt sich die Anzahl der benötigten Bits (dem Informationsgehalt) eines Zeichens aus dem negativen dualen Logarithmus seiner Auftretenswahrscheinlichkeit :
Das Verständnis der syntaktischen Ebene war lange Zeit gekennzeichnet durch das Sender-Empfänger-Modell: Ein Sender will eine Information dem Empfänger
mitteilen. Dazu codiert er seine Information nach bestimmten Prinzipen (z.B. als Abfolge von Nullen und Einsen nach dem oben erwähnten Prinzip)
in einen Informationsträger, der Empfänger wertet diesen Informationsträger
aus, denn auch er kennt den Code, und erhält dadurch die Information (siehe auch: Kommunikation).
Nicht immer ist jedoch ein Sender vorhanden, der uns etwas mitteilen will. Ein typisches Beispiel ist die Messung: Dem physikalischen System ist es, bildlich gesprochen, völlig egal, was wir von ihm denken.
Dennoch ist das Ziel der Messung eine Informationsübertragung vom gemessenen System zu dem, der die Messung durchführt (man misst, um etwas über das gemessene System zu erfahren). Ein Beispiel ist die Geschwindigkeitsmessung per Radarfalle: Das Auto hat sicher keine Intention, seine Geschwindigkeit zu verraten (und der Autofahrer meist auch nicht). Dennoch gewinnt der Polizist durch die Messung Information über die Geschwindigkeit.
Hier ist die Codierung nicht Folge einer Planung, sondern eines physikalischen Gesetzes (Dopplereffekt).
Zusammengefasst:
Strukturierte, syntaktische Informationen werden erst verwertbar, indem sie
gelesen und interpretiert werden. Das heißt, zur Strukturebene muss die Bedeutungsebene hinzukommen. Dazu muss ein bestimmtes Bezugssystem angelegt werden, um die Strukturen in eine Bedeutung überführen zu können.
Dieses Bezugssystem bezeichnet man als Code. Im obigen Beispiel muss man also "wissen", dass die Nachricht aus den Buchstaben "A" bis "Z" und dem Leerzeichen bestehen kann. Man hätte wenig Erfolg, den gleichen Code an eine Nachricht anzulegen, die chinesische Schriftzeichen darstellen soll.
Jedoch ist die Überführung von Syntax in Semantik selten so direkt; in der Regel wird die Information über sehr viele unterschiedliche Codes immer höherer semantischer Ebene verarbeitet: Dabei wird auf den unterschiedlichen semantischen Ebenen wiederum Informationsverarbeitung auf strukturell-syntaktischer Ebene geleistet: Die Lichtimpulse, die gerade auf Ihre Netzhaut treffen, werden dort von Nervenzellen registriert (Bedeutung für die Nervenzelle), an das Gehirn weitergeleitet, in einen räumlichen Zusammenhang gebracht, als Buchstaben erkannt, zu Worten zusammengefügt.
Während dieser ganzen Zeit werden Nervenimpulse (also Strukturinformationen) von einer Gehirnzelle zur nächsten geschossen, bis sich auf diese Weise in ihrem Bewusstsein die durch Worte nur unzureichend wiedergebbaren Begriffe für "warm", "jetzt", und "hier" zu formen beginnen, die dann im Zusammenhang eine Bedeutung haben: Sie wissen jetzt, dass es bei diesen Worten um die Feststellung geht, dass es warm (und nicht etwa kalt) ist.
Zusammengefasst:
In diesem pragmatischen Sinne ist wesentliches Kriterium von Information, dass sie das Subjekt, das die Information aufnimmt, verändert, was konkret bedeutet, dass sich die Information, die potentiell dem Subjekt entnommen werden kann, verändert.
Zusammengefasst:
Im folgenden Beispiel eines Telefongespräches werden die unterschiedlichen Verschränkungen der Ebenen nochmals deutlich:
(ich finde das Beispiel etwas wirr , Kommentar Benutzer:rho)
Syntaktische Ebene der Information
Unterscheidbarkeit und Informationsgehalt
Binarisierung und die Wahrscheinlichkeit von Zeichen
Siehe auch: Entropie (Informationstheorie)Kommunikationsmodell der Information
Semantische Ebene der Information
Pragmatische Ebene der Information
Diese kommt dem umgangssprachlichen Informationsbegriff am nächsten.
Die Aussage, dass es warm ist (die wir nun semantisch richtig interpretiert haben, wir wissen, was diese Botschaft uns sagen will), hat echten
Informationscharakter, wenn wir uns mittags um zwölf nach einer durchzechten Nacht noch halb schlaftrunken überlegen was wir anziehen sollen, und uns die Freundin mit den Worten "es ist warm" davon abhält, in den Rollkragenpullover zu schlüpfen.
Der pragmatische Informationsgehalt der - semantisch exakt gleichen - Aussage ist aber gleich null, wenn wir bereits im T-Shirt auf dem Balkon sitzen und
schwitzen. Diese Information bietet uns nichts neues. Smalltalk ist eine Art des Informationsaustausches, bei dem die offensichtlich über die Sprache ausgetauschten semantischen Informationen so gut wie keine pragmatische Information darstellen - wichtig sind hier die Körpersignale, deren Semantik (Freundlichkeit, Abneigung) wir erkennen und pragmatisch (mag er/sie mich?) verwerten können.Zyklische Verschränkung der Ebenen
Die drei genannten Ebenen sind jedoch nicht getrennt zu betrachten. Vielmehr stellen sie sozusagen - man verzeihe das schräge Bild - die drei Seiten der selben Medaille dar: Bereits die strukturelle Ebene setzt eine Semantik voraus, innerhalb derer die Symbole dekodiert werden: Die Struktur der DNA codiert im Rahmen des Genetischen Codes bestimmte Proteine: Um diese Struktur innerhalb der DNA überhaupt zu erkennen, muss bereits die Semantik des genetischen Codes berücksichtigt werden.
Denn das DNA-Molekül kann durchaus noch andere Informationen tragen: So ist zum Beispiel die "Doppelhelixstruktur" der Ausdruck einer anderen Semantik, nämlich der des räumlichen Erscheinungsbildes des Moleküls.
Auch stellt die semantische Verarbeitung (z.B. das Zusammenfassen von Buchstaben zu Wörtern) wiederum syntaktische Information (nämlich eine Abfolge von Wort-Symbolen) her. Letztlich definiert sich auch die pragmatische Ebene nicht zuletzt dadurch, dass sie selbst neue Information syntaktischer Natur schaffen muss (sonst hätte die Information keine Wirkung entfaltet).
Aufgrund des engen Zusammenspiels zwischen semantischen Dekodierungsprozess und Wirkentfaltung in der Pragmatik, die beide wiederum syntaktische Informationen als End- und Zwischenprodukte generieren, werden manchmal diese beiden Ebenen auch zur Semantopragmatik verschmolzen.
Syntax | Semantik | Pragmatik |
Schallwellen mit wechselnder Frequenz und Intensität | Unterschiedlicher elektr. Widerstand bei unterschiedl. Druck | Unterschiedlich fließender elektrischer Strom |
Unterschiedlich fließender elektrischer Strom | Unterschiedliches Magnetfeld bei Unterschiedlichem Strom | Bewegung einer am Magneten befestigten Membran |
Bewegung einer am Magneten befestigten Membran | Schwingungsübertragung durch Luftmoleküle | Entstehen einer Schallwelle |
Auftreffen einer Schallwelle auf das System Trommelfell / Gehörknöchelchen / Schnecke / Schallrezeptoren | Feuern der Rezeptor-Nervenzelle bei Erregung | Nervenimpuls |
Impuls vieler Rezeptornevenzellen an einer verarbeitenden Nervenzelle im Gehirn | Feuern der verarbeitenden Zelle bei Schwellwertüberschreitung | Feuern oder Nichtfeuern einer verarbeitenden Nervenzelle |
Feuern oder Nichtfeuern vieler verarbeitender Nervenzellen | Vernetzung der Nervenzellen | Emergierende Muster in Raum und Zeit aus verarbeitenden Nervenzellen |
Emergierende Muster in Raum und Zeit aus verarbeitenden Nervenzellen | (dieser semantische Schritt ist eines der größten Rätsel der Gehirnforschung) | Wort "Ich" gehört |
Worte "Ich komme morgen an" gehört | (dieser semantische Schritt ist ein noch viel größeres Rätsel der Bewusstseinsforschung) - erneut spielt die Emergenz der Muster von feuernden Gehirnzellen eine Rolle. | Diese Worte mit dem Begriff über Gesprächspartner verbunden, und den Begriffen über den morgigen Tag, und dem Begriff, dass jemand kommt, und dem Begriff, dass es sich bei dem, der da kommt, um den Gesprächspartner handelt. Mit anderen Worten: Jetzt wissen, dass der Gesprächspartner morgen eintrifft. |
Wissen, dass der Gesprächspartner morgen eintrifft. Sich erinnern, dass er mit dem Zug kommen wollte und dass der Bahnhof zwanzig Kilometer weit weg ist | (dieser semantische Schritt ist ein noch viel viel größeres Rätsel der Bewusstseinsforschung) | Ihm sagen werden, dass man ihn mit dem Auto abholen kommt |
Der Begriff der Information gewinnt in der Physik mehr und mehr an Bedeutung. Die erste Theorie, die eine Verbindung zwischen der Physik und der Informationstheorie aufzeigte, war die statistische Mechanik. Die Quantenmechanik schließlich zeigt den Weg zu einer völlig neuen Art von Information.
Mit der Thermodynamik wurde auch eine neue Größe in der Physik eingeführt: Die Entropie. Diese Größe zeigt ein ungewöhnliches Verhalten: Sie kann in einem geschlossenen System nicht ab-, sondern nur zunehmen. Diese Eigenschaft ist in Form des 2. Hauptsatzes eine der Grundlagen der Thermodynamik.
Die statistische Mechanik, die die Thermodynamik auf ungeordnete mikroskopische Bewegungen zurückführt, erklärt nun die Entropie über die Wahrscheinlichkeit von Bewegungszuständen. Die Formel, die dabei auftritt, ist bis auf einen konstanten Vorfaktor gerade die Formel für die Informationsentropie. In der Tat lässt sich die statistische Mechanik vollständig aus dem Prinzip der maximalen Entropie herleiten, das darauf beruht, bei nur teilweise bekannten Daten stets davon auszugehen, dass die (durch die Informationsentropie beschriebene) Unkenntnis über das System maximal ist.
Ein anschauliches Beispiel, wie der 2. Hauptsatz der Thermodynamik mit der Information zusammenhängt, liefert der Maxwellsche Dämon. Der Maxwellsche Dämon umgeht den zweiten Hauptsatz, indem er an einem kleinen Loch zwischen zwei Gasbehältern sitzt, das durch eine reibungsfreie Klappe verschlossen werden kann. Das Loch ist so klein, dass nur ein Gasmolekül gleichzeitig hindurchfliegen kann. Der Dämon beobachtet nun die Gasmoleküle, die auf das Loch zufliegen. Kommt von links ein schnelles Molekül oder von rechts ein langsames Molekül, so macht er die Klappe auf, so dass es durchkann. Kommt hingegen von links ein langsames oder von rechts ein schnelles Molekül, so schließt er die Klappe. Dadurch sammeln sich links die langsamen und rechts die schnellen Moleküle, d.h. der rechte Behälter heizt sich auf und der linke kühlt sich ab, ohne dass Arbeit verrichtet werden müsste, im Widerspruch zum 2. Hauptsatz. Durch Information (ist das Molekül ein "erwünschtes" oder "unerwünschtes"?) wird also scheinbar ein physikalisches Gesetz "ausgehebelt".
Die Lösung des Problems liegt darin, dass der Erwerb (bzw. das anschließende Vergessen) der Information seinerseits Entropie (also Wärme) produziert, die groß genug ist, um die Entropieverringerung der Behälter auszugleichen. Eine Folge davon ist, dass nach heutigen Konstruktionsprinzipien aufgebaute Computer bei gegebener Temperatur einen inhärenten Energieverbrauch pro Operation haben, der prinzipiell nicht unterschritten werden kann (heutige Computerchips sind jedoch noch weit von dieser prinzipiellen Grenze entfernt).
Die Quantenmechanik zeigt, dass Quantenobjekte eine Art Information enthalten, die nicht über klassische Kanäle (also z.B. als Folge von Nullen und Einsen) übertragen werden kann.
Außerdem kann man Quanteninformation nicht kopieren (ohne die Originalinformation im Original zu zerstören).
Die besonderen Eigenschaften der Quanteninformation ermöglichen Anwendungen, die mit klassischer Information nicht möglich sind, wie Quantencomputer und Quantenkryptographie.
Der Begriff der Information ist eng verknüpft mit Fragestellungen im Themenkomplex "Wissen". Dazu gehört insbesondere das Problem der Definition von Komplexität, die sich über die algorithmische Tiefe eines informationsverabeitenden Prozesses beschreiben lässt. Weiterhin zählen hierzu Betrachtungen über den Unterschied zwischen Zufall und Ordnung.
Interessant ist es, dass Information, die an Materie als Informationsträger gebunden ist, auf elektromagnetische Wellen übertragen werden kann.
Diese Information kann, da masselos, dann im Prinzip mit Lichtgeschwindigkeit transportiert werden. Schließlich kann die Information wieder zurück an Materiestrukturen gebunden werden.
Ein Beispiel für so einen Übertragungsprozess ist das Telefax.
Dabei wird die Information eines bestimmte Schriftstückes mit Lichtgeschwindigkeit über große Entfernungen transportiert und am Ziel auf ein zweites Schriftstück mit exakt demselben Informationsinhalt übertragen.
Allgemeiner: Informationstransport hängt also immer vom verwendeten Informationsträger ab.
(Kritische Anmerkung: Auch während der Übertragung der Informationen mit Hilfe von elektromagnetischen Wellen ist sie an Materie gebunden. Lediglich die Ruhemasse der Teilchen der Strahlung (Photonen) ist Null. Man sollte vielleicht deshalb besser von stofflosem anstelle von masselosem Transport sprechen. Dieselbe Kritik gilt auch an einigen anderen Stellen dieses Artikels. Es ist wahrscheinlich besser, überall statt "Materie und Energie" "Stoff und Energie" zu verwenden, die beide verschiedene Ausprägungen von Materie sind.)
Digitale Information entsteht durch Digitalisierung beliebiger Information. Das Ergebnis sind Daten.
Obwohl für die Messung von digitalen Informationsmengen, für Informationsströme und für die Informationsspeicherung das Bit und das Byte als Basiseinheiten vorliegen, wird die Informationsmenge immer noch gerne an Hand des jeweiligen Informationsträgers quantifiziert.
So kann man die digitale Informationsmenge, die in einem Buch steht, leicht und anschaulich an der Seitenzahl oder an der Zahl der Wörter ablesen.
Zum Abschluss sollen hier die einzelnen Fach- und Forschungsrichtungen zu Wort kommen, die je ihr eigenes Verständnis der Information haben. Deutlich wird dabei jeweilige Ansatz auf den unterschiedlichen, oben geschilderten Ebenen zwischen der reinen Syntax bis zur Pragmatik, teilweise auch mit der besonderen Betonung des Transportcharakters von Information.
Die Semiotik versteht unter Informationen zweckorientierte Daten, die das Wissen erweitern. In älterer Literatur sind sie oft noch als zweckorientiertes Wissen definiert.
Die Informationswissenschaft verwendet den Begriff der Information ähnlich zum semiotischen Ansatz. Für sie sind die Begriffe Wissen und Information von zentraler Bedeutung. Information ist dabei Wissenstransfer bzw. "Wissen in Aktion". Information entsteht in diesem Sinne immer nur punktuell, wenn ein Mensch zur Problemlösung Wissen (eine bestimmte Wissenseinheit) benötigt.
Diese Wissenseinheit geht als Information aus einem Wissensvorrat in einen anderen über, z.B. aus einer Datenbank in den Wissensvorrat eines Menschen. Wissen wird intern repräsentiert, Information wird - zum besseren Verständnis für den Informationssuchenden - präsentiert. (Wissensrepräsentation - Informationspräsentation).
Nach gegenwärtigem Stand des Wissens ist das Vorhandensein von Information immer an das Vorhandensein von Materie bzw. Energie gebunden. Diese dienen als Informationsträger: Information ist räumliche und/oder zeitliche Struktur innerhalb eines Informationsträgers, und kann daher ohne diesen nicht existieren. Inwieweit Information als dritte, eigenständige Grundkomponente neben Materie und Energie an der Struktur des Universums und des Lebens beteiligt ist, ist nicht klar.
Interessant ist jedoch die Beobachtung, dass das Universum sich zu
einem Zustand hoher Entropie hinbewegt, die Evolution es dagegen fertigbringt, unter Einsatz von Information diesem Trend entgegenzuwirken, lokal die Entropie zu verringern und sehr komplexe Strukturen zu schaffen.
Insbesondere in der Philosophie wird daher auch immer wieder in eine
Richtung gedacht, der Information eine eigene Existenz unabhängig von Energie und Materie zuzuschreiben. Diese Sichtweise findet sich zum Beispiel bereits bei Platos Ideenlehre. Würden sich Belege für die Existenz solcher "reiner Informationen" finden lassen, wären auch reine Geistwesen denkbar.
"Unmathematische" Einführungen:
Physik und Information
Information und statistische Mechanik
Quanteninformation
Verwandte Themenkomplexe
Informationstransport
Digitale Information
Definition der Information in verschiedenen Fachrichtungen
Semiotik
Informationswissenschaft
Ontologische Fragestellung
Weiterführende Angaben
Siehe auch
Desinformation -
Digitale Information -
Information neben Energie und Materie als dritter Kernbegriff der Naturwissenschaften -
information literacy -
Informationseffizienz -
Informationsmenge -
Informationsparadoxon -
Informationsquellen -
Informationswissenschaft -
Jugendinformation -
Logikalie -
Kommunikation -
Kommunikation und Information -
Negentropie -
Neurolinguistische Programmierung -
Quanteninformation -
Rhetorik -
Repräsentation -
Signal -
Unterscheidbarkeit -
Wahrheit -
Wortfeld InformationLiteratur
Populärwissenschaftliche Einführungen mit mathematischen Beweisführungen:
Alle Bücher enthalten weitere Bibliografien.Weblinks