WEB LEXIKON: Ein Blick zurück
Hauptseite | Aktueller Wikipedia-Artikel

Informationstheorie



Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf Claude Shannon zurückgeht.

Sie beschäftigt sich mit Begriffen wie Information, Entropie, Informationsübertragung, Datenkompression, Kodierung, Kryptographie und verwandten Themen.

Neben der Mathematik, Informatik und Nachrichtentechnik wird die theoretischen Betrachtung von Kommunikation durch die Informationstheorie auch zur Beschreibung von Kommunikationssystemen in anderen Bereichen (Medien in der Publizistik, Nervensystem in der Neurologie, DNA und Proteinsequenzen in der Molekularbiologie, Wissen in der Informationswissenschaft und Dokumentationswissenschaft...) eingesetzt.

Table of contents
1 Geschichte
2 Große (und meist noch ungelöste) Fragen der allgemeinen Informationstheorie
3 Literatur
4 Siehe auch
5 Weblinks

Geschichte

Vor allem Claude Shannon lieferte in den 1940er bis 1950er Jahren wesentliche Beiträge zur Theorie der Datenübertragung und der Wahrscheinlichkeitstheorie.

Er fragte sich, wie man eine verlustfreie Datenübertragung, über elektronische (heute auch optische) Kanäle, sicherstellen kann. Dabei geht es insbesondere darum, die Datensignale vom Hintergrundrauschen zu trennen. Außerdem versucht man, während der Übertragung aufgetretene Fehler zu erkennen und/oder zu korrigieren. Dazu ist es notwendig, redundante (d.h. überflüssige Daten) mitzusenden, um dem Datenempfänger eine Datenverifikation oder Datenkorrektur zu ermöglichen.

Klassische Informationskonzepte versagen teilweise in quantenmechanischen Systemen. Dies führt zum Konzept der Quanteninformation.

Die Informationstheorie stellt mathematische Methoden zur Messung bestimmter Eigenschaften von Information zur Verfügung.

Zwischen Entropie und (bedeutsamer) Information - besteht ein nichtmonotoner Zusammenhang. Ist die Entropie gleich Null (regelmäßiges, 100%-ig vorhersagbares Signal), so ist der (potenzielle) Nutzwert für einen Organismus genauso gering wie bei der gegen unendlich strebenden Entropie eines Rauschsignalssignals. Das Informations-Maximum liegt also, grob gesprochen, in einem "mittleren" Entropiebereich.

Es sei darauf hingewiesen, dass der Begriff der Information aus der Informationstheorie keinen direkten Bezug zu Semantik, Bedeutung und Wissen hat, da sich diese Eigenschaften mit informationstheoretischen Verfahren nicht messen lassen.

Große (und meist noch ungelöste) Fragen der allgemeinen Informationstheorie

Literatur

siehe
Quellen zur Informationstheorie

Siehe auch

Weblinks




     
Das Web Lexikon "Ein Blick zurück" bietet die Moeglichkeit auf einfache Art und Weise in den "alten" Wikipedia-Beiträgen zu blättern. Das Lexikon spiegelt den Stand der freien Wikipedia-Enzyklopädie vom August 2004 wider. Sie finden hier in rund 120.000 Artikel aus dieser Zeit Informationen, Erklärungen, Definitionen, Empfehlungen, Beschreibungen, Auskünfte und Bilder. Ebenso kommen Begriffserklärung, Zusammenfassung, Theorie, Information, Beschreibung, Erklärung, Definition und Geschichte nicht zu kurz. Ein Lexikon das Auskunft, Bericht, Hinweis, Bedeutung, Bild, Aufklärung, Darstellung und Schilderung zu unterschiedlichsten Themen kompakt auf einer Seite bietet.
Impressum ^ nach oben ^