WEB LEXIKON: Ein Blick zurück
Hauptseite | Aktueller Wikipedia-Artikel

Entropie



Die Entropie (zu altgr. entrépein, "umkehren") ist ein Maß für die Unordnung oder Zufälligkeit eines Systems.

Die Entropie wurde ursprünglich als phänomenologisches Maß auf dem Gebiet der Thermodynamik in der Physik bzw. Chemie eingeführt. Insbesondere lässt sich mit Hilfe des Entropiebegriffs der 2. Hauptsatz der Thermodynamik besonders einfach formulieren. Später wurde die Entropie per Analogieschluss von Claude Shannon in die Informationstheorie übernommen. Inzwischen gibt es jedoch mit der theoretischen Thermodynamik bzw. statistischen Mechanik auch eine gut überprüfte physikalische Theorie, die einen direkten und exakt quantifizierten Zusammenhang zwischen der informationstheoretischen und physikalischen Entropie herstellt.

Ein System mit Entropie 0 ist perfekt geordnet. Ein physikalisches System, das diesem Zustand nahe kommt, ist das Bose-Einstein-Kondensat, da sich alle Teilchen im selben Zustand befinden. Ein informationstechnisches System mit Entropie 0 ist ein Speicher, der nur Nullen oder nur Einsen beinhaltet. Sobald ein System diesen Zustand der "totalen Gleichschaltung" verlässt, steigt die Entropie auf einen von 0 verschiedenen Wert. Sie kann einen vom System abhängigen Maximalwert jedoch nicht überschreiten, der sich bei einer Festplatte beispielsweise durch die Speicherkapazität, bei einem physikalischen System durch die enthaltenen Teilchen ergibt. Üblicherweise ist das Erreichen des maximalen Entropiewertes mit "perfekter Unordnung" gleichzusetzen, Physiker sprechen auch vom thermischen Gleichgewicht.

Der Maxwellsche Dämon ist ein Gedankenexperiment zum zweiten Hauptsatz der Thermodynamik. Er verbindet Entropie nicht nur mit Energie, sondern auch mit dem Begriff Information.

Bei kryptografischen Schlüsseln spricht man von geringer Entropie, wenn ein bestimmter Teil des Schlüssels nicht zufällig ist, sondern aus anderen Teilen hergeleitet werden kann respektive allgemein bekannt ist.

In der Informationstheorie bezeichnet Entropie den Grad der Unwissenheit über den Inhalt einer Nachricht.

Der Entropiesatz beweist die Unmöglichkeit eines Perpetuum Mobile 2. Art.

Das Gegenteil von Entropie ist Negentropie, also im physikalischen Sinne Ordnung oder im Sinne der Informationstheorie Information.

Für eine genaue Definition in den jeweiligen Fachbereichen siehe:

Weblinks




     
Das Web Lexikon "Ein Blick zurück" bietet die Moeglichkeit auf einfache Art und Weise in den "alten" Wikipedia-Beiträgen zu blättern. Das Lexikon spiegelt den Stand der freien Wikipedia-Enzyklopädie vom August 2004 wider. Sie finden hier in rund 120.000 Artikel aus dieser Zeit Informationen, Erklärungen, Definitionen, Empfehlungen, Beschreibungen, Auskünfte und Bilder. Ebenso kommen Begriffserklärung, Zusammenfassung, Theorie, Information, Beschreibung, Erklärung, Definition und Geschichte nicht zu kurz. Ein Lexikon das Auskunft, Bericht, Hinweis, Bedeutung, Bild, Aufklärung, Darstellung und Schilderung zu unterschiedlichsten Themen kompakt auf einer Seite bietet.
Impressum ^ nach oben ^