Entropie (Physik)
Die Entropie (v. griechisch trope, Transformation) ist eine der zentralen Größen der Thermodynamik. Physikalische Systeme können Energie in verschiedener Form besitzen (potenzielle Energie, kinetische Energie, thermische Energie). Diese Energieformen sind nicht beliebig ineinander umwandelbar. Die Umwandlung von potenzieller in (geordnete) kinetische Energie ist reversibel. Auch ist die Umwandlung dieser beiden Energieformen in Wärmeenergie (ungeordnete kinetische Energie) möglich. Die umgekehrte Umwandlung ist für ein Gesamtsystem jedoch nicht möglich. Die Entropie bringt also zum Ausdruck zu welchem Grad die Energie in einem System in ungeordneter Form vorliegt. Ein Maß für die thermische Energie (ungeordnete kinetische Energie) ist die Temperatur.Die thermodynamische Entropie kann als Grad der Irreversibilität des Zustands eines physikalischen Systems verstanden werden und ist zunächst auf thermodynamische Gleichgewichtszustände beschränkt.
Table of contents |
2 Mikroskopischer Zugang (statistische Mechanik) 3 Entropie und Unordnung 4 Entropie und Zeitrichtung |
Stehen zwei Systeme unterschiedlicher Temperatur miteinander in thermischem Kontakt, so kann eines der Systeme an das andere Energie in Form von Wärme abgeben. Allerdings ist die Wärme selbst keine Zustandsgröße, da man ein System durchaus wieder in denselben Zustand versetzen kann, ohne die Wärme wieder vollständig zurückzugeben (darauf beruhen Wärmekraftmaschinen, die Wärme in Arbeit umwandeln). Dennoch ist Wärme an den Austausch einer Größe gekoppelt, wie das Beispiel des Carnot-Prozesses zeigt: Um das Gas wieder in den ursprünglichen Zustand zu versetzen, muss wieder Wärme abgegeben werden; wieviel, hängt von der Temperatur ab.
Dies führt zur thermodynamischen Definition der Entropie über reversible (umkehrbare) Prozesse als
Phänomenologischer Zugang (Thermodynamik)
d.h., die ausgetauschte Entropie ist die reversibel ausgetauschte Wärmeenergie geteilt durch die Temperatur. Die Entropie ist eine Zustandsgröße: Um ein System wieder in denselben Zustand zu versetzen, muss genau die aufgenommene (abgegebene) Entropie wieder abgegeben (aufgenommen) werden. Diese Definition wurde 1865 von Rudolf Clausius eingeführt.
Es ist wichtig, dass für die Bestimmung der Entropie nur reversible Prozesse genommen werden. Nimmt man beispielsweise ein ideales Gas, das frei in einen größeren, wärmeisolierten Raum expandiert, so würde eine naive Anwendung obiger Formel ergeben, dass die Entropie gleichbleibt (da ja keine Wärme ausgetauscht wird). In der Tat ist diese freie Expansion aber ein höchst irreversibler Prozess, bei dem die Entropie des Gases steigt.
Die Entropie ist eine extensive Größe, d.h., die Entropie von zwei Systemen ist die Summe der Entropien der beiden Systeme.
Bei reversiblen Prozessen bleibt die Gesamtentropie konstant, wenn ein System Entropie abgibt, muss genau diese Entropie von einem anderen System aufgenommen werden. Anders jedoch bei irreversiblen Prozessen. Das kann man sich klar machen, wenn man den Kontakt zweier Systeme unterschiedlicher Temperatur betrachtet und annimmt, dass der Wärmetransport langsam genug geht, um die Entropiedefinition dennoch anwenden zu können. Da Wärme stets vom warmen zum kalten System fließt, die vom kalten System aufgenommene Energie aber gleich der vom warmen System abgegebenen Energie ist, gibt das warme System weniger Entropie ab, als das kalte aufnimmt (δQ/T ist kleiner, wenn T größer ist und δQ gleich). Somit nimmt die Entropie hier zu. Dasselbe gilt für alle irreversiblen Vorgänge.
Diese Tatsache ist so fundamental, dass man sie den 2. Hauptsatz der Thermodynamik nennt: Die Entropie eines geschlossenen Systems kann nur gleichbleiben oder zunehmen, aber nicht abnehmen.
In der statistischen Mechanik wird das Verhalten makroskopischer thermodynamischer Systeme durch die Bewegung der einzelnen Atome erklärt. Hierbei unterscheidet man zwischen dem Makrozustand, der durch die makroskopischen Größen Gesamtenergie, Druck, Temperatur usw. beschrieben wird, und dem Mikrozustand, der durch die genauen Positionen und Geschwindigkeiten der Atome (bzw. den vollständigen Quantenzustand des Systems) gegeben ist. Die Entropie ist nun über die Wahrscheinlichkeiten der einzelnen Mikrozustände im Makrozustand gegeben durch
Im wichtigen Fall eines abgeschlossenen Systems im Gleichgewicht wird der Makrozustand alleine durch die Energie gegeben, und es wird angenommen, dass alle Mikrozustände zur selben Energie gleichwahrscheinlich sind, damit ergibt sich die Entropie für diesen Fall zu
Die allgemeine Formel ist bis auf einen konstanten Faktor identisch mit der Formel für die Informationsentropie. Das bedeutet, die physikalische Entropie ist auch ein Maß für die Information, die einem durch Kenntnis des Makrozustands zum Mikrozustand fehlt.
Der 2. Hauptsatz der Thermodynamik wird in der statistischen Mechanik eine Wahrscheinlichkeitsaussage: Es ist rein theoretisch möglich, dass beispielsweise Wärme vom kälteren Körper zum wärmeren fließt, aber es ist so unwahrscheinlich, dass es selbst in einer Zeit, die dem Millionenfachen des Alters des Universums entspricht, mit an Sicherheit grenzender Wahrscheinlichkeit nicht passieren wird.
Bei realen Systemen und normalen Temperaturen lassen sich keine einzelnen Zustände mehr abzählen. An Stelle der Anzahl der Zustände tritt dann das erreichbare Volumen im viel-dimensionalen Phasenraum (jede einzelne Teilchenkoordinate und jeder einzelne Teilchenimpuls ist eine eigene Dimension).
In einem geordneten System (zum Beispiel einem Kristall) hat jedes Teil seinen Platz; es gibt also weniger Möglichkeiten als in einem ungeordneten System (beispielsweise Flüssigkeit), die Atome zu verteilen (im Kristall können sie zum Beispiel um ihren Platz schwingen, aber eben nicht beliebig den Platz wechseln). Daher sollte beim Übergang vom geordneten Zustand (Kristall) zum ungeordneten Zustand (Flüssigkeit), also beim Schmelzen, die Entropie wachsen. Entropiezufuhr erfolgt durch Wärmezufuhr; somit ist zum Schmelzen eine Schmelzwärme (Schmelzenergie) nötig. Da die Temperatur sich dabei nicht ändert (die Energie wird gebraucht, um die Kristallbindungen aufzubrechen), ist die Schmelzwärme gerade ΔQ = T·ΔS. Analog braucht man beim Verdampfen eine Verdampfungsenergie. Die Entropiedifferenz der beiden Zustände erhält man also, indem man die Schmelzenergie (Verdampfungsenergie) durch die Temperatur teilt.
Andererseits bedeutet höhere Entropie nicht immer auch lokal höhere Unordnung. Die Tatsache, dass unterhalb des Gefrierpunktes ungeordnetes Wasser zu stärker geordnetem Eis kristallisiert, zeigt, dass dieser Vorgang insgesamt zu einer Entropieerhöhung führt. Diese kommt dadurch zustande, dass die beim Kristallisieren abgegebene Schmelzwärme die Entropie stärker erhöht, als sie durch die Kristallisation des Wassers erniedrigt wird.
Die Aussage, dass die Entropie in einem abgeschlossenen System mit der Zeit nicht abnehmen kann, zeichnet eine Zeitrichtung aus: Man kann anhand der beobachteten Vorgänge unterscheiden, in welche Richtung die Zeit läuft (beispielsweise kann man bei einem Film, der eine abkühlende Tasse zeigt, problemlos feststellen, ob er vor- oder rückwärts läuft: Wenn die Tasse abkühlt, dann ist er korrekt abgespielt; wenn sie hingegen ohne ersichtlichen Grund wärmer wird, dann läuft der Film rückwärts). Hierdurch unterscheidet sich die Thermodynamik von den anderen physikalischen Theorien, die meist keine Zeitrichtung auszeichnen (ob die Aufzeichnung eines Pendels richtigherum abgespielt wird, kann man nicht erkennen - es sei denn, das Pendel wird durch Reibung langsamer, das ist aber wiederum ein entropieerzeugender Prozess).
Es gib bisher keine Theorie, welche die Irreversibilität makroskopischer Erscheinungen, ausgedrückt durch den
Entropiebegriff, aus den bekannten Gleichungen der Mechanik oder der Quantenmechanik ableiten kann.
Da die Entropiezunahme die Zeitrichtung angibt, spricht man auch vom thermodynamischen Zeitpfeil.Mikroskopischer Zugang (statistische Mechanik)
wobei pi die Wahrscheinlichkeit ist, im i-ten Mikrozustand zu sein. kB ist die Boltzmann-Konstante.
wobei die Zahl der Mikrozustände angibt, welche die Gesamtenergie, sowie andere makroskopische Bedingungen, zum Beispiel Vorgegebenes Volumen, realisieren.Entropie und Unordnung
Entropie und Zeitrichtung