Entropie

Aus Twilight-Line Medien

Die Entropie (Kunstwort gr. entropía, von en ‚an‘, ‚in‘ und tropḗ ‚Wendung‘) ist eine fundamentale thermodynamische Zustandsgröße eines makroskopischen physikalischen Systems. Ihre SI-Einheit ist Joule pro Kelvin (J/K).

Die Entropie eines Systems steigt mit jedem makroskopischen Prozess, der innerhalb des Systems spontan abläuft, und mit jeder Zufuhr von Wärme oder Materie von außen. Spontan ablaufende Prozesse sind z. B. Vermischung, Wärmeleitung, chemische Reaktion, aber auch Umwandlung von mechanischer Arbeit in Innere Energie durch Reibung (siehe Dissipation, Energieentwertung). Abnehmen kann die Entropie eines Systems nicht durch innere Prozesse, sondern nur durch Abgabe von Wärme oder Materie nach außen. Daher kann in einem abgeschlossenen System (einem System, bei dem es keinen Energie- oder Materieaustausch mit der Umgebung gibt) die Entropie nicht abnehmen, sondern im Laufe der Zeit nur gleich bleiben oder zunehmen (Zweiter Hauptsatz der Thermodynamik). Hat ein abgeschlossenes System die maximal mögliche Entropie erreicht, kommen alle spontan darin ablaufenden Prozesse zum Erliegen, und das System ist in einem stabilen Gleichgewichtszustand.

Beispielsweise beobachten wir, dass in einem System aus einem kalten und einem heißen Körper in einer Isolierbox, d. h. in einem praktisch abgeschlossenen System, Wärmetransport einsetzt und der Temperaturunterschied verschwindet. Beide Körper werden nach einer gewissen Zeit die gleiche Temperatur haben, womit das System den Zustand größter Entropie erreicht hat und sich nicht weiter verändert. Wir beobachten in einem solchen geschlossenen System niemals das spontane Abkühlen des kälteren Körpers und das Erhitzen des wärmeren.

Spontane makroskopische Prozesse sind irreversible Prozesse. In einem abgeschlossenen System kann ein irreversibler Prozess nur durch einen äußeren Eingriff rückgängig gemacht werden, bei dem die entstandene Entropie abgeführt wird. Dazu muss das System mit seiner Umgebung gekoppelt werden, die den Zuwachs an Entropie aufnimmt und ihren eigenen Zustand dadurch auch verändert.

Eine nähere Deutung der Entropie wird in der statistischen Mechanik gegeben, wo Systeme aus sehr vielen einzelnen Teilchen betrachtet werden. Ein Makrozustand eines solchen Systems, der durch bestimmte Werte der makroskopischen thermodynamischen Größen definiert ist, kann durch eine hohe Anzahl verschiedener Mikrozustände realisiert sein, die durch innere Prozesse ständig ineinander übergehen, ohne dass sich die makroskopischen Werte dabei ändern. Die Anzahl dieser Mikrozustände bestimmt die Entropie, die das System in dem gegebenen Makrozustand besitzt. In einem System, das von einem beliebigen Anfangszustand aus sich selbst überlassen bleibt, bewirken dann diese inneren Prozesse, dass der Zustand des Systems sich mit größter Wahrscheinlichkeit demjenigen Makrozustand annähert, der bei gleicher Energie durch die größte Anzahl verschiedener Mikrozustände zu realisieren ist. Dieser Zustand hat die höchstmögliche Entropie und stellt den stabilen (makroskopischen) Gleichgewichtszustand des Systems dar. Während dieser spontan ablaufenden Annäherung an den Gleichgewichtszustand, die als Relaxation bezeichnet wird, wird Entropie erzeugt.

Im Rahmen dieser Deutung wird umgangssprachlich die Entropie häufig als ein „Maß für die Unordnung“ bezeichnet. Allerdings ist Unordnung kein definierter physikalischer Begriff und hat daher kein physikalisches Maß. Richtiger ist es, man begreift die Entropie als ein wohldefiniertes objektives Maß für die Menge an Information, die benötigt würde, um von einem beobachtbaren Makrozustand auf den tatsächlich vorliegenden Mikrozustand des Systems schließen zu können. Dies ist gemeint, wenn die Entropie auch als „Maß für die Unkenntnis der Zustände aller einzelnen Teilchen“ umschrieben wird.