Maß der Unordnung; Maß für den Informationsgehalt
* * *
En|tro|pie 〈f. 19〉
1. 〈Phys.〉 Zustandsgröße der Thermodynamik
2. Maß für die „Unordnung“ in einem abgeschlossenen System
3. 〈Kommunikationstheorie〉 Größe des Nachrichtengehaltes einer nach statist. Gesetzen gesteuerten Nachrichtenquelle
4. 〈Wahrscheinlichkeitsrechnung〉 Maß für den Grad der Ungewissheit für den Ausgang eines Versuches
[zu grch. entrepein „umkehren, umwenden“]
* * *
En|t|ro|pie [griech. entrépein = (sich) umwenden, umdrehen], die; -, …pi|en; Formelzeichen: S, (als Aktivierungsentropie:) ΔS≠: eine für thermodynamische Systeme eingeführte Zustandsfunktion, die ein Maß für die Irreversibilität von Prozessen in abgeschlossenen Systemen ist. Bei der Mehrzahl der chem. u. thermodynamischen Prozesse nimmt die E. zu (2. ↑ Hauptsatz, Entropiesatz), weil die Systeme einem Zustand geringerer Ordnung u. damit größerer Wahrscheinlichkeit zustreben. Die heute gültige Einheit der E. ist J/K; die frühere war das ↑ Clausius.
* * *
En|tro|pie, die; -, -n [zu griech. en = innerhalb u. trope̅̓ = Wendung, Umkehr]:
1. physikalische Größe, die die Verlaufsrichtung eines Wärmeprozesses kennzeichnet.
2. (Informationst.) mittlerer Informationsgehalt einer Zeichenmenge.
* * *
Entropie
[zu griechisch trope̅́ »Wendung«, »Umkehr«] die, -/...'pi|en, Formelzeichen S, von R. Clausius in die Thermodynamik eingeführte Zustandsgröße (Zustandsfunktion) thermodynamischer Systeme, SI-Einheit: Joule/Kelvin (J/K). Sie ist ein Maß für den Ordnungszustand thermodynamischer Systeme beziehungsweise für die Irreversibilität der in ihnen ablaufenden thermodynamischen Prozesse und eine dabei erfolgende Energieentwertung. In der statistischen Mechanik ist die Entropie ein Maß für die Zahl der möglichen verschiedenen Mikrozustände bei gleichem Makrozustand des Systems, mithin ein makroskopisches Maß für die subjektive Unkenntnis des Mikrozustandes. In der Informationstheorie misst die Entropie den Logarithmus der Zahl der noch fehlenden Ja-Nein-Entscheidungen zur vollständigen Information über eine vorgegebene Nachricht.
Als thermodynamische Zustandsfunktion ist die Entropie abhängig von der inneren Energie U des betrachteten Systems, seinem Volumen V sowie von den Stoffmengen ni seiner Stoffkomponenten und Phasen (i = 1, 2,. .., n). Bei quasistatischen Zustandsänderungen gilt daher für die Entropieänderung ΔS:
(T = absolute Temperatur, μi = chemisches Potenzial der i-ten Komponente oder Phase). So erhält man mithilfe der Entropie den Teil der Wärmeenergie, der wegen seiner gleichmäßigen Verteilung auf alle Moleküle des Systems nicht in mechanischer Arbeit umgesetzt werden kann. Prozesse, bei denen sich die Entropie nicht ändert oder durch einen entgegengesetzt ablaufenden Prozess wieder auf ihren ursprünglichen Wert gebracht werden kann, sind umkehrbar (reversibel). Die Änderung der Entropie ist in diesem Fall gegeben durch den Quotienten aus der reversibel zu- oder abgeführten Wärmemenge ΔrQ und der absoluten Temperatur T, bei der die Wärme aufgenommen oder abgeführt worden ist: ΔS = Δ rQ / T. Für reversible thermische Zustandsänderungen ist die Entropie daher eine Austauschgröße. Ihr Absolutwert wird festgelegt durch den 3. Hauptsatz der Thermodynamik, der besagt, dass die Entropie am absoluten Nullpunkt der Temperatur null ist. Für nichtumkehrbare (irreversible) Vorgänge ist die Änderung der Entropie größer als ΔrQ / T. In einem abgeschlossenen System nimmt die Entropie bei irreversiblen Prozessen stets zu, während sie für reversible Vorgänge konstant bleibt. Vorgänge, bei denen die Entropie zunimmt, verlaufen von selbst, können aber nicht ohne anderweitigen Aufwand von Energie rückgängig gemacht werden. Nach dem auch als Entropiesatz bezeichneten 2. Hauptsatz der Thermodynamik können in der Natur nur die (irreversiblen oder natürlichen) Prozesse von selbst ablaufen, bei denen vom System Entropie mit der Umgebung ausgetauscht oder im System produziert wird. Dieses Prinzip legt die Richtung eines Prozessablaufs fest, und die Entropiezunahme ist ein Maß für die Nichtumkehrbarkeit eines Prozesses.
Von der Entropie und ihrer Vermehrung geht die Thermodynamik irreversibler Prozesse aus, die auch die Behandlung nicht abgeschlossener Systeme ermöglicht. Während für die Entropieänderung bei Vorgängen in abgeschlossenen Systemen stets die Ungleichung ΔS ≧ 0 gilt (clausiussches Entropieprinzip), ist das Verhalten offener Systeme, die mit ihrer Umgebung in dauerndem Stoff- und Energieaustausch stehen und in denen häufig Reaktionen weitab vom stationären Gleichgewichtszustand ablaufen (dissipative Strukturen), nach I. Prigogine durch die Entropiebilanz ΔS = Δ iS + ΔeS zu beschreiben; darin gibt ΔiS die Entropieänderung durch irreversible Prozesse im System, ΔeS den Entropietransport an. Δ iS ist nach dem 2. Hauptsatz stets positiv und wird pro Zeiteinheit durch die als Entropieproduktion bezeichnete Summe der Produkte aus den thermodynamischen Kräften und den von ihnen verursachten thermodynamischen Flüssen gegeben. Δ eS kann negativ sein, wenn dem offenen System (z. B. einem lebenden Organismus) Energie etwa durch Sonnenlicht oder energiereiche Materie zugeführt wird. Die Entropiebilanz kann daher null oder sogar negativ sein, sodass sich ein offenes System in einem Fließgleichgewicht befinden kann, worin es trotz irreversibler Prozesse einen Zustand hoher Ordnung (Unwahrscheinlichkeit) erhält, oder es kann sogar zu Zuständen höherer Ordnung übergehen. Diese bei Abnahme der Entropie mögliche Zunahme der Komplexität offener Systeme stellt nach M. Eigen die Basis für die Entstehung und Evolution von Lebewesen dar.
Zu einer anschaulichen Deutung der Entropie führt die statistische Mechanik, die z. B. die Wärmeenergie eines Gases durch die ungeordnete Bewegung der Moleküle erklärt. Von allen Verteilungen der Moleküle auf räumlichen Positionen und möglichen Geschwindigkeiten (den verschiedenen Mikrozuständen des Gases) wird sich wegen der Zusammenstöße als Gleichgewicht ein Zustand mit der gleichmäßigsten Verteilung einstellen. Dieser Zustand größter Unordnung besitzt die größte Wahrscheinlichkeit. Durch die Wärmebewegung wird ein abgeschlossenes System von selbst in ihn übergehen, und zwar durch irreversible Zustandsänderungen, bei denen die Entropie zunimmt. Der Zusammenhang zwischen der Wahrscheinlichkeit W eines thermodynamischen Zustandes und seiner Entropie wurde zuerst von L. Boltzmann (1866) erkannt: S = k ln W (k = Boltzmann-Konstante; Boltzmann-Postulat).
Die Anwendbarkeit dieser Überlegungen auf das Weltall als Ganzes (betrachtet als abgeschlossenes System) lassen kosmologische Theorien fraglich erscheinen. Unter laufender Entropiezunahme müsste das Weltall einem Endzustand ohne Energie- und Temperaturdifferenzen zustreben, der das Ende allen materiellen Geschehens bedeuten würde (Wärmetod).
H. J. Schröder: Die entschleierte E. (1982);
* * *
En|tro|pie, die; -, -n [zu griech. en = innerhalb u. trope̅́ = Wendung, Umkehr]: 1. physikalische Größe als Bezeichnung für den Grad der Nichtumkehrbarkeit physikalischer Vorgänge: das „Gesetz der Entropie“ ..., nach welchem alle Materie sich in immer wahrscheinlichere Zustände begibt (Medizin II, 230); Ü In seiner Prophezeiung der E. der Geschichte ... (Adorno, Prismen 113). 2. (Informationst.) mittlerer Informationsgehalt einer Zeichenmenge.
Universal-Lexikon. 2012.