Zweiter Haupsatz und Philosophie

Der zweite Hauptsatz gibt aus mehreren Gründen, die hier aber nur angedeutet werden sollen, reichlich Anlaß zu philosophischen Betrachtungen:
 
1. Der zweite Hauptsatz ist das einzige "Axiom" der harten (= mathematischen) Naturwissenschaft, das eine Richtung der Zeit definiert.
Denn alle anderen Grundgesetze oder Grundgleichungen der Physik sind zeitinvariant.
Das bedeutet, dass man in allen Gleichungen grundsätzlich die Variable Zeit t durch -t ersetzen kann ohne dass Widersprüche auftauchen. Die Vorgänge, die dann rückwärts in der Zeit laufen, sind genauso Lösungen der Grundgleichungen wie die zeitlich vorwärtslaufenden Vorgänge.
Anders ausgedrückt: Es gibt z.B. in den Newtonschen Grundgesetzen, den Maxwell Gleichungen oder der Schrödingergleichung keine ausgezeichnete Richtung der Zeit. Ob ein Film, der z.B. Stöße zwischen Teilchen zeigt, oder die Bewegung einer Raumsonde durch das Sonnensystem, vorwärts oder rückwärts läuft, kann man schlicht nicht erkennen.
Nur der zweite Hauptsatz gibt der Zeit eine Richtung: Sie zeigt (für abgeschlossene Systeme) immer in Richtung zunehmender Entropie!
Das ist schon bemerkenswert. Insbesondere, weil der zweite Hauptsatz, wenn man so will, eigentlich gar kein richtiges Grundgesetz ist sondern nur eine mathematisch "triviale" Aussage über Wahrscheinlichkeiten in "statistischen" Ensembles.
2. Zunehmende Entropie gibt es aber eigentlich gar nicht.
Entropie ist eigentlich in voller Schärfe nur für das thermodynamische Gleichgewicht (TD GG) definiert. Die Entropie von Systemen, die nicht im TD GG sind, ist erst mal nicht klar definiert.
Im TD GG gibt es aber gar keine Zeit mehr! Nichts ändert sich mehr, und deshalb kommt die Zeit als Variable auch nirgendwo mehr vor.
Hier liegt offenbar ein kleines Paradoxon! Es ist zwar weitgehend durch die Nichtgleichgewichts-Thermodynamik gelöst, aber ein Rest zum Philosophieren bleibt dennoch.
3. Wenn die Entropie des Universums immer nur zunehmen konnte (seit nunmehr rund und roh 15 Milliarden Jahren), und auch weiterhin immer nur zunehmen wird, muss das Universum logischerweise mit relativ wenig Entropie gestartet sein.
Wieso? Zufall, oder steckt mehr dahinter? Müssen Urknälle immer Universen mit wenig Entropie produzieren?
Falls unser Universum zu der Klasse der irgendwann mal wieder kontrahierenden Universen gehören sollte (im Moment sieht es zwar nicht danach aus, aber das letzte Wort dazu ist noch nicht gesprochen), muß das Ende (mit hoher Entropie) dann aber irgendwie anders sein als der Anfang (Urknall mit wenig Entropie). Aber wie anders?
Oder läuft ab Beginn der Kontraktion die Zeit rückwärts, und die Entropie nimmt wieder ab?
Außerdem ist nicht so ganz klar, was mit der Entropie wird, die in schwarzen Löchern verschwindet. Stephen Hawking ("Eine kleine Geschichte der Zeit") hat z.B. soeben (Juli 2004) seine bisherige Ansicht zu diesem Punkt widerrufen.
4. Entropie und schwarze Löcher sind irgendwie gekoppelt.
Der "Ereignishorizont" (E.H) eines schwarzen Loches ist die gedachte Fläche einer Kugel um das schwarze Loch, aus der nichts je wieder herauskommen wird. Dieser E.H. hat eine Reihe von Eigenschaften, die identisch sind mit den Eigenschaften der Entropie.
Insbesondere ist seine Fläche direkt mit der Entropie des schwarzen Loches gekoppelt. Jedesmal wenn etwas Entropiehaltiges von einem schwarzen Loch verschlungen wird, wächst die Fläche seines E.H. (= die Oberfläche der Kugel mit dem Radius des E.H.) um exakt den entsprechenden Entropiebetrag.
Das ist ein ganz heißes Eisen in der modernen Physik, weil hier nämlich eine direkte Kopplung der Quantentheorie mit der allgemeinen Relativitätstheorie besteht! Die Entropie ist nämlich in letzter Konsequenz eine quantenphysikalische Größe (wir beschreiben irgendwie immer Teilchen), während schwarze Löcher nur der allgemeinen Relativitätstheorie gehorchen.
Diese beiden Großtheorien passen aber überhaupt nicht zusammen. Das ist aber normalerweise kein Problem, da praktisch alle Phänomene entweder mit der einen oder mit der anderen beschrieben werden können. Nie braucht man beide - außer möglicherweise bei den Eigenheiten schwarzer Löcher.
5. Die Existenz vieler komplexer Systeme (z.B die derzeitige Leserin) scheint im Widerspruch zum zweiten Hauptsatz zu sein.
Aus ziemlich unordentlichen Zutaten (Milch, Kartoffelbrei, Schokoladeneis, O2, H2O, Whisky,...) bildet sich im Lauf der Zeit ein extrem geordnetes System; die Entropie hat heftig abgenommen, (jedenfalls bei den Meisten).
Gut, das System ist nicht abgeschlossen, aber irgendwie gibt das doch zu denken. Noch pointierter: Darwin lehrt, dass im Laufe der Zeit biologische Systeme immer komplexer werden, die Entropie in der Biologie also abnimmt. Irgendwo scheint hier ein Widerspruch zu sitzen.
Eine andere trickreiche Frage ist z.B. was im Moment des Todes geschieht, falls dann eine Seele oder sonst was, das informationsbehaftet ist, den Körper verläßt. Nimmt die Entropie dann schlagartig zu?
Genauer gefragt: Wie unterscheidet sich die Entropie eines zum Zeitpunkt tDt lebenden Subjekts von der Entropie des zum Zeitpunkt t toten Subjekts für Dt Þ 0 und adiabatisches Sterben (d.h. keine Energieänderung)?
Hier wird es ganz schnell nicht nur philosphisch, sondern sogar theologisch.
6. Die gute alte Entropie, und die neue und innovative Information, sind eng gekoppelte Größen.
Zumindest falls man versucht den Begriff Information quantitativ zu fassen.
Das ist einfach zu sehen: Wir betrachten digitale Information, die sich dann immer in einem String aus Einsen und Nullen codieren läßt.
Ein String aus nur Einsen, oder nur Nullen, kann nicht sehr viel Information enthalten, und da es nur eine Möglichkeit der Anordnung gibt ist seine Entropie = 0.
Möglichst viel Abwechslung muß sein für möglichst viel Information, damit haben wir automatisch auch viel Entropie.
Das Problem ist nur: In dieser Definition von Information hätte weißes Rauschen im Telefonhörer einen sehr viel höheren Informationsgehalt als z.B. der Netzzugang signalisierende Dauerton! Das erscheint ein bißchen unpassend, und liegt daran, dass es bislang keine gute Definition der in "Information" enthaltenen Semantik (» Bedeutung) gibt.
     
Hinreichend viele Punkte zum Philosphieren.
Das muß man aber nicht selber tun, zu den angerissenen Themen sind viele allgemein verständliche Bücher geschrieben worden. Ein Beispiel:
P. Coveney und R. Highfield: The Arrow of Time
(Fawcett Columbine, New York)
Auch R. Penrose hat einiges zum Thema ausgeführt, das sich lohnt zu lesen.
 

Mit Frame Mit Frame as PDF

gehe zu 5.2.1 Der 1. Hauptsatz der Thermodynamik

gehe zu Penrose

gehe zu Komplementarität

gehe zu Stolpersteine der Physik

gehe zu Entropie und Information

gehe zu Statistische Thermodynamik

gehe zu Gottseidank?

© H. Föll (MaWi 1 Skript)