Statistische Thermodynamik

Ach Leute laßt's - das ist ein zu weites Feld.
So ungefähr schließt Fontanes "Effi Briest", und das Zitat paßt auch ganz gut auf das Unterfangen, die statistische Thermodynamik in einem Hyperskript Modul abhandeln zu wollen.
Es geht wirklich nicht. Oder doch?
Nun ja, a bißerl was geht immer, und da wir im Hauptteil (Matwiss II inkl.) schon viele Grundpostulate der der statistischen Thermodynamik kennengelernt haben, werden hier dann doch noch einige Zentralbegriffe ganz kursorisch beschreiben.
Dabei kann man natürlich allenfalls das "G'schmäckle" rüberbringen. Wer ernsthaft in die statistische Thermodynamik einsteigen will, muß etwas mehr tun als nur diesen Modul zu lesen.
 

Grundpostulat

Das Ziel der statistischen Thermodynamik ist einfach:
Zurückführung der klassischen Thermodynamik auf die Bewegung und Wechselwirkung vieler Teilchen. Dabei sollen nur die bekannten Grundgesetze der Physik verwendet werden, im wesentlichen also die klassische Mechanik, oder auch die Quantenmechanik.
Der Anspruch ist damit, dass Zentralbegiffe der phänomenologischen Thermodynamik, wie z.B. "Temperatur", "Wärme" oder "Entropie", sich als aus der Mechanik ableitbare Größen darstellen.
Eine erste Konsequenz ist damit ebenfalls völlig klar:
Ein mit unbewaffneten Auge sichtbares thermodynamisches System umfasst so ca. 1020 Teilchen. Es ist dann sowohl unmöglich als auch witzlos, sich mit einzelnen Teilchen zu beschäftigen.
Wir fragen deshalb immer nach statistischen Größen - Mittelwerte, Anordnungsmöglichkeiten, Wahrscheinlichkeiten, Fluktuationen, etc. - nicht umsonst heißt des Gebiet statistische Thermodynamik oder etwas allgemeiner statistische Mechanik.
Es gibt in den den beiden Matwiss Hyperskripten mehrere Ergänzungsmodule, die sich mit speziellen Bereichen dieser allgemeinen Fragestellung beschäftigen; wir haben:
Temperatur und Druck. Es wird für ein einfaches Gas gezeigt, wie die Begriffe Temperatur T und Druck p aus den Teilchenbewegungen und ihrer Wechselswirkung untereinander und mit der Wand eines Gefässes hervorgehen. Am Rande fällt noch die allgemeine Gasgleichung pV = NRT ab.
Zweiter Hauptsatz und "Philosophie". Warum der 2. Haupsatz so bemerkenswert ist.
Kombinatorik. Einige mögliche Fragen und Antworten zu einfachen Fragen der Kombinatorik.
Entropie und Information. Was Information mit Thermodynamik zu tun hat.
Zeitmittel = Scharmittel. Wie man über zwei grundverschiedene Mittelungsverfahren zum selben Mittelwert kommen kann.
Gaußverteilung, Wahrscheinlichste Abstände, Tabelle, Kurzfassung: Mehrere Module zum Würfeln und "Random Walk".
"Averages" Wie man die vektorielle Größe "Geschwindigkeit" mittelt und daraus dann auch für die skalare Größe "kinetische Energie" einiges schlußfolgern kann.
Ohmsches Gesetz. Herleitung durch statistische Betrachtung der Elektronenbewegung in klassischer Sichtweise.
 

Die Fragestellung

Wir betrachten ein System von vielen Teilchen. In dem betrachteten System können sich alle möglichen Teilchen befinden (Atome, Moleküle, Photonen, ...), die mit irgendwelchen Eigenschaften behaftet sind (kin. Energie, pot. Energie, Rotationsenergie, Ladung. Spin, ...). Es muß kein Gas sein, und wir können das Ganze quantenmechanisch oder klassisch betrachten.
Damit wir ein reales physikalisches System beschreiben, müssen wir noch einige Randbedingungen einführen, z..B. dass Volumen V, Gesamtteilchenzahl N = Sni und Teilchenart i gegeben und konstant sein sollen.
Wir definieren jetzt statistische Größen, die eine sinnvolle Aussage über das System machen, z.B. die mittlere Geschwindigkeit aller Teilchen oder nur der Teilchen der Sorte i, oder die Wahrscheinlichkeit dafür, in einem beliebig herausgegriffenen Untervolumen V1 gerade N1 Teilchen zu finden.
Damit taucht ein erstes Problem auf:
Mögliche Systeme und mögliche statistische Größen gibt es ohne Zahl. Im Kombinatorikmodul wird an einem einfachen Beispiel gezeigt, dass trotz einfacher Ausgangsituation ganz schnell eine Unzahl sinnvoller statistischer Fragen zusammenkommen können, und wie schwierig es sein kann, auch nur die einfachsten davon zu beantworten.
Leider müssen wir, um in der statistischen Thermodynamik zu sinnvollen Größen zu kommen, einigermaßen komplexe Fragen stellen.
Was für Fragen das sind, und welche Antworten man erhält, läßt sich in Anlehnung an den "Gerthsen" mit einem simplen Beispiel sehr gut demonstrieren. Dieses Beispiel hat zunächst überhaupt nichts mit Thermodynamik zu tun, liegt uns aber viel näher als abstrakte Teilchenwelten.
Wir machen das hier sehr kurz, und ohne irgendwelche Herleitungen der auftretenden Formeln. Mehr dazu eben im "Gerthsen".
Es geht also zunächst nur darum, wie man ein eingängiges und sinnvolles System definieren kann, und was man damit für sinnvolle Statistik treiben kann. Danach übertragen wir das Ganze auf Thermodynamik.
 

Das Buchstabenspiel

Gegeben ist ein Sack mit sehr vielen gut gemischten einzelnen Buchstaben (z.B. eine Riesentüte Buchstabensuppe) und Leerzeichen (zusätzliche Bandnudelstücke).
Um diesen Inhalt quantitativ zu definieren führen wir folgende Größen ein:
  • i = Nummer des Buchstabens oder, allgemeiner, des Symbols (i = 1 Þ A; i = 2 Þ B etc). Mit dem Leerzeichen ("_") sind das z.B. 27 Symbole.
  • Mi = Anzahl des Symbols Nr. i im Sack. Wir unterstellen mal, dass die Häufigkeit der Symbole in etwa dem Vorkommen in einer passenden Sprache, z.B. Deutsch, entspricht (Leerzeichen sind am häufigsten, gefolgt von E usw.; Y, Z, etc. sind recht selten).
  • M = Anzahl aller Symbole = S Mi ; summiert wird natürlich über alle i.
  • pi = Wahrscheinlichkeit, beim wahllosen Hineinfassen ein i-Symbol zu "ziehen"; damit gilt  pi = Mi / M.
Die folgende Tabelle zeigt jetzt die möglichen "sinnvollen" Fragen und die entsprechenden Antworten
Frage Antwort Kommentar
Wie groß ist die Wahrscheinlichkeit Pseq, nacheinander genau die Buchstaben zu ziehen, mit denen man eine bestimmte Sequenz bilden kann, z.B.
TO_BE _OR_NOT_TO_BE
Pseq  = pT · pO · ... · pE  =  i = 27
P
i = 1
(pi)ni
ni = Anzahl des i-ten Symbols in der Sequenz; kann auch = 0 sein.
Wichtig: Für jede andere Sequenz aus diesen Symbolen hat Pseq denselben Wert.
Wieviel (verschiedene = unterscheidbare) Sequenzen Qkom kann man mit der zugehörigen Komposition (= Bruttoformel)
B2E2NO4RT3_5,
die allgemein N Symbole enthält, realisieren
Qkom(ni)  =  (Gesamtzahl Symbole)!
n1! · n2! · ...
 =  S ni!
P ni!
         
Qkom
(B2E2NO4RT3_5)
 =   18!
2! · 2! · 4! · 3! · 5!
 =   0,93 · 1011
Die ni sind sozusagen die Stöchiometriekoeffizienten der Bruttogleichung.
Damit gilt auch
N = S ni.
Summen und Produkte sind natürlich immer von i = 1 bis i = 27 zu nehmen.
Wie groß ist die Wahrscheinlichkeit Pkom für eine bestimmte Komposition?
Pkom  =  Pseq · Qkom   =  

N!
 ·   i = 27
P
i = 1
(pi)ni
i = 27
P
i = 1
 ni!
Es ist z.B. zwar viel wahrscheinlicher die Sequenz EEEEEEEEEE...E zu ziehen als unseren Satz, da E der häufigste Buchstabe ist, aber da man mit E18 nur eine Komposition bilden kann, ist die B2E2N.... Komposition letztlich wahrscheinlicher
Was ist die wahrscheinlichste Komposition mit N Symbolen, die man zufällig ziehen wird?
In anderen Worten:
Was ist die Häufigkeitsverteilung
ni, 0 dieser Kompositions?
ni, 0 =  N · pi =  N · Mi
M 
Einfaches Ergebnis nach involvierter Mathematik.
Die Häufigkeit des Auftretens eines Symbols in der wahrscheinlichsten Komposition entspricht (wie man erwartet hätte), seiner Häufigkeit oder "Dichte"  Mi/M  im Sack .
Wie groß ist die logarithmische Wahrscheinlichkeit
S = ln Pi, 0
für diese wahrscheinlichste Komposition?
S  »  0
Damit Pi, 0 » 1, d.h. wir zögen immer die wahrscheinlichste Komposition.
Das ist aber nur ein » Ergebnis, da zur Berechnung die Stirling Formel verwendet wurde.
Jedenfalls ist die wahrscheinlichste Komposition bei nicht zu kleinen N aber extrem viel wahrscheinlicher als alle anderen.
So weit so gut. Jetzt machen wir unser Buchstabensuppensystem aber etwas komplizierter (oder realistischer).
Wir nehmen als neuen Parameter die Breite bi der Buchstaben hinzu. Der Buchstabe "I" ist z.B. weniger breit als der Buchstabe "W".
Allgemein lassen wir für ein Symbol beliebige Breiten zu, auch für das Leerzeichen "_". Das ist dann etwas abstrakter als in einer realen Buchstabensuppe, in der die Buchstaben zwar verschiedene, aber ähnliche Breiten haben.
Jetzt können wir neue Fragen stellen, insbesondere interessieren wir uns wie gute Buchdrucker, nur noch für Kompositionen, die eine definierte Zeilenlänge haben.
Was man damit machen kann schauen wir uns in der Fortsetzung der Tabelle an. Die Fragen sind noch einfach, aber die Mathematik dazu kann involviert werden. Man braucht z.B. Variationsrechnung und die Methode der Langrangeschen Parameter.
Frage Antwort Kommentar
Wie groß ist die Wahrscheinlichkeit Pseq, eine Komposition aus N Symbolen mit der Breite B = Sni · bi zu ziehen, d.h. was für eine ni-Verteilung erhalte ich jetzt unter dieser Bedingung?
ni  = 
N
  ·  pi · ebbi   =   N
Z
 ·  pi · ebbi
S
i
 pi · ebbi
Es tritt ein neuer Parameter und eine daraus abgeleitete Schlüsselgröße auf:
Der Parameter b und die Zustandssumme Z.
Wir wollen der so definierten Verteilungsfunktion einen Namen geben und nennen sie Boltzmann-Verteilung.
Zunächst ist zu klären: Was ist der Parameter b?
Formal ist es ein Lagrangescher Parameter, der in der mathematischen Ableitung des obigen Ergebnisses erforderlich wurde, weil jede mögliche Variation einer Komposition immer dieselbe Breite B haben muß.
Von der Sache her ist es ein Gewichtungsfaktor. Das sieht man am besten (selber nachdenken!), wenn man obige Gleichung für B umschreibt; wir haben
B  =  N
Z
 ·    
S
i
 pi · bi · ebbi
Im Grunde ist das auch klar: Falls wir schmale Sätze mit N Buchstaben bilden müssen, brauchen wir eher die schmalen Buchstaben um das hinzubekommen, bei langen Sätzen müssen wir bevorzugt die breiten Buchstaben nehmen. Irgendwie muß sich das dann ja durch einen eigenen Parameter niederschlagen.
Dieser neue Parameter b muß aber irgendwie durch die Systemgrößen festgelegt sein, sich also aus den bekannten Eigenschaften des Systems plus den durch die Frage definierten Parametern berechen lassen.
Das ist auch so, aber: Leider kann man keine einfache Formel für den Zusammenhang zwischen den Grundgrößen N, B, pi und b finden. Am einfachsten ist noch
B  =  N · (ln Z)
b
Bleibt noch der Summenterm, den wir Zustandssumme genannt haben, zu besprechen.
Falls wir b kennen, ist diese Zustandssumme eine Zahl, sonst eben eine Funktion von b.
Wer genau hinschaut merkt, dass sie aus dem Term pi · ebbi, der ja sowas wie eine modifizierte (und damit nicht mehr absolute) Wahrscheinlichkeit pi* ist, wieder eine absolute Wahrscheinlichkeit macht.
Denn wenn man über alle relativen Wahrscheinlichkeiten pi* summiert, kommt nicht mehr 1 heraus. Damit aus den pi* absolute Wahrscheinlichkeiten werden, muß man dann durch die Summe über alle pi* = Zustandssumme dividieren.
Aber die Zustandssumme ist viel mehr als ein Normierungsfaktor. Die Zustandsumme eines thermodynamischen Systems (wir werden gleich sehen wie das mit den Buchstaben zusammenhängt) ist der Schlüssel zur Thermodynamik wie wir sie kennen. Denn:

Die Zustandssumme eines Systems enthält alle Informationen
über das betrachtete System!


Wir nehmen das erstmal nur so zur Kenntnis und gehen zunächst noch einen Schritt weiter mit dem Buchstabensalat.
Wir produzieren jetzt (statistisch) beliebige Sequenzen und kleben dann die Buchstaben zusammen - wir haben dann eine Zeile mit irgendeiner Komposition und Breite gemacht.
Viele von diesen Zeilen werfen wir einen neuen Sack und beginnen das Spiel von vorne.
Statt einzelner Buchstaben oder Symbole ziehen wir jezt (statistisch) ganze Zeilen.
Aus den gezogenen Zeilen machen wir (statistisch) viele Bücher.
Aus all den vielen Büchern wollen wir aber nur bestimmte Bücher betrachten, die wir "kanonische" Bücher nennen:
  • Kanonische Bücher haben eine feste Anzahl Nk von Zeilen.
  • In kanonischen Büchern ist die Summe der Zeilenbreiten immer Bk
Ein kanonisches Buch enthält dann nz1 Zeilen der Breite B1, nz2 Zeilen der Breite B2, usw; und SBi = Bk.
Die Wahrscheinlichkeit im Sack eine Zeile der Breite Bi zu finden sei Pi.
Jetzt kommt die wesentliche Frage:
Frage Antwort Kommentar
Was ist die Häufigkeitsverteilung oder Verteilungsfunktion der
nzi in einem kanonischem Buch?
nzi  =  N
Z
  ·  Pi · eb'Bi

Z  =  i
S
i
 Pi · eb'Bi   = kanonische
Zustandssumme
Das ist daselbe Ergebnis für die Zeilensymbolik, das wir schon für die Buchstaben hatten.
Nur dass wir vorsichtshalber b' statt b schreiben.
Formal ist das wieder die Boltzmann-Verteilung.
Man könnte noch sehr viel mehr machen, aber wir jetzt hören auf zu buchstabieren (im Gerthsen gibt es noch viel mehr), und erinnern uns nochmals an den Zweck der Übung:
Es ging nur darum, wie man ein eingängiges und sinnvolles System definieren kann, und was man damit für Statistik treiben kann.
Zumindest die Fragen waren nicht allzu schwer. Aber was hat das Ganze mit statistischer Thermodyamik zu tun?
Nun ja: Wir haben einen großen Teil der statistischen Mechanik mit diesem Spielchen bereits abgehandelt. Wir müssen nur für die verwendeten Größen andere Namen wählen.
Hier ist eine Konversionstabelle
Buchstabenwelt Thermodynamik
Buchstabe Teilchen
Breite des Buchstabens Teilchenenergie; Teilchen auf einem bestimmten E-Niveau
Logarithmische Wahrscheinlichkeit für wahrscheinlichste Kombination Entropie
Zeile (Sequenz) System
Zeilenbreite Gesamtenergie des Systems
kanonisches Buch Ensemble (Viele Systeme im thermischen Kontakt); siehe unten.
Parameter b –1/kT
Zustandssumme Zustandssumme
Alles klar? Natürlich nicht!
Wie man auf diese Tabelle kommt, warum b sowas wie die reziproke absolute Temperatur ist, was ein Ensemble ist, und so weiter und so fort - das kann nicht auf Anhieb klar sein.
Nicht umsonst braucht man eine ganze Vorlesung für eine erste komplette Abhandlung des Themas.
Aber zwei Punkte kann man doch mal mitnehmen.
1. Die Art des statistischen Ansatzes und der Fragestellungen.
2. Die Erkenntnis, dass dabei "zwanglos" durch die Art der Fragestellung einige neue. sehr allgemeine, und sehr wirkungsmächtige Begriffe auftreten (z.B. Zustandssumme, Verteilungsfunktion, reziproke Temperature), die, wenn man erst einmal "durch" ist, dann als die Hauptwerkzeuge des Theoriegebäudes dienen.
Im Folgenden werden einige Begriffe noch etwas vertieft
 

Gesamtheiten oder Ensembles

Normalerweise betrachten wir ein System von Teilchen, wie oben definiert.
Wir wollen dann u.a. wissen, wie sich das System entwickelt, d.h. was im Laufe der Zeit passiert. In einem nicht ganz trivialen System ändert sich z.B. Druck, Volumen, Energie oder Teilchenzahlen im Laufe der Zeit. Uns interessiert dann der zeitliche Mittelwert und seine Entwicklung.
Zeitmittel zu berechnen kann aber oft mühsam werden, da die Änderungen des Systems in der Zeit kompliziert sein können.
In der Regel tut man sich leichter mit Scharmitteln. In anderen Worten: Es ist z.B. beim Würfelspiel leichter den Mittelwert der gewürfelten Zahlen zu berechnen oder zu messen, wenn man nicht mit einem Würfel 1000 mal würfelt, sondern einem Ensemble von z.B. 1000 Würfeln nur einmal. Das ist in einem extra Modul bereits dargestellt.
In noch anderen Worten: Es ist leichter, Mittelwerte aus einem kanonischen "Buch" (= Ensemble) zu berechen, als aus nacheinander erstellten Zeilen (= System).
Das ist der Inhalt der Ergodenhypothese; wir haben damit schon ein zentrales (und nicht ganz problemloses) Lemma der statistischen Thermodynamik.
Wozu brauchen wir die Ergodenhypothese? Weil sie erlaubt Mittelwerte immer als Scharmittel zu berechnen - vorausgesetzt wir verwenden einen sehr wichtigen "Trick" bei der Sache.
Wir betrachten eben nicht nur ein System (dem wir dann in seiner zeitlichen Entwicklung folgen müßen) sondern viele (bis zu ¥ viele) fiktive weitere Systeme, die sinnvoll gekoppelt sind, und die alle hinsichtlich der gesuchten statistischen Größen unser eigentliches System auch repräsentieren könnten.
Die Menge all dieser System nennen wir dann ein Ensemble oder eine Gesamtheit. Um statistische Größen wie z.B. Mittelwerte zu berechnen, nehmen wir jetzt das Scharmittel des Ensembles.
Soweit ist das alles ist noch beliebig allgemein. Wie immer, tut man sich aber leichter, wenn man Einschränkungen oder Fallunterscheidungen macht. Drei wichtige Fallunterscheidungen sind:
1. Unser System ist abgeschlossen (es sitzt in einem für alles undurchdringlichen "Kasten" mit gegebenen Volumen). Es kann also weder Energie, Entropie oder Teilchen aus der Umgebung beziehen. Dann muss sein Energie automatisch konstant sein, denn es gilt der Energieerhaltungssatz. Thermodyamisches Gleichgewicht liegt dann bei maximaler Entropie vor.
Das zugehörige Ensemble besteht also aus vielen Systemen, die alle die gleiche Zusammensetzung (= gleiche Teilchenzahlen und -sorten), gleiches Volumen und gleiche Temperatur, und darüberhinaus auch noch dieselbe Energie haben solle.
Das geht nur bei voneinander völlig isolierten Systemen. Wir nennen derart charakterisierte Ensemble die Mikrokanonische Gesamtheit.
In mikrokanonischen Büchern müßten dann auch alle Zeilen gleichlang sein.
2. Wir betrachten jetzt ein System, bei dem nur Zusammensetzung, Volumen und Temperatur gegeben ist. Um ein Ensemble zu erhalten, stellen wir uns so ein System jetzt wieder mehrfach vor.
Da wir nicht nicht wissen, wie groß die Energie eines solchen Systems ist, lassen wir verschiedene Energien zu
Das primäre Kennzeichen ist dann, dass alle Systeme des Ensembles dieselbe Temperatur haben werden. Das können wir erreichem indem wir die Systeme thermisch koppeln.
Ein derartiges Ensemble nennt man eine Kanonische Gesamtheit. Das ist der wichtigste Fall; er entspricht dem Buchstabenbeispiel mit dem kanonischen Buch.
3. Wenn wir zwar noch gleiche Temperatur und gleiches Volumen fordern, aber Teilchenaustausch zulassen, haben wir die Großkanonische Gesamtheit.
Das war's dann auch schon. Mehr Fälle müssen nicht betrachtet werden.
Für jede der frei Gesamtheiten gibt es eine eigene Formel für die Zustandssumme; und damit ist das Thema dann "eigentlich" erledigt, denn die Zustandssumme enthält alles Wissenswerte, wie oben und weiter unten ausgeführt
Woher kommen die etwas hochtrabenden Namen?
"Kanonisch" heißt zunächst mal schlicht "richtunggebend" (aha, doch mit der Kanone verwandt). Es ist stark theologisch belegt; "kanonische" Schriften gehören zum "Kanon"; sie sind den kirchlichen Rechtsbestimmungen gemäß.
Schriften, die nicht zum Kanon gehörten wurden verbrannt, vorzugsweise zusammen mit ihren Autoren oder Advokaten.
Man redet aber gelegentlich auch anderweitig in der Physik von "kanonischen Gleichungen" im Sinne von Grundgleichungen.
 

Zustandssummen

Oben steht schon das Wesentliche:
Für jedes Ensemble (und damit auch System) gibt es eine wohldefinierte Zustandssumme, und diese Zustandssumme enthält alle Informationen über das betrachtete System!
Die Zustandsssumme ist in der statistischen Thermodynamik sowas wie die Wellenfunktion in der Quantenmechanik, und diese Analogie kann auch auf der formalen Ebene ganz gut begründet werden. Alles was man über das System wissen will (und kann), z.B. innerer Energie, Entropie, freie Enthalpie, usw, läßt sich aus der Zustandssumme extrahieren. Hier ein paar Formeln dazu:
Innere Energie U    =   kT · æ
ç
è
(ln Z)
(ln T)
ö
÷
ø
V
             
Entropie S   =   k · ln Z  +  k · æ
ç
è
(ln Z)
(lnT)
ö
÷
ø
V
             
Druck p   =   kT · æ
ç
è
(ln Z)
V
ö
÷
ø
T
             
Freie Enthalpie G   =  – kT · ln Z  –   æ
ç
è
(ln Z)
(ln V)
ö
÷
ø
T
Aber was ist denn die Zustandssumme selbst? Hier eine (etwas vereinfachte Interpretation)
Summiert wird über alle verfügbare Energieniveaus des Systems (Wir nehmen hier schon mal ein bißchen Quantentheorie mit hinein, und wissen damit, dass i.a. die Energie in diskreten Niveaus auftritt). Wir haben damit eigentlich eine "Energiesumme".
Da aber jeder erlaubte Zustand eine wohldefinierte Energie hat, summieren wir eben auch über alle erlaubten Zustände (falls Entartung auftreten kann, ist das leicht einzubeziehen).
Der von der Temperatur abhängige Zahlenwert der Zustandssumme für ein bestimmtes System gibt nun an (qualititiv betrachtet und ungefähr), wieviel Zustände dem System thermisch "zugänglich" sind, also bei der gegebenen Temperatur besetzt werden können (und damit auch besetzt sein werden).
Also eine wunderbare Sache! Wir müssen nur noch Zustandssummen berechnen, alles weitere ergibt sich von selbst?
Nicht ganz: Es gilt der 1. Haupsatz der Betriebswirtschaft; hier in der Version als Satz von der Erhaltung der mathematischen Schwierigkeit: Zustandssummen sind notorisch schwierig zu berechnen!
Wer Lust hat, kann sich das mal am Beispiel der Zustandssumme eines Kristalls anschauen
 

Verteilungsfunktionen

Im Buchstabenspiel kamen schnell Verteilungsfunktionen vor, zum ersten mal bei der Frage nach der wahrscheinlichsten Verteilung.
Dann haben wir die Verteilungsfunktion der ni in einer Zeile sogar Boltzmann-Verteilung genannt.
Warum? Das verstehen wir sofort, wenn wir die Frage jetzt mit Hilfe der Tabelle ins "Thermodynamische" übersetzen. Die Frage lautet dann
Wie groß ist die Wahrscheinlichkeit Psyst , ein System aus N Teilchen mit der Gesamtenergie E zu erhalten, d.h. wie verteilen sich die Teilchen auf die vorhandene Energiezustände?
Das muss natürlich (für klassische Teilchen) genau die uns schon geläufige Boltzmann-Verteilung sein. Allerdings scheinen wir ein Problem zu haben:
Die Boltzmann-Verteilung kommt im Hyperscript häufiger vor, allerdings nie mit einer Zustandssumme behaftet. In Kapitel 6.1.2 (Energiebarrieren und ihre Überwindung) wird eine sehr einfache Formel ohne Zustandssumme eingeführt. Irgendwas scheint nicht so richtig zu passen.
Wo der Haken liegt, ist in einem anderen Modul ausgeführt.
Zum Ergebnis aber nur soviel: Es gibt keinen Haken. Die einfache Formel in Kapitel 6.1.2 ist, wie dort angemerkt, eine (sehr gute) Näherung, und unter den angegebenen Bedingungen voll gültig.
Die Boltzmann-Verteilung gilt aber, wie wie wissen, nur für klassische Teilchen. Reale Teilchen sind aber nicht klassisch.
Wo liegt der Unterschied? In genau zwei Punkten:
  • Reale Teilchen (derselben Sorte) sind entweder Fermionen oder Bosonen; sie sind prinzipiell nicht unterscheidbar (im Gegensatz zu klassischen Teilchen; die immer prinzipiell unterscheidbar sind)
  • Fermionen dürfen nicht denselben Zustand haben (Pauli-Prinzip).
Was würde das im Buchstabenspiel bedeuten? Schauen wir uns die Sequenz TO_BE _OR_NOT_TO_BE nochmal an.
Klassisch können wir sie von allen anderen Sequenzen, die mit der zugehörigen Komposition B2E2NO4RT3_5 erstellt werden können unterscheiden, denn wir können ein "T" von einem "O" usw, unterscheiden.
Deshalb mußten wir für Pkom die Wahrscheinlichkeit, diese Buchstaben zu "ziehen", mit QSeq, der Zahl der möglichen Sequenzen zu dieser Komposition, multiplizieren
Quantenmechanisch müssen wir erstmal zwischen Bosonen und Fermionen unterscheiden. In jedem Fall haben wir Einschränkungen der Auswahlfreiheit
Für Bosonen sind alle Sequenzen zur Komposition B2E2NO4RT3_5 gleich; die Multiplikation mit QSeq fällt weg. Von anderen Sequenzen unterscheidet sich die gewählte nur durch die Länge = Energie.
Für Fermionen sind auch alle Sequenzen zur obigen Komposition gleich, aber da identische Buchstaben Teilchen mit identischer Energie repräsentieren, darf jeder Buchstabe nur einmal vorkommen; die einzige mögliche Komposition wäre also BENORT_. Entsprechend müssen wir dann auch die Formeln ändern.
Statt der Boltzmann-Verteilung erhalten wir dann die Bose-Einstein Verteilung bzw. die Fermi-Dirac Verteilung.
 

Phasenraum

Ein typisches System der Thermodynamik besteht z.B. aus N = 1020 Teilchen. Eine Detailbeschreibung müßte dann mindestens 6N = 6 · 1020 Parameter definieren und verfolgen: Die je drei Komponenten des Orts- und Impulsvektors eines Teilchens, und das dann für alle Teilchen.
Wohl hoffnungslos, oder läßt sich da was machen? Es läßt sich was machen: Wir erfinden den Phasenraum!
Wir definieren einfach ein 6N-dimensionales Koordinatensystem mit je 3N Orts- und Impulsachsen. In diesem hochdimensionalen Phasenraum wird unser System dann durch einen schlichten Punkt vollständig beschrieben.
Das erscheint ein einigermaßen verschwenderischer Umgang mit Dimensionen zu sein, aber die mathematische Physik (ganz zu schweigen von der reinen Mathematik) hat damit kein Problem. Der in der "richtigen" Quantentheorie unverzichtbare Hilbertraum hat sogar ¥ viele Dimensionen und ist trotzdem extrem nützlich.
Unser Systempunkt steht aber nicht still, sondern saust, den Regeln der Mechanik folgend, im Phasenraum herum - die Koordinaten und Impulse der Teilchen ändern sich ja ständig.
Wenn wir ein ganzes Ensemble von Systemen betrachten, haben wir jetzt viele herumsausende Punkte. Jeder Punkt definiert im Laufe der Zeit eine Bahn, oder vornehmer gesagt, eine Trajektorie im Phasenraum.
Der Trick ist jetzt, dass unsere Ensemble-Punktwolke im Phasenraum einigen Gesetzmäßigkeiten unterworfen ist, mit denen man erstaunlich viel anfangen kann. Hier nur die prominentesten Beispiele:
Wenn alle System dieselbe Energie H haben sollen, müssen sie alle immer auf der Hyperfläche H(xi, pi) = const, z.B. der Oberfläche einer N-dim Hyperkugel liegen. Eine Eigenart hochdimensionaler Räume ist nun, dass das Volumen einer Hyperkugel sich praktisch vollständig in einer nahezu beliebig dünnen Schale "unterhalb" der Oberfläche befindet. Damit kann man die Dichte der Systempunkte definieren, und erhält ein fundamentales Theorem:
Liouvillescher Satz: Die Punkte im Phasenraum können sich bewegen wie sie wollen, aber ihre Dichte wird exakt konstant bleiben. Das hat weitreichende Auswirkungen, auf die wir hier aber nicht weiter eingehen wollen.
Die uns schon bekannten Ergodenhypothese lautet im Phasenraum so: Jeder dem System zugängliche Punkt im Phasenraum wird früher oder später auch "besucht" werden.
Das führt dann aber auf ein gewisses Problem: Wenn ein bestimmter jetzt erreichter Punkt schon früher mal vom System belegt war, dann befindet es sich jetzt exakt im gleichen Zustand wie zu einer früheren Zeit. Es hat dann keine Wahl mehr und muss exakt die gleiche Trajektorie wieder und wieder durchlaufen - damit wird es eine periodische Bewegung durchführen. Die Zukunft ist fesrgelegt!
Das ist das (offenbar physikalisch unsinnige) Widerkehr Theorem von Poincaré, dessen (schwierige) Widerlegung schnurstracks zu Begriffen wie "Chaos", Fraktale", etc., führt.
Nimmt man Quantentheorie dazu, stellt man fest, dass das "Elementarvolumen" des Phasenraum mit N Dimensionen gerade h3N ist (h = Plancksches Wirkungsquantum). Damit ist eine Definition der Entropie möglich, bei der der Nullpunkt der Entropieskala nicht mehr willkürlich ist.
Damit aber genug; nur noch ein Hinweis: In der Chaostheorie, oder besser und allgemeiner gesagt, der nichtlinearen Physik, ist der Phasenraum ein zentraler Schlüsselbegriff (allerdings dann meist wieder mit überschaubarer Dimensionenanzahl).
 

Mit Frame Mit Frame as PDF

gehe zu 5.2.1 Der 1. Hauptsatz der Thermodynamik

gehe zu Temperatur und Druck

gehe zu Kurzfassung der Ableitung der Gauss Verteilung

gehe zu Ableitung der Gauss Verteilung

gehe zu Zeitmittel = Scharmittel

gehe zu Eigenschaften des Random Walks in ein- zwei- und drei Dimensionen

gehe zu Combinatorics

gehe zu Entropie und Information

gehe zu Zweiter Haupsatz und Philosophie

gehe zu Herleitung des Gleichverteilungssatzes

gehe zu Stirlingsche Formel

gehe zu Wahrscheinlichster Abstand beim dreidimensionalen "Random Walk"

gehe zu 6.1.2 Energiebarrieren und ihre Ueberwindung

gehe zu 1. Hauptsatz der Betriebswirtschaftslehre

© H. Föll (MaWi 1 Skript)