Breve introduzione alla termodinamica statistica

Myttex Forum ha chiuso definitivamente. Non è più possibile inviare messaggi, ma il contenuto è ancora consultabile in questo archivio.

TheChef

2012-02-13 17:54

Questo che vo parlando è argomento di un esame che sto preparando, ho pensato di condividerne con voi alcuni aspetti.

INTRODUZIONE ALLA TERMODINAMICA STATISTICA.

voglio definire qui alcuni concetti che possono tornare utili più avanti nella seguente trattazione.

brevissima teoria delle probabilità.

Definiamo la probabilità che avvenga un evento J come P(J), questo è un numero con le seguenti proprietà:

- è compreso tra zero ed uno: deve succedere qualcosa

- P(0)=0 e P(all)=1: la probabilità che non succeda nulla è nulla, mentre la probabilità che succeda un qualsiasi cosa possibile (all) è completa.

-la probabilità che avvengano due eventi MUTUAMENTE ESCLUSIVI è pari alla somma delle singole probabilità: P(IuJ)=P(I)+P(J).

da quanto affermato risulta chiaro che la somma su tutti i probabili eventi del sistema è unitaria, si dice quindi che la proobabilità è normalizzata: la sommatoria su J di P(J)=1 (devo capire come inserire formule nei forum!!!)

La probabilità di per se è poco utile in Termodinamica Statistica, ma possiamo vederne un'applicazione--> La Funzione di distribuzione delle probabilità: questaa fuznione che si scrive rho(J) è l'insieme di tutte le probabilità dei singoli eventi j-esimi, poichè si tartta di una funzione di distribuzione se la funzione non è fittizzia (ad esempio composta da un solo elemento) allora a questa funzione è associata un'entropia matematica (D) la quale come in termodinamica classica(S) è misura del grado di disordine del sistema considerato.

Vediamo com'è definita l'entropia matematica NOTA BENE mi sono accorto che la formula manca di un segno meno, definiamo quindi -D come:

L'entropia matematica è quindi calcolata sulle varie probabilità dei singoli stati. si può dimostrare che la situazione di maggiore entropia è data dalla distribuzione uniforme di probabilità, ovvero quando tutti gli elementi hanno la stessa probabilità di accadere.

Se il sistema è continuo si può passare dalla sommatoria (per la descrizione di eventi discreti) all'integrale nello spazio.

Nella descrizione del continuo è evidente che l'integrale della funzione di distribuzione di probabilità, nell'intervallo in cui è definita tale distribuzione, è unitario.

Possiamo quindi descrivere l'entropia matematica come: .

I seguenti utenti ringraziano TheChef per questo messaggio: eATRP

TheChef

2012-02-13 18:48

Possiamo calcolare il valore medio di una funzione continua o discreta come:. questo è' l'aspetto forse più importante della teoria delle probabilità in quanto in genere cercheremo di scrivere una forma della funzione di distribuzione di cui possiamo solo calcolarne il valore medio. é davvero molto importante questa definizione, perchè praticamente è una delle poche cose che possiamo calcolare e collegare con i dati sperimentali. Esempio: calcolo del valore medio per una funzione continua. se la funzione è simmetrica il valore medio della funzione coincide con la metà della distanza a-b e talora può coincidere con l'origine, vi viene in mente nulla? :-)


Cominciamo a parlare di termodinamica statistica.

di cosa si tratta? La tremodinamica statistica è un mezzo, è un mezzo per collegare la termodinamica classica alla meccanica quantistica poter collegare proprietà della singola molecola (quantistica) a proprietà massive (termodinamica). Essenzialmente si definisce un sistema sulla base delle sue componenti termodinamiche invarianti, tale sistema definisce una serie di stati costituenti con le medesime caratteristiche tremodinamiche appena definite. questo iniseme prende il nome di Ensamble. Esistono diversi tipi di ensamble, a seconda delle componenti termodinamiche che lo definiscono, noi analizzeremo l'ensamble microcanonico definito da (N,V,E) e l'ensamble canonico definito da (N,V,T).

L'ensamble microcanonico (N,V,E) è un sistema isolato adiabatico ad energia costante. in un tale sistema nascono le tre assunzioni della termodinamica statistica:

-l'energia interna è data dalla sommatoria su tutti le energie degli stati accessibili del sistema moltiplicati per lo loro probabilità.

-l'entropia è definita come S=-Kb OMMATORIA su J di P(J)lnP(J).

- il massimo di entropia, come visto prima, corrisponde alla distribuzione uniforme.

abbiamo parlato di stati accessibili al sistema, in questo abbiamo applicato l'ipotesi ergodica: tutti gli stati del sistema descritto se sono accessibili possono essere occupati.

TheChef

2012-02-13 19:34

Dalla definizione data di entropia possiamo ricavare una famosa equazione.

La situazione di equilibrio (corrispondente al massimo di entropia) è come detto una funzione uniformemente distribuita sugli stati disponibili. Il numero degli stati disponibili viene indicato con W. Risulta immediato che prbabilità di ogni singolo stato su una distribuzione di W stati è P(J)=1/W. sviluppando poi la sommatoria sugli j-esimi stati otteniamo W volte l'argomento della sommatoria

La scritta rossa S=KblnW è la fondamentale equazione di Boltzmann, abbiamo appena collegato l'entropia massima di un sistema definito in (N,V,E) al numero degli stati accessibili. Si possono esprimere quindi tutte le grandezze termodinamiche in funzione di W, tuttavia vale sempre la condizione di normalizzazione sugli stati e tale vincolo rende la maggior parte dei sistemi molto complicati.

Chimico

2012-02-13 22:48

anche io sto preparando questa.... *help* *help*

TheChef

2012-02-14 19:59

Passiamo ora all'ensamble canonico (N,V,T) tale sistema è ad esempio un sistema chiuso a contatto con un bagno termostatico. Per la determinazione di grandezze termodinamiche si può utilizzare il trucchetto del supersistema: si considera un macrosistema che comprende il sistema in esame ed il bagno tremostatico.

consideriamo quanto già visto nell'ensamble microcanonico:

Facciamo qualche considerazione sull'entropia S(J). Vi sono essenzialmente due contributi: uno dato dal sistema termostatato Sj(ts) ed uno dato dal sistema Sj(sis).

Il termine Sj(sis) è calcolato utilizzando la relazione di Boltzmann per il sistema microcanonico S=KblnW e poichè W=1 per il sistema considerato (vi è un solo microstato nelle condizioni N,V,T) risulta che l'entropia Sj(sis)=0 e quindi l'esponenziale (e^Sj(sis)=1) non contribuisce al sistema.

dalla termodinamica classica si ha dU=SdT+pdV-udN/Nav che nelle condizioni delll'ensamble canonico (N,V,T) si riduce a dU=SdT. la soluzione del differenziale porta all'equazione S=U/T + cost.

L'energia interna è definita la differenza tra l'energia totale meno l'energia dello stato j-esimo prendendo come zero l'energia totale del sistema U=-E(J).

Riassumendo P(J)=cost+exp(-E(J)/(KbT))

Dalla condizioni di normalizzazione sulla P(J) risulta immediato che la cost. è la somatroria su tutti i termini j-esimi di exp(-E(J)/(KbT))

Quindi:

quanto scritto prende il nome di Distribuzione di Boltzmann.