2012-02-13, 18:54 (Questo messaggio è stato modificato l'ultima volta il: 2012-02-13, 19:16 da TheChef.)
Questo che vo parlando è argomento di un esame che sto preparando, ho pensato di condividerne con voi alcuni aspetti.
INTRODUZIONE ALLA TERMODINAMICA STATISTICA.
voglio definire qui alcuni concetti che possono tornare utili più avanti nella seguente trattazione.
brevissima teoria delle probabilità.
Definiamo la probabilità che avvenga un evento J come P(J), questo è un numero con le seguenti proprietà:
- è compreso tra zero ed uno: deve succedere qualcosa
- P(0)=0 e P(all)=1: la probabilità che non succeda nulla è nulla, mentre la probabilità che succeda un qualsiasi cosa possibile (all) è completa.
-la probabilità che avvengano due eventi MUTUAMENTE ESCLUSIVI è pari alla somma delle singole probabilità: P(IuJ)=P(I)+P(J).
da quanto affermato risulta chiaro che la somma su tutti i probabili eventi del sistema è unitaria, si dice quindi che la proobabilità è normalizzata: la sommatoria su J di P(J)=1 (devo capire come inserire formule nei forum!!!)
La probabilità di per se è poco utile in Termodinamica Statistica, ma possiamo vederne un'applicazione
La Funzione di distribuzione delle probabilità: questaa fuznione che si scrive rho(J) è l'insieme di tutte le probabilità dei singoli eventi j-esimi, poichè si tartta di una funzione di distribuzione se la funzione non è fittizzia (ad esempio composta da un solo elemento) allora a questa funzione è associata un'entropia matematica (D) la quale come in termodinamica classica(S) è misura del grado di disordine del sistema considerato.
Vediamo com'è definita l'entropia matematica NOTA BENE mi sono accorto che la formula manca di un segno meno, definiamo quindi -D come:![[Immagine: entropiamatematica.jpg]](http://img717.imageshack.us/img717/5346/entropiamatematica.jpg)
L'entropia matematica è quindi calcolata sulle varie probabilità dei singoli stati. si può dimostrare che la situazione di maggiore entropia è data dalla distribuzione uniforme di probabilità, ovvero quando tutti gli elementi hanno la stessa probabilità di accadere.
Se il sistema è continuo si può passare dalla sommatoria (per la descrizione di eventi discreti) all'integrale nello spazio.
Nella descrizione del continuo è evidente che l'integrale della funzione di distribuzione di probabilità, nell'intervallo in cui è definita tale distribuzione, è unitario.
Possiamo quindi descrivere l'entropia matematica come:
.
INTRODUZIONE ALLA TERMODINAMICA STATISTICA.
voglio definire qui alcuni concetti che possono tornare utili più avanti nella seguente trattazione.
brevissima teoria delle probabilità.
Definiamo la probabilità che avvenga un evento J come P(J), questo è un numero con le seguenti proprietà:
- è compreso tra zero ed uno: deve succedere qualcosa
- P(0)=0 e P(all)=1: la probabilità che non succeda nulla è nulla, mentre la probabilità che succeda un qualsiasi cosa possibile (all) è completa.
-la probabilità che avvengano due eventi MUTUAMENTE ESCLUSIVI è pari alla somma delle singole probabilità: P(IuJ)=P(I)+P(J).
da quanto affermato risulta chiaro che la somma su tutti i probabili eventi del sistema è unitaria, si dice quindi che la proobabilità è normalizzata: la sommatoria su J di P(J)=1 (devo capire come inserire formule nei forum!!!)
La probabilità di per se è poco utile in Termodinamica Statistica, ma possiamo vederne un'applicazione

Vediamo com'è definita l'entropia matematica NOTA BENE mi sono accorto che la formula manca di un segno meno, definiamo quindi -D come:
![[Immagine: entropiamatematica.jpg]](http://img717.imageshack.us/img717/5346/entropiamatematica.jpg)
L'entropia matematica è quindi calcolata sulle varie probabilità dei singoli stati. si può dimostrare che la situazione di maggiore entropia è data dalla distribuzione uniforme di probabilità, ovvero quando tutti gli elementi hanno la stessa probabilità di accadere.
Se il sistema è continuo si può passare dalla sommatoria (per la descrizione di eventi discreti) all'integrale nello spazio.
Nella descrizione del continuo è evidente che l'integrale della funzione di distribuzione di probabilità, nell'intervallo in cui è definita tale distribuzione, è unitario.
Possiamo quindi descrivere l'entropia matematica come:
![[Immagine: entropiamatematica2.jpg]](http://img831.imageshack.us/img831/6377/entropiamatematica2.jpg)
Chef.