Dialogo sull’entropia (#4). Una tazza di tè verde.
di Antonio Sparzani e Dario Voltolini
Oops! Ho cannato l’esempio della fiaccola. Non sto qui a dirti cosa volevo realmente dire. Accetto la tirata d’orecchi con piacere e la prossima volta starò più attento a spiegarmi. Per ora passiamo senz’altro alla cosa sui dadi, che mi è chiara e che è simile a quella che volevo dire io. Per cui riprendiamo dal dado. Ho capito. Ho digerito anche il paesello. La parola chiave, “raggruppare”, è tutta centrata sull’osservatore e non sulla cosa osservata. Siamo noi che raggruppiamo, e siamo sempre noi che leggiamo la realtà una volta raggruppata: tra l’altro, a questo punto è difficile non trovare conferme, non è così?
Adesso mi pare che andiamo bene, è proprio così, la parola chiave raggruppare è tutta centrata sull’osservatore e non sull’oggetto osservato.
Bisogna pensare che, quando il numero di abitanti del paesello aumenta da cento (caso nel quale, come s’è visto qualche puntata fa, per dire in quanti modi si poteva realizzare lo stato con cinquanta abitanti fuori di casa, occorreva un numero con una trentina di cifre) a molti miliardi di miliardi, o comunque a numeri paragonabili al numero di molecole di gas contenute in un qualsiasi normale recipiente macroscopico, il numero di modi in cui si potrebbe realizzare lo stato con una metà circa di abitanti fuori aumenta in un modo spaventoso, tanto che diventa dell’ordine non di 1 con una trentina di zeri, ma di 1 con un numero di zeri dell’ordine di 1 con una trentina di zeri, comunque grande un casino.
In somma di tutto abbiamo questo:
ad ogni stato MACROscopico può essere associato un numero, eventualmente molto grande, che è il numero di stati MICROsc. che corrispondono a quello stato macroscopico, cioè il numero di modi in cui può essere ottenuto, eccetera, come s’è visto. Questo numero, chiamiamolo P , che può essere associato ad ogni stato MACROscopico, è proporzionale alla probabilità di quello stato.
Perché proporzionale? Pensiamo al dado rosso-verde: allo stato verde corrisponde il numero 4 e a quello rosso il numero 2: ovviamente 4 e 2 non sono le probabilità di questi stati, perché la probabilità dev’essere un numero compreso tra 0 e 1, ma per avere le probabilità vere basta dividere 4 e 2 per la somma di 4 e di 2, cioè per 6, ottenendo, come s’era visto 4/6 = 2/3 e 2/6 = 1/3; si noterà che, come deve accadere, la somma di 2/3 e di 1/3 è 1. La somma delle probabilità di tutti gli stati possibili (in questo caso solo due) dev’essere 1.
Però i numeri 4 e 2 da cui siamo partiti sono proporzionali alle probabilità, tant’è che basta dividerli per lo stesso fattore (6) per ottenere le probabilità vere.
Allora noi faremo un abuso di linguaggio e chiameremo quei numeri P le probabilità degli stati, anche se sappiamo che in realtà sono solo proporzionali alle vere probabilità.
Questa cosiddetta probabilità non è ancora l’entropia dello stato, ma molto quasi, perché per arrivarci bisogna solo inserire una funzione matematica che viene introdotta per varie ragioni. La straodiata (dagli studenti cui essa incute spavento e raccapriccio) funzione logaritmo.
Parentesi sul logaritmo: il logaritmo, se guardato freddamente, non fa alcuna paura.
Uno si impressiona se sente la definizione di log. (“il log di un numero z è l’esponente che bisogna dare a 10, o a qualche altro numero scelto convenzionalmente come base, per ottenere z”), definizione giusta ovviamente ma non perspicua e per noi qui comunque poco utile.
Basta invece sapere:
a) il logaritmo di un numero anche molto grande è un numero abbastanza piccolo. Esempio: il log. di un numero di trenta cifre è dell’ordine di 30. Il log di un numero di 1000 cifre è circa 1000, Capito? Rende maneggevoli numeri enormi.
b) Il log di un numero z, pur essendo così significativamente più piccolo di z, tuttavia ha un comportamento simile a z, nel senso che, se z cresce, anche log z cresce e se z diminuisce, anche log z diminuisce; solo che “smorza” molto le salite o le discese di z.
c) il log del prodotto di due numeri è la somma dei loro logaritmi. in formule: Log(x y) = Log x + Log y , magica e notevole proprietà. Esempio: (sempre parlando dei Log con base 10): il Log 100 = 2 , il Log 1000 = 3 ; se facciamo 100 1.000 otteniamo 100.000 e il Log 100.000 è per l’appunto 5 !
E adesso, visto che è venerdì sera, diciamolo: per uno stato macroscopico A di un gas, la sua entropia, tradizionalmente indicata con la lettera S , è definita come k Log P , dove P è quella cosa che già sappiamo, cioè il numero di stati MICROsc. cui lui (lo stato A) corrisponde, dove Log è il logaritmo e dove k è una certa costante, che serve ancora una volta soltanto a rendere i numeri maneggevoli, e che si chiama costante di Boltzmann, grande personaggio. Eccola qui dunque:
S = k Log P
Ovviamente manca ancora capire come si applica a un gas generico la storia del paesino e cioè in che senso per un gas uno stato Macrosc. può corrispondere a molti stati microscopici, ma il più è fatto.
E poi si intuirà che l’entropia rappresenta il disordine, che l’entropia di un sistema cresce, la morte termica dell’universo, che però non è così vicina, e forse neppure vera, eccetera, eccetera, eccetera…….
———-
[4 – continua alla parte 5]
I commenti a questo post sono chiusi
Volevo solo dire che me li stampo e me li leggo con calma.