Copertina
Autore Domenico Costantini
Titolo I fondamenti storico-filosofici delle discipline statistico-probabilistiche
EdizioneBollati Boringhieri, Torino, 2004, , pag.265, cop.fle., dim. 146x220x16 mm , Isbn 978-88-339-1528-9
LettorePiergiorgio Siena, 2005
Classe matematica , storia della scienza , giochi
PrimaPagina


al sito dell'editore


per l'acquisto su IBS.IT

per l'acquisto su BOL.IT

per l'acquisto su AMAZON.IT

 

| << |  <  |  >  | >> |

Indice

  7 Prefazione


    I fondamenti storico-filosofici delle
    discipline statistico-probabilistiche


 13  1. Le origini

 38  2. Il periodo classico

 63  3. Il frequentismo

 91  4. Il logicismo

113  5. Il soggettivismo

139  6. L'assiomatizzazione

160  7. Molecole e indipendenza

189  8. Particelle e dipendenza

219  9. Processi stocastici

245 10. Considerazioni conclusive


267 Riferimenti bibliografici

 

 

| << |  <  |  >  | >> |

Pagina 13

1. Le origini


1. Introduzione

La svolta che generò i movimenti di pensiero che caratterizzano l'epoca moderna si concentra, come disse Ernst Cassirer, attorno al compito di elaborare un nuovo concetto della conoscenza che non doveva essere cercata nella mente umana ma nell'osservazione della natura. Per di più, come rilevò Ludovico Geymonat, tanto per Bacone quanto per Galilei la natura non va soltanto ascoltata bensì interrogata, ma mentre l'interrogazione baconiana mira a individuare la forma dei fenomeni, quella galileana si ripropone di scoprirne le leggi, cioè le relazioni matematiche che legano i fenomeni stessi. Ecco quindi gli esperimenti di Galilei, le sue misurazioni e l'individuazione dei principi della dinamica che fornirono il paradigma a tutta la scienza moderna. Ma mentre nella dinamica le leggi via via individuate o dedotte sono rigorosamente univoche - un fenomeno è seguito da un certo altro fenomeno, sempre lo stesso - nei giochi d'azzardo e nei comportamenti umani o sociali, questo accade raramente.

La probabilità fu la nozione con cui, proprio in concomitanza con la svolta che portò all'epoca moderna, si cercò di scoprire le leggi dei fenomeni caratterizzati da comportamenti variabili. Ciò significa che analizzando questi fenomeni, ad esempio il distribuirsi dei risultati dei giochi d'azzardo o quello delle morti alle varie età, si scoprì che queste distribuzioni presentano andamenti che rivelano certe «regolarità» che, in alcuni casi, potevano essere suscettibili di rappresentazione matematica. La nozione di probabilità che consentiva questa rappresentazione era per tanti versi nuova al punto da indurre qualche studioso, ad esempio Ian Hacking, a sostenere che il significato di questa nozione venne elaborato proprio a cavallo tra Cinque e Seicento, mentre non ne esisteva traccia prima dell'epoca moderna. Quindi, certamente assieme ad altre, la nozione di probabilità è una di quelle che caratterizzano l'epoca moderna. Ciò è tanto più vero se si tien conto che a partire dal periodo testé ricordato, le nozioni statistico-probabilistiche ebbero un ruolo crescente nella conoscenza scientifica, fino a divenire oggi il concetto senza il quale non è possibile alcuna conoscenza del mondo che ci circonda.

Per molti versi, tuttavia, quella di probabilità è una nozione ambigua. Ciò fu evidente fin dal suo apparire, nel senso che questa nozione fu e può essere intesa in modo anche profondamente diverso in accordo con l'uso che se ne fa; d'altronde, la convinzione che dietro il termine «probabilità» si celino e si scontrino almeno due nozioni diverse non è certo nuova. La migliore illustrazione di questa fondamentale diversità di interpretazioni è dovuta a Hacking il quale, un quarto di secolo fa e con validissimi argomenti, sostenne che la dualità della nozione di probabilità appare già chiaramente delineata fin dal suo emergere attorno alla metà del XVII secolo.

Molti autori, a partire da Jacob Bernoulli, hanno implicitamente o esplicitamente sostenuto questa posizione. Tra coloro che implicitamente presero partito per la dualità si possono annoverare Antoine Augustine Cournot, che intese la probabilità sia classicamente sia frequentisticamente (vedremo nel seguito i significati di questi avverbi), e Karl Pearson, che fece uso tanto di probabilità iniziali e finali per stimare valori sconosciuti di grandezze quanto della verosimiglianza per controllare ipotesi statistiche (di nuovo, rimando al seguito per i significati). Tra coloro che invece esplicitamente sostennero avere la probabilità due significati ben distinti, da un lato una relazione fra un'evidenza - vale a dire un insieme di conoscenze relative a dati di fatto di solito, ma non necessariamente, ottenute per via sperimentale - e un'ipotesi il cui valore di verità non è noto, dall'altro una frequenza relativa di accadimenti determinata su un numero sufficientemente elevato dì osservazioni, troviamo Frank Plumpton Ramsey e Rudolf Carnap.

| << |  <  |  >  | >> |

Pagina 72

3. Collettivo e probabilità

Come abbiamo accennato nell'introduzione, contrariamente a quello che avveniva fra i probabilisti, all'inizio del secolo scorso per gli statistici, e per i fisici come vedremo nella seconda parte, il termine «probabilità» era ormai diventato sinonimo di frequenza. A partire da Quételet, passando per von Bortkiewicz e arrivando a Karl Pearson, le discipline statistico-probabilistiche erano state viepiù usate per studiare fenomeni sociali, fisici e biologici, segnatamente nelle ricerche connesse alla teoria dell'evoluzione di Charles Darwin, e in questi contesti le frequenze relative erano ormai divenute il modo di intendere la probabilità. Inoltre era venuto meno quel carattere metafisico che la curva di Gauss aveva avuto con Quételet; la gaussiana era vista come una delle possibili distribuzioni con cui si presentano i fenomeni, anzi ci si era resi conto che si trattava di una distribuzione che, tutto sommato, si presentava abbastanza di rado. Infatti, studiando sistematicamente un notevole numero di distribuzioni empiriche, Pearson notò che esistono pochissime distribuzioni rappresentabili mediante la gaussiana, essendo un lieve grado di asimmetria caratteristico di quasi tutti i gruppi di misurazioni. Ma la ricerca di nuove curve di frequenza - termine che Pearson usa con pochissime eccezioni al posto di curva di probabilità; questa terminologia diverrà usuale fra gli statistici anglosassoni dei primi decenni del Novecento - è dettata dalla preoccupazione di fornire la migliore descrizione dei fenomeni, cioè le probabilità con cui si presentano i diversi valori delle grandezze osservate, siano esse altezze di barometri o misure fenotipiche di granchi oppure durate di matrimoni. Tornerò ancora su Pearson nel corso del capitolo, ma intanto vediamo come questa atmosfera di aperta anche se implicita critica alla definizione classica sia sfociata in una nuova interpretazione del termine «probabilità».

| << |  <  |  >  | >> |

Pagina 167

3. Boltzmann, il caos molecolare e l'entropia

La dimostrazione fornita da Maxwell individua lo stato delle molecole del gas nel caso in cui il gas sia in equilibrio, senza dire nulla circa il modo in cui l'equilibrio viene raggiunto. L'esempio che di solito si fa per dare un'idea intuitiva del modo in cui si perviene all'equilibrio considera un bicchiere d'acqua nel quale si lascia cadere una goccia d'inchiostro. All'inizio il liquido colorato è concentrato nel punto in cui la goccia è caduta, ma a poco a poco il colore si diffonde finché non vi è più alcuna zona del bicchiere in cui il liquido sia più colorato che nelle altre e quindi tutta l'acqua ha assunto un'uniforme colorazione grigia: quando ciò è avvenuto il liquido del bicchiere è in equilibrio. Tornando al gas nel recipiente, Maxwell aveva lasciato aperto il problema di come si raggiunge l'equilibrio nei casi in cui si parta da una condizione lontana dall'equilibrio, quale è quella del momento in cui la goccia d'inchiostro raggiunge l'acqua del bicchiere. A ben vedere, nell'ipotesi del vorticoso moto delle molecole era tutto sommato implicito che gli avvenimenti microscopici che conducono all'equilibrio fossero gli urti fra le molecole, ma mancava di ciò la dimostrazione, come pure del motivo per cui la distribuzione d'equilibrio dovesse essere proprio quella di Maxwell. La risposta fu data da Ludwig Boltzmann mediante la dimostrazione di un teorema che da allora è indicato come il teorema H per ragioni che ora vedremo.

In condizioni normali è mediamente di 10^-5 centimetri il percorso che una molecola compie senza urtare altre molecole, e pertanto si comprende facilmente l'enorme quantità di urti che subiscono le molecole del recipiente e di conseguenza la rapidità con cui cambiano le loro velocità; tuttavia, all'equilibrio, ciò lascia inalterata la distribuzione delle velocità. Avremo modo di vedere un poco più da vicino questa questione, per ora accettiamo che la stabilità permanga in ragione del fatto che i cambiamenti di un dato tipo che ogni urto determina sono compensati da cambiamenti di tipo opposto a loro volta determinati da altre collisioni.

| << |  <  |  >  | >> |

Pagina 187

Con l'esempio della minestra ho cercato di illustrare il nuovo modo di intendere la fisica che è andato sviluppandosi nel secolo scorso. L'aspetto fondamentale dell'esempio è in sostanza il fatto che le conseguenze della collisione fra due molecole sono del tutto imprevedibili e pertanto è altrettanto imprevedibile la descrizione individuale che ne risulterà. Al contrario, l'esorbitante probabilità di un vettore di occupazione ci consente previsioni che, pur non essendo certe in linea di principio, lo sono a tutti gli effetti pratici. Ma si tratta di una certezza profondamente diversa da quella che si può ottenere dalla meccanica classica: la profonda differenza è dovuta all'introduzione delle nozioni statistico-probabilistiche che implicano il passaggio da un modo deterministico a un modo indeterministico di conoscere.

Queste nozioni, necessarie per lo sviluppo della teoria cinetica dei gas e più in generale della meccanica statistica, hanno mutato profondamente le prospettive della fisica contemporanea. Dal determinismo - a tutti noi l'ha insegnato Laplace - segue la possibilità di calcolare in modo esatto i movimenti futuri di tutte le particelle dell'universo. Alla fine dell'Ottocento si era ancora convinti che solo la nostra ignoranza impedisse questa conoscenza: la probabilità era ancora vista come una nozione epistemica. L'uso sempre crescente in fisica delle nozioni statistico-probabilistiche ha gettato ombre sempre più pesanti sulla visione deterministica; le nozioni e le tecniche che a lungo si era creduto potessero valere solo per i fenomeni legati al gioco d'azzardo o comunque dipendenti dal libero arbitrio dell'uomo, erano diventate indispensabili anche nelle scienze della natura. Nel primo capitolo ho detto che le nozioni statistico-probabilistiche sono fra quelle che caratterizzano l'epoca moderna. Ora posso affermare che queste nozioni sono quelle che caratterizzano tutte le ricerche contemporanee, nel senso che, a partire da Maxwell e Boltzmann, senza le nozioni statistico-probabilistiche non è possibile alcuna conoscenza profonda del mondo che ci circonda.

| << |  <  |  >  | >> |

Pagina 204

5. La dipendenza stocastica

Nel primo anno del secolo scorso la dipendenza stocastica faceva il suo ingresso nelle discipline fisiche. Fu un ingresso in sordina, nel senso che si sarebbe dovuto attendere il 1925 per trovare, grazie ad Einstein, l'esplicito riconoscimento che l'ipotesi d'equiprobabilità dei vettori d'occupazione è legata alla dipendenza stocastica. In questi due decenni si potrebbero seguire le tappe di questo riconoscimento - e farlo sarebbe davvero molto interessante; chi fosse interessato a questa questione può vedere il bel libro di Jan von Plato - ma ciò mi porterebbe troppo lontano dalle inferenze statistiche alle quali intendo ora tornare. Gli è che proprio in quel periodo di tempo, a opera di alcuni grandi probabilisti e statistici quali de Finetti e Jeffreys, l'indipendenza stocastica fu nuovamente presa in considerazione anche nella statistica inferenziale. Non sembrano esserci documenti, almeno per quanto ne so, che esplicitamente attestino una qualche connessione fra l'insorgere della dipendenza stocastica in fisica e il rinnovato interesse per la dipendenza in statistica inferenziale. Tuttavia non si deve dimenticare che, da un lato, la storia di quel periodo non è mai stata letta con la mente aperta a porre in evidenza queste connessioni, mentre, dall'altro lato, vi è più di un indizio, segnatamente per quel che riguarda Jeffreys ma anche de Finetti, che le nuove idee della fisica non li lasciarono indifferenti. Non si può comunque dimenticare che mentre Jeffreys era un fisico de Finetti fu uno dei primi autori a studiare i processi stocastici che, come vedremo nel prossimo capitolo, sono di solito, perlomeno lo erano all'inizio del Novecento, la descrizione di processi fisici grandemente influenzati dalla dipendenza stocastica. Ho testé parlato di riscoperta e usato l'avverbio nuovamente per una ragione molto semplice: con i grandi classici, ad esempio con Laplace, la dipendenza stocastica, come preciserò dovuta all'aumento d'informazione, aveva avuto un ruolo preminente, mentre fu solo a cavallo fra l'Ottocento e il Novecento che venne di fatto bandita la statistica inferenziale. A ogni modo si può mostrare una possibile via per riavvicinare la statistica inferenziale alla nuova fisica: lo svolgimento di questo compito comincia ora e lo proseguirò nel prossimo capitolo. Ma per prima cosa è necessario ricordare come le distribuzioni usate nella fisica delle particelle elementari, cioè le statistiche di Maxwell-Boltzmann, Bose-Einstein e Fermi-Dirac, possano essere caratterizzate in termini di schemi di urne.

| << |  <  |